OSDN Git Service

2010-05-31 Richard Guenther <rguenther@suse.de>
[pf3gnuchains/gcc-fork.git] / gcc / tree-ssa-structalias.c
1 /* Tree based points-to analysis
2    Copyright (C) 2005, 2006, 2007, 2008, 2009, 2010
3    Free Software Foundation, Inc.
4    Contributed by Daniel Berlin <dberlin@dberlin.org>
5
6    This file is part of GCC.
7
8    GCC is free software; you can redistribute it and/or modify
9    under the terms of the GNU General Public License as published by
10    the Free Software Foundation; either version 3 of the License, or
11    (at your option) any later version.
12
13    GCC is distributed in the hope that it will be useful,
14    but WITHOUT ANY WARRANTY; without even the implied warranty of
15    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16    GNU General Public License for more details.
17
18    You should have received a copy of the GNU General Public License
19    along with GCC; see the file COPYING3.  If not see
20    <http://www.gnu.org/licenses/>.  */
21
22 #include "config.h"
23 #include "system.h"
24 #include "coretypes.h"
25 #include "tm.h"
26 #include "ggc.h"
27 #include "obstack.h"
28 #include "bitmap.h"
29 #include "flags.h"
30 #include "basic-block.h"
31 #include "output.h"
32 #include "tree.h"
33 #include "tree-flow.h"
34 #include "tree-inline.h"
35 #include "diagnostic.h"
36 #include "toplev.h"
37 #include "gimple.h"
38 #include "hashtab.h"
39 #include "function.h"
40 #include "cgraph.h"
41 #include "tree-pass.h"
42 #include "timevar.h"
43 #include "alloc-pool.h"
44 #include "splay-tree.h"
45 #include "params.h"
46 #include "cgraph.h"
47 #include "alias.h"
48 #include "pointer-set.h"
49
50 /* The idea behind this analyzer is to generate set constraints from the
51    program, then solve the resulting constraints in order to generate the
52    points-to sets.
53
54    Set constraints are a way of modeling program analysis problems that
55    involve sets.  They consist of an inclusion constraint language,
56    describing the variables (each variable is a set) and operations that
57    are involved on the variables, and a set of rules that derive facts
58    from these operations.  To solve a system of set constraints, you derive
59    all possible facts under the rules, which gives you the correct sets
60    as a consequence.
61
62    See  "Efficient Field-sensitive pointer analysis for C" by "David
63    J. Pearce and Paul H. J. Kelly and Chris Hankin, at
64    http://citeseer.ist.psu.edu/pearce04efficient.html
65
66    Also see "Ultra-fast Aliasing Analysis using CLA: A Million Lines
67    of C Code in a Second" by ""Nevin Heintze and Olivier Tardieu" at
68    http://citeseer.ist.psu.edu/heintze01ultrafast.html
69
70    There are three types of real constraint expressions, DEREF,
71    ADDRESSOF, and SCALAR.  Each constraint expression consists
72    of a constraint type, a variable, and an offset.
73
74    SCALAR is a constraint expression type used to represent x, whether
75    it appears on the LHS or the RHS of a statement.
76    DEREF is a constraint expression type used to represent *x, whether
77    it appears on the LHS or the RHS of a statement.
78    ADDRESSOF is a constraint expression used to represent &x, whether
79    it appears on the LHS or the RHS of a statement.
80
81    Each pointer variable in the program is assigned an integer id, and
82    each field of a structure variable is assigned an integer id as well.
83
84    Structure variables are linked to their list of fields through a "next
85    field" in each variable that points to the next field in offset
86    order.
87    Each variable for a structure field has
88
89    1. "size", that tells the size in bits of that field.
90    2. "fullsize, that tells the size in bits of the entire structure.
91    3. "offset", that tells the offset in bits from the beginning of the
92    structure to this field.
93
94    Thus,
95    struct f
96    {
97      int a;
98      int b;
99    } foo;
100    int *bar;
101
102    looks like
103
104    foo.a -> id 1, size 32, offset 0, fullsize 64, next foo.b
105    foo.b -> id 2, size 32, offset 32, fullsize 64, next NULL
106    bar -> id 3, size 32, offset 0, fullsize 32, next NULL
107
108
109   In order to solve the system of set constraints, the following is
110   done:
111
112   1. Each constraint variable x has a solution set associated with it,
113   Sol(x).
114
115   2. Constraints are separated into direct, copy, and complex.
116   Direct constraints are ADDRESSOF constraints that require no extra
117   processing, such as P = &Q
118   Copy constraints are those of the form P = Q.
119   Complex constraints are all the constraints involving dereferences
120   and offsets (including offsetted copies).
121
122   3. All direct constraints of the form P = &Q are processed, such
123   that Q is added to Sol(P)
124
125   4. All complex constraints for a given constraint variable are stored in a
126   linked list attached to that variable's node.
127
128   5. A directed graph is built out of the copy constraints. Each
129   constraint variable is a node in the graph, and an edge from
130   Q to P is added for each copy constraint of the form P = Q
131
132   6. The graph is then walked, and solution sets are
133   propagated along the copy edges, such that an edge from Q to P
134   causes Sol(P) <- Sol(P) union Sol(Q).
135
136   7.  As we visit each node, all complex constraints associated with
137   that node are processed by adding appropriate copy edges to the graph, or the
138   appropriate variables to the solution set.
139
140   8. The process of walking the graph is iterated until no solution
141   sets change.
142
143   Prior to walking the graph in steps 6 and 7, We perform static
144   cycle elimination on the constraint graph, as well
145   as off-line variable substitution.
146
147   TODO: Adding offsets to pointer-to-structures can be handled (IE not punted
148   on and turned into anything), but isn't.  You can just see what offset
149   inside the pointed-to struct it's going to access.
150
151   TODO: Constant bounded arrays can be handled as if they were structs of the
152   same number of elements.
153
154   TODO: Modeling heap and incoming pointers becomes much better if we
155   add fields to them as we discover them, which we could do.
156
157   TODO: We could handle unions, but to be honest, it's probably not
158   worth the pain or slowdown.  */
159
160 /* IPA-PTA optimizations possible.
161
162    When the indirect function called is ANYTHING we can add disambiguation
163    based on the function signatures (or simply the parameter count which
164    is the varinfo size).  We also do not need to consider functions that
165    do not have their address taken.
166
167    The is_global_var bit which marks escape points is overly conservative
168    in IPA mode.  Split it to is_escape_point and is_global_var - only
169    externally visible globals are escape points in IPA mode.  This is
170    also needed to fix the pt_solution_includes_global predicate
171    (and thus ptr_deref_may_alias_global_p).
172
173    The way we introduce DECL_PT_UID to avoid fixing up all points-to
174    sets in the translation unit when we copy a DECL during inlining
175    pessimizes precision.  The advantage is that the DECL_PT_UID keeps
176    compile-time and memory usage overhead low - the points-to sets
177    do not grow or get unshared as they would during a fixup phase.
178    An alternative solution is to delay IPA PTA until after all
179    inlining transformations have been applied.
180
181    The way we propagate clobber/use information isn't optimized.
182    It should use a new complex constraint that properly filters
183    out local variables of the callee (though that would make
184    the sets invalid after inlining).  OTOH we might as well
185    admit defeat to WHOPR and simply do all the clobber/use analysis
186    and propagation after PTA finished but before we threw away
187    points-to information for memory variables.  WHOPR and PTA
188    do not play along well anyway - the whole constraint solving
189    would need to be done in WPA phase and it will be very interesting
190    to apply the results to local SSA names during LTRANS phase.
191
192    We probably should compute a per-function unit-ESCAPE solution
193    propagating it simply like the clobber / uses solutions.  The
194    solution can go alongside the non-IPA espaced solution and be
195    used to query which vars escape the unit through a function.
196
197    We never put function decls in points-to sets so we do not
198    keep the set of called functions for indirect calls.
199
200    And probably more.  */
201
202 static GTY ((if_marked ("tree_map_marked_p"), param_is (struct tree_map)))
203 htab_t heapvar_for_stmt;
204
205 static bool use_field_sensitive = true;
206 static int in_ipa_mode = 0;
207
208 /* Used for predecessor bitmaps. */
209 static bitmap_obstack predbitmap_obstack;
210
211 /* Used for points-to sets.  */
212 static bitmap_obstack pta_obstack;
213
214 /* Used for oldsolution members of variables. */
215 static bitmap_obstack oldpta_obstack;
216
217 /* Used for per-solver-iteration bitmaps.  */
218 static bitmap_obstack iteration_obstack;
219
220 static unsigned int create_variable_info_for (tree, const char *);
221 typedef struct constraint_graph *constraint_graph_t;
222 static void unify_nodes (constraint_graph_t, unsigned int, unsigned int, bool);
223
224 struct constraint;
225 typedef struct constraint *constraint_t;
226
227 DEF_VEC_P(constraint_t);
228 DEF_VEC_ALLOC_P(constraint_t,heap);
229
230 #define EXECUTE_IF_IN_NONNULL_BITMAP(a, b, c, d)        \
231   if (a)                                                \
232     EXECUTE_IF_SET_IN_BITMAP (a, b, c, d)
233
234 static struct constraint_stats
235 {
236   unsigned int total_vars;
237   unsigned int nonpointer_vars;
238   unsigned int unified_vars_static;
239   unsigned int unified_vars_dynamic;
240   unsigned int iterations;
241   unsigned int num_edges;
242   unsigned int num_implicit_edges;
243   unsigned int points_to_sets_created;
244 } stats;
245
246 struct variable_info
247 {
248   /* ID of this variable  */
249   unsigned int id;
250
251   /* True if this is a variable created by the constraint analysis, such as
252      heap variables and constraints we had to break up.  */
253   unsigned int is_artificial_var : 1;
254
255   /* True if this is a special variable whose solution set should not be
256      changed.  */
257   unsigned int is_special_var : 1;
258
259   /* True for variables whose size is not known or variable.  */
260   unsigned int is_unknown_size_var : 1;
261
262   /* True for (sub-)fields that represent a whole variable.  */
263   unsigned int is_full_var : 1;
264
265   /* True if this is a heap variable.  */
266   unsigned int is_heap_var : 1;
267
268   /* True if this is a variable tracking a restrict pointer source.  */
269   unsigned int is_restrict_var : 1;
270
271   /* True if this field may contain pointers.  */
272   unsigned int may_have_pointers : 1;
273
274   /* True if this field has only restrict qualified pointers.  */
275   unsigned int only_restrict_pointers : 1;
276
277   /* True if this represents a global variable.  */
278   unsigned int is_global_var : 1;
279
280   /* True if this represents a IPA function info.  */
281   unsigned int is_fn_info : 1;
282
283   /* A link to the variable for the next field in this structure.  */
284   struct variable_info *next;
285
286   /* Offset of this variable, in bits, from the base variable  */
287   unsigned HOST_WIDE_INT offset;
288
289   /* Size of the variable, in bits.  */
290   unsigned HOST_WIDE_INT size;
291
292   /* Full size of the base variable, in bits.  */
293   unsigned HOST_WIDE_INT fullsize;
294
295   /* Name of this variable */
296   const char *name;
297
298   /* Tree that this variable is associated with.  */
299   tree decl;
300
301   /* Points-to set for this variable.  */
302   bitmap solution;
303
304   /* Old points-to set for this variable.  */
305   bitmap oldsolution;
306 };
307 typedef struct variable_info *varinfo_t;
308
309 static varinfo_t first_vi_for_offset (varinfo_t, unsigned HOST_WIDE_INT);
310 static varinfo_t first_or_preceding_vi_for_offset (varinfo_t,
311                                                    unsigned HOST_WIDE_INT);
312 static varinfo_t lookup_vi_for_tree (tree);
313
314 /* Pool of variable info structures.  */
315 static alloc_pool variable_info_pool;
316
317 DEF_VEC_P(varinfo_t);
318
319 DEF_VEC_ALLOC_P(varinfo_t, heap);
320
321 /* Table of variable info structures for constraint variables.
322    Indexed directly by variable info id.  */
323 static VEC(varinfo_t,heap) *varmap;
324
325 /* Return the varmap element N */
326
327 static inline varinfo_t
328 get_varinfo (unsigned int n)
329 {
330   return VEC_index (varinfo_t, varmap, n);
331 }
332
333 /* Static IDs for the special variables.  */
334 enum { nothing_id = 0, anything_id = 1, readonly_id = 2,
335        escaped_id = 3, nonlocal_id = 4,
336        storedanything_id = 5, integer_id = 6 };
337
338 struct GTY(()) heapvar_map {
339   struct tree_map map;
340   unsigned HOST_WIDE_INT offset;
341 };
342
343 static int
344 heapvar_map_eq (const void *p1, const void *p2)
345 {
346   const struct heapvar_map *h1 = (const struct heapvar_map *)p1;
347   const struct heapvar_map *h2 = (const struct heapvar_map *)p2;
348   return (h1->map.base.from == h2->map.base.from
349           && h1->offset == h2->offset);
350 }
351
352 static unsigned int
353 heapvar_map_hash (struct heapvar_map *h)
354 {
355   return iterative_hash_host_wide_int (h->offset,
356                                        htab_hash_pointer (h->map.base.from));
357 }
358
359 /* Lookup a heap var for FROM, and return it if we find one.  */
360
361 static tree
362 heapvar_lookup (tree from, unsigned HOST_WIDE_INT offset)
363 {
364   struct heapvar_map *h, in;
365   in.map.base.from = from;
366   in.offset = offset;
367   h = (struct heapvar_map *) htab_find_with_hash (heapvar_for_stmt, &in,
368                                                   heapvar_map_hash (&in));
369   if (h)
370     return h->map.to;
371   return NULL_TREE;
372 }
373
374 /* Insert a mapping FROM->TO in the heap var for statement
375    hashtable.  */
376
377 static void
378 heapvar_insert (tree from, unsigned HOST_WIDE_INT offset, tree to)
379 {
380   struct heapvar_map *h;
381   void **loc;
382
383   h = GGC_NEW (struct heapvar_map);
384   h->map.base.from = from;
385   h->offset = offset;
386   h->map.hash = heapvar_map_hash (h);
387   h->map.to = to;
388   loc = htab_find_slot_with_hash (heapvar_for_stmt, h, h->map.hash, INSERT);
389   gcc_assert (*loc == NULL);
390   *(struct heapvar_map **) loc = h;
391 }
392
393 /* Return a new variable info structure consisting for a variable
394    named NAME, and using constraint graph node NODE.  Append it
395    to the vector of variable info structures.  */
396
397 static varinfo_t
398 new_var_info (tree t, const char *name)
399 {
400   unsigned index = VEC_length (varinfo_t, varmap);
401   varinfo_t ret = (varinfo_t) pool_alloc (variable_info_pool);
402
403   ret->id = index;
404   ret->name = name;
405   ret->decl = t;
406   /* Vars without decl are artificial and do not have sub-variables.  */
407   ret->is_artificial_var = (t == NULL_TREE);
408   ret->is_special_var = false;
409   ret->is_unknown_size_var = false;
410   ret->is_full_var = (t == NULL_TREE);
411   ret->is_heap_var = false;
412   ret->is_restrict_var = false;
413   ret->may_have_pointers = true;
414   ret->only_restrict_pointers = false;
415   ret->is_global_var = (t == NULL_TREE);
416   ret->is_fn_info = false;
417   if (t && DECL_P (t))
418     ret->is_global_var = is_global_var (t);
419   ret->solution = BITMAP_ALLOC (&pta_obstack);
420   ret->oldsolution = BITMAP_ALLOC (&oldpta_obstack);
421   ret->next = NULL;
422
423   stats.total_vars++;
424
425   VEC_safe_push (varinfo_t, heap, varmap, ret);
426
427   return ret;
428 }
429
430
431 /* A map mapping call statements to per-stmt variables for uses
432    and clobbers specific to the call.  */
433 struct pointer_map_t *call_stmt_vars;
434
435 /* Lookup or create the variable for the call statement CALL.  */
436
437 static varinfo_t
438 get_call_vi (gimple call)
439 {
440   void **slot_p;
441   varinfo_t vi, vi2;
442
443   slot_p = pointer_map_insert (call_stmt_vars, call);
444   if (*slot_p)
445     return (varinfo_t) *slot_p;
446
447   vi = new_var_info (NULL_TREE, "CALLUSED");
448   vi->offset = 0;
449   vi->size = 1;
450   vi->fullsize = 2;
451   vi->is_full_var = true;
452
453   vi->next = vi2 = new_var_info (NULL_TREE, "CALLCLOBBERED");
454   vi2->offset = 1;
455   vi2->size = 1;
456   vi2->fullsize = 2;
457   vi2->is_full_var = true;
458
459   *slot_p = (void *) vi;
460   return vi;
461 }
462
463 /* Lookup the variable for the call statement CALL representing
464    the uses.  Returns NULL if there is nothing special about this call.  */
465
466 static varinfo_t
467 lookup_call_use_vi (gimple call)
468 {
469   void **slot_p;
470
471   slot_p = pointer_map_contains (call_stmt_vars, call);
472   if (slot_p)
473     return (varinfo_t) *slot_p;
474
475   return NULL;
476 }
477
478 /* Lookup the variable for the call statement CALL representing
479    the clobbers.  Returns NULL if there is nothing special about this call.  */
480
481 static varinfo_t
482 lookup_call_clobber_vi (gimple call)
483 {
484   varinfo_t uses = lookup_call_use_vi (call);
485   if (!uses)
486     return NULL;
487
488   return uses->next;
489 }
490
491 /* Lookup or create the variable for the call statement CALL representing
492    the uses.  */
493
494 static varinfo_t
495 get_call_use_vi (gimple call)
496 {
497   return get_call_vi (call);
498 }
499
500 /* Lookup or create the variable for the call statement CALL representing
501    the clobbers.  */
502
503 static varinfo_t ATTRIBUTE_UNUSED
504 get_call_clobber_vi (gimple call)
505 {
506   return get_call_vi (call)->next;
507 }
508
509
510 typedef enum {SCALAR, DEREF, ADDRESSOF} constraint_expr_type;
511
512 /* An expression that appears in a constraint.  */
513
514 struct constraint_expr
515 {
516   /* Constraint type.  */
517   constraint_expr_type type;
518
519   /* Variable we are referring to in the constraint.  */
520   unsigned int var;
521
522   /* Offset, in bits, of this constraint from the beginning of
523      variables it ends up referring to.
524
525      IOW, in a deref constraint, we would deref, get the result set,
526      then add OFFSET to each member.   */
527   HOST_WIDE_INT offset;
528 };
529
530 /* Use 0x8000... as special unknown offset.  */
531 #define UNKNOWN_OFFSET ((HOST_WIDE_INT)-1 << (HOST_BITS_PER_WIDE_INT-1))
532
533 typedef struct constraint_expr ce_s;
534 DEF_VEC_O(ce_s);
535 DEF_VEC_ALLOC_O(ce_s, heap);
536 static void get_constraint_for_1 (tree, VEC(ce_s, heap) **, bool);
537 static void get_constraint_for (tree, VEC(ce_s, heap) **);
538 static void do_deref (VEC (ce_s, heap) **);
539
540 /* Our set constraints are made up of two constraint expressions, one
541    LHS, and one RHS.
542
543    As described in the introduction, our set constraints each represent an
544    operation between set valued variables.
545 */
546 struct constraint
547 {
548   struct constraint_expr lhs;
549   struct constraint_expr rhs;
550 };
551
552 /* List of constraints that we use to build the constraint graph from.  */
553
554 static VEC(constraint_t,heap) *constraints;
555 static alloc_pool constraint_pool;
556
557 /* The constraint graph is represented as an array of bitmaps
558    containing successor nodes.  */
559
560 struct constraint_graph
561 {
562   /* Size of this graph, which may be different than the number of
563      nodes in the variable map.  */
564   unsigned int size;
565
566   /* Explicit successors of each node. */
567   bitmap *succs;
568
569   /* Implicit predecessors of each node (Used for variable
570      substitution). */
571   bitmap *implicit_preds;
572
573   /* Explicit predecessors of each node (Used for variable substitution).  */
574   bitmap *preds;
575
576   /* Indirect cycle representatives, or -1 if the node has no indirect
577      cycles.  */
578   int *indirect_cycles;
579
580   /* Representative node for a node.  rep[a] == a unless the node has
581      been unified. */
582   unsigned int *rep;
583
584   /* Equivalence class representative for a label.  This is used for
585      variable substitution.  */
586   int *eq_rep;
587
588   /* Pointer equivalence label for a node.  All nodes with the same
589      pointer equivalence label can be unified together at some point
590      (either during constraint optimization or after the constraint
591      graph is built).  */
592   unsigned int *pe;
593
594   /* Pointer equivalence representative for a label.  This is used to
595      handle nodes that are pointer equivalent but not location
596      equivalent.  We can unite these once the addressof constraints
597      are transformed into initial points-to sets.  */
598   int *pe_rep;
599
600   /* Pointer equivalence label for each node, used during variable
601      substitution.  */
602   unsigned int *pointer_label;
603
604   /* Location equivalence label for each node, used during location
605      equivalence finding.  */
606   unsigned int *loc_label;
607
608   /* Pointed-by set for each node, used during location equivalence
609      finding.  This is pointed-by rather than pointed-to, because it
610      is constructed using the predecessor graph.  */
611   bitmap *pointed_by;
612
613   /* Points to sets for pointer equivalence.  This is *not* the actual
614      points-to sets for nodes.  */
615   bitmap *points_to;
616
617   /* Bitmap of nodes where the bit is set if the node is a direct
618      node.  Used for variable substitution.  */
619   sbitmap direct_nodes;
620
621   /* Bitmap of nodes where the bit is set if the node is address
622      taken.  Used for variable substitution.  */
623   bitmap address_taken;
624
625   /* Vector of complex constraints for each graph node.  Complex
626      constraints are those involving dereferences or offsets that are
627      not 0.  */
628   VEC(constraint_t,heap) **complex;
629 };
630
631 static constraint_graph_t graph;
632
633 /* During variable substitution and the offline version of indirect
634    cycle finding, we create nodes to represent dereferences and
635    address taken constraints.  These represent where these start and
636    end.  */
637 #define FIRST_REF_NODE (VEC_length (varinfo_t, varmap))
638 #define LAST_REF_NODE (FIRST_REF_NODE + (FIRST_REF_NODE - 1))
639
640 /* Return the representative node for NODE, if NODE has been unioned
641    with another NODE.
642    This function performs path compression along the way to finding
643    the representative.  */
644
645 static unsigned int
646 find (unsigned int node)
647 {
648   gcc_assert (node < graph->size);
649   if (graph->rep[node] != node)
650     return graph->rep[node] = find (graph->rep[node]);
651   return node;
652 }
653
654 /* Union the TO and FROM nodes to the TO nodes.
655    Note that at some point in the future, we may want to do
656    union-by-rank, in which case we are going to have to return the
657    node we unified to.  */
658
659 static bool
660 unite (unsigned int to, unsigned int from)
661 {
662   gcc_assert (to < graph->size && from < graph->size);
663   if (to != from && graph->rep[from] != to)
664     {
665       graph->rep[from] = to;
666       return true;
667     }
668   return false;
669 }
670
671 /* Create a new constraint consisting of LHS and RHS expressions.  */
672
673 static constraint_t
674 new_constraint (const struct constraint_expr lhs,
675                 const struct constraint_expr rhs)
676 {
677   constraint_t ret = (constraint_t) pool_alloc (constraint_pool);
678   ret->lhs = lhs;
679   ret->rhs = rhs;
680   return ret;
681 }
682
683 /* Print out constraint C to FILE.  */
684
685 static void
686 dump_constraint (FILE *file, constraint_t c)
687 {
688   if (c->lhs.type == ADDRESSOF)
689     fprintf (file, "&");
690   else if (c->lhs.type == DEREF)
691     fprintf (file, "*");
692   fprintf (file, "%s", get_varinfo (c->lhs.var)->name);
693   if (c->lhs.offset == UNKNOWN_OFFSET)
694     fprintf (file, " + UNKNOWN");
695   else if (c->lhs.offset != 0)
696     fprintf (file, " + " HOST_WIDE_INT_PRINT_DEC, c->lhs.offset);
697   fprintf (file, " = ");
698   if (c->rhs.type == ADDRESSOF)
699     fprintf (file, "&");
700   else if (c->rhs.type == DEREF)
701     fprintf (file, "*");
702   fprintf (file, "%s", get_varinfo (c->rhs.var)->name);
703   if (c->rhs.offset == UNKNOWN_OFFSET)
704     fprintf (file, " + UNKNOWN");
705   else if (c->rhs.offset != 0)
706     fprintf (file, " + " HOST_WIDE_INT_PRINT_DEC, c->rhs.offset);
707   fprintf (file, "\n");
708 }
709
710
711 void debug_constraint (constraint_t);
712 void debug_constraints (void);
713 void debug_constraint_graph (void);
714 void debug_solution_for_var (unsigned int);
715 void debug_sa_points_to_info (void);
716
717 /* Print out constraint C to stderr.  */
718
719 DEBUG_FUNCTION void
720 debug_constraint (constraint_t c)
721 {
722   dump_constraint (stderr, c);
723 }
724
725 /* Print out all constraints to FILE */
726
727 static void
728 dump_constraints (FILE *file, int from)
729 {
730   int i;
731   constraint_t c;
732   for (i = from; VEC_iterate (constraint_t, constraints, i, c); i++)
733     dump_constraint (file, c);
734 }
735
736 /* Print out all constraints to stderr.  */
737
738 DEBUG_FUNCTION void
739 debug_constraints (void)
740 {
741   dump_constraints (stderr, 0);
742 }
743
744 /* Print out to FILE the edge in the constraint graph that is created by
745    constraint c. The edge may have a label, depending on the type of
746    constraint that it represents. If complex1, e.g: a = *b, then the label
747    is "=*", if complex2, e.g: *a = b, then the label is "*=", if
748    complex with an offset, e.g: a = b + 8, then the label is "+".
749    Otherwise the edge has no label.  */
750
751 static void
752 dump_constraint_edge (FILE *file, constraint_t c)
753 {
754   if (c->rhs.type != ADDRESSOF)
755     {
756       const char *src = get_varinfo (c->rhs.var)->name;
757       const char *dst = get_varinfo (c->lhs.var)->name;
758       fprintf (file, "  \"%s\" -> \"%s\" ", src, dst);
759       /* Due to preprocessing of constraints, instructions like *a = *b are
760          illegal; thus, we do not have to handle such cases.  */
761       if (c->lhs.type == DEREF)
762         fprintf (file, " [ label=\"*=\" ] ;\n");
763       else if (c->rhs.type == DEREF)
764         fprintf (file, " [ label=\"=*\" ] ;\n");
765       else
766         {
767           /* We must check the case where the constraint is an offset.
768              In this case, it is treated as a complex constraint.  */
769           if (c->rhs.offset != c->lhs.offset)
770             fprintf (file, " [ label=\"+\" ] ;\n");
771           else
772             fprintf (file, " ;\n");
773         }
774     }
775 }
776
777 /* Print the constraint graph in dot format.  */
778
779 static void
780 dump_constraint_graph (FILE *file)
781 {
782   unsigned int i=0, size;
783   constraint_t c;
784
785   /* Only print the graph if it has already been initialized:  */
786   if (!graph)
787     return;
788
789   /* Print the constraints used to produce the constraint graph. The
790      constraints will be printed as comments in the dot file:  */
791   fprintf (file, "\n\n/* Constraints used in the constraint graph:\n");
792   dump_constraints (file, 0);
793   fprintf (file, "*/\n");
794
795   /* Prints the header of the dot file:  */
796   fprintf (file, "\n\n// The constraint graph in dot format:\n");
797   fprintf (file, "strict digraph {\n");
798   fprintf (file, "  node [\n    shape = box\n  ]\n");
799   fprintf (file, "  edge [\n    fontsize = \"12\"\n  ]\n");
800   fprintf (file, "\n  // List of nodes in the constraint graph:\n");
801
802   /* The next lines print the nodes in the graph. In order to get the
803      number of nodes in the graph, we must choose the minimum between the
804      vector VEC (varinfo_t, varmap) and graph->size. If the graph has not
805      yet been initialized, then graph->size == 0, otherwise we must only
806      read nodes that have an entry in VEC (varinfo_t, varmap).  */
807   size = VEC_length (varinfo_t, varmap);
808   size = size < graph->size ? size : graph->size;
809   for (i = 0; i < size; i++)
810     {
811       const char *name = get_varinfo (graph->rep[i])->name;
812       fprintf (file, "  \"%s\" ;\n", name);
813     }
814
815   /* Go over the list of constraints printing the edges in the constraint
816      graph.  */
817   fprintf (file, "\n  // The constraint edges:\n");
818   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
819     if (c)
820       dump_constraint_edge (file, c);
821
822   /* Prints the tail of the dot file. By now, only the closing bracket.  */
823   fprintf (file, "}\n\n\n");
824 }
825
826 /* Print out the constraint graph to stderr.  */
827
828 DEBUG_FUNCTION void
829 debug_constraint_graph (void)
830 {
831   dump_constraint_graph (stderr);
832 }
833
834 /* SOLVER FUNCTIONS
835
836    The solver is a simple worklist solver, that works on the following
837    algorithm:
838
839    sbitmap changed_nodes = all zeroes;
840    changed_count = 0;
841    For each node that is not already collapsed:
842        changed_count++;
843        set bit in changed nodes
844
845    while (changed_count > 0)
846    {
847      compute topological ordering for constraint graph
848
849      find and collapse cycles in the constraint graph (updating
850      changed if necessary)
851
852      for each node (n) in the graph in topological order:
853        changed_count--;
854
855        Process each complex constraint associated with the node,
856        updating changed if necessary.
857
858        For each outgoing edge from n, propagate the solution from n to
859        the destination of the edge, updating changed as necessary.
860
861    }  */
862
863 /* Return true if two constraint expressions A and B are equal.  */
864
865 static bool
866 constraint_expr_equal (struct constraint_expr a, struct constraint_expr b)
867 {
868   return a.type == b.type && a.var == b.var && a.offset == b.offset;
869 }
870
871 /* Return true if constraint expression A is less than constraint expression
872    B.  This is just arbitrary, but consistent, in order to give them an
873    ordering.  */
874
875 static bool
876 constraint_expr_less (struct constraint_expr a, struct constraint_expr b)
877 {
878   if (a.type == b.type)
879     {
880       if (a.var == b.var)
881         return a.offset < b.offset;
882       else
883         return a.var < b.var;
884     }
885   else
886     return a.type < b.type;
887 }
888
889 /* Return true if constraint A is less than constraint B.  This is just
890    arbitrary, but consistent, in order to give them an ordering.  */
891
892 static bool
893 constraint_less (const constraint_t a, const constraint_t b)
894 {
895   if (constraint_expr_less (a->lhs, b->lhs))
896     return true;
897   else if (constraint_expr_less (b->lhs, a->lhs))
898     return false;
899   else
900     return constraint_expr_less (a->rhs, b->rhs);
901 }
902
903 /* Return true if two constraints A and B are equal.  */
904
905 static bool
906 constraint_equal (struct constraint a, struct constraint b)
907 {
908   return constraint_expr_equal (a.lhs, b.lhs)
909     && constraint_expr_equal (a.rhs, b.rhs);
910 }
911
912
913 /* Find a constraint LOOKFOR in the sorted constraint vector VEC */
914
915 static constraint_t
916 constraint_vec_find (VEC(constraint_t,heap) *vec,
917                      struct constraint lookfor)
918 {
919   unsigned int place;
920   constraint_t found;
921
922   if (vec == NULL)
923     return NULL;
924
925   place = VEC_lower_bound (constraint_t, vec, &lookfor, constraint_less);
926   if (place >= VEC_length (constraint_t, vec))
927     return NULL;
928   found = VEC_index (constraint_t, vec, place);
929   if (!constraint_equal (*found, lookfor))
930     return NULL;
931   return found;
932 }
933
934 /* Union two constraint vectors, TO and FROM.  Put the result in TO.  */
935
936 static void
937 constraint_set_union (VEC(constraint_t,heap) **to,
938                       VEC(constraint_t,heap) **from)
939 {
940   int i;
941   constraint_t c;
942
943   for (i = 0; VEC_iterate (constraint_t, *from, i, c); i++)
944     {
945       if (constraint_vec_find (*to, *c) == NULL)
946         {
947           unsigned int place = VEC_lower_bound (constraint_t, *to, c,
948                                                 constraint_less);
949           VEC_safe_insert (constraint_t, heap, *to, place, c);
950         }
951     }
952 }
953
954 /* Expands the solution in SET to all sub-fields of variables included.
955    Union the expanded result into RESULT.  */
956
957 static void
958 solution_set_expand (bitmap result, bitmap set)
959 {
960   bitmap_iterator bi;
961   bitmap vars = NULL;
962   unsigned j;
963
964   /* In a first pass record all variables we need to add all
965      sub-fields off.  This avoids quadratic behavior.  */
966   EXECUTE_IF_SET_IN_BITMAP (set, 0, j, bi)
967     {
968       varinfo_t v = get_varinfo (j);
969       if (v->is_artificial_var
970           || v->is_full_var)
971         continue;
972       v = lookup_vi_for_tree (v->decl);
973       if (vars == NULL)
974         vars = BITMAP_ALLOC (NULL);
975       bitmap_set_bit (vars, v->id);
976     }
977
978   /* In the second pass now do the addition to the solution and
979      to speed up solving add it to the delta as well.  */
980   if (vars != NULL)
981     {
982       EXECUTE_IF_SET_IN_BITMAP (vars, 0, j, bi)
983         {
984           varinfo_t v = get_varinfo (j);
985           for (; v != NULL; v = v->next)
986             bitmap_set_bit (result, v->id);
987         }
988       BITMAP_FREE (vars);
989     }
990 }
991
992 /* Take a solution set SET, add OFFSET to each member of the set, and
993    overwrite SET with the result when done.  */
994
995 static void
996 solution_set_add (bitmap set, HOST_WIDE_INT offset)
997 {
998   bitmap result = BITMAP_ALLOC (&iteration_obstack);
999   unsigned int i;
1000   bitmap_iterator bi;
1001
1002   /* If the offset is unknown we have to expand the solution to
1003      all subfields.  */
1004   if (offset == UNKNOWN_OFFSET)
1005     {
1006       solution_set_expand (set, set);
1007       return;
1008     }
1009
1010   EXECUTE_IF_SET_IN_BITMAP (set, 0, i, bi)
1011     {
1012       varinfo_t vi = get_varinfo (i);
1013
1014       /* If this is a variable with just one field just set its bit
1015          in the result.  */
1016       if (vi->is_artificial_var
1017           || vi->is_unknown_size_var
1018           || vi->is_full_var)
1019         bitmap_set_bit (result, i);
1020       else
1021         {
1022           unsigned HOST_WIDE_INT fieldoffset = vi->offset + offset;
1023
1024           /* If the offset makes the pointer point to before the
1025              variable use offset zero for the field lookup.  */
1026           if (offset < 0
1027               && fieldoffset > vi->offset)
1028             fieldoffset = 0;
1029
1030           if (offset != 0)
1031             vi = first_or_preceding_vi_for_offset (vi, fieldoffset);
1032
1033           bitmap_set_bit (result, vi->id);
1034           /* If the result is not exactly at fieldoffset include the next
1035              field as well.  See get_constraint_for_ptr_offset for more
1036              rationale.  */
1037           if (vi->offset != fieldoffset
1038               && vi->next != NULL)
1039             bitmap_set_bit (result, vi->next->id);
1040         }
1041     }
1042
1043   bitmap_copy (set, result);
1044   BITMAP_FREE (result);
1045 }
1046
1047 /* Union solution sets TO and FROM, and add INC to each member of FROM in the
1048    process.  */
1049
1050 static bool
1051 set_union_with_increment  (bitmap to, bitmap from, HOST_WIDE_INT inc)
1052 {
1053   if (inc == 0)
1054     return bitmap_ior_into (to, from);
1055   else
1056     {
1057       bitmap tmp;
1058       bool res;
1059
1060       tmp = BITMAP_ALLOC (&iteration_obstack);
1061       bitmap_copy (tmp, from);
1062       solution_set_add (tmp, inc);
1063       res = bitmap_ior_into (to, tmp);
1064       BITMAP_FREE (tmp);
1065       return res;
1066     }
1067 }
1068
1069 /* Insert constraint C into the list of complex constraints for graph
1070    node VAR.  */
1071
1072 static void
1073 insert_into_complex (constraint_graph_t graph,
1074                      unsigned int var, constraint_t c)
1075 {
1076   VEC (constraint_t, heap) *complex = graph->complex[var];
1077   unsigned int place = VEC_lower_bound (constraint_t, complex, c,
1078                                         constraint_less);
1079
1080   /* Only insert constraints that do not already exist.  */
1081   if (place >= VEC_length (constraint_t, complex)
1082       || !constraint_equal (*c, *VEC_index (constraint_t, complex, place)))
1083     VEC_safe_insert (constraint_t, heap, graph->complex[var], place, c);
1084 }
1085
1086
1087 /* Condense two variable nodes into a single variable node, by moving
1088    all associated info from SRC to TO.  */
1089
1090 static void
1091 merge_node_constraints (constraint_graph_t graph, unsigned int to,
1092                         unsigned int from)
1093 {
1094   unsigned int i;
1095   constraint_t c;
1096
1097   gcc_assert (find (from) == to);
1098
1099   /* Move all complex constraints from src node into to node  */
1100   for (i = 0; VEC_iterate (constraint_t, graph->complex[from], i, c); i++)
1101     {
1102       /* In complex constraints for node src, we may have either
1103          a = *src, and *src = a, or an offseted constraint which are
1104          always added to the rhs node's constraints.  */
1105
1106       if (c->rhs.type == DEREF)
1107         c->rhs.var = to;
1108       else if (c->lhs.type == DEREF)
1109         c->lhs.var = to;
1110       else
1111         c->rhs.var = to;
1112     }
1113   constraint_set_union (&graph->complex[to], &graph->complex[from]);
1114   VEC_free (constraint_t, heap, graph->complex[from]);
1115   graph->complex[from] = NULL;
1116 }
1117
1118
1119 /* Remove edges involving NODE from GRAPH.  */
1120
1121 static void
1122 clear_edges_for_node (constraint_graph_t graph, unsigned int node)
1123 {
1124   if (graph->succs[node])
1125     BITMAP_FREE (graph->succs[node]);
1126 }
1127
1128 /* Merge GRAPH nodes FROM and TO into node TO.  */
1129
1130 static void
1131 merge_graph_nodes (constraint_graph_t graph, unsigned int to,
1132                    unsigned int from)
1133 {
1134   if (graph->indirect_cycles[from] != -1)
1135     {
1136       /* If we have indirect cycles with the from node, and we have
1137          none on the to node, the to node has indirect cycles from the
1138          from node now that they are unified.
1139          If indirect cycles exist on both, unify the nodes that they
1140          are in a cycle with, since we know they are in a cycle with
1141          each other.  */
1142       if (graph->indirect_cycles[to] == -1)
1143         graph->indirect_cycles[to] = graph->indirect_cycles[from];
1144     }
1145
1146   /* Merge all the successor edges.  */
1147   if (graph->succs[from])
1148     {
1149       if (!graph->succs[to])
1150         graph->succs[to] = BITMAP_ALLOC (&pta_obstack);
1151       bitmap_ior_into (graph->succs[to],
1152                        graph->succs[from]);
1153     }
1154
1155   clear_edges_for_node (graph, from);
1156 }
1157
1158
1159 /* Add an indirect graph edge to GRAPH, going from TO to FROM if
1160    it doesn't exist in the graph already.  */
1161
1162 static void
1163 add_implicit_graph_edge (constraint_graph_t graph, unsigned int to,
1164                          unsigned int from)
1165 {
1166   if (to == from)
1167     return;
1168
1169   if (!graph->implicit_preds[to])
1170     graph->implicit_preds[to] = BITMAP_ALLOC (&predbitmap_obstack);
1171
1172   if (bitmap_set_bit (graph->implicit_preds[to], from))
1173     stats.num_implicit_edges++;
1174 }
1175
1176 /* Add a predecessor graph edge to GRAPH, going from TO to FROM if
1177    it doesn't exist in the graph already.
1178    Return false if the edge already existed, true otherwise.  */
1179
1180 static void
1181 add_pred_graph_edge (constraint_graph_t graph, unsigned int to,
1182                      unsigned int from)
1183 {
1184   if (!graph->preds[to])
1185     graph->preds[to] = BITMAP_ALLOC (&predbitmap_obstack);
1186   bitmap_set_bit (graph->preds[to], from);
1187 }
1188
1189 /* Add a graph edge to GRAPH, going from FROM to TO if
1190    it doesn't exist in the graph already.
1191    Return false if the edge already existed, true otherwise.  */
1192
1193 static bool
1194 add_graph_edge (constraint_graph_t graph, unsigned int to,
1195                 unsigned int from)
1196 {
1197   if (to == from)
1198     {
1199       return false;
1200     }
1201   else
1202     {
1203       bool r = false;
1204
1205       if (!graph->succs[from])
1206         graph->succs[from] = BITMAP_ALLOC (&pta_obstack);
1207       if (bitmap_set_bit (graph->succs[from], to))
1208         {
1209           r = true;
1210           if (to < FIRST_REF_NODE && from < FIRST_REF_NODE)
1211             stats.num_edges++;
1212         }
1213       return r;
1214     }
1215 }
1216
1217
1218 /* Return true if {DEST.SRC} is an existing graph edge in GRAPH.  */
1219
1220 static bool
1221 valid_graph_edge (constraint_graph_t graph, unsigned int src,
1222                   unsigned int dest)
1223 {
1224   return (graph->succs[dest]
1225           && bitmap_bit_p (graph->succs[dest], src));
1226 }
1227
1228 /* Initialize the constraint graph structure to contain SIZE nodes.  */
1229
1230 static void
1231 init_graph (unsigned int size)
1232 {
1233   unsigned int j;
1234
1235   graph = XCNEW (struct constraint_graph);
1236   graph->size = size;
1237   graph->succs = XCNEWVEC (bitmap, graph->size);
1238   graph->indirect_cycles = XNEWVEC (int, graph->size);
1239   graph->rep = XNEWVEC (unsigned int, graph->size);
1240   graph->complex = XCNEWVEC (VEC(constraint_t, heap) *, size);
1241   graph->pe = XCNEWVEC (unsigned int, graph->size);
1242   graph->pe_rep = XNEWVEC (int, graph->size);
1243
1244   for (j = 0; j < graph->size; j++)
1245     {
1246       graph->rep[j] = j;
1247       graph->pe_rep[j] = -1;
1248       graph->indirect_cycles[j] = -1;
1249     }
1250 }
1251
1252 /* Build the constraint graph, adding only predecessor edges right now.  */
1253
1254 static void
1255 build_pred_graph (void)
1256 {
1257   int i;
1258   constraint_t c;
1259   unsigned int j;
1260
1261   graph->implicit_preds = XCNEWVEC (bitmap, graph->size);
1262   graph->preds = XCNEWVEC (bitmap, graph->size);
1263   graph->pointer_label = XCNEWVEC (unsigned int, graph->size);
1264   graph->loc_label = XCNEWVEC (unsigned int, graph->size);
1265   graph->pointed_by = XCNEWVEC (bitmap, graph->size);
1266   graph->points_to = XCNEWVEC (bitmap, graph->size);
1267   graph->eq_rep = XNEWVEC (int, graph->size);
1268   graph->direct_nodes = sbitmap_alloc (graph->size);
1269   graph->address_taken = BITMAP_ALLOC (&predbitmap_obstack);
1270   sbitmap_zero (graph->direct_nodes);
1271
1272   for (j = 0; j < FIRST_REF_NODE; j++)
1273     {
1274       if (!get_varinfo (j)->is_special_var)
1275         SET_BIT (graph->direct_nodes, j);
1276     }
1277
1278   for (j = 0; j < graph->size; j++)
1279     graph->eq_rep[j] = -1;
1280
1281   for (j = 0; j < VEC_length (varinfo_t, varmap); j++)
1282     graph->indirect_cycles[j] = -1;
1283
1284   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
1285     {
1286       struct constraint_expr lhs = c->lhs;
1287       struct constraint_expr rhs = c->rhs;
1288       unsigned int lhsvar = lhs.var;
1289       unsigned int rhsvar = rhs.var;
1290
1291       if (lhs.type == DEREF)
1292         {
1293           /* *x = y.  */
1294           if (rhs.offset == 0 && lhs.offset == 0 && rhs.type == SCALAR)
1295             add_pred_graph_edge (graph, FIRST_REF_NODE + lhsvar, rhsvar);
1296         }
1297       else if (rhs.type == DEREF)
1298         {
1299           /* x = *y */
1300           if (rhs.offset == 0 && lhs.offset == 0 && lhs.type == SCALAR)
1301             add_pred_graph_edge (graph, lhsvar, FIRST_REF_NODE + rhsvar);
1302           else
1303             RESET_BIT (graph->direct_nodes, lhsvar);
1304         }
1305       else if (rhs.type == ADDRESSOF)
1306         {
1307           varinfo_t v;
1308
1309           /* x = &y */
1310           if (graph->points_to[lhsvar] == NULL)
1311             graph->points_to[lhsvar] = BITMAP_ALLOC (&predbitmap_obstack);
1312           bitmap_set_bit (graph->points_to[lhsvar], rhsvar);
1313
1314           if (graph->pointed_by[rhsvar] == NULL)
1315             graph->pointed_by[rhsvar] = BITMAP_ALLOC (&predbitmap_obstack);
1316           bitmap_set_bit (graph->pointed_by[rhsvar], lhsvar);
1317
1318           /* Implicitly, *x = y */
1319           add_implicit_graph_edge (graph, FIRST_REF_NODE + lhsvar, rhsvar);
1320
1321           /* All related variables are no longer direct nodes.  */
1322           RESET_BIT (graph->direct_nodes, rhsvar);
1323           v = get_varinfo (rhsvar);
1324           if (!v->is_full_var)
1325             {
1326               v = lookup_vi_for_tree (v->decl);
1327               do
1328                 {
1329                   RESET_BIT (graph->direct_nodes, v->id);
1330                   v = v->next;
1331                 }
1332               while (v != NULL);
1333             }
1334           bitmap_set_bit (graph->address_taken, rhsvar);
1335         }
1336       else if (lhsvar > anything_id
1337                && lhsvar != rhsvar && lhs.offset == 0 && rhs.offset == 0)
1338         {
1339           /* x = y */
1340           add_pred_graph_edge (graph, lhsvar, rhsvar);
1341           /* Implicitly, *x = *y */
1342           add_implicit_graph_edge (graph, FIRST_REF_NODE + lhsvar,
1343                                    FIRST_REF_NODE + rhsvar);
1344         }
1345       else if (lhs.offset != 0 || rhs.offset != 0)
1346         {
1347           if (rhs.offset != 0)
1348             RESET_BIT (graph->direct_nodes, lhs.var);
1349           else if (lhs.offset != 0)
1350             RESET_BIT (graph->direct_nodes, rhs.var);
1351         }
1352     }
1353 }
1354
1355 /* Build the constraint graph, adding successor edges.  */
1356
1357 static void
1358 build_succ_graph (void)
1359 {
1360   unsigned i, t;
1361   constraint_t c;
1362
1363   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
1364     {
1365       struct constraint_expr lhs;
1366       struct constraint_expr rhs;
1367       unsigned int lhsvar;
1368       unsigned int rhsvar;
1369
1370       if (!c)
1371         continue;
1372
1373       lhs = c->lhs;
1374       rhs = c->rhs;
1375       lhsvar = find (lhs.var);
1376       rhsvar = find (rhs.var);
1377
1378       if (lhs.type == DEREF)
1379         {
1380           if (rhs.offset == 0 && lhs.offset == 0 && rhs.type == SCALAR)
1381             add_graph_edge (graph, FIRST_REF_NODE + lhsvar, rhsvar);
1382         }
1383       else if (rhs.type == DEREF)
1384         {
1385           if (rhs.offset == 0 && lhs.offset == 0 && lhs.type == SCALAR)
1386             add_graph_edge (graph, lhsvar, FIRST_REF_NODE + rhsvar);
1387         }
1388       else if (rhs.type == ADDRESSOF)
1389         {
1390           /* x = &y */
1391           gcc_assert (find (rhs.var) == rhs.var);
1392           bitmap_set_bit (get_varinfo (lhsvar)->solution, rhsvar);
1393         }
1394       else if (lhsvar > anything_id
1395                && lhsvar != rhsvar && lhs.offset == 0 && rhs.offset == 0)
1396         {
1397           add_graph_edge (graph, lhsvar, rhsvar);
1398         }
1399     }
1400
1401   /* Add edges from STOREDANYTHING to all non-direct nodes that can
1402      receive pointers.  */
1403   t = find (storedanything_id);
1404   for (i = integer_id + 1; i < FIRST_REF_NODE; ++i)
1405     {
1406       if (!TEST_BIT (graph->direct_nodes, i)
1407           && get_varinfo (i)->may_have_pointers)
1408         add_graph_edge (graph, find (i), t);
1409     }
1410
1411   /* Everything stored to ANYTHING also potentially escapes.  */
1412   add_graph_edge (graph, find (escaped_id), t);
1413 }
1414
1415
1416 /* Changed variables on the last iteration.  */
1417 static unsigned int changed_count;
1418 static sbitmap changed;
1419
1420 /* Strongly Connected Component visitation info.  */
1421
1422 struct scc_info
1423 {
1424   sbitmap visited;
1425   sbitmap deleted;
1426   unsigned int *dfs;
1427   unsigned int *node_mapping;
1428   int current_index;
1429   VEC(unsigned,heap) *scc_stack;
1430 };
1431
1432
1433 /* Recursive routine to find strongly connected components in GRAPH.
1434    SI is the SCC info to store the information in, and N is the id of current
1435    graph node we are processing.
1436
1437    This is Tarjan's strongly connected component finding algorithm, as
1438    modified by Nuutila to keep only non-root nodes on the stack.
1439    The algorithm can be found in "On finding the strongly connected
1440    connected components in a directed graph" by Esko Nuutila and Eljas
1441    Soisalon-Soininen, in Information Processing Letters volume 49,
1442    number 1, pages 9-14.  */
1443
1444 static void
1445 scc_visit (constraint_graph_t graph, struct scc_info *si, unsigned int n)
1446 {
1447   unsigned int i;
1448   bitmap_iterator bi;
1449   unsigned int my_dfs;
1450
1451   SET_BIT (si->visited, n);
1452   si->dfs[n] = si->current_index ++;
1453   my_dfs = si->dfs[n];
1454
1455   /* Visit all the successors.  */
1456   EXECUTE_IF_IN_NONNULL_BITMAP (graph->succs[n], 0, i, bi)
1457     {
1458       unsigned int w;
1459
1460       if (i > LAST_REF_NODE)
1461         break;
1462
1463       w = find (i);
1464       if (TEST_BIT (si->deleted, w))
1465         continue;
1466
1467       if (!TEST_BIT (si->visited, w))
1468         scc_visit (graph, si, w);
1469       {
1470         unsigned int t = find (w);
1471         unsigned int nnode = find (n);
1472         gcc_assert (nnode == n);
1473
1474         if (si->dfs[t] < si->dfs[nnode])
1475           si->dfs[n] = si->dfs[t];
1476       }
1477     }
1478
1479   /* See if any components have been identified.  */
1480   if (si->dfs[n] == my_dfs)
1481     {
1482       if (VEC_length (unsigned, si->scc_stack) > 0
1483           && si->dfs[VEC_last (unsigned, si->scc_stack)] >= my_dfs)
1484         {
1485           bitmap scc = BITMAP_ALLOC (NULL);
1486           unsigned int lowest_node;
1487           bitmap_iterator bi;
1488
1489           bitmap_set_bit (scc, n);
1490
1491           while (VEC_length (unsigned, si->scc_stack) != 0
1492                  && si->dfs[VEC_last (unsigned, si->scc_stack)] >= my_dfs)
1493             {
1494               unsigned int w = VEC_pop (unsigned, si->scc_stack);
1495
1496               bitmap_set_bit (scc, w);
1497             }
1498
1499           lowest_node = bitmap_first_set_bit (scc);
1500           gcc_assert (lowest_node < FIRST_REF_NODE);
1501
1502           /* Collapse the SCC nodes into a single node, and mark the
1503              indirect cycles.  */
1504           EXECUTE_IF_SET_IN_BITMAP (scc, 0, i, bi)
1505             {
1506               if (i < FIRST_REF_NODE)
1507                 {
1508                   if (unite (lowest_node, i))
1509                     unify_nodes (graph, lowest_node, i, false);
1510                 }
1511               else
1512                 {
1513                   unite (lowest_node, i);
1514                   graph->indirect_cycles[i - FIRST_REF_NODE] = lowest_node;
1515                 }
1516             }
1517         }
1518       SET_BIT (si->deleted, n);
1519     }
1520   else
1521     VEC_safe_push (unsigned, heap, si->scc_stack, n);
1522 }
1523
1524 /* Unify node FROM into node TO, updating the changed count if
1525    necessary when UPDATE_CHANGED is true.  */
1526
1527 static void
1528 unify_nodes (constraint_graph_t graph, unsigned int to, unsigned int from,
1529              bool update_changed)
1530 {
1531
1532   gcc_assert (to != from && find (to) == to);
1533   if (dump_file && (dump_flags & TDF_DETAILS))
1534     fprintf (dump_file, "Unifying %s to %s\n",
1535              get_varinfo (from)->name,
1536              get_varinfo (to)->name);
1537
1538   if (update_changed)
1539     stats.unified_vars_dynamic++;
1540   else
1541     stats.unified_vars_static++;
1542
1543   merge_graph_nodes (graph, to, from);
1544   merge_node_constraints (graph, to, from);
1545
1546   /* Mark TO as changed if FROM was changed. If TO was already marked
1547      as changed, decrease the changed count.  */
1548
1549   if (update_changed && TEST_BIT (changed, from))
1550     {
1551       RESET_BIT (changed, from);
1552       if (!TEST_BIT (changed, to))
1553         SET_BIT (changed, to);
1554       else
1555         {
1556           gcc_assert (changed_count > 0);
1557           changed_count--;
1558         }
1559     }
1560   if (get_varinfo (from)->solution)
1561     {
1562       /* If the solution changes because of the merging, we need to mark
1563          the variable as changed.  */
1564       if (bitmap_ior_into (get_varinfo (to)->solution,
1565                            get_varinfo (from)->solution))
1566         {
1567           if (update_changed && !TEST_BIT (changed, to))
1568             {
1569               SET_BIT (changed, to);
1570               changed_count++;
1571             }
1572         }
1573
1574       BITMAP_FREE (get_varinfo (from)->solution);
1575       BITMAP_FREE (get_varinfo (from)->oldsolution);
1576
1577       if (stats.iterations > 0)
1578         {
1579           BITMAP_FREE (get_varinfo (to)->oldsolution);
1580           get_varinfo (to)->oldsolution = BITMAP_ALLOC (&oldpta_obstack);
1581         }
1582     }
1583   if (valid_graph_edge (graph, to, to))
1584     {
1585       if (graph->succs[to])
1586         bitmap_clear_bit (graph->succs[to], to);
1587     }
1588 }
1589
1590 /* Information needed to compute the topological ordering of a graph.  */
1591
1592 struct topo_info
1593 {
1594   /* sbitmap of visited nodes.  */
1595   sbitmap visited;
1596   /* Array that stores the topological order of the graph, *in
1597      reverse*.  */
1598   VEC(unsigned,heap) *topo_order;
1599 };
1600
1601
1602 /* Initialize and return a topological info structure.  */
1603
1604 static struct topo_info *
1605 init_topo_info (void)
1606 {
1607   size_t size = graph->size;
1608   struct topo_info *ti = XNEW (struct topo_info);
1609   ti->visited = sbitmap_alloc (size);
1610   sbitmap_zero (ti->visited);
1611   ti->topo_order = VEC_alloc (unsigned, heap, 1);
1612   return ti;
1613 }
1614
1615
1616 /* Free the topological sort info pointed to by TI.  */
1617
1618 static void
1619 free_topo_info (struct topo_info *ti)
1620 {
1621   sbitmap_free (ti->visited);
1622   VEC_free (unsigned, heap, ti->topo_order);
1623   free (ti);
1624 }
1625
1626 /* Visit the graph in topological order, and store the order in the
1627    topo_info structure.  */
1628
1629 static void
1630 topo_visit (constraint_graph_t graph, struct topo_info *ti,
1631             unsigned int n)
1632 {
1633   bitmap_iterator bi;
1634   unsigned int j;
1635
1636   SET_BIT (ti->visited, n);
1637
1638   if (graph->succs[n])
1639     EXECUTE_IF_SET_IN_BITMAP (graph->succs[n], 0, j, bi)
1640       {
1641         if (!TEST_BIT (ti->visited, j))
1642           topo_visit (graph, ti, j);
1643       }
1644
1645   VEC_safe_push (unsigned, heap, ti->topo_order, n);
1646 }
1647
1648 /* Process a constraint C that represents x = *(y + off), using DELTA as the
1649    starting solution for y.  */
1650
1651 static void
1652 do_sd_constraint (constraint_graph_t graph, constraint_t c,
1653                   bitmap delta)
1654 {
1655   unsigned int lhs = c->lhs.var;
1656   bool flag = false;
1657   bitmap sol = get_varinfo (lhs)->solution;
1658   unsigned int j;
1659   bitmap_iterator bi;
1660   HOST_WIDE_INT roffset = c->rhs.offset;
1661
1662   /* Our IL does not allow this.  */
1663   gcc_assert (c->lhs.offset == 0);
1664
1665   /* If the solution of Y contains anything it is good enough to transfer
1666      this to the LHS.  */
1667   if (bitmap_bit_p (delta, anything_id))
1668     {
1669       flag |= bitmap_set_bit (sol, anything_id);
1670       goto done;
1671     }
1672
1673   /* If we do not know at with offset the rhs is dereferenced compute
1674      the reachability set of DELTA, conservatively assuming it is
1675      dereferenced at all valid offsets.  */
1676   if (roffset == UNKNOWN_OFFSET)
1677     {
1678       solution_set_expand (delta, delta);
1679       /* No further offset processing is necessary.  */
1680       roffset = 0;
1681     }
1682
1683   /* For each variable j in delta (Sol(y)), add
1684      an edge in the graph from j to x, and union Sol(j) into Sol(x).  */
1685   EXECUTE_IF_SET_IN_BITMAP (delta, 0, j, bi)
1686     {
1687       varinfo_t v = get_varinfo (j);
1688       HOST_WIDE_INT fieldoffset = v->offset + roffset;
1689       unsigned int t;
1690
1691       if (v->is_full_var)
1692         fieldoffset = v->offset;
1693       else if (roffset != 0)
1694         v = first_vi_for_offset (v, fieldoffset);
1695       /* If the access is outside of the variable we can ignore it.  */
1696       if (!v)
1697         continue;
1698
1699       do
1700         {
1701           t = find (v->id);
1702
1703           /* Adding edges from the special vars is pointless.
1704              They don't have sets that can change.  */
1705           if (get_varinfo (t)->is_special_var)
1706             flag |= bitmap_ior_into (sol, get_varinfo (t)->solution);
1707           /* Merging the solution from ESCAPED needlessly increases
1708              the set.  Use ESCAPED as representative instead.  */
1709           else if (v->id == escaped_id)
1710             flag |= bitmap_set_bit (sol, escaped_id);
1711           else if (v->may_have_pointers
1712                    && add_graph_edge (graph, lhs, t))
1713             flag |= bitmap_ior_into (sol, get_varinfo (t)->solution);
1714
1715           /* If the variable is not exactly at the requested offset
1716              we have to include the next one.  */
1717           if (v->offset == (unsigned HOST_WIDE_INT)fieldoffset
1718               || v->next == NULL)
1719             break;
1720
1721           v = v->next;
1722           fieldoffset = v->offset;
1723         }
1724       while (1);
1725     }
1726
1727 done:
1728   /* If the LHS solution changed, mark the var as changed.  */
1729   if (flag)
1730     {
1731       get_varinfo (lhs)->solution = sol;
1732       if (!TEST_BIT (changed, lhs))
1733         {
1734           SET_BIT (changed, lhs);
1735           changed_count++;
1736         }
1737     }
1738 }
1739
1740 /* Process a constraint C that represents *(x + off) = y using DELTA
1741    as the starting solution for x.  */
1742
1743 static void
1744 do_ds_constraint (constraint_t c, bitmap delta)
1745 {
1746   unsigned int rhs = c->rhs.var;
1747   bitmap sol = get_varinfo (rhs)->solution;
1748   unsigned int j;
1749   bitmap_iterator bi;
1750   HOST_WIDE_INT loff = c->lhs.offset;
1751   bool escaped_p = false;
1752
1753   /* Our IL does not allow this.  */
1754   gcc_assert (c->rhs.offset == 0);
1755
1756   /* If the solution of y contains ANYTHING simply use the ANYTHING
1757      solution.  This avoids needlessly increasing the points-to sets.  */
1758   if (bitmap_bit_p (sol, anything_id))
1759     sol = get_varinfo (find (anything_id))->solution;
1760
1761   /* If the solution for x contains ANYTHING we have to merge the
1762      solution of y into all pointer variables which we do via
1763      STOREDANYTHING.  */
1764   if (bitmap_bit_p (delta, anything_id))
1765     {
1766       unsigned t = find (storedanything_id);
1767       if (add_graph_edge (graph, t, rhs))
1768         {
1769           if (bitmap_ior_into (get_varinfo (t)->solution, sol))
1770             {
1771               if (!TEST_BIT (changed, t))
1772                 {
1773                   SET_BIT (changed, t);
1774                   changed_count++;
1775                 }
1776             }
1777         }
1778       return;
1779     }
1780
1781   /* If we do not know at with offset the rhs is dereferenced compute
1782      the reachability set of DELTA, conservatively assuming it is
1783      dereferenced at all valid offsets.  */
1784   if (loff == UNKNOWN_OFFSET)
1785     {
1786       solution_set_expand (delta, delta);
1787       loff = 0;
1788     }
1789
1790   /* For each member j of delta (Sol(x)), add an edge from y to j and
1791      union Sol(y) into Sol(j) */
1792   EXECUTE_IF_SET_IN_BITMAP (delta, 0, j, bi)
1793     {
1794       varinfo_t v = get_varinfo (j);
1795       unsigned int t;
1796       HOST_WIDE_INT fieldoffset = v->offset + loff;
1797
1798       if (v->is_full_var)
1799         fieldoffset = v->offset;
1800       else if (loff != 0)
1801         v = first_vi_for_offset (v, fieldoffset);
1802       /* If the access is outside of the variable we can ignore it.  */
1803       if (!v)
1804         continue;
1805
1806       do
1807         {
1808           if (v->may_have_pointers)
1809             {
1810               /* If v is a global variable then this is an escape point.  */
1811               if (v->is_global_var
1812                   && !escaped_p)
1813                 {
1814                   t = find (escaped_id);
1815                   if (add_graph_edge (graph, t, rhs)
1816                       && bitmap_ior_into (get_varinfo (t)->solution, sol)
1817                       && !TEST_BIT (changed, t))
1818                     {
1819                       SET_BIT (changed, t);
1820                       changed_count++;
1821                     }
1822                   /* Enough to let rhs escape once.  */
1823                   escaped_p = true;
1824                 }
1825
1826               if (v->is_special_var)
1827                 break;
1828
1829               t = find (v->id);
1830               if (add_graph_edge (graph, t, rhs)
1831                   && bitmap_ior_into (get_varinfo (t)->solution, sol)
1832                   && !TEST_BIT (changed, t))
1833                 {
1834                   SET_BIT (changed, t);
1835                   changed_count++;
1836                 }
1837             }
1838
1839           /* If the variable is not exactly at the requested offset
1840              we have to include the next one.  */
1841           if (v->offset == (unsigned HOST_WIDE_INT)fieldoffset
1842               || v->next == NULL)
1843             break;
1844
1845           v = v->next;
1846           fieldoffset = v->offset;
1847         }
1848       while (1);
1849     }
1850 }
1851
1852 /* Handle a non-simple (simple meaning requires no iteration),
1853    constraint (IE *x = &y, x = *y, *x = y, and x = y with offsets involved).  */
1854
1855 static void
1856 do_complex_constraint (constraint_graph_t graph, constraint_t c, bitmap delta)
1857 {
1858   if (c->lhs.type == DEREF)
1859     {
1860       if (c->rhs.type == ADDRESSOF)
1861         {
1862           gcc_unreachable();
1863         }
1864       else
1865         {
1866           /* *x = y */
1867           do_ds_constraint (c, delta);
1868         }
1869     }
1870   else if (c->rhs.type == DEREF)
1871     {
1872       /* x = *y */
1873       if (!(get_varinfo (c->lhs.var)->is_special_var))
1874         do_sd_constraint (graph, c, delta);
1875     }
1876   else
1877     {
1878       bitmap tmp;
1879       bitmap solution;
1880       bool flag = false;
1881
1882       gcc_assert (c->rhs.type == SCALAR && c->lhs.type == SCALAR);
1883       solution = get_varinfo (c->rhs.var)->solution;
1884       tmp = get_varinfo (c->lhs.var)->solution;
1885
1886       flag = set_union_with_increment (tmp, solution, c->rhs.offset);
1887
1888       if (flag)
1889         {
1890           get_varinfo (c->lhs.var)->solution = tmp;
1891           if (!TEST_BIT (changed, c->lhs.var))
1892             {
1893               SET_BIT (changed, c->lhs.var);
1894               changed_count++;
1895             }
1896         }
1897     }
1898 }
1899
1900 /* Initialize and return a new SCC info structure.  */
1901
1902 static struct scc_info *
1903 init_scc_info (size_t size)
1904 {
1905   struct scc_info *si = XNEW (struct scc_info);
1906   size_t i;
1907
1908   si->current_index = 0;
1909   si->visited = sbitmap_alloc (size);
1910   sbitmap_zero (si->visited);
1911   si->deleted = sbitmap_alloc (size);
1912   sbitmap_zero (si->deleted);
1913   si->node_mapping = XNEWVEC (unsigned int, size);
1914   si->dfs = XCNEWVEC (unsigned int, size);
1915
1916   for (i = 0; i < size; i++)
1917     si->node_mapping[i] = i;
1918
1919   si->scc_stack = VEC_alloc (unsigned, heap, 1);
1920   return si;
1921 }
1922
1923 /* Free an SCC info structure pointed to by SI */
1924
1925 static void
1926 free_scc_info (struct scc_info *si)
1927 {
1928   sbitmap_free (si->visited);
1929   sbitmap_free (si->deleted);
1930   free (si->node_mapping);
1931   free (si->dfs);
1932   VEC_free (unsigned, heap, si->scc_stack);
1933   free (si);
1934 }
1935
1936
1937 /* Find indirect cycles in GRAPH that occur, using strongly connected
1938    components, and note them in the indirect cycles map.
1939
1940    This technique comes from Ben Hardekopf and Calvin Lin,
1941    "It Pays to be Lazy: Fast and Accurate Pointer Analysis for Millions of
1942    Lines of Code", submitted to PLDI 2007.  */
1943
1944 static void
1945 find_indirect_cycles (constraint_graph_t graph)
1946 {
1947   unsigned int i;
1948   unsigned int size = graph->size;
1949   struct scc_info *si = init_scc_info (size);
1950
1951   for (i = 0; i < MIN (LAST_REF_NODE, size); i ++ )
1952     if (!TEST_BIT (si->visited, i) && find (i) == i)
1953       scc_visit (graph, si, i);
1954
1955   free_scc_info (si);
1956 }
1957
1958 /* Compute a topological ordering for GRAPH, and store the result in the
1959    topo_info structure TI.  */
1960
1961 static void
1962 compute_topo_order (constraint_graph_t graph,
1963                     struct topo_info *ti)
1964 {
1965   unsigned int i;
1966   unsigned int size = graph->size;
1967
1968   for (i = 0; i != size; ++i)
1969     if (!TEST_BIT (ti->visited, i) && find (i) == i)
1970       topo_visit (graph, ti, i);
1971 }
1972
1973 /* Structure used to for hash value numbering of pointer equivalence
1974    classes.  */
1975
1976 typedef struct equiv_class_label
1977 {
1978   hashval_t hashcode;
1979   unsigned int equivalence_class;
1980   bitmap labels;
1981 } *equiv_class_label_t;
1982 typedef const struct equiv_class_label *const_equiv_class_label_t;
1983
1984 /* A hashtable for mapping a bitmap of labels->pointer equivalence
1985    classes.  */
1986 static htab_t pointer_equiv_class_table;
1987
1988 /* A hashtable for mapping a bitmap of labels->location equivalence
1989    classes.  */
1990 static htab_t location_equiv_class_table;
1991
1992 /* Hash function for a equiv_class_label_t */
1993
1994 static hashval_t
1995 equiv_class_label_hash (const void *p)
1996 {
1997   const_equiv_class_label_t const ecl = (const_equiv_class_label_t) p;
1998   return ecl->hashcode;
1999 }
2000
2001 /* Equality function for two equiv_class_label_t's.  */
2002
2003 static int
2004 equiv_class_label_eq (const void *p1, const void *p2)
2005 {
2006   const_equiv_class_label_t const eql1 = (const_equiv_class_label_t) p1;
2007   const_equiv_class_label_t const eql2 = (const_equiv_class_label_t) p2;
2008   return (eql1->hashcode == eql2->hashcode
2009           && bitmap_equal_p (eql1->labels, eql2->labels));
2010 }
2011
2012 /* Lookup a equivalence class in TABLE by the bitmap of LABELS it
2013    contains.  */
2014
2015 static unsigned int
2016 equiv_class_lookup (htab_t table, bitmap labels)
2017 {
2018   void **slot;
2019   struct equiv_class_label ecl;
2020
2021   ecl.labels = labels;
2022   ecl.hashcode = bitmap_hash (labels);
2023
2024   slot = htab_find_slot_with_hash (table, &ecl,
2025                                    ecl.hashcode, NO_INSERT);
2026   if (!slot)
2027     return 0;
2028   else
2029     return ((equiv_class_label_t) *slot)->equivalence_class;
2030 }
2031
2032
2033 /* Add an equivalence class named EQUIVALENCE_CLASS with labels LABELS
2034    to TABLE.  */
2035
2036 static void
2037 equiv_class_add (htab_t table, unsigned int equivalence_class,
2038                  bitmap labels)
2039 {
2040   void **slot;
2041   equiv_class_label_t ecl = XNEW (struct equiv_class_label);
2042
2043   ecl->labels = labels;
2044   ecl->equivalence_class = equivalence_class;
2045   ecl->hashcode = bitmap_hash (labels);
2046
2047   slot = htab_find_slot_with_hash (table, ecl,
2048                                    ecl->hashcode, INSERT);
2049   gcc_assert (!*slot);
2050   *slot = (void *) ecl;
2051 }
2052
2053 /* Perform offline variable substitution.
2054
2055    This is a worst case quadratic time way of identifying variables
2056    that must have equivalent points-to sets, including those caused by
2057    static cycles, and single entry subgraphs, in the constraint graph.
2058
2059    The technique is described in "Exploiting Pointer and Location
2060    Equivalence to Optimize Pointer Analysis. In the 14th International
2061    Static Analysis Symposium (SAS), August 2007."  It is known as the
2062    "HU" algorithm, and is equivalent to value numbering the collapsed
2063    constraint graph including evaluating unions.
2064
2065    The general method of finding equivalence classes is as follows:
2066    Add fake nodes (REF nodes) and edges for *a = b and a = *b constraints.
2067    Initialize all non-REF nodes to be direct nodes.
2068    For each constraint a = a U {b}, we set pts(a) = pts(a) u {fresh
2069    variable}
2070    For each constraint containing the dereference, we also do the same
2071    thing.
2072
2073    We then compute SCC's in the graph and unify nodes in the same SCC,
2074    including pts sets.
2075
2076    For each non-collapsed node x:
2077     Visit all unvisited explicit incoming edges.
2078     Ignoring all non-pointers, set pts(x) = Union of pts(a) for y
2079     where y->x.
2080     Lookup the equivalence class for pts(x).
2081      If we found one, equivalence_class(x) = found class.
2082      Otherwise, equivalence_class(x) = new class, and new_class is
2083     added to the lookup table.
2084
2085    All direct nodes with the same equivalence class can be replaced
2086    with a single representative node.
2087    All unlabeled nodes (label == 0) are not pointers and all edges
2088    involving them can be eliminated.
2089    We perform these optimizations during rewrite_constraints
2090
2091    In addition to pointer equivalence class finding, we also perform
2092    location equivalence class finding.  This is the set of variables
2093    that always appear together in points-to sets.  We use this to
2094    compress the size of the points-to sets.  */
2095
2096 /* Current maximum pointer equivalence class id.  */
2097 static int pointer_equiv_class;
2098
2099 /* Current maximum location equivalence class id.  */
2100 static int location_equiv_class;
2101
2102 /* Recursive routine to find strongly connected components in GRAPH,
2103    and label it's nodes with DFS numbers.  */
2104
2105 static void
2106 condense_visit (constraint_graph_t graph, struct scc_info *si, unsigned int n)
2107 {
2108   unsigned int i;
2109   bitmap_iterator bi;
2110   unsigned int my_dfs;
2111
2112   gcc_assert (si->node_mapping[n] == n);
2113   SET_BIT (si->visited, n);
2114   si->dfs[n] = si->current_index ++;
2115   my_dfs = si->dfs[n];
2116
2117   /* Visit all the successors.  */
2118   EXECUTE_IF_IN_NONNULL_BITMAP (graph->preds[n], 0, i, bi)
2119     {
2120       unsigned int w = si->node_mapping[i];
2121
2122       if (TEST_BIT (si->deleted, w))
2123         continue;
2124
2125       if (!TEST_BIT (si->visited, w))
2126         condense_visit (graph, si, w);
2127       {
2128         unsigned int t = si->node_mapping[w];
2129         unsigned int nnode = si->node_mapping[n];
2130         gcc_assert (nnode == n);
2131
2132         if (si->dfs[t] < si->dfs[nnode])
2133           si->dfs[n] = si->dfs[t];
2134       }
2135     }
2136
2137   /* Visit all the implicit predecessors.  */
2138   EXECUTE_IF_IN_NONNULL_BITMAP (graph->implicit_preds[n], 0, i, bi)
2139     {
2140       unsigned int w = si->node_mapping[i];
2141
2142       if (TEST_BIT (si->deleted, w))
2143         continue;
2144
2145       if (!TEST_BIT (si->visited, w))
2146         condense_visit (graph, si, w);
2147       {
2148         unsigned int t = si->node_mapping[w];
2149         unsigned int nnode = si->node_mapping[n];
2150         gcc_assert (nnode == n);
2151
2152         if (si->dfs[t] < si->dfs[nnode])
2153           si->dfs[n] = si->dfs[t];
2154       }
2155     }
2156
2157   /* See if any components have been identified.  */
2158   if (si->dfs[n] == my_dfs)
2159     {
2160       while (VEC_length (unsigned, si->scc_stack) != 0
2161              && si->dfs[VEC_last (unsigned, si->scc_stack)] >= my_dfs)
2162         {
2163           unsigned int w = VEC_pop (unsigned, si->scc_stack);
2164           si->node_mapping[w] = n;
2165
2166           if (!TEST_BIT (graph->direct_nodes, w))
2167             RESET_BIT (graph->direct_nodes, n);
2168
2169           /* Unify our nodes.  */
2170           if (graph->preds[w])
2171             {
2172               if (!graph->preds[n])
2173                 graph->preds[n] = BITMAP_ALLOC (&predbitmap_obstack);
2174               bitmap_ior_into (graph->preds[n], graph->preds[w]);
2175             }
2176           if (graph->implicit_preds[w])
2177             {
2178               if (!graph->implicit_preds[n])
2179                 graph->implicit_preds[n] = BITMAP_ALLOC (&predbitmap_obstack);
2180               bitmap_ior_into (graph->implicit_preds[n],
2181                                graph->implicit_preds[w]);
2182             }
2183           if (graph->points_to[w])
2184             {
2185               if (!graph->points_to[n])
2186                 graph->points_to[n] = BITMAP_ALLOC (&predbitmap_obstack);
2187               bitmap_ior_into (graph->points_to[n],
2188                                graph->points_to[w]);
2189             }
2190         }
2191       SET_BIT (si->deleted, n);
2192     }
2193   else
2194     VEC_safe_push (unsigned, heap, si->scc_stack, n);
2195 }
2196
2197 /* Label pointer equivalences.  */
2198
2199 static void
2200 label_visit (constraint_graph_t graph, struct scc_info *si, unsigned int n)
2201 {
2202   unsigned int i;
2203   bitmap_iterator bi;
2204   SET_BIT (si->visited, n);
2205
2206   if (!graph->points_to[n])
2207     graph->points_to[n] = BITMAP_ALLOC (&predbitmap_obstack);
2208
2209   /* Label and union our incoming edges's points to sets.  */
2210   EXECUTE_IF_IN_NONNULL_BITMAP (graph->preds[n], 0, i, bi)
2211     {
2212       unsigned int w = si->node_mapping[i];
2213       if (!TEST_BIT (si->visited, w))
2214         label_visit (graph, si, w);
2215
2216       /* Skip unused edges  */
2217       if (w == n || graph->pointer_label[w] == 0)
2218         continue;
2219
2220       if (graph->points_to[w])
2221         bitmap_ior_into(graph->points_to[n], graph->points_to[w]);
2222     }
2223   /* Indirect nodes get fresh variables.  */
2224   if (!TEST_BIT (graph->direct_nodes, n))
2225     bitmap_set_bit (graph->points_to[n], FIRST_REF_NODE + n);
2226
2227   if (!bitmap_empty_p (graph->points_to[n]))
2228     {
2229       unsigned int label = equiv_class_lookup (pointer_equiv_class_table,
2230                                                graph->points_to[n]);
2231       if (!label)
2232         {
2233           label = pointer_equiv_class++;
2234           equiv_class_add (pointer_equiv_class_table,
2235                            label, graph->points_to[n]);
2236         }
2237       graph->pointer_label[n] = label;
2238     }
2239 }
2240
2241 /* Perform offline variable substitution, discovering equivalence
2242    classes, and eliminating non-pointer variables.  */
2243
2244 static struct scc_info *
2245 perform_var_substitution (constraint_graph_t graph)
2246 {
2247   unsigned int i;
2248   unsigned int size = graph->size;
2249   struct scc_info *si = init_scc_info (size);
2250
2251   bitmap_obstack_initialize (&iteration_obstack);
2252   pointer_equiv_class_table = htab_create (511, equiv_class_label_hash,
2253                                            equiv_class_label_eq, free);
2254   location_equiv_class_table = htab_create (511, equiv_class_label_hash,
2255                                             equiv_class_label_eq, free);
2256   pointer_equiv_class = 1;
2257   location_equiv_class = 1;
2258
2259   /* Condense the nodes, which means to find SCC's, count incoming
2260      predecessors, and unite nodes in SCC's.  */
2261   for (i = 0; i < FIRST_REF_NODE; i++)
2262     if (!TEST_BIT (si->visited, si->node_mapping[i]))
2263       condense_visit (graph, si, si->node_mapping[i]);
2264
2265   sbitmap_zero (si->visited);
2266   /* Actually the label the nodes for pointer equivalences  */
2267   for (i = 0; i < FIRST_REF_NODE; i++)
2268     if (!TEST_BIT (si->visited, si->node_mapping[i]))
2269       label_visit (graph, si, si->node_mapping[i]);
2270
2271   /* Calculate location equivalence labels.  */
2272   for (i = 0; i < FIRST_REF_NODE; i++)
2273     {
2274       bitmap pointed_by;
2275       bitmap_iterator bi;
2276       unsigned int j;
2277       unsigned int label;
2278
2279       if (!graph->pointed_by[i])
2280         continue;
2281       pointed_by = BITMAP_ALLOC (&iteration_obstack);
2282
2283       /* Translate the pointed-by mapping for pointer equivalence
2284          labels.  */
2285       EXECUTE_IF_SET_IN_BITMAP (graph->pointed_by[i], 0, j, bi)
2286         {
2287           bitmap_set_bit (pointed_by,
2288                           graph->pointer_label[si->node_mapping[j]]);
2289         }
2290       /* The original pointed_by is now dead.  */
2291       BITMAP_FREE (graph->pointed_by[i]);
2292
2293       /* Look up the location equivalence label if one exists, or make
2294          one otherwise.  */
2295       label = equiv_class_lookup (location_equiv_class_table,
2296                                   pointed_by);
2297       if (label == 0)
2298         {
2299           label = location_equiv_class++;
2300           equiv_class_add (location_equiv_class_table,
2301                            label, pointed_by);
2302         }
2303       else
2304         {
2305           if (dump_file && (dump_flags & TDF_DETAILS))
2306             fprintf (dump_file, "Found location equivalence for node %s\n",
2307                      get_varinfo (i)->name);
2308           BITMAP_FREE (pointed_by);
2309         }
2310       graph->loc_label[i] = label;
2311
2312     }
2313
2314   if (dump_file && (dump_flags & TDF_DETAILS))
2315     for (i = 0; i < FIRST_REF_NODE; i++)
2316       {
2317         bool direct_node = TEST_BIT (graph->direct_nodes, i);
2318         fprintf (dump_file,
2319                  "Equivalence classes for %s node id %d:%s are pointer: %d"
2320                  ", location:%d\n",
2321                  direct_node ? "Direct node" : "Indirect node", i,
2322                  get_varinfo (i)->name,
2323                  graph->pointer_label[si->node_mapping[i]],
2324                  graph->loc_label[si->node_mapping[i]]);
2325       }
2326
2327   /* Quickly eliminate our non-pointer variables.  */
2328
2329   for (i = 0; i < FIRST_REF_NODE; i++)
2330     {
2331       unsigned int node = si->node_mapping[i];
2332
2333       if (graph->pointer_label[node] == 0)
2334         {
2335           if (dump_file && (dump_flags & TDF_DETAILS))
2336             fprintf (dump_file,
2337                      "%s is a non-pointer variable, eliminating edges.\n",
2338                      get_varinfo (node)->name);
2339           stats.nonpointer_vars++;
2340           clear_edges_for_node (graph, node);
2341         }
2342     }
2343
2344   return si;
2345 }
2346
2347 /* Free information that was only necessary for variable
2348    substitution.  */
2349
2350 static void
2351 free_var_substitution_info (struct scc_info *si)
2352 {
2353   free_scc_info (si);
2354   free (graph->pointer_label);
2355   free (graph->loc_label);
2356   free (graph->pointed_by);
2357   free (graph->points_to);
2358   free (graph->eq_rep);
2359   sbitmap_free (graph->direct_nodes);
2360   htab_delete (pointer_equiv_class_table);
2361   htab_delete (location_equiv_class_table);
2362   bitmap_obstack_release (&iteration_obstack);
2363 }
2364
2365 /* Return an existing node that is equivalent to NODE, which has
2366    equivalence class LABEL, if one exists.  Return NODE otherwise.  */
2367
2368 static unsigned int
2369 find_equivalent_node (constraint_graph_t graph,
2370                       unsigned int node, unsigned int label)
2371 {
2372   /* If the address version of this variable is unused, we can
2373      substitute it for anything else with the same label.
2374      Otherwise, we know the pointers are equivalent, but not the
2375      locations, and we can unite them later.  */
2376
2377   if (!bitmap_bit_p (graph->address_taken, node))
2378     {
2379       gcc_assert (label < graph->size);
2380
2381       if (graph->eq_rep[label] != -1)
2382         {
2383           /* Unify the two variables since we know they are equivalent.  */
2384           if (unite (graph->eq_rep[label], node))
2385             unify_nodes (graph, graph->eq_rep[label], node, false);
2386           return graph->eq_rep[label];
2387         }
2388       else
2389         {
2390           graph->eq_rep[label] = node;
2391           graph->pe_rep[label] = node;
2392         }
2393     }
2394   else
2395     {
2396       gcc_assert (label < graph->size);
2397       graph->pe[node] = label;
2398       if (graph->pe_rep[label] == -1)
2399         graph->pe_rep[label] = node;
2400     }
2401
2402   return node;
2403 }
2404
2405 /* Unite pointer equivalent but not location equivalent nodes in
2406    GRAPH.  This may only be performed once variable substitution is
2407    finished.  */
2408
2409 static void
2410 unite_pointer_equivalences (constraint_graph_t graph)
2411 {
2412   unsigned int i;
2413
2414   /* Go through the pointer equivalences and unite them to their
2415      representative, if they aren't already.  */
2416   for (i = 0; i < FIRST_REF_NODE; i++)
2417     {
2418       unsigned int label = graph->pe[i];
2419       if (label)
2420         {
2421           int label_rep = graph->pe_rep[label];
2422
2423           if (label_rep == -1)
2424             continue;
2425
2426           label_rep = find (label_rep);
2427           if (label_rep >= 0 && unite (label_rep, find (i)))
2428             unify_nodes (graph, label_rep, i, false);
2429         }
2430     }
2431 }
2432
2433 /* Move complex constraints to the GRAPH nodes they belong to.  */
2434
2435 static void
2436 move_complex_constraints (constraint_graph_t graph)
2437 {
2438   int i;
2439   constraint_t c;
2440
2441   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
2442     {
2443       if (c)
2444         {
2445           struct constraint_expr lhs = c->lhs;
2446           struct constraint_expr rhs = c->rhs;
2447
2448           if (lhs.type == DEREF)
2449             {
2450               insert_into_complex (graph, lhs.var, c);
2451             }
2452           else if (rhs.type == DEREF)
2453             {
2454               if (!(get_varinfo (lhs.var)->is_special_var))
2455                 insert_into_complex (graph, rhs.var, c);
2456             }
2457           else if (rhs.type != ADDRESSOF && lhs.var > anything_id
2458                    && (lhs.offset != 0 || rhs.offset != 0))
2459             {
2460               insert_into_complex (graph, rhs.var, c);
2461             }
2462         }
2463     }
2464 }
2465
2466
2467 /* Optimize and rewrite complex constraints while performing
2468    collapsing of equivalent nodes.  SI is the SCC_INFO that is the
2469    result of perform_variable_substitution.  */
2470
2471 static void
2472 rewrite_constraints (constraint_graph_t graph,
2473                      struct scc_info *si)
2474 {
2475   int i;
2476   unsigned int j;
2477   constraint_t c;
2478
2479   for (j = 0; j < graph->size; j++)
2480     gcc_assert (find (j) == j);
2481
2482   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
2483     {
2484       struct constraint_expr lhs = c->lhs;
2485       struct constraint_expr rhs = c->rhs;
2486       unsigned int lhsvar = find (lhs.var);
2487       unsigned int rhsvar = find (rhs.var);
2488       unsigned int lhsnode, rhsnode;
2489       unsigned int lhslabel, rhslabel;
2490
2491       lhsnode = si->node_mapping[lhsvar];
2492       rhsnode = si->node_mapping[rhsvar];
2493       lhslabel = graph->pointer_label[lhsnode];
2494       rhslabel = graph->pointer_label[rhsnode];
2495
2496       /* See if it is really a non-pointer variable, and if so, ignore
2497          the constraint.  */
2498       if (lhslabel == 0)
2499         {
2500           if (dump_file && (dump_flags & TDF_DETAILS))
2501             {
2502
2503               fprintf (dump_file, "%s is a non-pointer variable,"
2504                        "ignoring constraint:",
2505                        get_varinfo (lhs.var)->name);
2506               dump_constraint (dump_file, c);
2507             }
2508           VEC_replace (constraint_t, constraints, i, NULL);
2509           continue;
2510         }
2511
2512       if (rhslabel == 0)
2513         {
2514           if (dump_file && (dump_flags & TDF_DETAILS))
2515             {
2516
2517               fprintf (dump_file, "%s is a non-pointer variable,"
2518                        "ignoring constraint:",
2519                        get_varinfo (rhs.var)->name);
2520               dump_constraint (dump_file, c);
2521             }
2522           VEC_replace (constraint_t, constraints, i, NULL);
2523           continue;
2524         }
2525
2526       lhsvar = find_equivalent_node (graph, lhsvar, lhslabel);
2527       rhsvar = find_equivalent_node (graph, rhsvar, rhslabel);
2528       c->lhs.var = lhsvar;
2529       c->rhs.var = rhsvar;
2530
2531     }
2532 }
2533
2534 /* Eliminate indirect cycles involving NODE.  Return true if NODE was
2535    part of an SCC, false otherwise.  */
2536
2537 static bool
2538 eliminate_indirect_cycles (unsigned int node)
2539 {
2540   if (graph->indirect_cycles[node] != -1
2541       && !bitmap_empty_p (get_varinfo (node)->solution))
2542     {
2543       unsigned int i;
2544       VEC(unsigned,heap) *queue = NULL;
2545       int queuepos;
2546       unsigned int to = find (graph->indirect_cycles[node]);
2547       bitmap_iterator bi;
2548
2549       /* We can't touch the solution set and call unify_nodes
2550          at the same time, because unify_nodes is going to do
2551          bitmap unions into it. */
2552
2553       EXECUTE_IF_SET_IN_BITMAP (get_varinfo (node)->solution, 0, i, bi)
2554         {
2555           if (find (i) == i && i != to)
2556             {
2557               if (unite (to, i))
2558                 VEC_safe_push (unsigned, heap, queue, i);
2559             }
2560         }
2561
2562       for (queuepos = 0;
2563            VEC_iterate (unsigned, queue, queuepos, i);
2564            queuepos++)
2565         {
2566           unify_nodes (graph, to, i, true);
2567         }
2568       VEC_free (unsigned, heap, queue);
2569       return true;
2570     }
2571   return false;
2572 }
2573
2574 /* Solve the constraint graph GRAPH using our worklist solver.
2575    This is based on the PW* family of solvers from the "Efficient Field
2576    Sensitive Pointer Analysis for C" paper.
2577    It works by iterating over all the graph nodes, processing the complex
2578    constraints and propagating the copy constraints, until everything stops
2579    changed.  This corresponds to steps 6-8 in the solving list given above.  */
2580
2581 static void
2582 solve_graph (constraint_graph_t graph)
2583 {
2584   unsigned int size = graph->size;
2585   unsigned int i;
2586   bitmap pts;
2587
2588   changed_count = 0;
2589   changed = sbitmap_alloc (size);
2590   sbitmap_zero (changed);
2591
2592   /* Mark all initial non-collapsed nodes as changed.  */
2593   for (i = 0; i < size; i++)
2594     {
2595       varinfo_t ivi = get_varinfo (i);
2596       if (find (i) == i && !bitmap_empty_p (ivi->solution)
2597           && ((graph->succs[i] && !bitmap_empty_p (graph->succs[i]))
2598               || VEC_length (constraint_t, graph->complex[i]) > 0))
2599         {
2600           SET_BIT (changed, i);
2601           changed_count++;
2602         }
2603     }
2604
2605   /* Allocate a bitmap to be used to store the changed bits.  */
2606   pts = BITMAP_ALLOC (&pta_obstack);
2607
2608   while (changed_count > 0)
2609     {
2610       unsigned int i;
2611       struct topo_info *ti = init_topo_info ();
2612       stats.iterations++;
2613
2614       bitmap_obstack_initialize (&iteration_obstack);
2615
2616       compute_topo_order (graph, ti);
2617
2618       while (VEC_length (unsigned, ti->topo_order) != 0)
2619         {
2620
2621           i = VEC_pop (unsigned, ti->topo_order);
2622
2623           /* If this variable is not a representative, skip it.  */
2624           if (find (i) != i)
2625             continue;
2626
2627           /* In certain indirect cycle cases, we may merge this
2628              variable to another.  */
2629           if (eliminate_indirect_cycles (i) && find (i) != i)
2630             continue;
2631
2632           /* If the node has changed, we need to process the
2633              complex constraints and outgoing edges again.  */
2634           if (TEST_BIT (changed, i))
2635             {
2636               unsigned int j;
2637               constraint_t c;
2638               bitmap solution;
2639               VEC(constraint_t,heap) *complex = graph->complex[i];
2640               bool solution_empty;
2641
2642               RESET_BIT (changed, i);
2643               changed_count--;
2644
2645               /* Compute the changed set of solution bits.  */
2646               bitmap_and_compl (pts, get_varinfo (i)->solution,
2647                                 get_varinfo (i)->oldsolution);
2648
2649               if (bitmap_empty_p (pts))
2650                 continue;
2651
2652               bitmap_ior_into (get_varinfo (i)->oldsolution, pts);
2653
2654               solution = get_varinfo (i)->solution;
2655               solution_empty = bitmap_empty_p (solution);
2656
2657               /* Process the complex constraints */
2658               for (j = 0; VEC_iterate (constraint_t, complex, j, c); j++)
2659                 {
2660                   /* XXX: This is going to unsort the constraints in
2661                      some cases, which will occasionally add duplicate
2662                      constraints during unification.  This does not
2663                      affect correctness.  */
2664                   c->lhs.var = find (c->lhs.var);
2665                   c->rhs.var = find (c->rhs.var);
2666
2667                   /* The only complex constraint that can change our
2668                      solution to non-empty, given an empty solution,
2669                      is a constraint where the lhs side is receiving
2670                      some set from elsewhere.  */
2671                   if (!solution_empty || c->lhs.type != DEREF)
2672                     do_complex_constraint (graph, c, pts);
2673                 }
2674
2675               solution_empty = bitmap_empty_p (solution);
2676
2677               if (!solution_empty)
2678                 {
2679                   bitmap_iterator bi;
2680                   unsigned eff_escaped_id = find (escaped_id);
2681
2682                   /* Propagate solution to all successors.  */
2683                   EXECUTE_IF_IN_NONNULL_BITMAP (graph->succs[i],
2684                                                 0, j, bi)
2685                     {
2686                       bitmap tmp;
2687                       bool flag;
2688
2689                       unsigned int to = find (j);
2690                       tmp = get_varinfo (to)->solution;
2691                       flag = false;
2692
2693                       /* Don't try to propagate to ourselves.  */
2694                       if (to == i)
2695                         continue;
2696
2697                       /* If we propagate from ESCAPED use ESCAPED as
2698                          placeholder.  */
2699                       if (i == eff_escaped_id)
2700                         flag = bitmap_set_bit (tmp, escaped_id);
2701                       else
2702                         flag = set_union_with_increment (tmp, pts, 0);
2703
2704                       if (flag)
2705                         {
2706                           get_varinfo (to)->solution = tmp;
2707                           if (!TEST_BIT (changed, to))
2708                             {
2709                               SET_BIT (changed, to);
2710                               changed_count++;
2711                             }
2712                         }
2713                     }
2714                 }
2715             }
2716         }
2717       free_topo_info (ti);
2718       bitmap_obstack_release (&iteration_obstack);
2719     }
2720
2721   BITMAP_FREE (pts);
2722   sbitmap_free (changed);
2723   bitmap_obstack_release (&oldpta_obstack);
2724 }
2725
2726 /* Map from trees to variable infos.  */
2727 static struct pointer_map_t *vi_for_tree;
2728
2729
2730 /* Insert ID as the variable id for tree T in the vi_for_tree map.  */
2731
2732 static void
2733 insert_vi_for_tree (tree t, varinfo_t vi)
2734 {
2735   void **slot = pointer_map_insert (vi_for_tree, t);
2736   gcc_assert (vi);
2737   gcc_assert (*slot == NULL);
2738   *slot = vi;
2739 }
2740
2741 /* Find the variable info for tree T in VI_FOR_TREE.  If T does not
2742    exist in the map, return NULL, otherwise, return the varinfo we found.  */
2743
2744 static varinfo_t
2745 lookup_vi_for_tree (tree t)
2746 {
2747   void **slot = pointer_map_contains (vi_for_tree, t);
2748   if (slot == NULL)
2749     return NULL;
2750
2751   return (varinfo_t) *slot;
2752 }
2753
2754 /* Return a printable name for DECL  */
2755
2756 static const char *
2757 alias_get_name (tree decl)
2758 {
2759   const char *res;
2760   char *temp;
2761   int num_printed = 0;
2762
2763   if (DECL_ASSEMBLER_NAME_SET_P (decl))
2764     res = IDENTIFIER_POINTER (DECL_ASSEMBLER_NAME (decl));
2765   else
2766     res= get_name (decl);
2767   if (res != NULL)
2768     return res;
2769
2770   res = "NULL";
2771   if (!dump_file)
2772     return res;
2773
2774   if (TREE_CODE (decl) == SSA_NAME)
2775     {
2776       num_printed = asprintf (&temp, "%s_%u",
2777                               alias_get_name (SSA_NAME_VAR (decl)),
2778                               SSA_NAME_VERSION (decl));
2779     }
2780   else if (DECL_P (decl))
2781     {
2782       num_printed = asprintf (&temp, "D.%u", DECL_UID (decl));
2783     }
2784   if (num_printed > 0)
2785     {
2786       res = ggc_strdup (temp);
2787       free (temp);
2788     }
2789   return res;
2790 }
2791
2792 /* Find the variable id for tree T in the map.
2793    If T doesn't exist in the map, create an entry for it and return it.  */
2794
2795 static varinfo_t
2796 get_vi_for_tree (tree t)
2797 {
2798   void **slot = pointer_map_contains (vi_for_tree, t);
2799   if (slot == NULL)
2800     return get_varinfo (create_variable_info_for (t, alias_get_name (t)));
2801
2802   return (varinfo_t) *slot;
2803 }
2804
2805 /* Get a scalar constraint expression for a new temporary variable.  */
2806
2807 static struct constraint_expr
2808 new_scalar_tmp_constraint_exp (const char *name)
2809 {
2810   struct constraint_expr tmp;
2811   varinfo_t vi;
2812
2813   vi = new_var_info (NULL_TREE, name);
2814   vi->offset = 0;
2815   vi->size = -1;
2816   vi->fullsize = -1;
2817   vi->is_full_var = 1;
2818
2819   tmp.var = vi->id;
2820   tmp.type = SCALAR;
2821   tmp.offset = 0;
2822
2823   return tmp;
2824 }
2825
2826 /* Get a constraint expression vector from an SSA_VAR_P node.
2827    If address_p is true, the result will be taken its address of.  */
2828
2829 static void
2830 get_constraint_for_ssa_var (tree t, VEC(ce_s, heap) **results, bool address_p)
2831 {
2832   struct constraint_expr cexpr;
2833   varinfo_t vi;
2834
2835   /* We allow FUNCTION_DECLs here even though it doesn't make much sense.  */
2836   gcc_assert (SSA_VAR_P (t) || DECL_P (t));
2837
2838   /* For parameters, get at the points-to set for the actual parm
2839      decl.  */
2840   if (TREE_CODE (t) == SSA_NAME
2841       && TREE_CODE (SSA_NAME_VAR (t)) == PARM_DECL
2842       && SSA_NAME_IS_DEFAULT_DEF (t))
2843     {
2844       get_constraint_for_ssa_var (SSA_NAME_VAR (t), results, address_p);
2845       return;
2846     }
2847
2848   vi = get_vi_for_tree (t);
2849   cexpr.var = vi->id;
2850   cexpr.type = SCALAR;
2851   cexpr.offset = 0;
2852   /* If we determine the result is "anything", and we know this is readonly,
2853      say it points to readonly memory instead.  */
2854   if (cexpr.var == anything_id && TREE_READONLY (t))
2855     {
2856       gcc_unreachable ();
2857       cexpr.type = ADDRESSOF;
2858       cexpr.var = readonly_id;
2859     }
2860
2861   /* If we are not taking the address of the constraint expr, add all
2862      sub-fiels of the variable as well.  */
2863   if (!address_p
2864       && !vi->is_full_var)
2865     {
2866       for (; vi; vi = vi->next)
2867         {
2868           cexpr.var = vi->id;
2869           VEC_safe_push (ce_s, heap, *results, &cexpr);
2870         }
2871       return;
2872     }
2873
2874   VEC_safe_push (ce_s, heap, *results, &cexpr);
2875 }
2876
2877 /* Process constraint T, performing various simplifications and then
2878    adding it to our list of overall constraints.  */
2879
2880 static void
2881 process_constraint (constraint_t t)
2882 {
2883   struct constraint_expr rhs = t->rhs;
2884   struct constraint_expr lhs = t->lhs;
2885
2886   gcc_assert (rhs.var < VEC_length (varinfo_t, varmap));
2887   gcc_assert (lhs.var < VEC_length (varinfo_t, varmap));
2888
2889   /* If we didn't get any useful constraint from the lhs we get
2890      &ANYTHING as fallback from get_constraint_for.  Deal with
2891      it here by turning it into *ANYTHING.  */
2892   if (lhs.type == ADDRESSOF
2893       && lhs.var == anything_id)
2894     lhs.type = DEREF;
2895
2896   /* ADDRESSOF on the lhs is invalid.  */
2897   gcc_assert (lhs.type != ADDRESSOF);
2898
2899   /* We shouldn't add constraints from things that cannot have pointers.
2900      It's not completely trivial to avoid in the callers, so do it here.  */
2901   if (rhs.type != ADDRESSOF
2902       && !get_varinfo (rhs.var)->may_have_pointers)
2903     return;
2904
2905   /* Likewise adding to the solution of a non-pointer var isn't useful.  */
2906   if (!get_varinfo (lhs.var)->may_have_pointers)
2907     return;
2908
2909   /* This can happen in our IR with things like n->a = *p */
2910   if (rhs.type == DEREF && lhs.type == DEREF && rhs.var != anything_id)
2911     {
2912       /* Split into tmp = *rhs, *lhs = tmp */
2913       struct constraint_expr tmplhs;
2914       tmplhs = new_scalar_tmp_constraint_exp ("doubledereftmp");
2915       process_constraint (new_constraint (tmplhs, rhs));
2916       process_constraint (new_constraint (lhs, tmplhs));
2917     }
2918   else if (rhs.type == ADDRESSOF && lhs.type == DEREF)
2919     {
2920       /* Split into tmp = &rhs, *lhs = tmp */
2921       struct constraint_expr tmplhs;
2922       tmplhs = new_scalar_tmp_constraint_exp ("derefaddrtmp");
2923       process_constraint (new_constraint (tmplhs, rhs));
2924       process_constraint (new_constraint (lhs, tmplhs));
2925     }
2926   else
2927     {
2928       gcc_assert (rhs.type != ADDRESSOF || rhs.offset == 0);
2929       VEC_safe_push (constraint_t, heap, constraints, t);
2930     }
2931 }
2932
2933 /* Return true if T is a type that could contain pointers.  */
2934
2935 static bool
2936 type_could_have_pointers (tree type)
2937 {
2938   if (POINTER_TYPE_P (type))
2939     return true;
2940
2941   if (TREE_CODE (type) == ARRAY_TYPE)
2942     return type_could_have_pointers (TREE_TYPE (type));
2943
2944   /* A function or method can consume pointers.
2945      ???  We could be more precise here.  */
2946   if (TREE_CODE (type) == FUNCTION_TYPE
2947       || TREE_CODE (type) == METHOD_TYPE)
2948     return true;
2949
2950   return AGGREGATE_TYPE_P (type);
2951 }
2952
2953 /* Return true if T is a variable of a type that could contain
2954    pointers.  */
2955
2956 static bool
2957 could_have_pointers (tree t)
2958 {
2959   return (((TREE_CODE (t) == VAR_DECL
2960             || TREE_CODE (t) == PARM_DECL
2961             || TREE_CODE (t) == RESULT_DECL)
2962            && (TREE_PUBLIC (t) || DECL_EXTERNAL (t) || TREE_ADDRESSABLE (t)))
2963           || type_could_have_pointers (TREE_TYPE (t)));
2964 }
2965
2966 /* Return the position, in bits, of FIELD_DECL from the beginning of its
2967    structure.  */
2968
2969 static HOST_WIDE_INT
2970 bitpos_of_field (const tree fdecl)
2971 {
2972
2973   if (!host_integerp (DECL_FIELD_OFFSET (fdecl), 0)
2974       || !host_integerp (DECL_FIELD_BIT_OFFSET (fdecl), 0))
2975     return -1;
2976
2977   return (TREE_INT_CST_LOW (DECL_FIELD_OFFSET (fdecl)) * 8
2978           + TREE_INT_CST_LOW (DECL_FIELD_BIT_OFFSET (fdecl)));
2979 }
2980
2981
2982 /* Get constraint expressions for offsetting PTR by OFFSET.  Stores the
2983    resulting constraint expressions in *RESULTS.  */
2984
2985 static void
2986 get_constraint_for_ptr_offset (tree ptr, tree offset,
2987                                VEC (ce_s, heap) **results)
2988 {
2989   struct constraint_expr c;
2990   unsigned int j, n;
2991   HOST_WIDE_INT rhsunitoffset, rhsoffset;
2992
2993   /* If we do not do field-sensitive PTA adding offsets to pointers
2994      does not change the points-to solution.  */
2995   if (!use_field_sensitive)
2996     {
2997       get_constraint_for (ptr, results);
2998       return;
2999     }
3000
3001   /* If the offset is not a non-negative integer constant that fits
3002      in a HOST_WIDE_INT, we have to fall back to a conservative
3003      solution which includes all sub-fields of all pointed-to
3004      variables of ptr.  */
3005   if (offset == NULL_TREE
3006       || !host_integerp (offset, 0))
3007     rhsoffset = UNKNOWN_OFFSET;
3008   else
3009     {
3010       /* Make sure the bit-offset also fits.  */
3011       rhsunitoffset = TREE_INT_CST_LOW (offset);
3012       rhsoffset = rhsunitoffset * BITS_PER_UNIT;
3013       if (rhsunitoffset != rhsoffset / BITS_PER_UNIT)
3014         rhsoffset = UNKNOWN_OFFSET;
3015     }
3016
3017   get_constraint_for (ptr, results);
3018   if (rhsoffset == 0)
3019     return;
3020
3021   /* As we are eventually appending to the solution do not use
3022      VEC_iterate here.  */
3023   n = VEC_length (ce_s, *results);
3024   for (j = 0; j < n; j++)
3025     {
3026       varinfo_t curr;
3027       c = *VEC_index (ce_s, *results, j);
3028       curr = get_varinfo (c.var);
3029
3030       if (c.type == ADDRESSOF
3031           /* If this varinfo represents a full variable just use it.  */
3032           && curr->is_full_var)
3033         c.offset = 0;
3034       else if (c.type == ADDRESSOF
3035                /* If we do not know the offset add all subfields.  */
3036                && rhsoffset == UNKNOWN_OFFSET)
3037         {
3038           varinfo_t temp = lookup_vi_for_tree (curr->decl);
3039           do
3040             {
3041               struct constraint_expr c2;
3042               c2.var = temp->id;
3043               c2.type = ADDRESSOF;
3044               c2.offset = 0;
3045               if (c2.var != c.var)
3046                 VEC_safe_push (ce_s, heap, *results, &c2);
3047               temp = temp->next;
3048             }
3049           while (temp);
3050         }
3051       else if (c.type == ADDRESSOF)
3052         {
3053           varinfo_t temp;
3054           unsigned HOST_WIDE_INT offset = curr->offset + rhsoffset;
3055
3056           /* Search the sub-field which overlaps with the
3057              pointed-to offset.  If the result is outside of the variable
3058              we have to provide a conservative result, as the variable is
3059              still reachable from the resulting pointer (even though it
3060              technically cannot point to anything).  The last and first
3061              sub-fields are such conservative results.
3062              ???  If we always had a sub-field for &object + 1 then
3063              we could represent this in a more precise way.  */
3064           if (rhsoffset < 0
3065               && curr->offset < offset)
3066             offset = 0;
3067           temp = first_or_preceding_vi_for_offset (curr, offset);
3068
3069           /* If the found variable is not exactly at the pointed to
3070              result, we have to include the next variable in the
3071              solution as well.  Otherwise two increments by offset / 2
3072              do not result in the same or a conservative superset
3073              solution.  */
3074           if (temp->offset != offset
3075               && temp->next != NULL)
3076             {
3077               struct constraint_expr c2;
3078               c2.var = temp->next->id;
3079               c2.type = ADDRESSOF;
3080               c2.offset = 0;
3081               VEC_safe_push (ce_s, heap, *results, &c2);
3082             }
3083           c.var = temp->id;
3084           c.offset = 0;
3085         }
3086       else
3087         c.offset = rhsoffset;
3088
3089       VEC_replace (ce_s, *results, j, &c);
3090     }
3091 }
3092
3093
3094 /* Given a COMPONENT_REF T, return the constraint_expr vector for it.
3095    If address_p is true the result will be taken its address of.  */
3096
3097 static void
3098 get_constraint_for_component_ref (tree t, VEC(ce_s, heap) **results,
3099                                   bool address_p)
3100 {
3101   tree orig_t = t;
3102   HOST_WIDE_INT bitsize = -1;
3103   HOST_WIDE_INT bitmaxsize = -1;
3104   HOST_WIDE_INT bitpos;
3105   tree forzero;
3106   struct constraint_expr *result;
3107
3108   /* Some people like to do cute things like take the address of
3109      &0->a.b */
3110   forzero = t;
3111   while (handled_component_p (forzero)
3112          || INDIRECT_REF_P (forzero))
3113     forzero = TREE_OPERAND (forzero, 0);
3114
3115   if (CONSTANT_CLASS_P (forzero) && integer_zerop (forzero))
3116     {
3117       struct constraint_expr temp;
3118
3119       temp.offset = 0;
3120       temp.var = integer_id;
3121       temp.type = SCALAR;
3122       VEC_safe_push (ce_s, heap, *results, &temp);
3123       return;
3124     }
3125
3126   t = get_ref_base_and_extent (t, &bitpos, &bitsize, &bitmaxsize);
3127
3128   /* Pretend to take the address of the base, we'll take care of
3129      adding the required subset of sub-fields below.  */
3130   get_constraint_for_1 (t, results, true);
3131   gcc_assert (VEC_length (ce_s, *results) == 1);
3132   result = VEC_last (ce_s, *results);
3133
3134   if (result->type == SCALAR
3135       && get_varinfo (result->var)->is_full_var)
3136     /* For single-field vars do not bother about the offset.  */
3137     result->offset = 0;
3138   else if (result->type == SCALAR)
3139     {
3140       /* In languages like C, you can access one past the end of an
3141          array.  You aren't allowed to dereference it, so we can
3142          ignore this constraint. When we handle pointer subtraction,
3143          we may have to do something cute here.  */
3144
3145       if ((unsigned HOST_WIDE_INT)bitpos < get_varinfo (result->var)->fullsize
3146           && bitmaxsize != 0)
3147         {
3148           /* It's also not true that the constraint will actually start at the
3149              right offset, it may start in some padding.  We only care about
3150              setting the constraint to the first actual field it touches, so
3151              walk to find it.  */
3152           struct constraint_expr cexpr = *result;
3153           varinfo_t curr;
3154           VEC_pop (ce_s, *results);
3155           cexpr.offset = 0;
3156           for (curr = get_varinfo (cexpr.var); curr; curr = curr->next)
3157             {
3158               if (ranges_overlap_p (curr->offset, curr->size,
3159                                     bitpos, bitmaxsize))
3160                 {
3161                   cexpr.var = curr->id;
3162                   VEC_safe_push (ce_s, heap, *results, &cexpr);
3163                   if (address_p)
3164                     break;
3165                 }
3166             }
3167           /* If we are going to take the address of this field then
3168              to be able to compute reachability correctly add at least
3169              the last field of the variable.  */
3170           if (address_p
3171               && VEC_length (ce_s, *results) == 0)
3172             {
3173               curr = get_varinfo (cexpr.var);
3174               while (curr->next != NULL)
3175                 curr = curr->next;
3176               cexpr.var = curr->id;
3177               VEC_safe_push (ce_s, heap, *results, &cexpr);
3178             }
3179           else
3180             /* Assert that we found *some* field there. The user couldn't be
3181                accessing *only* padding.  */
3182             /* Still the user could access one past the end of an array
3183                embedded in a struct resulting in accessing *only* padding.  */
3184             gcc_assert (VEC_length (ce_s, *results) >= 1
3185                         || ref_contains_array_ref (orig_t));
3186         }
3187       else if (bitmaxsize == 0)
3188         {
3189           if (dump_file && (dump_flags & TDF_DETAILS))
3190             fprintf (dump_file, "Access to zero-sized part of variable,"
3191                      "ignoring\n");
3192         }
3193       else
3194         if (dump_file && (dump_flags & TDF_DETAILS))
3195           fprintf (dump_file, "Access to past the end of variable, ignoring\n");
3196     }
3197   else if (result->type == DEREF)
3198     {
3199       /* If we do not know exactly where the access goes say so.  Note
3200          that only for non-structure accesses we know that we access
3201          at most one subfiled of any variable.  */
3202       if (bitpos == -1
3203           || bitsize != bitmaxsize
3204           || AGGREGATE_TYPE_P (TREE_TYPE (orig_t)))
3205         result->offset = UNKNOWN_OFFSET;
3206       else
3207         result->offset = bitpos;
3208     }
3209   else if (result->type == ADDRESSOF)
3210     {
3211       /* We can end up here for component references on a
3212          VIEW_CONVERT_EXPR <>(&foobar).  */
3213       result->type = SCALAR;
3214       result->var = anything_id;
3215       result->offset = 0;
3216     }
3217   else
3218     gcc_unreachable ();
3219 }
3220
3221
3222 /* Dereference the constraint expression CONS, and return the result.
3223    DEREF (ADDRESSOF) = SCALAR
3224    DEREF (SCALAR) = DEREF
3225    DEREF (DEREF) = (temp = DEREF1; result = DEREF(temp))
3226    This is needed so that we can handle dereferencing DEREF constraints.  */
3227
3228 static void
3229 do_deref (VEC (ce_s, heap) **constraints)
3230 {
3231   struct constraint_expr *c;
3232   unsigned int i = 0;
3233
3234   for (i = 0; VEC_iterate (ce_s, *constraints, i, c); i++)
3235     {
3236       if (c->type == SCALAR)
3237         c->type = DEREF;
3238       else if (c->type == ADDRESSOF)
3239         c->type = SCALAR;
3240       else if (c->type == DEREF)
3241         {
3242           struct constraint_expr tmplhs;
3243           tmplhs = new_scalar_tmp_constraint_exp ("dereftmp");
3244           process_constraint (new_constraint (tmplhs, *c));
3245           c->var = tmplhs.var;
3246         }
3247       else
3248         gcc_unreachable ();
3249     }
3250 }
3251
3252 static void get_constraint_for_1 (tree, VEC (ce_s, heap) **, bool);
3253
3254 /* Given a tree T, return the constraint expression for taking the
3255    address of it.  */
3256
3257 static void
3258 get_constraint_for_address_of (tree t, VEC (ce_s, heap) **results)
3259 {
3260   struct constraint_expr *c;
3261   unsigned int i;
3262
3263   get_constraint_for_1 (t, results, true);
3264
3265   for (i = 0; VEC_iterate (ce_s, *results, i, c); i++)
3266     {
3267       if (c->type == DEREF)
3268         c->type = SCALAR;
3269       else
3270         c->type = ADDRESSOF;
3271     }
3272 }
3273
3274 /* Given a tree T, return the constraint expression for it.  */
3275
3276 static void
3277 get_constraint_for_1 (tree t, VEC (ce_s, heap) **results, bool address_p)
3278 {
3279   struct constraint_expr temp;
3280
3281   /* x = integer is all glommed to a single variable, which doesn't
3282      point to anything by itself.  That is, of course, unless it is an
3283      integer constant being treated as a pointer, in which case, we
3284      will return that this is really the addressof anything.  This
3285      happens below, since it will fall into the default case. The only
3286      case we know something about an integer treated like a pointer is
3287      when it is the NULL pointer, and then we just say it points to
3288      NULL.
3289
3290      Do not do that if -fno-delete-null-pointer-checks though, because
3291      in that case *NULL does not fail, so it _should_ alias *anything.
3292      It is not worth adding a new option or renaming the existing one,
3293      since this case is relatively obscure.  */
3294   if ((TREE_CODE (t) == INTEGER_CST
3295        && integer_zerop (t))
3296       /* The only valid CONSTRUCTORs in gimple with pointer typed
3297          elements are zero-initializer.  But in IPA mode we also
3298          process global initializers, so verify at least.  */
3299       || (TREE_CODE (t) == CONSTRUCTOR
3300           && CONSTRUCTOR_NELTS (t) == 0))
3301     {
3302       if (flag_delete_null_pointer_checks)
3303         temp.var = nothing_id;
3304       else
3305         temp.var = anything_id;
3306       temp.type = ADDRESSOF;
3307       temp.offset = 0;
3308       VEC_safe_push (ce_s, heap, *results, &temp);
3309       return;
3310     }
3311
3312   /* String constants are read-only.  */
3313   if (TREE_CODE (t) == STRING_CST)
3314     {
3315       temp.var = readonly_id;
3316       temp.type = SCALAR;
3317       temp.offset = 0;
3318       VEC_safe_push (ce_s, heap, *results, &temp);
3319       return;
3320     }
3321
3322   switch (TREE_CODE_CLASS (TREE_CODE (t)))
3323     {
3324     case tcc_expression:
3325       {
3326         switch (TREE_CODE (t))
3327           {
3328           case ADDR_EXPR:
3329             get_constraint_for_address_of (TREE_OPERAND (t, 0), results);
3330             return;
3331           default:;
3332           }
3333         break;
3334       }
3335     case tcc_reference:
3336       {
3337         switch (TREE_CODE (t))
3338           {
3339           case INDIRECT_REF:
3340             {
3341               get_constraint_for_1 (TREE_OPERAND (t, 0), results, address_p);
3342               do_deref (results);
3343               return;
3344             }
3345           case ARRAY_REF:
3346           case ARRAY_RANGE_REF:
3347           case COMPONENT_REF:
3348             get_constraint_for_component_ref (t, results, address_p);
3349             return;
3350           case VIEW_CONVERT_EXPR:
3351             get_constraint_for_1 (TREE_OPERAND (t, 0), results, address_p);
3352             return;
3353           /* We are missing handling for TARGET_MEM_REF here.  */
3354           default:;
3355           }
3356         break;
3357       }
3358     case tcc_exceptional:
3359       {
3360         switch (TREE_CODE (t))
3361           {
3362           case SSA_NAME:
3363             {
3364               get_constraint_for_ssa_var (t, results, address_p);
3365               return;
3366             }
3367           case CONSTRUCTOR:
3368             {
3369               unsigned int i;
3370               tree val;
3371               VEC (ce_s, heap) *tmp = NULL;
3372               FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (t), i, val)
3373                 {
3374                   struct constraint_expr *rhsp;
3375                   unsigned j;
3376                   get_constraint_for_1 (val, &tmp, address_p);
3377                   for (j = 0; VEC_iterate (ce_s, tmp, j, rhsp); ++j)
3378                     VEC_safe_push (ce_s, heap, *results, rhsp);
3379                   VEC_truncate (ce_s, tmp, 0);
3380                 }
3381               VEC_free (ce_s, heap, tmp);
3382               /* We do not know whether the constructor was complete,
3383                  so technically we have to add &NOTHING or &ANYTHING
3384                  like we do for an empty constructor as well.  */
3385               return;
3386             }
3387           default:;
3388           }
3389         break;
3390       }
3391     case tcc_declaration:
3392       {
3393         get_constraint_for_ssa_var (t, results, address_p);
3394         return;
3395       }
3396     default:;
3397     }
3398
3399   /* The default fallback is a constraint from anything.  */
3400   temp.type = ADDRESSOF;
3401   temp.var = anything_id;
3402   temp.offset = 0;
3403   VEC_safe_push (ce_s, heap, *results, &temp);
3404 }
3405
3406 /* Given a gimple tree T, return the constraint expression vector for it.  */
3407
3408 static void
3409 get_constraint_for (tree t, VEC (ce_s, heap) **results)
3410 {
3411   gcc_assert (VEC_length (ce_s, *results) == 0);
3412
3413   get_constraint_for_1 (t, results, false);
3414 }
3415
3416
3417 /* Efficiently generates constraints from all entries in *RHSC to all
3418    entries in *LHSC.  */
3419
3420 static void
3421 process_all_all_constraints (VEC (ce_s, heap) *lhsc, VEC (ce_s, heap) *rhsc)
3422 {
3423   struct constraint_expr *lhsp, *rhsp;
3424   unsigned i, j;
3425
3426   if (VEC_length (ce_s, lhsc) <= 1
3427       || VEC_length (ce_s, rhsc) <= 1)
3428     {
3429       for (i = 0; VEC_iterate (ce_s, lhsc, i, lhsp); ++i)
3430         for (j = 0; VEC_iterate (ce_s, rhsc, j, rhsp); ++j)
3431           process_constraint (new_constraint (*lhsp, *rhsp));
3432     }
3433   else
3434     {
3435       struct constraint_expr tmp;
3436       tmp = new_scalar_tmp_constraint_exp ("allalltmp");
3437       for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); ++i)
3438         process_constraint (new_constraint (tmp, *rhsp));
3439       for (i = 0; VEC_iterate (ce_s, lhsc, i, lhsp); ++i)
3440         process_constraint (new_constraint (*lhsp, tmp));
3441     }
3442 }
3443
3444 /* Handle aggregate copies by expanding into copies of the respective
3445    fields of the structures.  */
3446
3447 static void
3448 do_structure_copy (tree lhsop, tree rhsop)
3449 {
3450   struct constraint_expr *lhsp, *rhsp;
3451   VEC (ce_s, heap) *lhsc = NULL, *rhsc = NULL;
3452   unsigned j;
3453
3454   get_constraint_for (lhsop, &lhsc);
3455   get_constraint_for (rhsop, &rhsc);
3456   lhsp = VEC_index (ce_s, lhsc, 0);
3457   rhsp = VEC_index (ce_s, rhsc, 0);
3458   if (lhsp->type == DEREF
3459       || (lhsp->type == ADDRESSOF && lhsp->var == anything_id)
3460       || rhsp->type == DEREF)
3461     {
3462       if (lhsp->type == DEREF)
3463         {
3464           gcc_assert (VEC_length (ce_s, lhsc) == 1);
3465           lhsp->offset = UNKNOWN_OFFSET;
3466         }
3467       if (rhsp->type == DEREF)
3468         {
3469           gcc_assert (VEC_length (ce_s, rhsc) == 1);
3470           rhsp->offset = UNKNOWN_OFFSET;
3471         }
3472       process_all_all_constraints (lhsc, rhsc);
3473     }
3474   else if (lhsp->type == SCALAR
3475            && (rhsp->type == SCALAR
3476                || rhsp->type == ADDRESSOF))
3477     {
3478       HOST_WIDE_INT lhssize, lhsmaxsize, lhsoffset;
3479       HOST_WIDE_INT rhssize, rhsmaxsize, rhsoffset;
3480       unsigned k = 0;
3481       get_ref_base_and_extent (lhsop, &lhsoffset, &lhssize, &lhsmaxsize);
3482       get_ref_base_and_extent (rhsop, &rhsoffset, &rhssize, &rhsmaxsize);
3483       for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp);)
3484         {
3485           varinfo_t lhsv, rhsv;
3486           rhsp = VEC_index (ce_s, rhsc, k);
3487           lhsv = get_varinfo (lhsp->var);
3488           rhsv = get_varinfo (rhsp->var);
3489           if (lhsv->may_have_pointers
3490               && ranges_overlap_p (lhsv->offset + rhsoffset, lhsv->size,
3491                                    rhsv->offset + lhsoffset, rhsv->size))
3492             process_constraint (new_constraint (*lhsp, *rhsp));
3493           if (lhsv->offset + rhsoffset + lhsv->size
3494               > rhsv->offset + lhsoffset + rhsv->size)
3495             {
3496               ++k;
3497               if (k >= VEC_length (ce_s, rhsc))
3498                 break;
3499             }
3500           else
3501             ++j;
3502         }
3503     }
3504   else
3505     gcc_unreachable ();
3506
3507   VEC_free (ce_s, heap, lhsc);
3508   VEC_free (ce_s, heap, rhsc);
3509 }
3510
3511 /* Create a constraint ID = OP.  */
3512
3513 static void
3514 make_constraint_to (unsigned id, tree op)
3515 {
3516   VEC(ce_s, heap) *rhsc = NULL;
3517   struct constraint_expr *c;
3518   struct constraint_expr includes;
3519   unsigned int j;
3520
3521   includes.var = id;
3522   includes.offset = 0;
3523   includes.type = SCALAR;
3524
3525   get_constraint_for (op, &rhsc);
3526   for (j = 0; VEC_iterate (ce_s, rhsc, j, c); j++)
3527     process_constraint (new_constraint (includes, *c));
3528   VEC_free (ce_s, heap, rhsc);
3529 }
3530
3531 /* Create a constraint ID = &FROM.  */
3532
3533 static void
3534 make_constraint_from (varinfo_t vi, int from)
3535 {
3536   struct constraint_expr lhs, rhs;
3537
3538   lhs.var = vi->id;
3539   lhs.offset = 0;
3540   lhs.type = SCALAR;
3541
3542   rhs.var = from;
3543   rhs.offset = 0;
3544   rhs.type = ADDRESSOF;
3545   process_constraint (new_constraint (lhs, rhs));
3546 }
3547
3548 /* Create a constraint ID = FROM.  */
3549
3550 static void
3551 make_copy_constraint (varinfo_t vi, int from)
3552 {
3553   struct constraint_expr lhs, rhs;
3554
3555   lhs.var = vi->id;
3556   lhs.offset = 0;
3557   lhs.type = SCALAR;
3558
3559   rhs.var = from;
3560   rhs.offset = 0;
3561   rhs.type = SCALAR;
3562   process_constraint (new_constraint (lhs, rhs));
3563 }
3564
3565 /* Make constraints necessary to make OP escape.  */
3566
3567 static void
3568 make_escape_constraint (tree op)
3569 {
3570   make_constraint_to (escaped_id, op);
3571 }
3572
3573 /* Add constraints to that the solution of VI is transitively closed.  */
3574
3575 static void
3576 make_transitive_closure_constraints (varinfo_t vi)
3577 {
3578   struct constraint_expr lhs, rhs;
3579
3580   /* VAR = *VAR;  */
3581   lhs.type = SCALAR;
3582   lhs.var = vi->id;
3583   lhs.offset = 0;
3584   rhs.type = DEREF;
3585   rhs.var = vi->id;
3586   rhs.offset = 0;
3587   process_constraint (new_constraint (lhs, rhs));
3588
3589   /* VAR = VAR + UNKNOWN;  */
3590   lhs.type = SCALAR;
3591   lhs.var = vi->id;
3592   lhs.offset = 0;
3593   rhs.type = SCALAR;
3594   rhs.var = vi->id;
3595   rhs.offset = UNKNOWN_OFFSET;
3596   process_constraint (new_constraint (lhs, rhs));
3597 }
3598
3599 /* Create a new artificial heap variable with NAME.
3600    Return the created variable.  */
3601
3602 static varinfo_t
3603 make_heapvar_for (varinfo_t lhs, const char *name)
3604 {
3605   varinfo_t vi;
3606   tree heapvar = heapvar_lookup (lhs->decl, lhs->offset);
3607
3608   if (heapvar == NULL_TREE)
3609     {
3610       var_ann_t ann;
3611       heapvar = create_tmp_var_raw (ptr_type_node, name);
3612       DECL_EXTERNAL (heapvar) = 1;
3613
3614       heapvar_insert (lhs->decl, lhs->offset, heapvar);
3615
3616       ann = get_var_ann (heapvar);
3617       ann->is_heapvar = 1;
3618     }
3619
3620   /* For global vars we need to add a heapvar to the list of referenced
3621      vars of a different function than it was created for originally.  */
3622   if (cfun && gimple_referenced_vars (cfun))
3623     add_referenced_var (heapvar);
3624
3625   vi = new_var_info (heapvar, name);
3626   vi->is_artificial_var = true;
3627   vi->is_heap_var = true;
3628   vi->is_unknown_size_var = true;
3629   vi->offset = 0;
3630   vi->fullsize = ~0;
3631   vi->size = ~0;
3632   vi->is_full_var = true;
3633   insert_vi_for_tree (heapvar, vi);
3634
3635   return vi;
3636 }
3637
3638 /* Create a new artificial heap variable with NAME and make a
3639    constraint from it to LHS.  Return the created variable.  */
3640
3641 static varinfo_t
3642 make_constraint_from_heapvar (varinfo_t lhs, const char *name)
3643 {
3644   varinfo_t vi = make_heapvar_for (lhs, name);
3645   make_constraint_from (lhs, vi->id);
3646
3647   return vi;
3648 }
3649
3650 /* Create a new artificial heap variable with NAME and make a
3651    constraint from it to LHS.  Set flags according to a tag used
3652    for tracking restrict pointers.  */
3653
3654 static void
3655 make_constraint_from_restrict (varinfo_t lhs, const char *name)
3656 {
3657   varinfo_t vi;
3658   vi = make_constraint_from_heapvar (lhs, name);
3659   vi->is_restrict_var = 1;
3660   vi->is_global_var = 0;
3661   vi->is_special_var = 1;
3662   vi->may_have_pointers = 0;
3663 }
3664
3665 /* In IPA mode there are varinfos for different aspects of reach
3666    function designator.  One for the points-to set of the return
3667    value, one for the variables that are clobbered by the function,
3668    one for its uses and one for each parameter (including a single
3669    glob for remaining variadic arguments).  */
3670
3671 enum { fi_clobbers = 1, fi_uses = 2,
3672        fi_static_chain = 3, fi_result = 4, fi_parm_base = 5 };
3673
3674 /* Get a constraint for the requested part of a function designator FI
3675    when operating in IPA mode.  */
3676
3677 static struct constraint_expr
3678 get_function_part_constraint (varinfo_t fi, unsigned part)
3679 {
3680   struct constraint_expr c;
3681
3682   gcc_assert (in_ipa_mode);
3683
3684   if (fi->id == anything_id)
3685     {
3686       /* ???  We probably should have a ANYFN special variable.  */
3687       c.var = anything_id;
3688       c.offset = 0;
3689       c.type = SCALAR;
3690     }
3691   else if (TREE_CODE (fi->decl) == FUNCTION_DECL)
3692     {
3693       varinfo_t ai = first_vi_for_offset (fi, part);
3694       if (ai)
3695         c.var = ai->id;
3696       else
3697         c.var = anything_id;
3698       c.offset = 0;
3699       c.type = SCALAR;
3700     }
3701   else
3702     {
3703       c.var = fi->id;
3704       c.offset = part;
3705       c.type = DEREF;
3706     }
3707
3708   return c;
3709 }
3710
3711 /* For non-IPA mode, generate constraints necessary for a call on the
3712    RHS.  */
3713
3714 static void
3715 handle_rhs_call (gimple stmt, VEC(ce_s, heap) **results)
3716 {
3717   struct constraint_expr rhsc;
3718   unsigned i;
3719   bool returns_uses = false;
3720
3721   for (i = 0; i < gimple_call_num_args (stmt); ++i)
3722     {
3723       tree arg = gimple_call_arg (stmt, i);
3724       int flags = gimple_call_arg_flags (stmt, i);
3725
3726       /* If the argument is not used or it does not contain pointers
3727          we can ignore it.  */
3728       if ((flags & EAF_UNUSED)
3729           || !could_have_pointers (arg))
3730         continue;
3731
3732       /* As we compute ESCAPED context-insensitive we do not gain
3733          any precision with just EAF_NOCLOBBER but not EAF_NOESCAPE
3734          set.  The argument would still get clobbered through the
3735          escape solution.
3736          ???  We might get away with less (and more precise) constraints
3737          if using a temporary for transitively closing things.  */
3738       if ((flags & EAF_NOCLOBBER)
3739            && (flags & EAF_NOESCAPE))
3740         {
3741           varinfo_t uses = get_call_use_vi (stmt);
3742           if (!(flags & EAF_DIRECT))
3743             make_transitive_closure_constraints (uses);
3744           make_constraint_to (uses->id, arg);
3745           returns_uses = true;
3746         }
3747       else if (flags & EAF_NOESCAPE)
3748         {
3749           varinfo_t uses = get_call_use_vi (stmt);
3750           varinfo_t clobbers = get_call_clobber_vi (stmt);
3751           if (!(flags & EAF_DIRECT))
3752             {
3753               make_transitive_closure_constraints (uses);
3754               make_transitive_closure_constraints (clobbers);
3755             }
3756           make_constraint_to (uses->id, arg);
3757           make_constraint_to (clobbers->id, arg);
3758           returns_uses = true;
3759         }
3760       else
3761         make_escape_constraint (arg);
3762     }
3763
3764   /* If we added to the calls uses solution make sure we account for
3765      pointers to it to be returned.  */
3766   if (returns_uses)
3767     {
3768       rhsc.var = get_call_use_vi (stmt)->id;
3769       rhsc.offset = 0;
3770       rhsc.type = SCALAR;
3771       VEC_safe_push (ce_s, heap, *results, &rhsc);
3772     }
3773
3774   /* The static chain escapes as well.  */
3775   if (gimple_call_chain (stmt))
3776     make_escape_constraint (gimple_call_chain (stmt));
3777
3778   /* And if we applied NRV the address of the return slot escapes as well.  */
3779   if (gimple_call_return_slot_opt_p (stmt)
3780       && gimple_call_lhs (stmt) != NULL_TREE
3781       && TREE_ADDRESSABLE (TREE_TYPE (gimple_call_lhs (stmt))))
3782     {
3783       VEC(ce_s, heap) *tmpc = NULL;
3784       struct constraint_expr lhsc, *c;
3785       get_constraint_for_address_of (gimple_call_lhs (stmt), &tmpc);
3786       lhsc.var = escaped_id;
3787       lhsc.offset = 0;
3788       lhsc.type = SCALAR;
3789       for (i = 0; VEC_iterate (ce_s, tmpc, i, c); ++i)
3790         process_constraint (new_constraint (lhsc, *c));
3791       VEC_free(ce_s, heap, tmpc);
3792     }
3793
3794   /* Regular functions return nonlocal memory.  */
3795   rhsc.var = nonlocal_id;
3796   rhsc.offset = 0;
3797   rhsc.type = SCALAR;
3798   VEC_safe_push (ce_s, heap, *results, &rhsc);
3799 }
3800
3801 /* For non-IPA mode, generate constraints necessary for a call
3802    that returns a pointer and assigns it to LHS.  This simply makes
3803    the LHS point to global and escaped variables.  */
3804
3805 static void
3806 handle_lhs_call (gimple stmt, tree lhs, int flags, VEC(ce_s, heap) *rhsc,
3807                  tree fndecl)
3808 {
3809   VEC(ce_s, heap) *lhsc = NULL;
3810
3811   get_constraint_for (lhs, &lhsc);
3812   /* If the store is to a global decl make sure to
3813      add proper escape constraints.  */
3814   lhs = get_base_address (lhs);
3815   if (lhs
3816       && DECL_P (lhs)
3817       && is_global_var (lhs))
3818     {
3819       struct constraint_expr tmpc;
3820       tmpc.var = escaped_id;
3821       tmpc.offset = 0;
3822       tmpc.type = SCALAR;
3823       VEC_safe_push (ce_s, heap, lhsc, &tmpc);
3824     }
3825
3826   /* If the call returns an argument unmodified override the rhs
3827      constraints.  */
3828   flags = gimple_call_return_flags (stmt);
3829   if (flags & ERF_RETURNS_ARG
3830       && (flags & ERF_RETURN_ARG_MASK) < gimple_call_num_args (stmt))
3831     {
3832       tree arg;
3833       rhsc = NULL;
3834       arg = gimple_call_arg (stmt, flags & ERF_RETURN_ARG_MASK);
3835       get_constraint_for (arg, &rhsc);
3836       process_all_all_constraints (lhsc, rhsc);
3837       VEC_free (ce_s, heap, rhsc);
3838     }
3839   else if (flags & ERF_NOALIAS)
3840     {
3841       varinfo_t vi;
3842       struct constraint_expr tmpc;
3843       rhsc = NULL;
3844       vi = make_heapvar_for (get_vi_for_tree (lhs), "HEAP");
3845       /* We delay marking allocated storage global until we know if
3846          it escapes.  */
3847       DECL_EXTERNAL (vi->decl) = 0;
3848       vi->is_global_var = 0;
3849       /* If this is not a real malloc call assume the memory was
3850          initialized and thus may point to global memory.  All
3851          builtin functions with the malloc attribute behave in a sane way.  */
3852       if (!fndecl
3853           || DECL_BUILT_IN_CLASS (fndecl) != BUILT_IN_NORMAL)
3854         make_constraint_from (vi, nonlocal_id);
3855       tmpc.var = vi->id;
3856       tmpc.offset = 0;
3857       tmpc.type = ADDRESSOF;
3858       VEC_safe_push (ce_s, heap, rhsc, &tmpc);
3859     }
3860
3861   process_all_all_constraints (lhsc, rhsc);
3862
3863   VEC_free (ce_s, heap, lhsc);
3864 }
3865
3866 /* For non-IPA mode, generate constraints necessary for a call of a
3867    const function that returns a pointer in the statement STMT.  */
3868
3869 static void
3870 handle_const_call (gimple stmt, VEC(ce_s, heap) **results)
3871 {
3872   struct constraint_expr rhsc;
3873   unsigned int k;
3874
3875   /* Treat nested const functions the same as pure functions as far
3876      as the static chain is concerned.  */
3877   if (gimple_call_chain (stmt))
3878     {
3879       varinfo_t uses = get_call_use_vi (stmt);
3880       make_transitive_closure_constraints (uses);
3881       make_constraint_to (uses->id, gimple_call_chain (stmt));
3882       rhsc.var = uses->id;
3883       rhsc.offset = 0;
3884       rhsc.type = SCALAR;
3885       VEC_safe_push (ce_s, heap, *results, &rhsc);
3886     }
3887
3888   /* May return arguments.  */
3889   for (k = 0; k < gimple_call_num_args (stmt); ++k)
3890     {
3891       tree arg = gimple_call_arg (stmt, k);
3892
3893       if (could_have_pointers (arg))
3894         {
3895           VEC(ce_s, heap) *argc = NULL;
3896           unsigned i;
3897           struct constraint_expr *argp;
3898           get_constraint_for (arg, &argc);
3899           for (i = 0; VEC_iterate (ce_s, argc, i, argp); ++i)
3900             VEC_safe_push (ce_s, heap, *results, argp);
3901           VEC_free(ce_s, heap, argc);
3902         }
3903     }
3904
3905   /* May return addresses of globals.  */
3906   rhsc.var = nonlocal_id;
3907   rhsc.offset = 0;
3908   rhsc.type = ADDRESSOF;
3909   VEC_safe_push (ce_s, heap, *results, &rhsc);
3910 }
3911
3912 /* For non-IPA mode, generate constraints necessary for a call to a
3913    pure function in statement STMT.  */
3914
3915 static void
3916 handle_pure_call (gimple stmt, VEC(ce_s, heap) **results)
3917 {
3918   struct constraint_expr rhsc;
3919   unsigned i;
3920   varinfo_t uses = NULL;
3921
3922   /* Memory reached from pointer arguments is call-used.  */
3923   for (i = 0; i < gimple_call_num_args (stmt); ++i)
3924     {
3925       tree arg = gimple_call_arg (stmt, i);
3926
3927       if (could_have_pointers (arg))
3928         {
3929           if (!uses)
3930             {
3931               uses = get_call_use_vi (stmt);
3932               make_transitive_closure_constraints (uses);
3933             }
3934           make_constraint_to (uses->id, arg);
3935         }
3936     }
3937
3938   /* The static chain is used as well.  */
3939   if (gimple_call_chain (stmt))
3940     {
3941       if (!uses)
3942         {
3943           uses = get_call_use_vi (stmt);
3944           make_transitive_closure_constraints (uses);
3945         }
3946       make_constraint_to (uses->id, gimple_call_chain (stmt));
3947     }
3948
3949   /* Pure functions may return call-used and nonlocal memory.  */
3950   if (uses)
3951     {
3952       rhsc.var = uses->id;
3953       rhsc.offset = 0;
3954       rhsc.type = SCALAR;
3955       VEC_safe_push (ce_s, heap, *results, &rhsc);
3956     }
3957   rhsc.var = nonlocal_id;
3958   rhsc.offset = 0;
3959   rhsc.type = SCALAR;
3960   VEC_safe_push (ce_s, heap, *results, &rhsc);
3961 }
3962
3963
3964 /* Return the varinfo for the callee of CALL.  */
3965
3966 static varinfo_t
3967 get_fi_for_callee (gimple call)
3968 {
3969   tree decl;
3970
3971   /* If we can directly resolve the function being called, do so.
3972      Otherwise, it must be some sort of indirect expression that
3973      we should still be able to handle.  */
3974   decl = gimple_call_fndecl (call);
3975   if (decl)
3976     return get_vi_for_tree (decl);
3977
3978   decl = gimple_call_fn (call);
3979   /* The function can be either an SSA name pointer or,
3980      worse, an OBJ_TYPE_REF.  In this case we have no
3981      clue and should be getting ANYFN (well, ANYTHING for now).  */
3982   if (TREE_CODE (decl) == SSA_NAME)
3983     {
3984       if (TREE_CODE (decl) == SSA_NAME
3985           && TREE_CODE (SSA_NAME_VAR (decl)) == PARM_DECL
3986           && SSA_NAME_IS_DEFAULT_DEF (decl))
3987         decl = SSA_NAME_VAR (decl);
3988       return get_vi_for_tree (decl);
3989     }
3990   else if (TREE_CODE (decl) == INTEGER_CST
3991            || TREE_CODE (decl) == OBJ_TYPE_REF)
3992     return get_varinfo (anything_id);
3993   else
3994     gcc_unreachable ();
3995 }
3996
3997 /* Walk statement T setting up aliasing constraints according to the
3998    references found in T.  This function is the main part of the
3999    constraint builder.  AI points to auxiliary alias information used
4000    when building alias sets and computing alias grouping heuristics.  */
4001
4002 static void
4003 find_func_aliases (gimple origt)
4004 {
4005   gimple t = origt;
4006   VEC(ce_s, heap) *lhsc = NULL;
4007   VEC(ce_s, heap) *rhsc = NULL;
4008   struct constraint_expr *c;
4009   varinfo_t fi;
4010
4011   /* Now build constraints expressions.  */
4012   if (gimple_code (t) == GIMPLE_PHI)
4013     {
4014       gcc_assert (!AGGREGATE_TYPE_P (TREE_TYPE (gimple_phi_result (t))));
4015
4016       /* Only care about pointers and structures containing
4017          pointers.  */
4018       if (could_have_pointers (gimple_phi_result (t)))
4019         {
4020           size_t i;
4021           unsigned int j;
4022
4023           /* For a phi node, assign all the arguments to
4024              the result.  */
4025           get_constraint_for (gimple_phi_result (t), &lhsc);
4026           for (i = 0; i < gimple_phi_num_args (t); i++)
4027             {
4028               tree strippedrhs = PHI_ARG_DEF (t, i);
4029
4030               STRIP_NOPS (strippedrhs);
4031               get_constraint_for (gimple_phi_arg_def (t, i), &rhsc);
4032
4033               for (j = 0; VEC_iterate (ce_s, lhsc, j, c); j++)
4034                 {
4035                   struct constraint_expr *c2;
4036                   while (VEC_length (ce_s, rhsc) > 0)
4037                     {
4038                       c2 = VEC_last (ce_s, rhsc);
4039                       process_constraint (new_constraint (*c, *c2));
4040                       VEC_pop (ce_s, rhsc);
4041                     }
4042                 }
4043             }
4044         }
4045     }
4046   /* In IPA mode, we need to generate constraints to pass call
4047      arguments through their calls.   There are two cases,
4048      either a GIMPLE_CALL returning a value, or just a plain
4049      GIMPLE_CALL when we are not.
4050
4051      In non-ipa mode, we need to generate constraints for each
4052      pointer passed by address.  */
4053   else if (is_gimple_call (t))
4054     {
4055       tree fndecl = gimple_call_fndecl (t);
4056       if (fndecl != NULL_TREE
4057           && DECL_BUILT_IN_CLASS (fndecl) == BUILT_IN_NORMAL)
4058         /* ???  All builtins that are handled here need to be handled
4059            in the alias-oracle query functions explicitly!  */
4060         switch (DECL_FUNCTION_CODE (fndecl))
4061           {
4062           /* All the following functions return a pointer to the same object
4063              as their first argument points to.  The functions do not add
4064              to the ESCAPED solution.  The functions make the first argument
4065              pointed to memory point to what the second argument pointed to
4066              memory points to.  */
4067           case BUILT_IN_STRCPY:
4068           case BUILT_IN_STRNCPY:
4069           case BUILT_IN_BCOPY:
4070           case BUILT_IN_MEMCPY:
4071           case BUILT_IN_MEMMOVE:
4072           case BUILT_IN_MEMPCPY:
4073           case BUILT_IN_STPCPY:
4074           case BUILT_IN_STPNCPY:
4075           case BUILT_IN_STRCAT:
4076           case BUILT_IN_STRNCAT:
4077             {
4078               tree res = gimple_call_lhs (t);
4079               tree dest = gimple_call_arg (t, (DECL_FUNCTION_CODE (fndecl)
4080                                                == BUILT_IN_BCOPY ? 1 : 0));
4081               tree src = gimple_call_arg (t, (DECL_FUNCTION_CODE (fndecl)
4082                                               == BUILT_IN_BCOPY ? 0 : 1));
4083               if (res != NULL_TREE)
4084                 {
4085                   get_constraint_for (res, &lhsc);
4086                   if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_MEMPCPY
4087                       || DECL_FUNCTION_CODE (fndecl) == BUILT_IN_STPCPY
4088                       || DECL_FUNCTION_CODE (fndecl) == BUILT_IN_STPNCPY)
4089                     get_constraint_for_ptr_offset (dest, NULL_TREE, &rhsc);
4090                   else
4091                     get_constraint_for (dest, &rhsc);
4092                   process_all_all_constraints (lhsc, rhsc);
4093                   VEC_free (ce_s, heap, lhsc);
4094                   VEC_free (ce_s, heap, rhsc);
4095                 }
4096               get_constraint_for_ptr_offset (dest, NULL_TREE, &lhsc);
4097               get_constraint_for_ptr_offset (src, NULL_TREE, &rhsc);
4098               do_deref (&lhsc);
4099               do_deref (&rhsc);
4100               process_all_all_constraints (lhsc, rhsc);
4101               VEC_free (ce_s, heap, lhsc);
4102               VEC_free (ce_s, heap, rhsc);
4103               return;
4104             }
4105           case BUILT_IN_MEMSET:
4106             {
4107               tree res = gimple_call_lhs (t);
4108               tree dest = gimple_call_arg (t, 0);
4109               unsigned i;
4110               ce_s *lhsp;
4111               struct constraint_expr ac;
4112               if (res != NULL_TREE)
4113                 {
4114                   get_constraint_for (res, &lhsc);
4115                   get_constraint_for (dest, &rhsc);
4116                   process_all_all_constraints (lhsc, rhsc);
4117                   VEC_free (ce_s, heap, lhsc);
4118                   VEC_free (ce_s, heap, rhsc);
4119                 }
4120               get_constraint_for_ptr_offset (dest, NULL_TREE, &lhsc);
4121               do_deref (&lhsc);
4122               if (flag_delete_null_pointer_checks
4123                   && integer_zerop (gimple_call_arg (t, 1)))
4124                 {
4125                   ac.type = ADDRESSOF;
4126                   ac.var = nothing_id;
4127                 }
4128               else
4129                 {
4130                   ac.type = SCALAR;
4131                   ac.var = integer_id;
4132                 }
4133               ac.offset = 0;
4134               for (i = 0; VEC_iterate (ce_s, lhsc, i, lhsp); ++i)
4135                 process_constraint (new_constraint (*lhsp, ac));
4136               VEC_free (ce_s, heap, lhsc);
4137               return;
4138             }
4139           /* All the following functions do not return pointers, do not
4140              modify the points-to sets of memory reachable from their
4141              arguments and do not add to the ESCAPED solution.  */
4142           case BUILT_IN_SINCOS:
4143           case BUILT_IN_SINCOSF:
4144           case BUILT_IN_SINCOSL:
4145           case BUILT_IN_FREXP:
4146           case BUILT_IN_FREXPF:
4147           case BUILT_IN_FREXPL:
4148           case BUILT_IN_GAMMA_R:
4149           case BUILT_IN_GAMMAF_R:
4150           case BUILT_IN_GAMMAL_R:
4151           case BUILT_IN_LGAMMA_R:
4152           case BUILT_IN_LGAMMAF_R:
4153           case BUILT_IN_LGAMMAL_R:
4154           case BUILT_IN_MODF:
4155           case BUILT_IN_MODFF:
4156           case BUILT_IN_MODFL:
4157           case BUILT_IN_REMQUO:
4158           case BUILT_IN_REMQUOF:
4159           case BUILT_IN_REMQUOL:
4160           case BUILT_IN_FREE:
4161             return;
4162           /* Trampolines are special - they set up passing the static
4163              frame.  */
4164           case BUILT_IN_INIT_TRAMPOLINE:
4165             {
4166               tree tramp = gimple_call_arg (t, 0);
4167               tree nfunc = gimple_call_arg (t, 1);
4168               tree frame = gimple_call_arg (t, 2);
4169               unsigned i;
4170               struct constraint_expr lhs, *rhsp;
4171               if (in_ipa_mode)
4172                 {
4173                   varinfo_t nfi = NULL;
4174                   gcc_assert (TREE_CODE (nfunc) == ADDR_EXPR);
4175                   nfi = lookup_vi_for_tree (TREE_OPERAND (nfunc, 0));
4176                   if (nfi)
4177                     {
4178                       lhs = get_function_part_constraint (nfi, fi_static_chain);
4179                       get_constraint_for (frame, &rhsc);
4180                       for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); ++i)
4181                         process_constraint (new_constraint (lhs, *rhsp));
4182                       VEC_free (ce_s, heap, rhsc);
4183
4184                       /* Make the frame point to the function for
4185                          the trampoline adjustment call.  */
4186                       get_constraint_for (tramp, &lhsc);
4187                       do_deref (&lhsc);
4188                       get_constraint_for (nfunc, &rhsc);
4189                       process_all_all_constraints (lhsc, rhsc);
4190                       VEC_free (ce_s, heap, rhsc);
4191                       VEC_free (ce_s, heap, lhsc);
4192
4193                       return;
4194                     }
4195                 }
4196               /* Else fallthru to generic handling which will let
4197                  the frame escape.  */
4198               break;
4199             }
4200           case BUILT_IN_ADJUST_TRAMPOLINE:
4201             {
4202               tree tramp = gimple_call_arg (t, 0);
4203               tree res = gimple_call_lhs (t);
4204               if (in_ipa_mode && res)
4205                 {
4206                   get_constraint_for (res, &lhsc);
4207                   get_constraint_for (tramp, &rhsc);
4208                   do_deref (&rhsc);
4209                   process_all_all_constraints (lhsc, rhsc);
4210                   VEC_free (ce_s, heap, rhsc);
4211                   VEC_free (ce_s, heap, lhsc);
4212                 }
4213               return;
4214             }
4215           /* Variadic argument handling needs to be handled in IPA
4216              mode as well.  */
4217           case BUILT_IN_VA_START:
4218             {
4219               if (in_ipa_mode)
4220                 {
4221                   tree valist = gimple_call_arg (t, 0);
4222                   struct constraint_expr rhs, *lhsp;
4223                   unsigned i;
4224                   /* The va_list gets access to pointers in variadic
4225                      arguments.  */
4226                   fi = lookup_vi_for_tree (cfun->decl);
4227                   gcc_assert (fi != NULL);
4228                   get_constraint_for (valist, &lhsc);
4229                   do_deref (&lhsc);
4230                   rhs = get_function_part_constraint (fi, ~0);
4231                   rhs.type = ADDRESSOF;
4232                   for (i = 0; VEC_iterate (ce_s, lhsc, i, lhsp); ++i)
4233                     process_constraint (new_constraint (*lhsp, rhs));
4234                   VEC_free (ce_s, heap, lhsc);
4235                   /* va_list is clobbered.  */
4236                   make_constraint_to (get_call_clobber_vi (t)->id, valist);
4237                   return;
4238                 }
4239               break;
4240             }
4241           /* va_end doesn't have any effect that matters.  */
4242           case BUILT_IN_VA_END:
4243             return;
4244           /* Alternate return.  Simply give up for now.  */
4245           case BUILT_IN_RETURN:
4246             {
4247               fi = NULL;
4248               if (!in_ipa_mode
4249                   || !(fi = get_vi_for_tree (cfun->decl)))
4250                 make_constraint_from (get_varinfo (escaped_id), anything_id);
4251               else if (in_ipa_mode
4252                        && fi != NULL)
4253                 {
4254                   struct constraint_expr lhs, rhs;
4255                   lhs = get_function_part_constraint (fi, fi_result);
4256                   rhs.var = anything_id;
4257                   rhs.offset = 0;
4258                   rhs.type = SCALAR;
4259                   get_constraint_for (gimple_return_retval (t), &rhsc);
4260                   process_constraint (new_constraint (lhs, rhs));
4261                 }
4262               return;
4263             }
4264           /* printf-style functions may have hooks to set pointers to
4265              point to somewhere into the generated string.  Leave them
4266              for a later excercise...  */
4267           default:
4268             /* Fallthru to general call handling.  */;
4269           }
4270       if (!in_ipa_mode
4271           || (fndecl
4272               && (!(fi = lookup_vi_for_tree (fndecl))
4273                   || !fi->is_fn_info)))
4274         {
4275           VEC(ce_s, heap) *rhsc = NULL;
4276           int flags = gimple_call_flags (t);
4277
4278           /* Const functions can return their arguments and addresses
4279              of global memory but not of escaped memory.  */
4280           if (flags & (ECF_CONST|ECF_NOVOPS))
4281             {
4282               if (gimple_call_lhs (t)
4283                   && could_have_pointers (gimple_call_lhs (t)))
4284                 handle_const_call (t, &rhsc);
4285             }
4286           /* Pure functions can return addresses in and of memory
4287              reachable from their arguments, but they are not an escape
4288              point for reachable memory of their arguments.  */
4289           else if (flags & (ECF_PURE|ECF_LOOPING_CONST_OR_PURE))
4290             handle_pure_call (t, &rhsc);
4291           else
4292             handle_rhs_call (t, &rhsc);
4293           if (gimple_call_lhs (t)
4294               && could_have_pointers (gimple_call_lhs (t)))
4295             handle_lhs_call (t, gimple_call_lhs (t), flags, rhsc, fndecl);
4296           VEC_free (ce_s, heap, rhsc);
4297         }
4298       else
4299         {
4300           tree lhsop;
4301           unsigned j;
4302
4303           fi = get_fi_for_callee (t);
4304
4305           /* Assign all the passed arguments to the appropriate incoming
4306              parameters of the function.  */
4307           for (j = 0; j < gimple_call_num_args (t); j++)
4308             {
4309               struct constraint_expr lhs ;
4310               struct constraint_expr *rhsp;
4311               tree arg = gimple_call_arg (t, j);
4312
4313               if (!could_have_pointers (arg))
4314                 continue;
4315
4316               get_constraint_for (arg, &rhsc);
4317               lhs = get_function_part_constraint (fi, fi_parm_base + j);
4318               while (VEC_length (ce_s, rhsc) != 0)
4319                 {
4320                   rhsp = VEC_last (ce_s, rhsc);
4321                   process_constraint (new_constraint (lhs, *rhsp));
4322                   VEC_pop (ce_s, rhsc);
4323                 }
4324             }
4325
4326           /* If we are returning a value, assign it to the result.  */
4327           lhsop = gimple_call_lhs (t);
4328           if (lhsop
4329               && type_could_have_pointers (TREE_TYPE (lhsop)))
4330             {
4331               struct constraint_expr rhs;
4332               struct constraint_expr *lhsp;
4333
4334               get_constraint_for (lhsop, &lhsc);
4335               rhs = get_function_part_constraint (fi, fi_result);
4336               if (fndecl
4337                   && DECL_RESULT (fndecl)
4338                   && DECL_BY_REFERENCE (DECL_RESULT (fndecl)))
4339                 {
4340                   VEC(ce_s, heap) *tem = NULL;
4341                   VEC_safe_push (ce_s, heap, tem, &rhs);
4342                   do_deref (&tem);
4343                   rhs = *VEC_index (ce_s, tem, 0);
4344                   VEC_free(ce_s, heap, tem);
4345                 }
4346               for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
4347                 process_constraint (new_constraint (*lhsp, rhs));
4348             }
4349
4350           /* If we pass the result decl by reference, honor that.  */
4351           if (lhsop
4352               && fndecl
4353               && DECL_RESULT (fndecl)
4354               && DECL_BY_REFERENCE (DECL_RESULT (fndecl)))
4355             {
4356               struct constraint_expr lhs;
4357               struct constraint_expr *rhsp;
4358
4359               get_constraint_for_address_of (lhsop, &rhsc);
4360               lhs = get_function_part_constraint (fi, fi_result);
4361               for (j = 0; VEC_iterate (ce_s, rhsc, j, rhsp); j++)
4362                 process_constraint (new_constraint (lhs, *rhsp));
4363               VEC_free (ce_s, heap, rhsc);
4364             }
4365
4366           /* If we use a static chain, pass it along.  */
4367           if (gimple_call_chain (t))
4368             {
4369               struct constraint_expr lhs;
4370               struct constraint_expr *rhsp;
4371
4372               get_constraint_for (gimple_call_chain (t), &rhsc);
4373               lhs = get_function_part_constraint (fi, fi_static_chain);
4374               for (j = 0; VEC_iterate (ce_s, rhsc, j, rhsp); j++)
4375                 process_constraint (new_constraint (lhs, *rhsp));
4376             }
4377         }
4378     }
4379   /* Otherwise, just a regular assignment statement.  Only care about
4380      operations with pointer result, others are dealt with as escape
4381      points if they have pointer operands.  */
4382   else if (is_gimple_assign (t)
4383            && type_could_have_pointers (TREE_TYPE (gimple_assign_lhs (t))))
4384     {
4385       /* Otherwise, just a regular assignment statement.  */
4386       tree lhsop = gimple_assign_lhs (t);
4387       tree rhsop = (gimple_num_ops (t) == 2) ? gimple_assign_rhs1 (t) : NULL;
4388
4389       if (rhsop && AGGREGATE_TYPE_P (TREE_TYPE (lhsop)))
4390         do_structure_copy (lhsop, rhsop);
4391       else
4392         {
4393           struct constraint_expr temp;
4394           get_constraint_for (lhsop, &lhsc);
4395
4396           if (gimple_assign_rhs_code (t) == POINTER_PLUS_EXPR)
4397             get_constraint_for_ptr_offset (gimple_assign_rhs1 (t),
4398                                            gimple_assign_rhs2 (t), &rhsc);
4399           else if ((CONVERT_EXPR_CODE_P (gimple_assign_rhs_code (t))
4400                     && !(POINTER_TYPE_P (gimple_expr_type (t))
4401                          && !POINTER_TYPE_P (TREE_TYPE (rhsop))))
4402                    || gimple_assign_single_p (t))
4403             get_constraint_for (rhsop, &rhsc);
4404           else
4405             {
4406               temp.type = ADDRESSOF;
4407               temp.var = anything_id;
4408               temp.offset = 0;
4409               VEC_safe_push (ce_s, heap, rhsc, &temp);
4410             }
4411           process_all_all_constraints (lhsc, rhsc);
4412         }
4413       /* If there is a store to a global variable the rhs escapes.  */
4414       if ((lhsop = get_base_address (lhsop)) != NULL_TREE
4415           && DECL_P (lhsop)
4416           && is_global_var (lhsop)
4417           && (!in_ipa_mode
4418               || DECL_EXTERNAL (lhsop) || TREE_PUBLIC (lhsop)))
4419         make_escape_constraint (rhsop);
4420       /* If this is a conversion of a non-restrict pointer to a
4421          restrict pointer track it with a new heapvar.  */
4422       else if (gimple_assign_cast_p (t)
4423                && POINTER_TYPE_P (TREE_TYPE (rhsop))
4424                && POINTER_TYPE_P (TREE_TYPE (lhsop))
4425                && !TYPE_RESTRICT (TREE_TYPE (rhsop))
4426                && TYPE_RESTRICT (TREE_TYPE (lhsop)))
4427         make_constraint_from_restrict (get_vi_for_tree (lhsop),
4428                                        "CAST_RESTRICT");
4429     }
4430   /* For conversions of pointers to non-pointers the pointer escapes.  */
4431   else if (gimple_assign_cast_p (t)
4432            && POINTER_TYPE_P (TREE_TYPE (gimple_assign_rhs1 (t)))
4433            && !POINTER_TYPE_P (TREE_TYPE (gimple_assign_lhs (t))))
4434     {
4435       make_escape_constraint (gimple_assign_rhs1 (t));
4436     }
4437   /* Handle escapes through return.  */
4438   else if (gimple_code (t) == GIMPLE_RETURN
4439            && gimple_return_retval (t) != NULL_TREE
4440            && could_have_pointers (gimple_return_retval (t)))
4441     {
4442       fi = NULL;
4443       if (!in_ipa_mode
4444           || !(fi = get_vi_for_tree (cfun->decl)))
4445         make_escape_constraint (gimple_return_retval (t));
4446       else if (in_ipa_mode
4447                && fi != NULL)
4448         {
4449           struct constraint_expr lhs ;
4450           struct constraint_expr *rhsp;
4451           unsigned i;
4452
4453           lhs = get_function_part_constraint (fi, fi_result);
4454           get_constraint_for (gimple_return_retval (t), &rhsc);
4455           for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); i++)
4456             process_constraint (new_constraint (lhs, *rhsp));
4457         }
4458     }
4459   /* Handle asms conservatively by adding escape constraints to everything.  */
4460   else if (gimple_code (t) == GIMPLE_ASM)
4461     {
4462       unsigned i, noutputs;
4463       const char **oconstraints;
4464       const char *constraint;
4465       bool allows_mem, allows_reg, is_inout;
4466
4467       noutputs = gimple_asm_noutputs (t);
4468       oconstraints = XALLOCAVEC (const char *, noutputs);
4469
4470       for (i = 0; i < noutputs; ++i)
4471         {
4472           tree link = gimple_asm_output_op (t, i);
4473           tree op = TREE_VALUE (link);
4474
4475           constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4476           oconstraints[i] = constraint;
4477           parse_output_constraint (&constraint, i, 0, 0, &allows_mem,
4478                                    &allows_reg, &is_inout);
4479
4480           /* A memory constraint makes the address of the operand escape.  */
4481           if (!allows_reg && allows_mem)
4482             make_escape_constraint (build_fold_addr_expr (op));
4483
4484           /* The asm may read global memory, so outputs may point to
4485              any global memory.  */
4486           if (op && could_have_pointers (op))
4487             {
4488               VEC(ce_s, heap) *lhsc = NULL;
4489               struct constraint_expr rhsc, *lhsp;
4490               unsigned j;
4491               get_constraint_for (op, &lhsc);
4492               rhsc.var = nonlocal_id;
4493               rhsc.offset = 0;
4494               rhsc.type = SCALAR;
4495               for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
4496                 process_constraint (new_constraint (*lhsp, rhsc));
4497               VEC_free (ce_s, heap, lhsc);
4498             }
4499         }
4500       for (i = 0; i < gimple_asm_ninputs (t); ++i)
4501         {
4502           tree link = gimple_asm_input_op (t, i);
4503           tree op = TREE_VALUE (link);
4504
4505           constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4506
4507           parse_input_constraint (&constraint, 0, 0, noutputs, 0, oconstraints,
4508                                   &allows_mem, &allows_reg);
4509
4510           /* A memory constraint makes the address of the operand escape.  */
4511           if (!allows_reg && allows_mem)
4512             make_escape_constraint (build_fold_addr_expr (op));
4513           /* Strictly we'd only need the constraint to ESCAPED if
4514              the asm clobbers memory, otherwise using something
4515              along the lines of per-call clobbers/uses would be enough.  */
4516           else if (op && could_have_pointers (op))
4517             make_escape_constraint (op);
4518         }
4519     }
4520
4521   VEC_free (ce_s, heap, rhsc);
4522   VEC_free (ce_s, heap, lhsc);
4523 }
4524
4525
4526 /* Create a constraint adding to the clobber set of FI the memory
4527    pointed to by PTR.  */
4528
4529 static void
4530 process_ipa_clobber (varinfo_t fi, tree ptr)
4531 {
4532   VEC(ce_s, heap) *ptrc = NULL;
4533   struct constraint_expr *c, lhs;
4534   unsigned i;
4535   get_constraint_for (ptr, &ptrc);
4536   lhs = get_function_part_constraint (fi, fi_clobbers);
4537   for (i = 0; VEC_iterate (ce_s, ptrc, i, c); i++)
4538     process_constraint (new_constraint (lhs, *c));
4539   VEC_free (ce_s, heap, ptrc);
4540 }
4541
4542 /* Walk statement T setting up clobber and use constraints according to the
4543    references found in T.  This function is a main part of the
4544    IPA constraint builder.  */
4545
4546 static void
4547 find_func_clobbers (gimple origt)
4548 {
4549   gimple t = origt;
4550   VEC(ce_s, heap) *lhsc = NULL;
4551   VEC(ce_s, heap) *rhsc = NULL;
4552   varinfo_t fi;
4553
4554   /* Add constraints for clobbered/used in IPA mode.
4555      We are not interested in what automatic variables are clobbered
4556      or used as we only use the information in the caller to which
4557      they do not escape.  */
4558   gcc_assert (in_ipa_mode);
4559
4560   /* If the stmt refers to memory in any way it better had a VUSE.  */
4561   if (gimple_vuse (t) == NULL_TREE)
4562     return;
4563
4564   /* We'd better have function information for the current function.  */
4565   fi = lookup_vi_for_tree (cfun->decl);
4566   gcc_assert (fi != NULL);
4567
4568   /* Account for stores in assignments and calls.  */
4569   if (gimple_vdef (t) != NULL_TREE
4570       && gimple_has_lhs (t))
4571     {
4572       tree lhs = gimple_get_lhs (t);
4573       tree tem = lhs;
4574       while (handled_component_p (tem))
4575         tem = TREE_OPERAND (tem, 0);
4576       if ((DECL_P (tem)
4577            && !auto_var_in_fn_p (tem, cfun->decl))
4578           || INDIRECT_REF_P (tem))
4579         {
4580           struct constraint_expr lhsc, *rhsp;
4581           unsigned i;
4582           lhsc = get_function_part_constraint (fi, fi_clobbers);
4583           get_constraint_for_address_of (lhs, &rhsc);
4584           for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); i++)
4585             process_constraint (new_constraint (lhsc, *rhsp));
4586           VEC_free (ce_s, heap, rhsc);
4587         }
4588     }
4589
4590   /* Account for uses in assigments and returns.  */
4591   if (gimple_assign_single_p (t)
4592       || (gimple_code (t) == GIMPLE_RETURN
4593           && gimple_return_retval (t) != NULL_TREE))
4594     {
4595       tree rhs = (gimple_assign_single_p (t)
4596                   ? gimple_assign_rhs1 (t) : gimple_return_retval (t));
4597       tree tem = rhs;
4598       while (handled_component_p (tem))
4599         tem = TREE_OPERAND (tem, 0);
4600       if ((DECL_P (tem)
4601            && !auto_var_in_fn_p (tem, cfun->decl))
4602           || INDIRECT_REF_P (tem))
4603         {
4604           struct constraint_expr lhs, *rhsp;
4605           unsigned i;
4606           lhs = get_function_part_constraint (fi, fi_uses);
4607           get_constraint_for_address_of (rhs, &rhsc);
4608           for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); i++)
4609             process_constraint (new_constraint (lhs, *rhsp));
4610           VEC_free (ce_s, heap, rhsc);
4611         }
4612     }
4613
4614   if (is_gimple_call (t))
4615     {
4616       varinfo_t cfi = NULL;
4617       tree decl = gimple_call_fndecl (t);
4618       struct constraint_expr lhs, rhs;
4619       unsigned i, j;
4620
4621       /* For builtins we do not have separate function info.  For those
4622          we do not generate escapes for we have to generate clobbers/uses.  */
4623       if (decl
4624           && DECL_BUILT_IN_CLASS (decl) == BUILT_IN_NORMAL)
4625         switch (DECL_FUNCTION_CODE (decl))
4626           {
4627           /* The following functions use and clobber memory pointed to
4628              by their arguments.  */
4629           case BUILT_IN_STRCPY:
4630           case BUILT_IN_STRNCPY:
4631           case BUILT_IN_BCOPY:
4632           case BUILT_IN_MEMCPY:
4633           case BUILT_IN_MEMMOVE:
4634           case BUILT_IN_MEMPCPY:
4635           case BUILT_IN_STPCPY:
4636           case BUILT_IN_STPNCPY:
4637           case BUILT_IN_STRCAT:
4638           case BUILT_IN_STRNCAT:
4639             {
4640               tree dest = gimple_call_arg (t, (DECL_FUNCTION_CODE (decl)
4641                                                == BUILT_IN_BCOPY ? 1 : 0));
4642               tree src = gimple_call_arg (t, (DECL_FUNCTION_CODE (decl)
4643                                               == BUILT_IN_BCOPY ? 0 : 1));
4644               unsigned i;
4645               struct constraint_expr *rhsp, *lhsp;
4646               get_constraint_for_ptr_offset (dest, NULL_TREE, &lhsc);
4647               lhs = get_function_part_constraint (fi, fi_clobbers);
4648               for (i = 0; VEC_iterate (ce_s, lhsc, i, lhsp); i++)
4649                 process_constraint (new_constraint (lhs, *lhsp));
4650               VEC_free (ce_s, heap, lhsc);
4651               get_constraint_for_ptr_offset (src, NULL_TREE, &rhsc);
4652               lhs = get_function_part_constraint (fi, fi_uses);
4653               for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); i++)
4654                 process_constraint (new_constraint (lhs, *rhsp));
4655               VEC_free (ce_s, heap, rhsc);
4656               return;
4657             }
4658           /* The following function clobbers memory pointed to by
4659              its argument.  */
4660           case BUILT_IN_MEMSET:
4661             {
4662               tree dest = gimple_call_arg (t, 0);
4663               unsigned i;
4664               ce_s *lhsp;
4665               get_constraint_for_ptr_offset (dest, NULL_TREE, &lhsc);
4666               lhs = get_function_part_constraint (fi, fi_clobbers);
4667               for (i = 0; VEC_iterate (ce_s, lhsc, i, lhsp); i++)
4668                 process_constraint (new_constraint (lhs, *lhsp));
4669               VEC_free (ce_s, heap, lhsc);
4670               return;
4671             }
4672           /* The following functions clobber their second and third
4673              arguments.  */
4674           case BUILT_IN_SINCOS:
4675           case BUILT_IN_SINCOSF:
4676           case BUILT_IN_SINCOSL:
4677             {
4678               process_ipa_clobber (fi, gimple_call_arg (t, 1));
4679               process_ipa_clobber (fi, gimple_call_arg (t, 2));
4680               return;
4681             }
4682           /* The following functions clobber their second argument.  */
4683           case BUILT_IN_FREXP:
4684           case BUILT_IN_FREXPF:
4685           case BUILT_IN_FREXPL:
4686           case BUILT_IN_LGAMMA_R:
4687           case BUILT_IN_LGAMMAF_R:
4688           case BUILT_IN_LGAMMAL_R:
4689           case BUILT_IN_GAMMA_R:
4690           case BUILT_IN_GAMMAF_R:
4691           case BUILT_IN_GAMMAL_R:
4692           case BUILT_IN_MODF:
4693           case BUILT_IN_MODFF:
4694           case BUILT_IN_MODFL:
4695             {
4696               process_ipa_clobber (fi, gimple_call_arg (t, 1));
4697               return;
4698             }
4699           /* The following functions clobber their third argument.  */
4700           case BUILT_IN_REMQUO:
4701           case BUILT_IN_REMQUOF:
4702           case BUILT_IN_REMQUOL:
4703             {
4704               process_ipa_clobber (fi, gimple_call_arg (t, 2));
4705               return;
4706             }
4707           /* The following functions neither read nor clobber memory.  */
4708           case BUILT_IN_FREE:
4709             return;
4710           /* Trampolines are of no interest to us.  */
4711           case BUILT_IN_INIT_TRAMPOLINE:
4712           case BUILT_IN_ADJUST_TRAMPOLINE:
4713             return;
4714           case BUILT_IN_VA_START:
4715           case BUILT_IN_VA_END:
4716             return;
4717           /* printf-style functions may have hooks to set pointers to
4718              point to somewhere into the generated string.  Leave them
4719              for a later excercise...  */
4720           default:
4721             /* Fallthru to general call handling.  */;
4722           }
4723
4724       /* Parameters passed by value are used.  */
4725       lhs = get_function_part_constraint (fi, fi_uses);
4726       for (i = 0; i < gimple_call_num_args (t); i++)
4727         {
4728           struct constraint_expr *rhsp;
4729           tree arg = gimple_call_arg (t, i);
4730
4731           if (TREE_CODE (arg) == SSA_NAME
4732               || is_gimple_min_invariant (arg))
4733             continue;
4734
4735           get_constraint_for_address_of (arg, &rhsc);
4736           for (j = 0; VEC_iterate (ce_s, rhsc, j, rhsp); j++)
4737             process_constraint (new_constraint (lhs, *rhsp));
4738           VEC_free (ce_s, heap, rhsc);
4739         }
4740
4741       /* Build constraints for propagating clobbers/uses along the
4742          callgraph edges.  */
4743       cfi = get_fi_for_callee (t);
4744       if (cfi->id == anything_id)
4745         {
4746           if (gimple_vdef (t))
4747             make_constraint_from (first_vi_for_offset (fi, fi_clobbers),
4748                                   anything_id);
4749           make_constraint_from (first_vi_for_offset (fi, fi_uses),
4750                                 anything_id);
4751           return;
4752         }
4753
4754       /* For callees without function info (that's external functions),
4755          ESCAPED is clobbered and used.  */
4756       if (gimple_call_fndecl (t)
4757           && !cfi->is_fn_info)
4758         {
4759           varinfo_t vi;
4760
4761           if (gimple_vdef (t))
4762             make_copy_constraint (first_vi_for_offset (fi, fi_clobbers),
4763                                   escaped_id);
4764           make_copy_constraint (first_vi_for_offset (fi, fi_uses), escaped_id);
4765
4766           /* Also honor the call statement use/clobber info.  */
4767           if ((vi = lookup_call_clobber_vi (t)) != NULL)
4768             make_copy_constraint (first_vi_for_offset (fi, fi_clobbers),
4769                                   vi->id);
4770           if ((vi = lookup_call_use_vi (t)) != NULL)
4771             make_copy_constraint (first_vi_for_offset (fi, fi_uses),
4772                                   vi->id);
4773           return;
4774         }
4775
4776       /* Otherwise the caller clobbers and uses what the callee does.
4777          ???  This should use a new complex constraint that filters
4778          local variables of the callee.  */
4779       if (gimple_vdef (t))
4780         {
4781           lhs = get_function_part_constraint (fi, fi_clobbers);
4782           rhs = get_function_part_constraint (cfi, fi_clobbers);
4783           process_constraint (new_constraint (lhs, rhs));
4784         }
4785       lhs = get_function_part_constraint (fi, fi_uses);
4786       rhs = get_function_part_constraint (cfi, fi_uses);
4787       process_constraint (new_constraint (lhs, rhs));
4788     }
4789   else if (gimple_code (t) == GIMPLE_ASM)
4790     {
4791       /* ???  Ick.  We can do better.  */
4792       if (gimple_vdef (t))
4793         make_constraint_from (first_vi_for_offset (fi, fi_clobbers),
4794                               anything_id);
4795       make_constraint_from (first_vi_for_offset (fi, fi_uses),
4796                             anything_id);
4797     }
4798
4799   VEC_free (ce_s, heap, rhsc);
4800 }
4801
4802
4803 /* Find the first varinfo in the same variable as START that overlaps with
4804    OFFSET.  Return NULL if we can't find one.  */
4805
4806 static varinfo_t
4807 first_vi_for_offset (varinfo_t start, unsigned HOST_WIDE_INT offset)
4808 {
4809   /* If the offset is outside of the variable, bail out.  */
4810   if (offset >= start->fullsize)
4811     return NULL;
4812
4813   /* If we cannot reach offset from start, lookup the first field
4814      and start from there.  */
4815   if (start->offset > offset)
4816     start = lookup_vi_for_tree (start->decl);
4817
4818   while (start)
4819     {
4820       /* We may not find a variable in the field list with the actual
4821          offset when when we have glommed a structure to a variable.
4822          In that case, however, offset should still be within the size
4823          of the variable. */
4824       if (offset >= start->offset
4825           && (offset - start->offset) < start->size)
4826         return start;
4827
4828       start= start->next;
4829     }
4830
4831   return NULL;
4832 }
4833
4834 /* Find the first varinfo in the same variable as START that overlaps with
4835    OFFSET.  If there is no such varinfo the varinfo directly preceding
4836    OFFSET is returned.  */
4837
4838 static varinfo_t
4839 first_or_preceding_vi_for_offset (varinfo_t start,
4840                                   unsigned HOST_WIDE_INT offset)
4841 {
4842   /* If we cannot reach offset from start, lookup the first field
4843      and start from there.  */
4844   if (start->offset > offset)
4845     start = lookup_vi_for_tree (start->decl);
4846
4847   /* We may not find a variable in the field list with the actual
4848      offset when when we have glommed a structure to a variable.
4849      In that case, however, offset should still be within the size
4850      of the variable.
4851      If we got beyond the offset we look for return the field
4852      directly preceding offset which may be the last field.  */
4853   while (start->next
4854          && offset >= start->offset
4855          && !((offset - start->offset) < start->size))
4856     start = start->next;
4857
4858   return start;
4859 }
4860
4861
4862 /* This structure is used during pushing fields onto the fieldstack
4863    to track the offset of the field, since bitpos_of_field gives it
4864    relative to its immediate containing type, and we want it relative
4865    to the ultimate containing object.  */
4866
4867 struct fieldoff
4868 {
4869   /* Offset from the base of the base containing object to this field.  */
4870   HOST_WIDE_INT offset;
4871
4872   /* Size, in bits, of the field.  */
4873   unsigned HOST_WIDE_INT size;
4874
4875   unsigned has_unknown_size : 1;
4876
4877   unsigned may_have_pointers : 1;
4878
4879   unsigned only_restrict_pointers : 1;
4880 };
4881 typedef struct fieldoff fieldoff_s;
4882
4883 DEF_VEC_O(fieldoff_s);
4884 DEF_VEC_ALLOC_O(fieldoff_s,heap);
4885
4886 /* qsort comparison function for two fieldoff's PA and PB */
4887
4888 static int
4889 fieldoff_compare (const void *pa, const void *pb)
4890 {
4891   const fieldoff_s *foa = (const fieldoff_s *)pa;
4892   const fieldoff_s *fob = (const fieldoff_s *)pb;
4893   unsigned HOST_WIDE_INT foasize, fobsize;
4894
4895   if (foa->offset < fob->offset)
4896     return -1;
4897   else if (foa->offset > fob->offset)
4898     return 1;
4899
4900   foasize = foa->size;
4901   fobsize = fob->size;
4902   if (foasize < fobsize)
4903     return -1;
4904   else if (foasize > fobsize)
4905     return 1;
4906   return 0;
4907 }
4908
4909 /* Sort a fieldstack according to the field offset and sizes.  */
4910 static void
4911 sort_fieldstack (VEC(fieldoff_s,heap) *fieldstack)
4912 {
4913   qsort (VEC_address (fieldoff_s, fieldstack),
4914          VEC_length (fieldoff_s, fieldstack),
4915          sizeof (fieldoff_s),
4916          fieldoff_compare);
4917 }
4918
4919 /* Return true if V is a tree that we can have subvars for.
4920    Normally, this is any aggregate type.  Also complex
4921    types which are not gimple registers can have subvars.  */
4922
4923 static inline bool
4924 var_can_have_subvars (const_tree v)
4925 {
4926   /* Volatile variables should never have subvars.  */
4927   if (TREE_THIS_VOLATILE (v))
4928     return false;
4929
4930   /* Non decls or memory tags can never have subvars.  */
4931   if (!DECL_P (v))
4932     return false;
4933
4934   /* Aggregates without overlapping fields can have subvars.  */
4935   if (TREE_CODE (TREE_TYPE (v)) == RECORD_TYPE)
4936     return true;
4937
4938   return false;
4939 }
4940
4941 /* Given a TYPE, and a vector of field offsets FIELDSTACK, push all
4942    the fields of TYPE onto fieldstack, recording their offsets along
4943    the way.
4944
4945    OFFSET is used to keep track of the offset in this entire
4946    structure, rather than just the immediately containing structure.
4947    Returns false if the caller is supposed to handle the field we
4948    recursed for.  */
4949
4950 static bool
4951 push_fields_onto_fieldstack (tree type, VEC(fieldoff_s,heap) **fieldstack,
4952                              HOST_WIDE_INT offset, bool must_have_pointers_p)
4953 {
4954   tree field;
4955   bool empty_p = true;
4956
4957   if (TREE_CODE (type) != RECORD_TYPE)
4958     return false;
4959
4960   /* If the vector of fields is growing too big, bail out early.
4961      Callers check for VEC_length <= MAX_FIELDS_FOR_FIELD_SENSITIVE, make
4962      sure this fails.  */
4963   if (VEC_length (fieldoff_s, *fieldstack) > MAX_FIELDS_FOR_FIELD_SENSITIVE)
4964     return false;
4965
4966   for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
4967     if (TREE_CODE (field) == FIELD_DECL)
4968       {
4969         bool push = false;
4970         HOST_WIDE_INT foff = bitpos_of_field (field);
4971
4972         if (!var_can_have_subvars (field)
4973             || TREE_CODE (TREE_TYPE (field)) == QUAL_UNION_TYPE
4974             || TREE_CODE (TREE_TYPE (field)) == UNION_TYPE)
4975           push = true;
4976         else if (!push_fields_onto_fieldstack
4977                     (TREE_TYPE (field), fieldstack, offset + foff,
4978                      must_have_pointers_p)
4979                  && (DECL_SIZE (field)
4980                      && !integer_zerop (DECL_SIZE (field))))
4981           /* Empty structures may have actual size, like in C++.  So
4982              see if we didn't push any subfields and the size is
4983              nonzero, push the field onto the stack.  */
4984           push = true;
4985
4986         if (push)
4987           {
4988             fieldoff_s *pair = NULL;
4989             bool has_unknown_size = false;
4990
4991             if (!VEC_empty (fieldoff_s, *fieldstack))
4992               pair = VEC_last (fieldoff_s, *fieldstack);
4993
4994             if (!DECL_SIZE (field)
4995                 || !host_integerp (DECL_SIZE (field), 1))
4996               has_unknown_size = true;
4997
4998             /* If adjacent fields do not contain pointers merge them.  */
4999             if (pair
5000                 && !pair->may_have_pointers
5001                 && !pair->has_unknown_size
5002                 && !has_unknown_size
5003                 && pair->offset + (HOST_WIDE_INT)pair->size == offset + foff
5004                 && !must_have_pointers_p
5005                 && !could_have_pointers (field))
5006               {
5007                 pair->size += TREE_INT_CST_LOW (DECL_SIZE (field));
5008               }
5009             else
5010               {
5011                 pair = VEC_safe_push (fieldoff_s, heap, *fieldstack, NULL);
5012                 pair->offset = offset + foff;
5013                 pair->has_unknown_size = has_unknown_size;
5014                 if (!has_unknown_size)
5015                   pair->size = TREE_INT_CST_LOW (DECL_SIZE (field));
5016                 else
5017                   pair->size = -1;
5018                 pair->may_have_pointers
5019                   = must_have_pointers_p || could_have_pointers (field);
5020                 pair->only_restrict_pointers
5021                   = (!has_unknown_size
5022                      && POINTER_TYPE_P (TREE_TYPE (field))
5023                      && TYPE_RESTRICT (TREE_TYPE (field)));
5024               }
5025           }
5026
5027         empty_p = false;
5028       }
5029
5030   return !empty_p;
5031 }
5032
5033 /* Count the number of arguments DECL has, and set IS_VARARGS to true
5034    if it is a varargs function.  */
5035
5036 static unsigned int
5037 count_num_arguments (tree decl, bool *is_varargs)
5038 {
5039   unsigned int num = 0;
5040   tree t;
5041
5042   /* Capture named arguments for K&R functions.  They do not
5043      have a prototype and thus no TYPE_ARG_TYPES.  */
5044   for (t = DECL_ARGUMENTS (decl); t; t = TREE_CHAIN (t))
5045     ++num;
5046
5047   /* Check if the function has variadic arguments.  */
5048   for (t = TYPE_ARG_TYPES (TREE_TYPE (decl)); t; t = TREE_CHAIN (t))
5049     if (TREE_VALUE (t) == void_type_node)
5050       break;
5051   if (!t)
5052     *is_varargs = true;
5053
5054   return num;
5055 }
5056
5057 /* Creation function node for DECL, using NAME, and return the index
5058    of the variable we've created for the function.  */
5059
5060 static varinfo_t
5061 create_function_info_for (tree decl, const char *name)
5062 {
5063   struct function *fn = DECL_STRUCT_FUNCTION (decl);
5064   varinfo_t vi, prev_vi;
5065   tree arg;
5066   unsigned int i;
5067   bool is_varargs = false;
5068   unsigned int num_args = count_num_arguments (decl, &is_varargs);
5069
5070   /* Create the variable info.  */
5071
5072   vi = new_var_info (decl, name);
5073   vi->offset = 0;
5074   vi->size = 1;
5075   vi->fullsize = fi_parm_base + num_args;
5076   vi->is_fn_info = 1;
5077   vi->may_have_pointers = false;
5078   if (is_varargs)
5079     vi->fullsize = ~0;
5080   insert_vi_for_tree (vi->decl, vi);
5081
5082   prev_vi = vi;
5083
5084   /* Create a variable for things the function clobbers and one for
5085      things the function uses.  */
5086     {
5087       varinfo_t clobbervi, usevi;
5088       const char *newname;
5089       char *tempname;
5090
5091       asprintf (&tempname, "%s.clobber", name);
5092       newname = ggc_strdup (tempname);
5093       free (tempname);
5094
5095       clobbervi = new_var_info (NULL, newname);
5096       clobbervi->offset = fi_clobbers;
5097       clobbervi->size = 1;
5098       clobbervi->fullsize = vi->fullsize;
5099       clobbervi->is_full_var = true;
5100       clobbervi->is_global_var = false;
5101       gcc_assert (prev_vi->offset < clobbervi->offset);
5102       prev_vi->next = clobbervi;
5103       prev_vi = clobbervi;
5104
5105       asprintf (&tempname, "%s.use", name);
5106       newname = ggc_strdup (tempname);
5107       free (tempname);
5108
5109       usevi = new_var_info (NULL, newname);
5110       usevi->offset = fi_uses;
5111       usevi->size = 1;
5112       usevi->fullsize = vi->fullsize;
5113       usevi->is_full_var = true;
5114       usevi->is_global_var = false;
5115       gcc_assert (prev_vi->offset < usevi->offset);
5116       prev_vi->next = usevi;
5117       prev_vi = usevi;
5118     }
5119
5120   /* And one for the static chain.  */
5121   if (fn->static_chain_decl != NULL_TREE)
5122     {
5123       varinfo_t chainvi;
5124       const char *newname;
5125       char *tempname;
5126
5127       asprintf (&tempname, "%s.chain", name);
5128       newname = ggc_strdup (tempname);
5129       free (tempname);
5130
5131       chainvi = new_var_info (fn->static_chain_decl, newname);
5132       chainvi->offset = fi_static_chain;
5133       chainvi->size = 1;
5134       chainvi->fullsize = vi->fullsize;
5135       chainvi->is_full_var = true;
5136       chainvi->is_global_var = false;
5137       gcc_assert (prev_vi->offset < chainvi->offset);
5138       prev_vi->next = chainvi;
5139       prev_vi = chainvi;
5140       insert_vi_for_tree (fn->static_chain_decl, chainvi);
5141     }
5142
5143   /* Create a variable for the return var.  */
5144   if (DECL_RESULT (decl) != NULL
5145       || !VOID_TYPE_P (TREE_TYPE (TREE_TYPE (decl))))
5146     {
5147       varinfo_t resultvi;
5148       const char *newname;
5149       char *tempname;
5150       tree resultdecl = decl;
5151
5152       if (DECL_RESULT (decl))
5153         resultdecl = DECL_RESULT (decl);
5154
5155       asprintf (&tempname, "%s.result", name);
5156       newname = ggc_strdup (tempname);
5157       free (tempname);
5158
5159       resultvi = new_var_info (resultdecl, newname);
5160       resultvi->offset = fi_result;
5161       resultvi->size = 1;
5162       resultvi->fullsize = vi->fullsize;
5163       resultvi->is_full_var = true;
5164       if (DECL_RESULT (decl))
5165         resultvi->may_have_pointers = could_have_pointers (DECL_RESULT (decl));
5166       gcc_assert (prev_vi->offset < resultvi->offset);
5167       prev_vi->next = resultvi;
5168       prev_vi = resultvi;
5169       if (DECL_RESULT (decl))
5170         insert_vi_for_tree (DECL_RESULT (decl), resultvi);
5171     }
5172
5173   /* Set up variables for each argument.  */
5174   arg = DECL_ARGUMENTS (decl);
5175   for (i = 0; i < num_args; i++)
5176     {
5177       varinfo_t argvi;
5178       const char *newname;
5179       char *tempname;
5180       tree argdecl = decl;
5181
5182       if (arg)
5183         argdecl = arg;
5184
5185       asprintf (&tempname, "%s.arg%d", name, i);
5186       newname = ggc_strdup (tempname);
5187       free (tempname);
5188
5189       argvi = new_var_info (argdecl, newname);
5190       argvi->offset = fi_parm_base + i;
5191       argvi->size = 1;
5192       argvi->is_full_var = true;
5193       argvi->fullsize = vi->fullsize;
5194       if (arg)
5195         argvi->may_have_pointers = could_have_pointers (arg);
5196       gcc_assert (prev_vi->offset < argvi->offset);
5197       prev_vi->next = argvi;
5198       prev_vi = argvi;
5199       if (arg)
5200         {
5201           insert_vi_for_tree (arg, argvi);
5202           arg = TREE_CHAIN (arg);
5203         }
5204     }
5205
5206   /* Add one representative for all further args.  */
5207   if (is_varargs)
5208     {
5209       varinfo_t argvi;
5210       const char *newname;
5211       char *tempname;
5212       tree decl;
5213
5214       asprintf (&tempname, "%s.varargs", name);
5215       newname = ggc_strdup (tempname);
5216       free (tempname);
5217
5218       /* We need sth that can be pointed to for va_start.  */
5219       decl = create_tmp_var_raw (ptr_type_node, name);
5220       get_var_ann (decl);
5221
5222       argvi = new_var_info (decl, newname);
5223       argvi->offset = fi_parm_base + num_args;
5224       argvi->size = ~0;
5225       argvi->is_full_var = true;
5226       argvi->is_heap_var = true;
5227       argvi->fullsize = vi->fullsize;
5228       gcc_assert (prev_vi->offset < argvi->offset);
5229       prev_vi->next = argvi;
5230       prev_vi = argvi;
5231     }
5232
5233   return vi;
5234 }
5235
5236
5237 /* Return true if FIELDSTACK contains fields that overlap.
5238    FIELDSTACK is assumed to be sorted by offset.  */
5239
5240 static bool
5241 check_for_overlaps (VEC (fieldoff_s,heap) *fieldstack)
5242 {
5243   fieldoff_s *fo = NULL;
5244   unsigned int i;
5245   HOST_WIDE_INT lastoffset = -1;
5246
5247   for (i = 0; VEC_iterate (fieldoff_s, fieldstack, i, fo); i++)
5248     {
5249       if (fo->offset == lastoffset)
5250         return true;
5251       lastoffset = fo->offset;
5252     }
5253   return false;
5254 }
5255
5256 /* Create a varinfo structure for NAME and DECL, and add it to VARMAP.
5257    This will also create any varinfo structures necessary for fields
5258    of DECL.  */
5259
5260 static varinfo_t
5261 create_variable_info_for_1 (tree decl, const char *name)
5262 {
5263   varinfo_t vi, newvi;
5264   tree decl_type = TREE_TYPE (decl);
5265   tree declsize = DECL_P (decl) ? DECL_SIZE (decl) : TYPE_SIZE (decl_type);
5266   VEC (fieldoff_s,heap) *fieldstack = NULL;
5267   fieldoff_s *fo;
5268   unsigned int i;
5269
5270   if (!declsize
5271       || !host_integerp (declsize, 1))
5272     {
5273       vi = new_var_info (decl, name);
5274       vi->offset = 0;
5275       vi->size = ~0;
5276       vi->fullsize = ~0;
5277       vi->is_unknown_size_var = true;
5278       vi->is_full_var = true;
5279       vi->may_have_pointers = could_have_pointers (decl);
5280       return vi;
5281     }
5282
5283   /* Collect field information.  */
5284   if (use_field_sensitive
5285       && var_can_have_subvars (decl)
5286       /* ???  Force us to not use subfields for global initializers
5287          in IPA mode.  Else we'd have to parse arbitrary initializers.  */
5288       && !(in_ipa_mode
5289            && is_global_var (decl)
5290            && DECL_INITIAL (decl)))
5291     {
5292       fieldoff_s *fo = NULL;
5293       bool notokay = false;
5294       unsigned int i;
5295
5296       push_fields_onto_fieldstack (decl_type, &fieldstack, 0,
5297                                    TREE_PUBLIC (decl)
5298                                    || DECL_EXTERNAL (decl)
5299                                    || TREE_ADDRESSABLE (decl));
5300
5301       for (i = 0; !notokay && VEC_iterate (fieldoff_s, fieldstack, i, fo); i++)
5302         if (fo->has_unknown_size
5303             || fo->offset < 0)
5304           {
5305             notokay = true;
5306             break;
5307           }
5308
5309       /* We can't sort them if we have a field with a variable sized type,
5310          which will make notokay = true.  In that case, we are going to return
5311          without creating varinfos for the fields anyway, so sorting them is a
5312          waste to boot.  */
5313       if (!notokay)
5314         {
5315           sort_fieldstack (fieldstack);
5316           /* Due to some C++ FE issues, like PR 22488, we might end up
5317              what appear to be overlapping fields even though they,
5318              in reality, do not overlap.  Until the C++ FE is fixed,
5319              we will simply disable field-sensitivity for these cases.  */
5320           notokay = check_for_overlaps (fieldstack);
5321         }
5322
5323       if (notokay)
5324         VEC_free (fieldoff_s, heap, fieldstack);
5325     }
5326
5327   /* If we didn't end up collecting sub-variables create a full
5328      variable for the decl.  */
5329   if (VEC_length (fieldoff_s, fieldstack) <= 1
5330       || VEC_length (fieldoff_s, fieldstack) > MAX_FIELDS_FOR_FIELD_SENSITIVE)
5331     {
5332       vi = new_var_info (decl, name);
5333       vi->offset = 0;
5334       vi->may_have_pointers = could_have_pointers (decl);
5335       vi->fullsize = TREE_INT_CST_LOW (declsize);
5336       vi->size = vi->fullsize;
5337       vi->is_full_var = true;
5338       VEC_free (fieldoff_s, heap, fieldstack);
5339       return vi;
5340     }
5341
5342   vi = new_var_info (decl, name);
5343   vi->fullsize = TREE_INT_CST_LOW (declsize);
5344   for (i = 0, newvi = vi;
5345        VEC_iterate (fieldoff_s, fieldstack, i, fo);
5346        ++i, newvi = newvi->next)
5347     {
5348       const char *newname = "NULL";
5349       char *tempname;
5350
5351       if (dump_file)
5352         {
5353           asprintf (&tempname, "%s." HOST_WIDE_INT_PRINT_DEC
5354                     "+" HOST_WIDE_INT_PRINT_DEC, name, fo->offset, fo->size);
5355           newname = ggc_strdup (tempname);
5356           free (tempname);
5357         }
5358       newvi->name = newname;
5359       newvi->offset = fo->offset;
5360       newvi->size = fo->size;
5361       newvi->fullsize = vi->fullsize;
5362       newvi->may_have_pointers = fo->may_have_pointers;
5363       newvi->only_restrict_pointers = fo->only_restrict_pointers;
5364       if (i + 1 < VEC_length (fieldoff_s, fieldstack))
5365         newvi->next = new_var_info (decl, name);
5366     }
5367
5368   VEC_free (fieldoff_s, heap, fieldstack);
5369
5370   return vi;
5371 }
5372
5373 static unsigned int
5374 create_variable_info_for (tree decl, const char *name)
5375 {
5376   varinfo_t vi = create_variable_info_for_1 (decl, name);
5377   unsigned int id = vi->id;
5378
5379   insert_vi_for_tree (decl, vi);
5380
5381   /* Create initial constraints for globals.  */
5382   for (; vi; vi = vi->next)
5383     {
5384       if (!vi->may_have_pointers
5385           || !vi->is_global_var)
5386         continue;
5387
5388       /* Mark global restrict qualified pointers.  */
5389       if ((POINTER_TYPE_P (TREE_TYPE (decl))
5390            && TYPE_RESTRICT (TREE_TYPE (decl)))
5391           || vi->only_restrict_pointers)
5392         make_constraint_from_restrict (vi, "GLOBAL_RESTRICT");
5393
5394       /* For escaped variables initialize them from nonlocal.  */
5395       if (!in_ipa_mode
5396           || DECL_EXTERNAL (decl) || TREE_PUBLIC (decl))
5397         make_copy_constraint (vi, nonlocal_id);
5398
5399       /* If this is a global variable with an initializer and we are in
5400          IPA mode generate constraints for it.  In non-IPA mode
5401          the initializer from nonlocal is all we need.  */
5402       if (in_ipa_mode
5403           && DECL_INITIAL (decl))
5404         {
5405           VEC (ce_s, heap) *rhsc = NULL;
5406           struct constraint_expr lhs, *rhsp;
5407           unsigned i;
5408           get_constraint_for (DECL_INITIAL (decl), &rhsc);
5409           lhs.var = vi->id;
5410           lhs.offset = 0;
5411           lhs.type = SCALAR;
5412           for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); ++i)
5413             process_constraint (new_constraint (lhs, *rhsp));
5414           /* If this is a variable that escapes from the unit
5415              the initializer escapes as well.  */
5416           if (DECL_EXTERNAL (decl) || TREE_PUBLIC (decl))
5417             {
5418               lhs.var = escaped_id;
5419               lhs.offset = 0;
5420               lhs.type = SCALAR;
5421               for (i = 0; VEC_iterate (ce_s, rhsc, i, rhsp); ++i)
5422                 process_constraint (new_constraint (lhs, *rhsp));
5423             }
5424           VEC_free (ce_s, heap, rhsc);
5425         }
5426     }
5427
5428   return id;
5429 }
5430
5431 /* Print out the points-to solution for VAR to FILE.  */
5432
5433 static void
5434 dump_solution_for_var (FILE *file, unsigned int var)
5435 {
5436   varinfo_t vi = get_varinfo (var);
5437   unsigned int i;
5438   bitmap_iterator bi;
5439
5440   /* Dump the solution for unified vars anyway, this avoids difficulties
5441      in scanning dumps in the testsuite.  */
5442   fprintf (file, "%s = { ", vi->name);
5443   vi = get_varinfo (find (var));
5444   EXECUTE_IF_SET_IN_BITMAP (vi->solution, 0, i, bi)
5445     fprintf (file, "%s ", get_varinfo (i)->name);
5446   fprintf (file, "}");
5447
5448   /* But note when the variable was unified.  */
5449   if (vi->id != var)
5450     fprintf (file, " same as %s", vi->name);
5451
5452   fprintf (file, "\n");
5453 }
5454
5455 /* Print the points-to solution for VAR to stdout.  */
5456
5457 DEBUG_FUNCTION void
5458 debug_solution_for_var (unsigned int var)
5459 {
5460   dump_solution_for_var (stdout, var);
5461 }
5462
5463 /* Create varinfo structures for all of the variables in the
5464    function for intraprocedural mode.  */
5465
5466 static void
5467 intra_create_variable_infos (void)
5468 {
5469   tree t;
5470
5471   /* For each incoming pointer argument arg, create the constraint ARG
5472      = NONLOCAL or a dummy variable if it is a restrict qualified
5473      passed-by-reference argument.  */
5474   for (t = DECL_ARGUMENTS (current_function_decl); t; t = TREE_CHAIN (t))
5475     {
5476       varinfo_t p;
5477
5478       if (!could_have_pointers (t))
5479         continue;
5480
5481       /* For restrict qualified pointers to objects passed by
5482          reference build a real representative for the pointed-to object.  */
5483       if (DECL_BY_REFERENCE (t)
5484           && POINTER_TYPE_P (TREE_TYPE (t))
5485           && TYPE_RESTRICT (TREE_TYPE (t)))
5486         {
5487           struct constraint_expr lhsc, rhsc;
5488           varinfo_t vi;
5489           tree heapvar = heapvar_lookup (t, 0);
5490           if (heapvar == NULL_TREE)
5491             {
5492               var_ann_t ann;
5493               heapvar = create_tmp_var_raw (TREE_TYPE (TREE_TYPE (t)),
5494                                             "PARM_NOALIAS");
5495               DECL_EXTERNAL (heapvar) = 1;
5496               heapvar_insert (t, 0, heapvar);
5497               ann = get_var_ann (heapvar);
5498               ann->is_heapvar = 1;
5499             }
5500           if (gimple_referenced_vars (cfun))
5501             add_referenced_var (heapvar);
5502           lhsc.var = get_vi_for_tree (t)->id;
5503           lhsc.type = SCALAR;
5504           lhsc.offset = 0;
5505           rhsc.var = (vi = get_vi_for_tree (heapvar))->id;
5506           rhsc.type = ADDRESSOF;
5507           rhsc.offset = 0;
5508           process_constraint (new_constraint (lhsc, rhsc));
5509           vi->is_restrict_var = 1;
5510           continue;
5511         }
5512
5513       for (p = get_vi_for_tree (t); p; p = p->next)
5514         {
5515           if (p->may_have_pointers)
5516             make_constraint_from (p, nonlocal_id);
5517           if (p->only_restrict_pointers)
5518             make_constraint_from_restrict (p, "PARM_RESTRICT");
5519         }
5520       if (POINTER_TYPE_P (TREE_TYPE (t))
5521           && TYPE_RESTRICT (TREE_TYPE (t)))
5522         make_constraint_from_restrict (get_vi_for_tree (t), "PARM_RESTRICT");
5523     }
5524
5525   /* Add a constraint for a result decl that is passed by reference.  */
5526   if (DECL_RESULT (cfun->decl)
5527       && DECL_BY_REFERENCE (DECL_RESULT (cfun->decl)))
5528     {
5529       varinfo_t p, result_vi = get_vi_for_tree (DECL_RESULT (cfun->decl));
5530
5531       for (p = result_vi; p; p = p->next)
5532         make_constraint_from (p, nonlocal_id);
5533     }
5534
5535   /* Add a constraint for the incoming static chain parameter.  */
5536   if (cfun->static_chain_decl != NULL_TREE)
5537     {
5538       varinfo_t p, chain_vi = get_vi_for_tree (cfun->static_chain_decl);
5539
5540       for (p = chain_vi; p; p = p->next)
5541         make_constraint_from (p, nonlocal_id);
5542     }
5543 }
5544
5545 /* Structure used to put solution bitmaps in a hashtable so they can
5546    be shared among variables with the same points-to set.  */
5547
5548 typedef struct shared_bitmap_info
5549 {
5550   bitmap pt_vars;
5551   hashval_t hashcode;
5552 } *shared_bitmap_info_t;
5553 typedef const struct shared_bitmap_info *const_shared_bitmap_info_t;
5554
5555 static htab_t shared_bitmap_table;
5556
5557 /* Hash function for a shared_bitmap_info_t */
5558
5559 static hashval_t
5560 shared_bitmap_hash (const void *p)
5561 {
5562   const_shared_bitmap_info_t const bi = (const_shared_bitmap_info_t) p;
5563   return bi->hashcode;
5564 }
5565
5566 /* Equality function for two shared_bitmap_info_t's. */
5567
5568 static int
5569 shared_bitmap_eq (const void *p1, const void *p2)
5570 {
5571   const_shared_bitmap_info_t const sbi1 = (const_shared_bitmap_info_t) p1;
5572   const_shared_bitmap_info_t const sbi2 = (const_shared_bitmap_info_t) p2;
5573   return bitmap_equal_p (sbi1->pt_vars, sbi2->pt_vars);
5574 }
5575
5576 /* Lookup a bitmap in the shared bitmap hashtable, and return an already
5577    existing instance if there is one, NULL otherwise.  */
5578
5579 static bitmap
5580 shared_bitmap_lookup (bitmap pt_vars)
5581 {
5582   void **slot;
5583   struct shared_bitmap_info sbi;
5584
5585   sbi.pt_vars = pt_vars;
5586   sbi.hashcode = bitmap_hash (pt_vars);
5587
5588   slot = htab_find_slot_with_hash (shared_bitmap_table, &sbi,
5589                                    sbi.hashcode, NO_INSERT);
5590   if (!slot)
5591     return NULL;
5592   else
5593     return ((shared_bitmap_info_t) *slot)->pt_vars;
5594 }
5595
5596
5597 /* Add a bitmap to the shared bitmap hashtable.  */
5598
5599 static void
5600 shared_bitmap_add (bitmap pt_vars)
5601 {
5602   void **slot;
5603   shared_bitmap_info_t sbi = XNEW (struct shared_bitmap_info);
5604
5605   sbi->pt_vars = pt_vars;
5606   sbi->hashcode = bitmap_hash (pt_vars);
5607
5608   slot = htab_find_slot_with_hash (shared_bitmap_table, sbi,
5609                                    sbi->hashcode, INSERT);
5610   gcc_assert (!*slot);
5611   *slot = (void *) sbi;
5612 }
5613
5614
5615 /* Set bits in INTO corresponding to the variable uids in solution set FROM.  */
5616
5617 static void
5618 set_uids_in_ptset (bitmap into, bitmap from, struct pt_solution *pt)
5619 {
5620   unsigned int i;
5621   bitmap_iterator bi;
5622
5623   EXECUTE_IF_SET_IN_BITMAP (from, 0, i, bi)
5624     {
5625       varinfo_t vi = get_varinfo (i);
5626
5627       /* The only artificial variables that are allowed in a may-alias
5628          set are heap variables.  */
5629       if (vi->is_artificial_var && !vi->is_heap_var)
5630         continue;
5631
5632       if (TREE_CODE (vi->decl) == VAR_DECL
5633           || TREE_CODE (vi->decl) == PARM_DECL
5634           || TREE_CODE (vi->decl) == RESULT_DECL)
5635         {
5636           /* If we are in IPA mode we will not recompute points-to
5637              sets after inlining so make sure they stay valid.  */
5638           if (in_ipa_mode
5639               && !DECL_PT_UID_SET_P (vi->decl))
5640             SET_DECL_PT_UID (vi->decl, DECL_UID (vi->decl));
5641
5642           /* Add the decl to the points-to set.  Note that the points-to
5643              set contains global variables.  */
5644           bitmap_set_bit (into, DECL_PT_UID (vi->decl));
5645           if (vi->is_global_var)
5646             pt->vars_contains_global = true;
5647         }
5648     }
5649 }
5650
5651
5652 /* Compute the points-to solution *PT for the variable VI.  */
5653
5654 static void
5655 find_what_var_points_to (varinfo_t orig_vi, struct pt_solution *pt)
5656 {
5657   unsigned int i;
5658   bitmap_iterator bi;
5659   bitmap finished_solution;
5660   bitmap result;
5661   varinfo_t vi;
5662
5663   memset (pt, 0, sizeof (struct pt_solution));
5664
5665   /* This variable may have been collapsed, let's get the real
5666      variable.  */
5667   vi = get_varinfo (find (orig_vi->id));
5668
5669   /* Translate artificial variables into SSA_NAME_PTR_INFO
5670      attributes.  */
5671   EXECUTE_IF_SET_IN_BITMAP (vi->solution, 0, i, bi)
5672     {
5673       varinfo_t vi = get_varinfo (i);
5674
5675       if (vi->is_artificial_var)
5676         {
5677           if (vi->id == nothing_id)
5678             pt->null = 1;
5679           else if (vi->id == escaped_id)
5680             {
5681               if (in_ipa_mode)
5682                 pt->ipa_escaped = 1;
5683               else
5684                 pt->escaped = 1;
5685             }
5686           else if (vi->id == nonlocal_id)
5687             pt->nonlocal = 1;
5688           else if (vi->is_heap_var)
5689             /* We represent heapvars in the points-to set properly.  */
5690             ;
5691           else if (vi->id == readonly_id)
5692             /* Nobody cares.  */
5693             ;
5694           else if (vi->id == anything_id
5695                    || vi->id == integer_id)
5696             pt->anything = 1;
5697         }
5698       if (vi->is_restrict_var)
5699         pt->vars_contains_restrict = true;
5700     }
5701
5702   /* Instead of doing extra work, simply do not create
5703      elaborate points-to information for pt_anything pointers.  */
5704   if (pt->anything
5705       && (orig_vi->is_artificial_var
5706           || !pt->vars_contains_restrict))
5707     return;
5708
5709   /* Share the final set of variables when possible.  */
5710   finished_solution = BITMAP_GGC_ALLOC ();
5711   stats.points_to_sets_created++;
5712
5713   set_uids_in_ptset (finished_solution, vi->solution, pt);
5714   result = shared_bitmap_lookup (finished_solution);
5715   if (!result)
5716     {
5717       shared_bitmap_add (finished_solution);
5718       pt->vars = finished_solution;
5719     }
5720   else
5721     {
5722       pt->vars = result;
5723       bitmap_clear (finished_solution);
5724     }
5725 }
5726
5727 /* Given a pointer variable P, fill in its points-to set.  */
5728
5729 static void
5730 find_what_p_points_to (tree p)
5731 {
5732   struct ptr_info_def *pi;
5733   tree lookup_p = p;
5734   varinfo_t vi;
5735
5736   /* For parameters, get at the points-to set for the actual parm
5737      decl.  */
5738   if (TREE_CODE (p) == SSA_NAME
5739       && TREE_CODE (SSA_NAME_VAR (p)) == PARM_DECL
5740       && SSA_NAME_IS_DEFAULT_DEF (p))
5741     lookup_p = SSA_NAME_VAR (p);
5742
5743   vi = lookup_vi_for_tree (lookup_p);
5744   if (!vi)
5745     return;
5746
5747   pi = get_ptr_info (p);
5748   find_what_var_points_to (vi, &pi->pt);
5749 }
5750
5751
5752 /* Query statistics for points-to solutions.  */
5753
5754 static struct {
5755   unsigned HOST_WIDE_INT pt_solution_includes_may_alias;
5756   unsigned HOST_WIDE_INT pt_solution_includes_no_alias;
5757   unsigned HOST_WIDE_INT pt_solutions_intersect_may_alias;
5758   unsigned HOST_WIDE_INT pt_solutions_intersect_no_alias;
5759 } pta_stats;
5760
5761 void
5762 dump_pta_stats (FILE *s)
5763 {
5764   fprintf (s, "\nPTA query stats:\n");
5765   fprintf (s, "  pt_solution_includes: "
5766            HOST_WIDE_INT_PRINT_DEC" disambiguations, "
5767            HOST_WIDE_INT_PRINT_DEC" queries\n",
5768            pta_stats.pt_solution_includes_no_alias,
5769            pta_stats.pt_solution_includes_no_alias
5770            + pta_stats.pt_solution_includes_may_alias);
5771   fprintf (s, "  pt_solutions_intersect: "
5772            HOST_WIDE_INT_PRINT_DEC" disambiguations, "
5773            HOST_WIDE_INT_PRINT_DEC" queries\n",
5774            pta_stats.pt_solutions_intersect_no_alias,
5775            pta_stats.pt_solutions_intersect_no_alias
5776            + pta_stats.pt_solutions_intersect_may_alias);
5777 }
5778
5779
5780 /* Reset the points-to solution *PT to a conservative default
5781    (point to anything).  */
5782
5783 void
5784 pt_solution_reset (struct pt_solution *pt)
5785 {
5786   memset (pt, 0, sizeof (struct pt_solution));
5787   pt->anything = true;
5788 }
5789
5790 /* Set the points-to solution *PT to point only to the variables
5791    in VARS.  VARS_CONTAINS_GLOBAL specifies whether that contains
5792    global variables and VARS_CONTAINS_RESTRICT specifies whether
5793    it contains restrict tag variables.  */
5794
5795 void
5796 pt_solution_set (struct pt_solution *pt, bitmap vars,
5797                  bool vars_contains_global, bool vars_contains_restrict)
5798 {
5799   memset (pt, 0, sizeof (struct pt_solution));
5800   pt->vars = vars;
5801   pt->vars_contains_global = vars_contains_global;
5802   pt->vars_contains_restrict = vars_contains_restrict;
5803 }
5804
5805 /* Computes the union of the points-to solutions *DEST and *SRC and
5806    stores the result in *DEST.  This changes the points-to bitmap
5807    of *DEST and thus may not be used if that might be shared.
5808    The points-to bitmap of *SRC and *DEST will not be shared after
5809    this function if they were not before.  */
5810
5811 static void
5812 pt_solution_ior_into (struct pt_solution *dest, struct pt_solution *src)
5813 {
5814   dest->anything |= src->anything;
5815   if (dest->anything)
5816     {
5817       pt_solution_reset (dest);
5818       return;
5819     }
5820
5821   dest->nonlocal |= src->nonlocal;
5822   dest->escaped |= src->escaped;
5823   dest->ipa_escaped |= src->ipa_escaped;
5824   dest->null |= src->null;
5825   dest->vars_contains_global |= src->vars_contains_global;
5826   dest->vars_contains_restrict |= src->vars_contains_restrict;
5827   if (!src->vars)
5828     return;
5829
5830   if (!dest->vars)
5831     dest->vars = BITMAP_GGC_ALLOC ();
5832   bitmap_ior_into (dest->vars, src->vars);
5833 }
5834
5835 /* Return true if the points-to solution *PT is empty.  */
5836
5837 bool
5838 pt_solution_empty_p (struct pt_solution *pt)
5839 {
5840   if (pt->anything
5841       || pt->nonlocal)
5842     return false;
5843
5844   if (pt->vars
5845       && !bitmap_empty_p (pt->vars))
5846     return false;
5847
5848   /* If the solution includes ESCAPED, check if that is empty.  */
5849   if (pt->escaped
5850       && !pt_solution_empty_p (&cfun->gimple_df->escaped))
5851     return false;
5852
5853   /* If the solution includes ESCAPED, check if that is empty.  */
5854   if (pt->ipa_escaped
5855       && !pt_solution_empty_p (&ipa_escaped_pt))
5856     return false;
5857
5858   return true;
5859 }
5860
5861 /* Return true if the points-to solution *PT includes global memory.  */
5862
5863 bool
5864 pt_solution_includes_global (struct pt_solution *pt)
5865 {
5866   if (pt->anything
5867       || pt->nonlocal
5868       || pt->vars_contains_global)
5869     return true;
5870
5871   if (pt->escaped)
5872     return pt_solution_includes_global (&cfun->gimple_df->escaped);
5873
5874   if (pt->ipa_escaped)
5875     return pt_solution_includes_global (&ipa_escaped_pt);
5876
5877   /* ???  This predicate is not correct for the IPA-PTA solution
5878      as we do not properly distinguish between unit escape points
5879      and global variables.  */
5880   if (cfun->gimple_df->ipa_pta)
5881     return true;
5882
5883   return false;
5884 }
5885
5886 /* Return true if the points-to solution *PT includes the variable
5887    declaration DECL.  */
5888
5889 static bool
5890 pt_solution_includes_1 (struct pt_solution *pt, const_tree decl)
5891 {
5892   if (pt->anything)
5893     return true;
5894
5895   if (pt->nonlocal
5896       && is_global_var (decl))
5897     return true;
5898
5899   if (pt->vars
5900       && bitmap_bit_p (pt->vars, DECL_PT_UID (decl)))
5901     return true;
5902
5903   /* If the solution includes ESCAPED, check it.  */
5904   if (pt->escaped
5905       && pt_solution_includes_1 (&cfun->gimple_df->escaped, decl))
5906     return true;
5907
5908   /* If the solution includes ESCAPED, check it.  */
5909   if (pt->ipa_escaped
5910       && pt_solution_includes_1 (&ipa_escaped_pt, decl))
5911     return true;
5912
5913   return false;
5914 }
5915
5916 bool
5917 pt_solution_includes (struct pt_solution *pt, const_tree decl)
5918 {
5919   bool res = pt_solution_includes_1 (pt, decl);
5920   if (res)
5921     ++pta_stats.pt_solution_includes_may_alias;
5922   else
5923     ++pta_stats.pt_solution_includes_no_alias;
5924   return res;
5925 }
5926
5927 /* Return true if both points-to solutions PT1 and PT2 have a non-empty
5928    intersection.  */
5929
5930 static bool
5931 pt_solutions_intersect_1 (struct pt_solution *pt1, struct pt_solution *pt2)
5932 {
5933   if (pt1->anything || pt2->anything)
5934     return true;
5935
5936   /* If either points to unknown global memory and the other points to
5937      any global memory they alias.  */
5938   if ((pt1->nonlocal
5939        && (pt2->nonlocal
5940            || pt2->vars_contains_global))
5941       || (pt2->nonlocal
5942           && pt1->vars_contains_global))
5943     return true;
5944
5945   /* Check the escaped solution if required.  */
5946   if ((pt1->escaped || pt2->escaped)
5947       && !pt_solution_empty_p (&cfun->gimple_df->escaped))
5948     {
5949       /* If both point to escaped memory and that solution
5950          is not empty they alias.  */
5951       if (pt1->escaped && pt2->escaped)
5952         return true;
5953
5954       /* If either points to escaped memory see if the escaped solution
5955          intersects with the other.  */
5956       if ((pt1->escaped
5957            && pt_solutions_intersect_1 (&cfun->gimple_df->escaped, pt2))
5958           || (pt2->escaped
5959               && pt_solutions_intersect_1 (&cfun->gimple_df->escaped, pt1)))
5960         return true;
5961     }
5962
5963   /* Check the escaped solution if required.
5964      ???  Do we need to check the local against the IPA escaped sets?  */
5965   if ((pt1->ipa_escaped || pt2->ipa_escaped)
5966       && !pt_solution_empty_p (&ipa_escaped_pt))
5967     {
5968       /* If both point to escaped memory and that solution
5969          is not empty they alias.  */
5970       if (pt1->ipa_escaped && pt2->ipa_escaped)
5971         return true;
5972
5973       /* If either points to escaped memory see if the escaped solution
5974          intersects with the other.  */
5975       if ((pt1->ipa_escaped
5976            && pt_solutions_intersect_1 (&ipa_escaped_pt, pt2))
5977           || (pt2->ipa_escaped
5978               && pt_solutions_intersect_1 (&ipa_escaped_pt, pt1)))
5979         return true;
5980     }
5981
5982   /* Now both pointers alias if their points-to solution intersects.  */
5983   return (pt1->vars
5984           && pt2->vars
5985           && bitmap_intersect_p (pt1->vars, pt2->vars));
5986 }
5987
5988 bool
5989 pt_solutions_intersect (struct pt_solution *pt1, struct pt_solution *pt2)
5990 {
5991   bool res = pt_solutions_intersect_1 (pt1, pt2);
5992   if (res)
5993     ++pta_stats.pt_solutions_intersect_may_alias;
5994   else
5995     ++pta_stats.pt_solutions_intersect_no_alias;
5996   return res;
5997 }
5998
5999 /* Return true if both points-to solutions PT1 and PT2 for two restrict
6000    qualified pointers are possibly based on the same pointer.  */
6001
6002 bool
6003 pt_solutions_same_restrict_base (struct pt_solution *pt1,
6004                                  struct pt_solution *pt2)
6005 {
6006   /* If we deal with points-to solutions of two restrict qualified
6007      pointers solely rely on the pointed-to variable bitmap intersection.
6008      For two pointers that are based on each other the bitmaps will
6009      intersect.  */
6010   if (pt1->vars_contains_restrict
6011       && pt2->vars_contains_restrict)
6012     {
6013       gcc_assert (pt1->vars && pt2->vars);
6014       return bitmap_intersect_p (pt1->vars, pt2->vars);
6015     }
6016
6017   return true;
6018 }
6019
6020
6021 /* Dump points-to information to OUTFILE.  */
6022
6023 static void
6024 dump_sa_points_to_info (FILE *outfile)
6025 {
6026   unsigned int i;
6027
6028   fprintf (outfile, "\nPoints-to sets\n\n");
6029
6030   if (dump_flags & TDF_STATS)
6031     {
6032       fprintf (outfile, "Stats:\n");
6033       fprintf (outfile, "Total vars:               %d\n", stats.total_vars);
6034       fprintf (outfile, "Non-pointer vars:          %d\n",
6035                stats.nonpointer_vars);
6036       fprintf (outfile, "Statically unified vars:  %d\n",
6037                stats.unified_vars_static);
6038       fprintf (outfile, "Dynamically unified vars: %d\n",
6039                stats.unified_vars_dynamic);
6040       fprintf (outfile, "Iterations:               %d\n", stats.iterations);
6041       fprintf (outfile, "Number of edges:          %d\n", stats.num_edges);
6042       fprintf (outfile, "Number of implicit edges: %d\n",
6043                stats.num_implicit_edges);
6044     }
6045
6046   for (i = 0; i < VEC_length (varinfo_t, varmap); i++)
6047     {
6048       varinfo_t vi = get_varinfo (i);
6049       if (!vi->may_have_pointers)
6050         continue;
6051       dump_solution_for_var (outfile, i);
6052     }
6053 }
6054
6055
6056 /* Debug points-to information to stderr.  */
6057
6058 DEBUG_FUNCTION void
6059 debug_sa_points_to_info (void)
6060 {
6061   dump_sa_points_to_info (stderr);
6062 }
6063
6064
6065 /* Initialize the always-existing constraint variables for NULL
6066    ANYTHING, READONLY, and INTEGER */
6067
6068 static void
6069 init_base_vars (void)
6070 {
6071   struct constraint_expr lhs, rhs;
6072   varinfo_t var_anything;
6073   varinfo_t var_nothing;
6074   varinfo_t var_readonly;
6075   varinfo_t var_escaped;
6076   varinfo_t var_nonlocal;
6077   varinfo_t var_storedanything;
6078   varinfo_t var_integer;
6079
6080   /* Create the NULL variable, used to represent that a variable points
6081      to NULL.  */
6082   var_nothing = new_var_info (NULL_TREE, "NULL");
6083   gcc_assert (var_nothing->id == nothing_id);
6084   var_nothing->is_artificial_var = 1;
6085   var_nothing->offset = 0;
6086   var_nothing->size = ~0;
6087   var_nothing->fullsize = ~0;
6088   var_nothing->is_special_var = 1;
6089   var_nothing->may_have_pointers = 0;
6090   var_nothing->is_global_var = 0;
6091
6092   /* Create the ANYTHING variable, used to represent that a variable
6093      points to some unknown piece of memory.  */
6094   var_anything = new_var_info (NULL_TREE, "ANYTHING");
6095   gcc_assert (var_anything->id == anything_id);
6096   var_anything->is_artificial_var = 1;
6097   var_anything->size = ~0;
6098   var_anything->offset = 0;
6099   var_anything->next = NULL;
6100   var_anything->fullsize = ~0;
6101   var_anything->is_special_var = 1;
6102
6103   /* Anything points to anything.  This makes deref constraints just
6104      work in the presence of linked list and other p = *p type loops,
6105      by saying that *ANYTHING = ANYTHING. */
6106   lhs.type = SCALAR;
6107   lhs.var = anything_id;
6108   lhs.offset = 0;
6109   rhs.type = ADDRESSOF;
6110   rhs.var = anything_id;
6111   rhs.offset = 0;
6112
6113   /* This specifically does not use process_constraint because
6114      process_constraint ignores all anything = anything constraints, since all
6115      but this one are redundant.  */
6116   VEC_safe_push (constraint_t, heap, constraints, new_constraint (lhs, rhs));
6117
6118   /* Create the READONLY variable, used to represent that a variable
6119      points to readonly memory.  */
6120   var_readonly = new_var_info (NULL_TREE, "READONLY");
6121   gcc_assert (var_readonly->id == readonly_id);
6122   var_readonly->is_artificial_var = 1;
6123   var_readonly->offset = 0;
6124   var_readonly->size = ~0;
6125   var_readonly->fullsize = ~0;
6126   var_readonly->next = NULL;
6127   var_readonly->is_special_var = 1;
6128
6129   /* readonly memory points to anything, in order to make deref
6130      easier.  In reality, it points to anything the particular
6131      readonly variable can point to, but we don't track this
6132      separately. */
6133   lhs.type = SCALAR;
6134   lhs.var = readonly_id;
6135   lhs.offset = 0;
6136   rhs.type = ADDRESSOF;
6137   rhs.var = readonly_id;  /* FIXME */
6138   rhs.offset = 0;
6139   process_constraint (new_constraint (lhs, rhs));
6140
6141   /* Create the ESCAPED variable, used to represent the set of escaped
6142      memory.  */
6143   var_escaped = new_var_info (NULL_TREE, "ESCAPED");
6144   gcc_assert (var_escaped->id == escaped_id);
6145   var_escaped->is_artificial_var = 1;
6146   var_escaped->offset = 0;
6147   var_escaped->size = ~0;
6148   var_escaped->fullsize = ~0;
6149   var_escaped->is_special_var = 0;
6150
6151   /* Create the NONLOCAL variable, used to represent the set of nonlocal
6152      memory.  */
6153   var_nonlocal = new_var_info (NULL_TREE, "NONLOCAL");
6154   gcc_assert (var_nonlocal->id == nonlocal_id);
6155   var_nonlocal->is_artificial_var = 1;
6156   var_nonlocal->offset = 0;
6157   var_nonlocal->size = ~0;
6158   var_nonlocal->fullsize = ~0;
6159   var_nonlocal->is_special_var = 1;
6160
6161   /* ESCAPED = *ESCAPED, because escaped is may-deref'd at calls, etc.  */
6162   lhs.type = SCALAR;
6163   lhs.var = escaped_id;
6164   lhs.offset = 0;
6165   rhs.type = DEREF;
6166   rhs.var = escaped_id;
6167   rhs.offset = 0;
6168   process_constraint (new_constraint (lhs, rhs));
6169
6170   /* ESCAPED = ESCAPED + UNKNOWN_OFFSET, because if a sub-field escapes the
6171      whole variable escapes.  */
6172   lhs.type = SCALAR;
6173   lhs.var = escaped_id;
6174   lhs.offset = 0;
6175   rhs.type = SCALAR;
6176   rhs.var = escaped_id;
6177   rhs.offset = UNKNOWN_OFFSET;
6178   process_constraint (new_constraint (lhs, rhs));
6179
6180   /* *ESCAPED = NONLOCAL.  This is true because we have to assume
6181      everything pointed to by escaped points to what global memory can
6182      point to.  */
6183   lhs.type = DEREF;
6184   lhs.var = escaped_id;
6185   lhs.offset = 0;
6186   rhs.type = SCALAR;
6187   rhs.var = nonlocal_id;
6188   rhs.offset = 0;
6189   process_constraint (new_constraint (lhs, rhs));
6190
6191   /* NONLOCAL = &NONLOCAL, NONLOCAL = &ESCAPED.  This is true because
6192      global memory may point to global memory and escaped memory.  */
6193   lhs.type = SCALAR;
6194   lhs.var = nonlocal_id;
6195   lhs.offset = 0;
6196   rhs.type = ADDRESSOF;
6197   rhs.var = nonlocal_id;
6198   rhs.offset = 0;
6199   process_constraint (new_constraint (lhs, rhs));
6200   rhs.type = ADDRESSOF;
6201   rhs.var = escaped_id;
6202   rhs.offset = 0;
6203   process_constraint (new_constraint (lhs, rhs));
6204
6205   /* Create the STOREDANYTHING variable, used to represent the set of
6206      variables stored to *ANYTHING.  */
6207   var_storedanything = new_var_info (NULL_TREE, "STOREDANYTHING");
6208   gcc_assert (var_storedanything->id == storedanything_id);
6209   var_storedanything->is_artificial_var = 1;
6210   var_storedanything->offset = 0;
6211   var_storedanything->size = ~0;
6212   var_storedanything->fullsize = ~0;
6213   var_storedanything->is_special_var = 0;
6214
6215   /* Create the INTEGER variable, used to represent that a variable points
6216      to what an INTEGER "points to".  */
6217   var_integer = new_var_info (NULL_TREE, "INTEGER");
6218   gcc_assert (var_integer->id == integer_id);
6219   var_integer->is_artificial_var = 1;
6220   var_integer->size = ~0;
6221   var_integer->fullsize = ~0;
6222   var_integer->offset = 0;
6223   var_integer->next = NULL;
6224   var_integer->is_special_var = 1;
6225
6226   /* INTEGER = ANYTHING, because we don't know where a dereference of
6227      a random integer will point to.  */
6228   lhs.type = SCALAR;
6229   lhs.var = integer_id;
6230   lhs.offset = 0;
6231   rhs.type = ADDRESSOF;
6232   rhs.var = anything_id;
6233   rhs.offset = 0;
6234   process_constraint (new_constraint (lhs, rhs));
6235 }
6236
6237 /* Initialize things necessary to perform PTA */
6238
6239 static void
6240 init_alias_vars (void)
6241 {
6242   use_field_sensitive = (MAX_FIELDS_FOR_FIELD_SENSITIVE > 1);
6243
6244   bitmap_obstack_initialize (&pta_obstack);
6245   bitmap_obstack_initialize (&oldpta_obstack);
6246   bitmap_obstack_initialize (&predbitmap_obstack);
6247
6248   constraint_pool = create_alloc_pool ("Constraint pool",
6249                                        sizeof (struct constraint), 30);
6250   variable_info_pool = create_alloc_pool ("Variable info pool",
6251                                           sizeof (struct variable_info), 30);
6252   constraints = VEC_alloc (constraint_t, heap, 8);
6253   varmap = VEC_alloc (varinfo_t, heap, 8);
6254   vi_for_tree = pointer_map_create ();
6255   call_stmt_vars = pointer_map_create ();
6256
6257   memset (&stats, 0, sizeof (stats));
6258   shared_bitmap_table = htab_create (511, shared_bitmap_hash,
6259                                      shared_bitmap_eq, free);
6260   init_base_vars ();
6261 }
6262
6263 /* Remove the REF and ADDRESS edges from GRAPH, as well as all the
6264    predecessor edges.  */
6265
6266 static void
6267 remove_preds_and_fake_succs (constraint_graph_t graph)
6268 {
6269   unsigned int i;
6270
6271   /* Clear the implicit ref and address nodes from the successor
6272      lists.  */
6273   for (i = 0; i < FIRST_REF_NODE; i++)
6274     {
6275       if (graph->succs[i])
6276         bitmap_clear_range (graph->succs[i], FIRST_REF_NODE,
6277                             FIRST_REF_NODE * 2);
6278     }
6279
6280   /* Free the successor list for the non-ref nodes.  */
6281   for (i = FIRST_REF_NODE; i < graph->size; i++)
6282     {
6283       if (graph->succs[i])
6284         BITMAP_FREE (graph->succs[i]);
6285     }
6286
6287   /* Now reallocate the size of the successor list as, and blow away
6288      the predecessor bitmaps.  */
6289   graph->size = VEC_length (varinfo_t, varmap);
6290   graph->succs = XRESIZEVEC (bitmap, graph->succs, graph->size);
6291
6292   free (graph->implicit_preds);
6293   graph->implicit_preds = NULL;
6294   free (graph->preds);
6295   graph->preds = NULL;
6296   bitmap_obstack_release (&predbitmap_obstack);
6297 }
6298
6299 /* Initialize the heapvar for statement mapping.  */
6300
6301 static void
6302 init_alias_heapvars (void)
6303 {
6304   if (!heapvar_for_stmt)
6305     heapvar_for_stmt = htab_create_ggc (11, tree_map_hash, heapvar_map_eq,
6306                                         NULL);
6307 }
6308
6309 /* Delete the heapvar for statement mapping.  */
6310
6311 void
6312 delete_alias_heapvars (void)
6313 {
6314   if (heapvar_for_stmt)
6315     htab_delete (heapvar_for_stmt);
6316   heapvar_for_stmt = NULL;
6317 }
6318
6319 /* Solve the constraint set.  */
6320
6321 static void
6322 solve_constraints (void)
6323 {
6324   struct scc_info *si;
6325
6326   if (dump_file)
6327     fprintf (dump_file,
6328              "\nCollapsing static cycles and doing variable "
6329              "substitution\n");
6330
6331   init_graph (VEC_length (varinfo_t, varmap) * 2);
6332
6333   if (dump_file)
6334     fprintf (dump_file, "Building predecessor graph\n");
6335   build_pred_graph ();
6336
6337   if (dump_file)
6338     fprintf (dump_file, "Detecting pointer and location "
6339              "equivalences\n");
6340   si = perform_var_substitution (graph);
6341
6342   if (dump_file)
6343     fprintf (dump_file, "Rewriting constraints and unifying "
6344              "variables\n");
6345   rewrite_constraints (graph, si);
6346
6347   build_succ_graph ();
6348   free_var_substitution_info (si);
6349
6350   if (dump_file && (dump_flags & TDF_GRAPH))
6351     dump_constraint_graph (dump_file);
6352
6353   move_complex_constraints (graph);
6354
6355   if (dump_file)
6356     fprintf (dump_file, "Uniting pointer but not location equivalent "
6357              "variables\n");
6358   unite_pointer_equivalences (graph);
6359
6360   if (dump_file)
6361     fprintf (dump_file, "Finding indirect cycles\n");
6362   find_indirect_cycles (graph);
6363
6364   /* Implicit nodes and predecessors are no longer necessary at this
6365      point. */
6366   remove_preds_and_fake_succs (graph);
6367
6368   if (dump_file)
6369     fprintf (dump_file, "Solving graph\n");
6370
6371   solve_graph (graph);
6372
6373   if (dump_file)
6374     dump_sa_points_to_info (dump_file);
6375 }
6376
6377 /* Create points-to sets for the current function.  See the comments
6378    at the start of the file for an algorithmic overview.  */
6379
6380 static void
6381 compute_points_to_sets (void)
6382 {
6383   basic_block bb;
6384   unsigned i;
6385   varinfo_t vi;
6386
6387   timevar_push (TV_TREE_PTA);
6388
6389   init_alias_vars ();
6390   init_alias_heapvars ();
6391
6392   intra_create_variable_infos ();
6393
6394   /* Now walk all statements and build the constraint set.  */
6395   FOR_EACH_BB (bb)
6396     {
6397       gimple_stmt_iterator gsi;
6398
6399       for (gsi = gsi_start_phis (bb); !gsi_end_p (gsi); gsi_next (&gsi))
6400         {
6401           gimple phi = gsi_stmt (gsi);
6402
6403           if (is_gimple_reg (gimple_phi_result (phi)))
6404             find_func_aliases (phi);
6405         }
6406
6407       for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
6408         {
6409           gimple stmt = gsi_stmt (gsi);
6410
6411           find_func_aliases (stmt);
6412         }
6413     }
6414
6415   if (dump_file)
6416     {
6417       fprintf (dump_file, "Points-to analysis\n\nConstraints:\n\n");
6418       dump_constraints (dump_file, 0);
6419     }
6420
6421   /* From the constraints compute the points-to sets.  */
6422   solve_constraints ();
6423
6424   /* Compute the points-to set for ESCAPED used for call-clobber analysis.  */
6425   find_what_var_points_to (get_varinfo (escaped_id),
6426                            &cfun->gimple_df->escaped);
6427
6428   /* Make sure the ESCAPED solution (which is used as placeholder in
6429      other solutions) does not reference itself.  This simplifies
6430      points-to solution queries.  */
6431   cfun->gimple_df->escaped.escaped = 0;
6432
6433   /* Mark escaped HEAP variables as global.  */
6434   for (i = 0; VEC_iterate (varinfo_t, varmap, i, vi); ++i)
6435     if (vi->is_heap_var
6436         && !vi->is_restrict_var
6437         && !vi->is_global_var)
6438       DECL_EXTERNAL (vi->decl) = vi->is_global_var
6439         = pt_solution_includes (&cfun->gimple_df->escaped, vi->decl);
6440
6441   /* Compute the points-to sets for pointer SSA_NAMEs.  */
6442   for (i = 0; i < num_ssa_names; ++i)
6443     {
6444       tree ptr = ssa_name (i);
6445       if (ptr
6446           && POINTER_TYPE_P (TREE_TYPE (ptr)))
6447         find_what_p_points_to (ptr);
6448     }
6449
6450   /* Compute the call-used/clobbered sets.  */
6451   FOR_EACH_BB (bb)
6452     {
6453       gimple_stmt_iterator gsi;
6454
6455       for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
6456         {
6457           gimple stmt = gsi_stmt (gsi);
6458           struct pt_solution *pt;
6459           if (!is_gimple_call (stmt))
6460             continue;
6461
6462           pt = gimple_call_use_set (stmt);
6463           if (gimple_call_flags (stmt) & ECF_CONST)
6464             memset (pt, 0, sizeof (struct pt_solution));
6465           else if ((vi = lookup_call_use_vi (stmt)) != NULL)
6466             {
6467               find_what_var_points_to (vi, pt);
6468               /* Escaped (and thus nonlocal) variables are always
6469                  implicitly used by calls.  */
6470               /* ???  ESCAPED can be empty even though NONLOCAL
6471                  always escaped.  */
6472               pt->nonlocal = 1;
6473               pt->escaped = 1;
6474             }
6475           else
6476             {
6477               /* If there is nothing special about this call then
6478                  we have made everything that is used also escape.  */
6479               *pt = cfun->gimple_df->escaped;
6480               pt->nonlocal = 1;
6481             }
6482
6483           pt = gimple_call_clobber_set (stmt);
6484           if (gimple_call_flags (stmt) & (ECF_CONST|ECF_PURE|ECF_NOVOPS))
6485             memset (pt, 0, sizeof (struct pt_solution));
6486           else if ((vi = lookup_call_clobber_vi (stmt)) != NULL)
6487             {
6488               find_what_var_points_to (vi, pt);
6489               /* Escaped (and thus nonlocal) variables are always
6490                  implicitly clobbered by calls.  */
6491               /* ???  ESCAPED can be empty even though NONLOCAL
6492                  always escaped.  */
6493               pt->nonlocal = 1;
6494               pt->escaped = 1;
6495             }
6496           else
6497             {
6498               /* If there is nothing special about this call then
6499                  we have made everything that is used also escape.  */
6500               *pt = cfun->gimple_df->escaped;
6501               pt->nonlocal = 1;
6502             }
6503         }
6504     }
6505
6506   timevar_pop (TV_TREE_PTA);
6507 }
6508
6509
6510 /* Delete created points-to sets.  */
6511
6512 static void
6513 delete_points_to_sets (void)
6514 {
6515   unsigned int i;
6516
6517   htab_delete (shared_bitmap_table);
6518   if (dump_file && (dump_flags & TDF_STATS))
6519     fprintf (dump_file, "Points to sets created:%d\n",
6520              stats.points_to_sets_created);
6521
6522   pointer_map_destroy (vi_for_tree);
6523   pointer_map_destroy (call_stmt_vars);
6524   bitmap_obstack_release (&pta_obstack);
6525   VEC_free (constraint_t, heap, constraints);
6526
6527   for (i = 0; i < graph->size; i++)
6528     VEC_free (constraint_t, heap, graph->complex[i]);
6529   free (graph->complex);
6530
6531   free (graph->rep);
6532   free (graph->succs);
6533   free (graph->pe);
6534   free (graph->pe_rep);
6535   free (graph->indirect_cycles);
6536   free (graph);
6537
6538   VEC_free (varinfo_t, heap, varmap);
6539   free_alloc_pool (variable_info_pool);
6540   free_alloc_pool (constraint_pool);
6541 }
6542
6543
6544 /* Compute points-to information for every SSA_NAME pointer in the
6545    current function and compute the transitive closure of escaped
6546    variables to re-initialize the call-clobber states of local variables.  */
6547
6548 unsigned int
6549 compute_may_aliases (void)
6550 {
6551   if (cfun->gimple_df->ipa_pta)
6552     {
6553       if (dump_file)
6554         {
6555           fprintf (dump_file, "\nNot re-computing points-to information "
6556                    "because IPA points-to information is available.\n\n");
6557
6558           /* But still dump what we have remaining it.  */
6559           dump_alias_info (dump_file);
6560
6561           if (dump_flags & TDF_DETAILS)
6562             dump_referenced_vars (dump_file);
6563         }
6564
6565       return 0;
6566     }
6567
6568   /* For each pointer P_i, determine the sets of variables that P_i may
6569      point-to.  Compute the reachability set of escaped and call-used
6570      variables.  */
6571   compute_points_to_sets ();
6572
6573   /* Debugging dumps.  */
6574   if (dump_file)
6575     {
6576       dump_alias_info (dump_file);
6577
6578       if (dump_flags & TDF_DETAILS)
6579         dump_referenced_vars (dump_file);
6580     }
6581
6582   /* Deallocate memory used by aliasing data structures and the internal
6583      points-to solution.  */
6584   delete_points_to_sets ();
6585
6586   gcc_assert (!need_ssa_update_p (cfun));
6587
6588   return 0;
6589 }
6590
6591 static bool
6592 gate_tree_pta (void)
6593 {
6594   return flag_tree_pta;
6595 }
6596
6597 /* A dummy pass to cause points-to information to be computed via
6598    TODO_rebuild_alias.  */
6599
6600 struct gimple_opt_pass pass_build_alias =
6601 {
6602  {
6603   GIMPLE_PASS,
6604   "alias",                  /* name */
6605   gate_tree_pta,            /* gate */
6606   NULL,                     /* execute */
6607   NULL,                     /* sub */
6608   NULL,                     /* next */
6609   0,                        /* static_pass_number */
6610   TV_NONE,                  /* tv_id */
6611   PROP_cfg | PROP_ssa,      /* properties_required */
6612   0,                        /* properties_provided */
6613   0,                        /* properties_destroyed */
6614   0,                        /* todo_flags_start */
6615   TODO_rebuild_alias | TODO_dump_func  /* todo_flags_finish */
6616  }
6617 };
6618
6619 /* A dummy pass to cause points-to information to be computed via
6620    TODO_rebuild_alias.  */
6621
6622 struct gimple_opt_pass pass_build_ealias =
6623 {
6624  {
6625   GIMPLE_PASS,
6626   "ealias",                 /* name */
6627   gate_tree_pta,            /* gate */
6628   NULL,                     /* execute */
6629   NULL,                     /* sub */
6630   NULL,                     /* next */
6631   0,                        /* static_pass_number */
6632   TV_NONE,                  /* tv_id */
6633   PROP_cfg | PROP_ssa,      /* properties_required */
6634   0,                        /* properties_provided */
6635   0,                        /* properties_destroyed */
6636   0,                        /* todo_flags_start */
6637   TODO_rebuild_alias | TODO_dump_func  /* todo_flags_finish */
6638  }
6639 };
6640
6641
6642 /* Return true if we should execute IPA PTA.  */
6643 static bool
6644 gate_ipa_pta (void)
6645 {
6646   return (optimize
6647           && flag_ipa_pta
6648           /* Don't bother doing anything if the program has errors.  */
6649           && !seen_error ());
6650 }
6651
6652 /* IPA PTA solutions for ESCAPED.  */
6653 struct pt_solution ipa_escaped_pt
6654   = { true, false, false, false, false, false, false, NULL };
6655
6656 /* Execute the driver for IPA PTA.  */
6657 static unsigned int
6658 ipa_pta_execute (void)
6659 {
6660   struct cgraph_node *node;
6661   struct varpool_node *var;
6662   int from;
6663
6664   in_ipa_mode = 1;
6665
6666   init_alias_heapvars ();
6667   init_alias_vars ();
6668
6669   /* Build the constraints.  */
6670   for (node = cgraph_nodes; node; node = node->next)
6671     {
6672       struct cgraph_node *alias;
6673       varinfo_t vi;
6674
6675       /* Nodes without a body are not interesting.  Especially do not
6676          visit clones at this point for now - we get duplicate decls
6677          there for inline clones at least.  */
6678       if (!gimple_has_body_p (node->decl)
6679           || node->clone_of)
6680         continue;
6681
6682       vi = create_function_info_for (node->decl,
6683                                      alias_get_name (node->decl));
6684
6685       /* Associate the varinfo node with all aliases.  */
6686       for (alias = node->same_body; alias; alias = alias->next)
6687         insert_vi_for_tree (alias->decl, vi);
6688     }
6689
6690   /* Create constraints for global variables and their initializers.  */
6691   for (var = varpool_nodes; var; var = var->next)
6692     {
6693       struct varpool_node *alias;
6694       varinfo_t vi;
6695
6696       vi = get_vi_for_tree (var->decl);
6697
6698       /* Associate the varinfo node with all aliases.  */
6699       for (alias = var->extra_name; alias; alias = alias->next)
6700         insert_vi_for_tree (alias->decl, vi);
6701     }
6702
6703   if (dump_file)
6704     {
6705       fprintf (dump_file,
6706                "Generating constraints for global initializers\n\n");
6707       dump_constraints (dump_file, 0);
6708       fprintf (dump_file, "\n");
6709     }
6710   from = VEC_length (constraint_t, constraints);
6711
6712   for (node = cgraph_nodes; node; node = node->next)
6713     {
6714       struct function *func;
6715       basic_block bb;
6716       tree old_func_decl;
6717
6718       /* Nodes without a body are not interesting.  */
6719       if (!gimple_has_body_p (node->decl)
6720           || node->clone_of)
6721         continue;
6722
6723       if (dump_file)
6724         {
6725           fprintf (dump_file,
6726                    "Generating constraints for %s", cgraph_node_name (node));
6727           if (DECL_ASSEMBLER_NAME_SET_P (node->decl))
6728             fprintf (dump_file, " (%s)",
6729                      IDENTIFIER_POINTER (DECL_ASSEMBLER_NAME (node->decl)));
6730           fprintf (dump_file, "\n");
6731         }
6732
6733       func = DECL_STRUCT_FUNCTION (node->decl);
6734       old_func_decl = current_function_decl;
6735       push_cfun (func);
6736       current_function_decl = node->decl;
6737
6738       /* For externally visible functions use local constraints for
6739          their arguments.  For local functions we see all callers
6740          and thus do not need initial constraints for parameters.  */
6741       if (node->local.externally_visible)
6742         intra_create_variable_infos ();
6743
6744       /* Build constriants for the function body.  */
6745       FOR_EACH_BB_FN (bb, func)
6746         {
6747           gimple_stmt_iterator gsi;
6748
6749           for (gsi = gsi_start_phis (bb); !gsi_end_p (gsi);
6750                gsi_next (&gsi))
6751             {
6752               gimple phi = gsi_stmt (gsi);
6753
6754               if (is_gimple_reg (gimple_phi_result (phi)))
6755                 find_func_aliases (phi);
6756             }
6757
6758           for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
6759             {
6760               gimple stmt = gsi_stmt (gsi);
6761
6762               find_func_aliases (stmt);
6763               find_func_clobbers (stmt);
6764             }
6765         }
6766
6767       current_function_decl = old_func_decl;
6768       pop_cfun ();
6769
6770       if (dump_file)
6771         {
6772           fprintf (dump_file, "\n");
6773           dump_constraints (dump_file, from);
6774           fprintf (dump_file, "\n");
6775         }
6776       from = VEC_length (constraint_t, constraints);
6777     }
6778
6779   /* From the constraints compute the points-to sets.  */
6780   solve_constraints ();
6781
6782   /* Compute the global points-to sets for ESCAPED.
6783      ???  Note that the computed escape set is not correct
6784      for the whole unit as we fail to consider graph edges to
6785      externally visible functions.  */
6786   find_what_var_points_to (get_varinfo (escaped_id), &ipa_escaped_pt);
6787
6788   /* Make sure the ESCAPED solution (which is used as placeholder in
6789      other solutions) does not reference itself.  This simplifies
6790      points-to solution queries.  */
6791   ipa_escaped_pt.ipa_escaped = 0;
6792
6793   /* Assign the points-to sets to the SSA names in the unit.  */
6794   for (node = cgraph_nodes; node; node = node->next)
6795     {
6796       tree ptr;
6797       struct function *fn;
6798       unsigned i;
6799       varinfo_t fi;
6800       basic_block bb;
6801       struct pt_solution uses, clobbers;
6802       struct cgraph_edge *e;
6803
6804       /* Nodes without a body are not interesting.  */
6805       if (!gimple_has_body_p (node->decl)
6806           || node->clone_of)
6807         continue;
6808
6809       fn = DECL_STRUCT_FUNCTION (node->decl);
6810
6811       /* Compute the points-to sets for pointer SSA_NAMEs.  */
6812       for (i = 0; VEC_iterate (tree, fn->gimple_df->ssa_names, i, ptr); ++i)
6813         {
6814           if (ptr
6815               && POINTER_TYPE_P (TREE_TYPE (ptr)))
6816             find_what_p_points_to (ptr);
6817         }
6818
6819       /* Compute the call-use and call-clobber sets for all direct calls.  */
6820       fi = lookup_vi_for_tree (node->decl);
6821       gcc_assert (fi->is_fn_info);
6822       find_what_var_points_to (first_vi_for_offset (fi, fi_clobbers),
6823                                &clobbers);
6824       find_what_var_points_to (first_vi_for_offset (fi, fi_uses), &uses);
6825       for (e = node->callers; e; e = e->next_caller)
6826         {
6827           if (!e->call_stmt)
6828             continue;
6829
6830           *gimple_call_clobber_set (e->call_stmt) = clobbers;
6831           *gimple_call_use_set (e->call_stmt) = uses;
6832         }
6833
6834       /* Compute the call-use and call-clobber sets for indirect calls
6835          and calls to external functions.  */
6836       FOR_EACH_BB_FN (bb, fn)
6837         {
6838           gimple_stmt_iterator gsi;
6839
6840           for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
6841             {
6842               gimple stmt = gsi_stmt (gsi);
6843               struct pt_solution *pt;
6844               varinfo_t vi;
6845               tree decl;
6846
6847               if (!is_gimple_call (stmt))
6848                 continue;
6849
6850               /* Handle direct calls to external functions.  */
6851               decl = gimple_call_fndecl (stmt);
6852               if (decl
6853                   && (!(fi = lookup_vi_for_tree (decl))
6854                       || !fi->is_fn_info))
6855                 {
6856                   pt = gimple_call_use_set (stmt);
6857                   if (gimple_call_flags (stmt) & ECF_CONST)
6858                     memset (pt, 0, sizeof (struct pt_solution));
6859                   else if ((vi = lookup_call_use_vi (stmt)) != NULL)
6860                     {
6861                       find_what_var_points_to (vi, pt);
6862                       /* Escaped (and thus nonlocal) variables are always
6863                          implicitly used by calls.  */
6864                       /* ???  ESCAPED can be empty even though NONLOCAL
6865                          always escaped.  */
6866                       pt->nonlocal = 1;
6867                       pt->ipa_escaped = 1;
6868                     }
6869                   else
6870                     {
6871                       /* If there is nothing special about this call then
6872                          we have made everything that is used also escape.  */
6873                       *pt = ipa_escaped_pt;
6874                       pt->nonlocal = 1;
6875                     }
6876
6877                   pt = gimple_call_clobber_set (stmt);
6878                   if (gimple_call_flags (stmt) & (ECF_CONST|ECF_PURE|ECF_NOVOPS))
6879                     memset (pt, 0, sizeof (struct pt_solution));
6880                   else if ((vi = lookup_call_clobber_vi (stmt)) != NULL)
6881                     {
6882                       find_what_var_points_to (vi, pt);
6883                       /* Escaped (and thus nonlocal) variables are always
6884                          implicitly clobbered by calls.  */
6885                       /* ???  ESCAPED can be empty even though NONLOCAL
6886                          always escaped.  */
6887                       pt->nonlocal = 1;
6888                       pt->ipa_escaped = 1;
6889                     }
6890                   else
6891                     {
6892                       /* If there is nothing special about this call then
6893                          we have made everything that is used also escape.  */
6894                       *pt = ipa_escaped_pt;
6895                       pt->nonlocal = 1;
6896                     }
6897                 }
6898
6899               /* Handle indirect calls.  */
6900               if (!decl
6901                   && (fi = get_fi_for_callee (stmt)))
6902                 {
6903                   /* We need to accumulate all clobbers/uses of all possible
6904                      callees.  */
6905                   fi = get_varinfo (find (fi->id));
6906                   /* If we cannot constrain the set of functions we'll end up
6907                      calling we end up using/clobbering everything.  */
6908                   if (bitmap_bit_p (fi->solution, anything_id)
6909                       || bitmap_bit_p (fi->solution, nonlocal_id)
6910                       || bitmap_bit_p (fi->solution, escaped_id))
6911                     {
6912                       pt_solution_reset (gimple_call_clobber_set (stmt));
6913                       pt_solution_reset (gimple_call_use_set (stmt));
6914                     }
6915                   else
6916                     {
6917                       bitmap_iterator bi;
6918                       unsigned i;
6919                       struct pt_solution *uses, *clobbers;
6920
6921                       uses = gimple_call_use_set (stmt);
6922                       clobbers = gimple_call_clobber_set (stmt);
6923                       memset (uses, 0, sizeof (struct pt_solution));
6924                       memset (clobbers, 0, sizeof (struct pt_solution));
6925                       EXECUTE_IF_SET_IN_BITMAP (fi->solution, 0, i, bi)
6926                         {
6927                           struct pt_solution sol;
6928
6929                           vi = get_varinfo (i);
6930                           if (!vi->is_fn_info)
6931                             {
6932                               /* ???  We could be more precise here?  */
6933                               uses->nonlocal = 1;
6934                               uses->ipa_escaped = 1;
6935                               clobbers->nonlocal = 1;
6936                               clobbers->ipa_escaped = 1;
6937                               continue;
6938                             }
6939
6940                           if (!uses->anything)
6941                             {
6942                               find_what_var_points_to
6943                                   (first_vi_for_offset (vi, fi_uses), &sol);
6944                               pt_solution_ior_into (uses, &sol);
6945                             }
6946                           if (!clobbers->anything)
6947                             {
6948                               find_what_var_points_to
6949                                   (first_vi_for_offset (vi, fi_clobbers), &sol);
6950                               pt_solution_ior_into (clobbers, &sol);
6951                             }
6952                         }
6953                     }
6954                 }
6955             }
6956         }
6957
6958       fn->gimple_df->ipa_pta = true;
6959     }
6960
6961   delete_points_to_sets ();
6962
6963   in_ipa_mode = 0;
6964
6965   return 0;
6966 }
6967
6968 struct simple_ipa_opt_pass pass_ipa_pta =
6969 {
6970  {
6971   SIMPLE_IPA_PASS,
6972   "pta",                                /* name */
6973   gate_ipa_pta,                 /* gate */
6974   ipa_pta_execute,                      /* execute */
6975   NULL,                                 /* sub */
6976   NULL,                                 /* next */
6977   0,                                    /* static_pass_number */
6978   TV_IPA_PTA,                   /* tv_id */
6979   0,                                    /* properties_required */
6980   0,                                    /* properties_provided */
6981   0,                                    /* properties_destroyed */
6982   0,                                    /* todo_flags_start */
6983   TODO_update_ssa                       /* todo_flags_finish */
6984  }
6985 };
6986
6987
6988 #include "gt-tree-ssa-structalias.h"