OSDN Git Service

2009-01-14 Richard Guenther <rguenther@suse.de>
[pf3gnuchains/gcc-fork.git] / gcc / tree-ssa-structalias.c
1 /* Tree based points-to analysis
2    Copyright (C) 2005, 2006, 2007 Free Software Foundation, Inc.
3    Contributed by Daniel Berlin <dberlin@dberlin.org>
4
5    This file is part of GCC.
6
7    GCC is free software; you can redistribute it and/or modify
8    under the terms of the GNU General Public License as published by
9    the Free Software Foundation; either version 3 of the License, or
10    (at your option) any later version.
11
12    GCC is distributed in the hope that it will be useful,
13    but WITHOUT ANY WARRANTY; without even the implied warranty of
14    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15    GNU General Public License for more details.
16
17    You should have received a copy of the GNU General Public License
18    along with GCC; see the file COPYING3.  If not see
19    <http://www.gnu.org/licenses/>.  */
20
21 #include "config.h"
22 #include "system.h"
23 #include "coretypes.h"
24 #include "tm.h"
25 #include "ggc.h"
26 #include "obstack.h"
27 #include "bitmap.h"
28 #include "flags.h"
29 #include "rtl.h"
30 #include "tm_p.h"
31 #include "hard-reg-set.h"
32 #include "basic-block.h"
33 #include "output.h"
34 #include "tree.h"
35 #include "c-common.h"
36 #include "tree-flow.h"
37 #include "tree-inline.h"
38 #include "varray.h"
39 #include "c-tree.h"
40 #include "diagnostic.h"
41 #include "toplev.h"
42 #include "gimple.h"
43 #include "hashtab.h"
44 #include "function.h"
45 #include "cgraph.h"
46 #include "tree-pass.h"
47 #include "timevar.h"
48 #include "alloc-pool.h"
49 #include "splay-tree.h"
50 #include "params.h"
51 #include "tree-ssa-structalias.h"
52 #include "cgraph.h"
53 #include "alias.h"
54 #include "pointer-set.h"
55
56 /* The idea behind this analyzer is to generate set constraints from the
57    program, then solve the resulting constraints in order to generate the
58    points-to sets.
59
60    Set constraints are a way of modeling program analysis problems that
61    involve sets.  They consist of an inclusion constraint language,
62    describing the variables (each variable is a set) and operations that
63    are involved on the variables, and a set of rules that derive facts
64    from these operations.  To solve a system of set constraints, you derive
65    all possible facts under the rules, which gives you the correct sets
66    as a consequence.
67
68    See  "Efficient Field-sensitive pointer analysis for C" by "David
69    J. Pearce and Paul H. J. Kelly and Chris Hankin, at
70    http://citeseer.ist.psu.edu/pearce04efficient.html
71
72    Also see "Ultra-fast Aliasing Analysis using CLA: A Million Lines
73    of C Code in a Second" by ""Nevin Heintze and Olivier Tardieu" at
74    http://citeseer.ist.psu.edu/heintze01ultrafast.html
75
76    There are three types of real constraint expressions, DEREF,
77    ADDRESSOF, and SCALAR.  Each constraint expression consists
78    of a constraint type, a variable, and an offset.
79
80    SCALAR is a constraint expression type used to represent x, whether
81    it appears on the LHS or the RHS of a statement.
82    DEREF is a constraint expression type used to represent *x, whether
83    it appears on the LHS or the RHS of a statement.
84    ADDRESSOF is a constraint expression used to represent &x, whether
85    it appears on the LHS or the RHS of a statement.
86
87    Each pointer variable in the program is assigned an integer id, and
88    each field of a structure variable is assigned an integer id as well.
89
90    Structure variables are linked to their list of fields through a "next
91    field" in each variable that points to the next field in offset
92    order.
93    Each variable for a structure field has
94
95    1. "size", that tells the size in bits of that field.
96    2. "fullsize, that tells the size in bits of the entire structure.
97    3. "offset", that tells the offset in bits from the beginning of the
98    structure to this field.
99
100    Thus,
101    struct f
102    {
103      int a;
104      int b;
105    } foo;
106    int *bar;
107
108    looks like
109
110    foo.a -> id 1, size 32, offset 0, fullsize 64, next foo.b
111    foo.b -> id 2, size 32, offset 32, fullsize 64, next NULL
112    bar -> id 3, size 32, offset 0, fullsize 32, next NULL
113
114
115   In order to solve the system of set constraints, the following is
116   done:
117
118   1. Each constraint variable x has a solution set associated with it,
119   Sol(x).
120
121   2. Constraints are separated into direct, copy, and complex.
122   Direct constraints are ADDRESSOF constraints that require no extra
123   processing, such as P = &Q
124   Copy constraints are those of the form P = Q.
125   Complex constraints are all the constraints involving dereferences
126   and offsets (including offsetted copies).
127
128   3. All direct constraints of the form P = &Q are processed, such
129   that Q is added to Sol(P)
130
131   4. All complex constraints for a given constraint variable are stored in a
132   linked list attached to that variable's node.
133
134   5. A directed graph is built out of the copy constraints. Each
135   constraint variable is a node in the graph, and an edge from
136   Q to P is added for each copy constraint of the form P = Q
137
138   6. The graph is then walked, and solution sets are
139   propagated along the copy edges, such that an edge from Q to P
140   causes Sol(P) <- Sol(P) union Sol(Q).
141
142   7.  As we visit each node, all complex constraints associated with
143   that node are processed by adding appropriate copy edges to the graph, or the
144   appropriate variables to the solution set.
145
146   8. The process of walking the graph is iterated until no solution
147   sets change.
148
149   Prior to walking the graph in steps 6 and 7, We perform static
150   cycle elimination on the constraint graph, as well
151   as off-line variable substitution.
152
153   TODO: Adding offsets to pointer-to-structures can be handled (IE not punted
154   on and turned into anything), but isn't.  You can just see what offset
155   inside the pointed-to struct it's going to access.
156
157   TODO: Constant bounded arrays can be handled as if they were structs of the
158   same number of elements.
159
160   TODO: Modeling heap and incoming pointers becomes much better if we
161   add fields to them as we discover them, which we could do.
162
163   TODO: We could handle unions, but to be honest, it's probably not
164   worth the pain or slowdown.  */
165
166 static GTY ((if_marked ("tree_map_marked_p"), param_is (struct tree_map)))
167 htab_t heapvar_for_stmt;
168
169 static bool use_field_sensitive = true;
170 static int in_ipa_mode = 0;
171
172 /* Used for predecessor bitmaps. */
173 static bitmap_obstack predbitmap_obstack;
174
175 /* Used for points-to sets.  */
176 static bitmap_obstack pta_obstack;
177
178 /* Used for oldsolution members of variables. */
179 static bitmap_obstack oldpta_obstack;
180
181 /* Used for per-solver-iteration bitmaps.  */
182 static bitmap_obstack iteration_obstack;
183
184 static unsigned int create_variable_info_for (tree, const char *);
185 typedef struct constraint_graph *constraint_graph_t;
186 static void unify_nodes (constraint_graph_t, unsigned int, unsigned int, bool);
187
188 DEF_VEC_P(constraint_t);
189 DEF_VEC_ALLOC_P(constraint_t,heap);
190
191 #define EXECUTE_IF_IN_NONNULL_BITMAP(a, b, c, d)        \
192   if (a)                                                \
193     EXECUTE_IF_SET_IN_BITMAP (a, b, c, d)
194
195 static struct constraint_stats
196 {
197   unsigned int total_vars;
198   unsigned int nonpointer_vars;
199   unsigned int unified_vars_static;
200   unsigned int unified_vars_dynamic;
201   unsigned int iterations;
202   unsigned int num_edges;
203   unsigned int num_implicit_edges;
204   unsigned int points_to_sets_created;
205 } stats;
206
207 struct variable_info
208 {
209   /* ID of this variable  */
210   unsigned int id;
211
212   /* True if this is a variable created by the constraint analysis, such as
213      heap variables and constraints we had to break up.  */
214   unsigned int is_artificial_var:1;
215
216   /* True if this is a special variable whose solution set should not be
217      changed.  */
218   unsigned int is_special_var:1;
219
220   /* True for variables whose size is not known or variable.  */
221   unsigned int is_unknown_size_var:1;
222
223   /* True for (sub-)fields that represent a whole variable.  */
224   unsigned int is_full_var : 1;
225
226   /* True if this is a heap variable.  */
227   unsigned int is_heap_var:1;
228
229   /* True if we may not use TBAA to prune references to this
230      variable.  This is used for C++ placement new.  */
231   unsigned int no_tbaa_pruning : 1;
232
233   /* Variable id this was collapsed to due to type unsafety.  Zero if
234      this variable was not collapsed.  This should be unused completely
235      after build_succ_graph, or something is broken.  */
236   unsigned int collapsed_to;
237
238   /* A link to the variable for the next field in this structure.  */
239   struct variable_info *next;
240
241   /* Offset of this variable, in bits, from the base variable  */
242   unsigned HOST_WIDE_INT offset;
243
244   /* Size of the variable, in bits.  */
245   unsigned HOST_WIDE_INT size;
246
247   /* Full size of the base variable, in bits.  */
248   unsigned HOST_WIDE_INT fullsize;
249
250   /* Name of this variable */
251   const char *name;
252
253   /* Tree that this variable is associated with.  */
254   tree decl;
255
256   /* Points-to set for this variable.  */
257   bitmap solution;
258
259   /* Old points-to set for this variable.  */
260   bitmap oldsolution;
261 };
262 typedef struct variable_info *varinfo_t;
263
264 static varinfo_t first_vi_for_offset (varinfo_t, unsigned HOST_WIDE_INT);
265 static varinfo_t lookup_vi_for_tree (tree);
266
267 /* Pool of variable info structures.  */
268 static alloc_pool variable_info_pool;
269
270 DEF_VEC_P(varinfo_t);
271
272 DEF_VEC_ALLOC_P(varinfo_t, heap);
273
274 /* Table of variable info structures for constraint variables.
275    Indexed directly by variable info id.  */
276 static VEC(varinfo_t,heap) *varmap;
277
278 /* Return the varmap element N */
279
280 static inline varinfo_t
281 get_varinfo (unsigned int n)
282 {
283   return VEC_index (varinfo_t, varmap, n);
284 }
285
286 /* Return the varmap element N, following the collapsed_to link.  */
287
288 static inline varinfo_t
289 get_varinfo_fc (unsigned int n)
290 {
291   varinfo_t v = VEC_index (varinfo_t, varmap, n);
292
293   if (v->collapsed_to != 0)
294     return get_varinfo (v->collapsed_to);
295   return v;
296 }
297
298 /* Static IDs for the special variables.  */
299 enum { nothing_id = 0, anything_id = 1, readonly_id = 2,
300        escaped_id = 3, nonlocal_id = 4, callused_id = 5, integer_id = 6 };
301
302 /* Variable that represents the unknown pointer.  */
303 static varinfo_t var_anything;
304 static tree anything_tree;
305
306 /* Variable that represents the NULL pointer.  */
307 static varinfo_t var_nothing;
308 static tree nothing_tree;
309
310 /* Variable that represents read only memory.  */
311 static varinfo_t var_readonly;
312 static tree readonly_tree;
313
314 /* Variable that represents escaped memory.  */
315 static varinfo_t var_escaped;
316 static tree escaped_tree;
317
318 /* Variable that represents nonlocal memory.  */
319 static varinfo_t var_nonlocal;
320 static tree nonlocal_tree;
321
322 /* Variable that represents call-used memory.  */
323 static varinfo_t var_callused;
324 static tree callused_tree;
325
326 /* Variable that represents integers.  This is used for when people do things
327    like &0->a.b.  */
328 static varinfo_t var_integer;
329 static tree integer_tree;
330
331 /* Lookup a heap var for FROM, and return it if we find one.  */
332
333 static tree
334 heapvar_lookup (tree from)
335 {
336   struct tree_map *h, in;
337   in.base.from = from;
338
339   h = (struct tree_map *) htab_find_with_hash (heapvar_for_stmt, &in,
340                                                htab_hash_pointer (from));
341   if (h)
342     return h->to;
343   return NULL_TREE;
344 }
345
346 /* Insert a mapping FROM->TO in the heap var for statement
347    hashtable.  */
348
349 static void
350 heapvar_insert (tree from, tree to)
351 {
352   struct tree_map *h;
353   void **loc;
354
355   h = GGC_NEW (struct tree_map);
356   h->hash = htab_hash_pointer (from);
357   h->base.from = from;
358   h->to = to;
359   loc = htab_find_slot_with_hash (heapvar_for_stmt, h, h->hash, INSERT);
360   *(struct tree_map **) loc = h;
361 }
362
363 /* Return a new variable info structure consisting for a variable
364    named NAME, and using constraint graph node NODE.  */
365
366 static varinfo_t
367 new_var_info (tree t, unsigned int id, const char *name)
368 {
369   varinfo_t ret = (varinfo_t) pool_alloc (variable_info_pool);
370   tree var;
371
372   ret->id = id;
373   ret->name = name;
374   ret->decl = t;
375   ret->is_artificial_var = false;
376   ret->is_heap_var = false;
377   ret->is_special_var = false;
378   ret->is_unknown_size_var = false;
379   ret->is_full_var = false;
380   var = t;
381   if (TREE_CODE (var) == SSA_NAME)
382     var = SSA_NAME_VAR (var);
383   ret->no_tbaa_pruning = (DECL_P (var)
384                           && POINTER_TYPE_P (TREE_TYPE (var))
385                           && DECL_NO_TBAA_P (var));
386   ret->solution = BITMAP_ALLOC (&pta_obstack);
387   ret->oldsolution = BITMAP_ALLOC (&oldpta_obstack);
388   ret->next = NULL;
389   ret->collapsed_to = 0;
390   return ret;
391 }
392
393 typedef enum {SCALAR, DEREF, ADDRESSOF} constraint_expr_type;
394
395 /* An expression that appears in a constraint.  */
396
397 struct constraint_expr
398 {
399   /* Constraint type.  */
400   constraint_expr_type type;
401
402   /* Variable we are referring to in the constraint.  */
403   unsigned int var;
404
405   /* Offset, in bits, of this constraint from the beginning of
406      variables it ends up referring to.
407
408      IOW, in a deref constraint, we would deref, get the result set,
409      then add OFFSET to each member.   */
410   unsigned HOST_WIDE_INT offset;
411 };
412
413 typedef struct constraint_expr ce_s;
414 DEF_VEC_O(ce_s);
415 DEF_VEC_ALLOC_O(ce_s, heap);
416 static void get_constraint_for_1 (tree, VEC(ce_s, heap) **, bool);
417 static void get_constraint_for (tree, VEC(ce_s, heap) **);
418 static void do_deref (VEC (ce_s, heap) **);
419
420 /* Our set constraints are made up of two constraint expressions, one
421    LHS, and one RHS.
422
423    As described in the introduction, our set constraints each represent an
424    operation between set valued variables.
425 */
426 struct constraint
427 {
428   struct constraint_expr lhs;
429   struct constraint_expr rhs;
430 };
431
432 /* List of constraints that we use to build the constraint graph from.  */
433
434 static VEC(constraint_t,heap) *constraints;
435 static alloc_pool constraint_pool;
436
437
438 DEF_VEC_I(int);
439 DEF_VEC_ALLOC_I(int, heap);
440
441 /* The constraint graph is represented as an array of bitmaps
442    containing successor nodes.  */
443
444 struct constraint_graph
445 {
446   /* Size of this graph, which may be different than the number of
447      nodes in the variable map.  */
448   unsigned int size;
449
450   /* Explicit successors of each node. */
451   bitmap *succs;
452
453   /* Implicit predecessors of each node (Used for variable
454      substitution). */
455   bitmap *implicit_preds;
456
457   /* Explicit predecessors of each node (Used for variable substitution).  */
458   bitmap *preds;
459
460   /* Indirect cycle representatives, or -1 if the node has no indirect
461      cycles.  */
462   int *indirect_cycles;
463
464   /* Representative node for a node.  rep[a] == a unless the node has
465      been unified. */
466   unsigned int *rep;
467
468   /* Equivalence class representative for a label.  This is used for
469      variable substitution.  */
470   int *eq_rep;
471
472   /* Pointer equivalence label for a node.  All nodes with the same
473      pointer equivalence label can be unified together at some point
474      (either during constraint optimization or after the constraint
475      graph is built).  */
476   unsigned int *pe;
477
478   /* Pointer equivalence representative for a label.  This is used to
479      handle nodes that are pointer equivalent but not location
480      equivalent.  We can unite these once the addressof constraints
481      are transformed into initial points-to sets.  */
482   int *pe_rep;
483
484   /* Pointer equivalence label for each node, used during variable
485      substitution.  */
486   unsigned int *pointer_label;
487
488   /* Location equivalence label for each node, used during location
489      equivalence finding.  */
490   unsigned int *loc_label;
491
492   /* Pointed-by set for each node, used during location equivalence
493      finding.  This is pointed-by rather than pointed-to, because it
494      is constructed using the predecessor graph.  */
495   bitmap *pointed_by;
496
497   /* Points to sets for pointer equivalence.  This is *not* the actual
498      points-to sets for nodes.  */
499   bitmap *points_to;
500
501   /* Bitmap of nodes where the bit is set if the node is a direct
502      node.  Used for variable substitution.  */
503   sbitmap direct_nodes;
504
505   /* Bitmap of nodes where the bit is set if the node is address
506      taken.  Used for variable substitution.  */
507   bitmap address_taken;
508
509   /* Vector of complex constraints for each graph node.  Complex
510      constraints are those involving dereferences or offsets that are
511      not 0.  */
512   VEC(constraint_t,heap) **complex;
513 };
514
515 static constraint_graph_t graph;
516
517 /* During variable substitution and the offline version of indirect
518    cycle finding, we create nodes to represent dereferences and
519    address taken constraints.  These represent where these start and
520    end.  */
521 #define FIRST_REF_NODE (VEC_length (varinfo_t, varmap))
522 #define LAST_REF_NODE (FIRST_REF_NODE + (FIRST_REF_NODE - 1))
523
524 /* Return the representative node for NODE, if NODE has been unioned
525    with another NODE.
526    This function performs path compression along the way to finding
527    the representative.  */
528
529 static unsigned int
530 find (unsigned int node)
531 {
532   gcc_assert (node < graph->size);
533   if (graph->rep[node] != node)
534     return graph->rep[node] = find (graph->rep[node]);
535   return node;
536 }
537
538 /* Union the TO and FROM nodes to the TO nodes.
539    Note that at some point in the future, we may want to do
540    union-by-rank, in which case we are going to have to return the
541    node we unified to.  */
542
543 static bool
544 unite (unsigned int to, unsigned int from)
545 {
546   gcc_assert (to < graph->size && from < graph->size);
547   if (to != from && graph->rep[from] != to)
548     {
549       graph->rep[from] = to;
550       return true;
551     }
552   return false;
553 }
554
555 /* Create a new constraint consisting of LHS and RHS expressions.  */
556
557 static constraint_t
558 new_constraint (const struct constraint_expr lhs,
559                 const struct constraint_expr rhs)
560 {
561   constraint_t ret = (constraint_t) pool_alloc (constraint_pool);
562   ret->lhs = lhs;
563   ret->rhs = rhs;
564   return ret;
565 }
566
567 /* Print out constraint C to FILE.  */
568
569 void
570 dump_constraint (FILE *file, constraint_t c)
571 {
572   if (c->lhs.type == ADDRESSOF)
573     fprintf (file, "&");
574   else if (c->lhs.type == DEREF)
575     fprintf (file, "*");
576   fprintf (file, "%s", get_varinfo_fc (c->lhs.var)->name);
577   if (c->lhs.offset != 0)
578     fprintf (file, " + " HOST_WIDE_INT_PRINT_DEC, c->lhs.offset);
579   fprintf (file, " = ");
580   if (c->rhs.type == ADDRESSOF)
581     fprintf (file, "&");
582   else if (c->rhs.type == DEREF)
583     fprintf (file, "*");
584   fprintf (file, "%s", get_varinfo_fc (c->rhs.var)->name);
585   if (c->rhs.offset != 0)
586     fprintf (file, " + " HOST_WIDE_INT_PRINT_DEC, c->rhs.offset);
587   fprintf (file, "\n");
588 }
589
590 /* Print out constraint C to stderr.  */
591
592 void
593 debug_constraint (constraint_t c)
594 {
595   dump_constraint (stderr, c);
596 }
597
598 /* Print out all constraints to FILE */
599
600 void
601 dump_constraints (FILE *file)
602 {
603   int i;
604   constraint_t c;
605   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
606     dump_constraint (file, c);
607 }
608
609 /* Print out all constraints to stderr.  */
610
611 void
612 debug_constraints (void)
613 {
614   dump_constraints (stderr);
615 }
616
617 /* Print out to FILE the edge in the constraint graph that is created by
618    constraint c. The edge may have a label, depending on the type of
619    constraint that it represents. If complex1, e.g: a = *b, then the label
620    is "=*", if complex2, e.g: *a = b, then the label is "*=", if
621    complex with an offset, e.g: a = b + 8, then the label is "+".
622    Otherwise the edge has no label.  */
623
624 void
625 dump_constraint_edge (FILE *file, constraint_t c)
626 {
627   if (c->rhs.type != ADDRESSOF)
628     {
629       const char *src = get_varinfo_fc (c->rhs.var)->name;
630       const char *dst = get_varinfo_fc (c->lhs.var)->name;
631       fprintf (file, "  \"%s\" -> \"%s\" ", src, dst);
632       /* Due to preprocessing of constraints, instructions like *a = *b are
633          illegal; thus, we do not have to handle such cases.  */
634       if (c->lhs.type == DEREF)
635         fprintf (file, " [ label=\"*=\" ] ;\n");
636       else if (c->rhs.type == DEREF)
637         fprintf (file, " [ label=\"=*\" ] ;\n");
638       else
639         {
640           /* We must check the case where the constraint is an offset.
641              In this case, it is treated as a complex constraint.  */
642           if (c->rhs.offset != c->lhs.offset)
643             fprintf (file, " [ label=\"+\" ] ;\n");
644           else
645             fprintf (file, " ;\n");
646         }
647     }
648 }
649
650 /* Print the constraint graph in dot format.  */
651
652 void
653 dump_constraint_graph (FILE *file)
654 {
655   unsigned int i=0, size;
656   constraint_t c;
657
658   /* Only print the graph if it has already been initialized:  */
659   if (!graph)
660     return;
661
662   /* Print the constraints used to produce the constraint graph. The
663      constraints will be printed as comments in the dot file:  */
664   fprintf (file, "\n\n/* Constraints used in the constraint graph:\n");
665   dump_constraints (file);
666   fprintf (file, "*/\n");
667
668   /* Prints the header of the dot file:  */
669   fprintf (file, "\n\n// The constraint graph in dot format:\n");
670   fprintf (file, "strict digraph {\n");
671   fprintf (file, "  node [\n    shape = box\n  ]\n");
672   fprintf (file, "  edge [\n    fontsize = \"12\"\n  ]\n");
673   fprintf (file, "\n  // List of nodes in the constraint graph:\n");
674
675   /* The next lines print the nodes in the graph. In order to get the
676      number of nodes in the graph, we must choose the minimum between the
677      vector VEC (varinfo_t, varmap) and graph->size. If the graph has not
678      yet been initialized, then graph->size == 0, otherwise we must only
679      read nodes that have an entry in VEC (varinfo_t, varmap).  */
680   size = VEC_length (varinfo_t, varmap);
681   size = size < graph->size ? size : graph->size;
682   for (i = 0; i < size; i++)
683     {
684       const char *name = get_varinfo_fc (graph->rep[i])->name;
685       fprintf (file, "  \"%s\" ;\n", name);
686     }
687
688   /* Go over the list of constraints printing the edges in the constraint
689      graph.  */
690   fprintf (file, "\n  // The constraint edges:\n");
691   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
692     if (c)
693       dump_constraint_edge (file, c);
694
695   /* Prints the tail of the dot file. By now, only the closing bracket.  */
696   fprintf (file, "}\n\n\n");
697 }
698
699 /* Print out the constraint graph to stderr.  */
700
701 void
702 debug_constraint_graph (void)
703 {
704   dump_constraint_graph (stderr);
705 }
706
707 /* SOLVER FUNCTIONS
708
709    The solver is a simple worklist solver, that works on the following
710    algorithm:
711
712    sbitmap changed_nodes = all zeroes;
713    changed_count = 0;
714    For each node that is not already collapsed:
715        changed_count++;
716        set bit in changed nodes
717
718    while (changed_count > 0)
719    {
720      compute topological ordering for constraint graph
721
722      find and collapse cycles in the constraint graph (updating
723      changed if necessary)
724
725      for each node (n) in the graph in topological order:
726        changed_count--;
727
728        Process each complex constraint associated with the node,
729        updating changed if necessary.
730
731        For each outgoing edge from n, propagate the solution from n to
732        the destination of the edge, updating changed as necessary.
733
734    }  */
735
736 /* Return true if two constraint expressions A and B are equal.  */
737
738 static bool
739 constraint_expr_equal (struct constraint_expr a, struct constraint_expr b)
740 {
741   return a.type == b.type && a.var == b.var && a.offset == b.offset;
742 }
743
744 /* Return true if constraint expression A is less than constraint expression
745    B.  This is just arbitrary, but consistent, in order to give them an
746    ordering.  */
747
748 static bool
749 constraint_expr_less (struct constraint_expr a, struct constraint_expr b)
750 {
751   if (a.type == b.type)
752     {
753       if (a.var == b.var)
754         return a.offset < b.offset;
755       else
756         return a.var < b.var;
757     }
758   else
759     return a.type < b.type;
760 }
761
762 /* Return true if constraint A is less than constraint B.  This is just
763    arbitrary, but consistent, in order to give them an ordering.  */
764
765 static bool
766 constraint_less (const constraint_t a, const constraint_t b)
767 {
768   if (constraint_expr_less (a->lhs, b->lhs))
769     return true;
770   else if (constraint_expr_less (b->lhs, a->lhs))
771     return false;
772   else
773     return constraint_expr_less (a->rhs, b->rhs);
774 }
775
776 /* Return true if two constraints A and B are equal.  */
777
778 static bool
779 constraint_equal (struct constraint a, struct constraint b)
780 {
781   return constraint_expr_equal (a.lhs, b.lhs)
782     && constraint_expr_equal (a.rhs, b.rhs);
783 }
784
785
786 /* Find a constraint LOOKFOR in the sorted constraint vector VEC */
787
788 static constraint_t
789 constraint_vec_find (VEC(constraint_t,heap) *vec,
790                      struct constraint lookfor)
791 {
792   unsigned int place;
793   constraint_t found;
794
795   if (vec == NULL)
796     return NULL;
797
798   place = VEC_lower_bound (constraint_t, vec, &lookfor, constraint_less);
799   if (place >= VEC_length (constraint_t, vec))
800     return NULL;
801   found = VEC_index (constraint_t, vec, place);
802   if (!constraint_equal (*found, lookfor))
803     return NULL;
804   return found;
805 }
806
807 /* Union two constraint vectors, TO and FROM.  Put the result in TO.  */
808
809 static void
810 constraint_set_union (VEC(constraint_t,heap) **to,
811                       VEC(constraint_t,heap) **from)
812 {
813   int i;
814   constraint_t c;
815
816   for (i = 0; VEC_iterate (constraint_t, *from, i, c); i++)
817     {
818       if (constraint_vec_find (*to, *c) == NULL)
819         {
820           unsigned int place = VEC_lower_bound (constraint_t, *to, c,
821                                                 constraint_less);
822           VEC_safe_insert (constraint_t, heap, *to, place, c);
823         }
824     }
825 }
826
827 /* Take a solution set SET, add OFFSET to each member of the set, and
828    overwrite SET with the result when done.  */
829
830 static void
831 solution_set_add (bitmap set, unsigned HOST_WIDE_INT offset)
832 {
833   bitmap result = BITMAP_ALLOC (&iteration_obstack);
834   unsigned int i;
835   bitmap_iterator bi;
836
837   EXECUTE_IF_SET_IN_BITMAP (set, 0, i, bi)
838     {
839       varinfo_t vi = get_varinfo (i);
840
841       /* If this is a variable with just one field just set its bit
842          in the result.  */
843       if (vi->is_artificial_var
844           || vi->is_unknown_size_var
845           || vi->is_full_var)
846         bitmap_set_bit (result, i);
847       else
848         {
849           unsigned HOST_WIDE_INT fieldoffset = vi->offset + offset;
850           varinfo_t v = first_vi_for_offset (vi, fieldoffset);
851           /* If the result is outside of the variable use the last field.  */
852           if (!v)
853             {
854               v = vi;
855               while (v->next != NULL)
856                 v = v->next;
857             }
858           bitmap_set_bit (result, v->id);
859           /* If the result is not exactly at fieldoffset include the next
860              field as well.  See get_constraint_for_ptr_offset for more
861              rationale.  */
862           if (v->offset != fieldoffset
863               && v->next != NULL)
864             bitmap_set_bit (result, v->next->id);
865         }
866     }
867
868   bitmap_copy (set, result);
869   BITMAP_FREE (result);
870 }
871
872 /* Union solution sets TO and FROM, and add INC to each member of FROM in the
873    process.  */
874
875 static bool
876 set_union_with_increment  (bitmap to, bitmap from, unsigned HOST_WIDE_INT inc)
877 {
878   if (inc == 0)
879     return bitmap_ior_into (to, from);
880   else
881     {
882       bitmap tmp;
883       bool res;
884
885       tmp = BITMAP_ALLOC (&iteration_obstack);
886       bitmap_copy (tmp, from);
887       solution_set_add (tmp, inc);
888       res = bitmap_ior_into (to, tmp);
889       BITMAP_FREE (tmp);
890       return res;
891     }
892 }
893
894 /* Insert constraint C into the list of complex constraints for graph
895    node VAR.  */
896
897 static void
898 insert_into_complex (constraint_graph_t graph,
899                      unsigned int var, constraint_t c)
900 {
901   VEC (constraint_t, heap) *complex = graph->complex[var];
902   unsigned int place = VEC_lower_bound (constraint_t, complex, c,
903                                         constraint_less);
904
905   /* Only insert constraints that do not already exist.  */
906   if (place >= VEC_length (constraint_t, complex)
907       || !constraint_equal (*c, *VEC_index (constraint_t, complex, place)))
908     VEC_safe_insert (constraint_t, heap, graph->complex[var], place, c);
909 }
910
911
912 /* Condense two variable nodes into a single variable node, by moving
913    all associated info from SRC to TO.  */
914
915 static void
916 merge_node_constraints (constraint_graph_t graph, unsigned int to,
917                         unsigned int from)
918 {
919   unsigned int i;
920   constraint_t c;
921
922   gcc_assert (find (from) == to);
923
924   /* Move all complex constraints from src node into to node  */
925   for (i = 0; VEC_iterate (constraint_t, graph->complex[from], i, c); i++)
926     {
927       /* In complex constraints for node src, we may have either
928          a = *src, and *src = a, or an offseted constraint which are
929          always added to the rhs node's constraints.  */
930
931       if (c->rhs.type == DEREF)
932         c->rhs.var = to;
933       else if (c->lhs.type == DEREF)
934         c->lhs.var = to;
935       else
936         c->rhs.var = to;
937     }
938   constraint_set_union (&graph->complex[to], &graph->complex[from]);
939   VEC_free (constraint_t, heap, graph->complex[from]);
940   graph->complex[from] = NULL;
941 }
942
943
944 /* Remove edges involving NODE from GRAPH.  */
945
946 static void
947 clear_edges_for_node (constraint_graph_t graph, unsigned int node)
948 {
949   if (graph->succs[node])
950     BITMAP_FREE (graph->succs[node]);
951 }
952
953 /* Merge GRAPH nodes FROM and TO into node TO.  */
954
955 static void
956 merge_graph_nodes (constraint_graph_t graph, unsigned int to,
957                    unsigned int from)
958 {
959   if (graph->indirect_cycles[from] != -1)
960     {
961       /* If we have indirect cycles with the from node, and we have
962          none on the to node, the to node has indirect cycles from the
963          from node now that they are unified.
964          If indirect cycles exist on both, unify the nodes that they
965          are in a cycle with, since we know they are in a cycle with
966          each other.  */
967       if (graph->indirect_cycles[to] == -1)
968         graph->indirect_cycles[to] = graph->indirect_cycles[from];
969     }
970
971   /* Merge all the successor edges.  */
972   if (graph->succs[from])
973     {
974       if (!graph->succs[to])
975         graph->succs[to] = BITMAP_ALLOC (&pta_obstack);
976       bitmap_ior_into (graph->succs[to],
977                        graph->succs[from]);
978     }
979
980   clear_edges_for_node (graph, from);
981 }
982
983
984 /* Add an indirect graph edge to GRAPH, going from TO to FROM if
985    it doesn't exist in the graph already.  */
986
987 static void
988 add_implicit_graph_edge (constraint_graph_t graph, unsigned int to,
989                          unsigned int from)
990 {
991   if (to == from)
992     return;
993
994   if (!graph->implicit_preds[to])
995     graph->implicit_preds[to] = BITMAP_ALLOC (&predbitmap_obstack);
996
997   if (bitmap_set_bit (graph->implicit_preds[to], from))
998     stats.num_implicit_edges++;
999 }
1000
1001 /* Add a predecessor graph edge to GRAPH, going from TO to FROM if
1002    it doesn't exist in the graph already.
1003    Return false if the edge already existed, true otherwise.  */
1004
1005 static void
1006 add_pred_graph_edge (constraint_graph_t graph, unsigned int to,
1007                      unsigned int from)
1008 {
1009   if (!graph->preds[to])
1010     graph->preds[to] = BITMAP_ALLOC (&predbitmap_obstack);
1011   bitmap_set_bit (graph->preds[to], from);
1012 }
1013
1014 /* Add a graph edge to GRAPH, going from FROM to TO if
1015    it doesn't exist in the graph already.
1016    Return false if the edge already existed, true otherwise.  */
1017
1018 static bool
1019 add_graph_edge (constraint_graph_t graph, unsigned int to,
1020                 unsigned int from)
1021 {
1022   if (to == from)
1023     {
1024       return false;
1025     }
1026   else
1027     {
1028       bool r = false;
1029
1030       if (!graph->succs[from])
1031         graph->succs[from] = BITMAP_ALLOC (&pta_obstack);
1032       if (bitmap_set_bit (graph->succs[from], to))
1033         {
1034           r = true;
1035           if (to < FIRST_REF_NODE && from < FIRST_REF_NODE)
1036             stats.num_edges++;
1037         }
1038       return r;
1039     }
1040 }
1041
1042
1043 /* Return true if {DEST.SRC} is an existing graph edge in GRAPH.  */
1044
1045 static bool
1046 valid_graph_edge (constraint_graph_t graph, unsigned int src,
1047                   unsigned int dest)
1048 {
1049   return (graph->succs[dest]
1050           && bitmap_bit_p (graph->succs[dest], src));
1051 }
1052
1053 /* Initialize the constraint graph structure to contain SIZE nodes.  */
1054
1055 static void
1056 init_graph (unsigned int size)
1057 {
1058   unsigned int j;
1059
1060   graph = XCNEW (struct constraint_graph);
1061   graph->size = size;
1062   graph->succs = XCNEWVEC (bitmap, graph->size);
1063   graph->indirect_cycles = XNEWVEC (int, graph->size);
1064   graph->rep = XNEWVEC (unsigned int, graph->size);
1065   graph->complex = XCNEWVEC (VEC(constraint_t, heap) *, size);
1066   graph->pe = XCNEWVEC (unsigned int, graph->size);
1067   graph->pe_rep = XNEWVEC (int, graph->size);
1068
1069   for (j = 0; j < graph->size; j++)
1070     {
1071       graph->rep[j] = j;
1072       graph->pe_rep[j] = -1;
1073       graph->indirect_cycles[j] = -1;
1074     }
1075 }
1076
1077 /* Build the constraint graph, adding only predecessor edges right now.  */
1078
1079 static void
1080 build_pred_graph (void)
1081 {
1082   int i;
1083   constraint_t c;
1084   unsigned int j;
1085
1086   graph->implicit_preds = XCNEWVEC (bitmap, graph->size);
1087   graph->preds = XCNEWVEC (bitmap, graph->size);
1088   graph->pointer_label = XCNEWVEC (unsigned int, graph->size);
1089   graph->loc_label = XCNEWVEC (unsigned int, graph->size);
1090   graph->pointed_by = XCNEWVEC (bitmap, graph->size);
1091   graph->points_to = XCNEWVEC (bitmap, graph->size);
1092   graph->eq_rep = XNEWVEC (int, graph->size);
1093   graph->direct_nodes = sbitmap_alloc (graph->size);
1094   graph->address_taken = BITMAP_ALLOC (&predbitmap_obstack);
1095   sbitmap_zero (graph->direct_nodes);
1096
1097   for (j = 0; j < FIRST_REF_NODE; j++)
1098     {
1099       if (!get_varinfo (j)->is_special_var)
1100         SET_BIT (graph->direct_nodes, j);
1101     }
1102
1103   for (j = 0; j < graph->size; j++)
1104     graph->eq_rep[j] = -1;
1105
1106   for (j = 0; j < VEC_length (varinfo_t, varmap); j++)
1107     graph->indirect_cycles[j] = -1;
1108
1109   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
1110     {
1111       struct constraint_expr lhs = c->lhs;
1112       struct constraint_expr rhs = c->rhs;
1113       unsigned int lhsvar = get_varinfo_fc (lhs.var)->id;
1114       unsigned int rhsvar = get_varinfo_fc (rhs.var)->id;
1115
1116       if (lhs.type == DEREF)
1117         {
1118           /* *x = y.  */
1119           if (rhs.offset == 0 && lhs.offset == 0 && rhs.type == SCALAR)
1120             add_pred_graph_edge (graph, FIRST_REF_NODE + lhsvar, rhsvar);
1121         }
1122       else if (rhs.type == DEREF)
1123         {
1124           /* x = *y */
1125           if (rhs.offset == 0 && lhs.offset == 0 && lhs.type == SCALAR)
1126             add_pred_graph_edge (graph, lhsvar, FIRST_REF_NODE + rhsvar);
1127           else
1128             RESET_BIT (graph->direct_nodes, lhsvar);
1129         }
1130       else if (rhs.type == ADDRESSOF)
1131         {
1132           varinfo_t v;
1133
1134           /* x = &y */
1135           if (graph->points_to[lhsvar] == NULL)
1136             graph->points_to[lhsvar] = BITMAP_ALLOC (&predbitmap_obstack);
1137           bitmap_set_bit (graph->points_to[lhsvar], rhsvar);
1138
1139           if (graph->pointed_by[rhsvar] == NULL)
1140             graph->pointed_by[rhsvar] = BITMAP_ALLOC (&predbitmap_obstack);
1141           bitmap_set_bit (graph->pointed_by[rhsvar], lhsvar);
1142
1143           /* Implicitly, *x = y */
1144           add_implicit_graph_edge (graph, FIRST_REF_NODE + lhsvar, rhsvar);
1145
1146           /* All related variables are no longer direct nodes.  */
1147           RESET_BIT (graph->direct_nodes, rhsvar);
1148           v = get_varinfo (rhsvar);
1149           if (!v->is_full_var)
1150             {
1151               v = lookup_vi_for_tree (v->decl);
1152               do
1153                 {
1154                   RESET_BIT (graph->direct_nodes, v->id);
1155                   v = v->next;
1156                 }
1157               while (v != NULL);
1158             }
1159           bitmap_set_bit (graph->address_taken, rhsvar);
1160         }
1161       else if (lhsvar > anything_id
1162                && lhsvar != rhsvar && lhs.offset == 0 && rhs.offset == 0)
1163         {
1164           /* x = y */
1165           add_pred_graph_edge (graph, lhsvar, rhsvar);
1166           /* Implicitly, *x = *y */
1167           add_implicit_graph_edge (graph, FIRST_REF_NODE + lhsvar,
1168                                    FIRST_REF_NODE + rhsvar);
1169         }
1170       else if (lhs.offset != 0 || rhs.offset != 0)
1171         {
1172           if (rhs.offset != 0)
1173             RESET_BIT (graph->direct_nodes, lhs.var);
1174           else if (lhs.offset != 0)
1175             RESET_BIT (graph->direct_nodes, rhs.var);
1176         }
1177     }
1178 }
1179
1180 /* Build the constraint graph, adding successor edges.  */
1181
1182 static void
1183 build_succ_graph (void)
1184 {
1185   int i;
1186   constraint_t c;
1187
1188   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
1189     {
1190       struct constraint_expr lhs;
1191       struct constraint_expr rhs;
1192       unsigned int lhsvar;
1193       unsigned int rhsvar;
1194
1195       if (!c)
1196         continue;
1197
1198       lhs = c->lhs;
1199       rhs = c->rhs;
1200       lhsvar = find (get_varinfo_fc (lhs.var)->id);
1201       rhsvar = find (get_varinfo_fc (rhs.var)->id);
1202
1203       if (lhs.type == DEREF)
1204         {
1205           if (rhs.offset == 0 && lhs.offset == 0 && rhs.type == SCALAR)
1206             add_graph_edge (graph, FIRST_REF_NODE + lhsvar, rhsvar);
1207         }
1208       else if (rhs.type == DEREF)
1209         {
1210           if (rhs.offset == 0 && lhs.offset == 0 && lhs.type == SCALAR)
1211             add_graph_edge (graph, lhsvar, FIRST_REF_NODE + rhsvar);
1212         }
1213       else if (rhs.type == ADDRESSOF)
1214         {
1215           /* x = &y */
1216           gcc_assert (find (get_varinfo_fc (rhs.var)->id)
1217                       == get_varinfo_fc (rhs.var)->id);
1218           bitmap_set_bit (get_varinfo (lhsvar)->solution, rhsvar);
1219         }
1220       else if (lhsvar > anything_id
1221                && lhsvar != rhsvar && lhs.offset == 0 && rhs.offset == 0)
1222         {
1223           add_graph_edge (graph, lhsvar, rhsvar);
1224         }
1225     }
1226 }
1227
1228
1229 /* Changed variables on the last iteration.  */
1230 static unsigned int changed_count;
1231 static sbitmap changed;
1232
1233 DEF_VEC_I(unsigned);
1234 DEF_VEC_ALLOC_I(unsigned,heap);
1235
1236
1237 /* Strongly Connected Component visitation info.  */
1238
1239 struct scc_info
1240 {
1241   sbitmap visited;
1242   sbitmap deleted;
1243   unsigned int *dfs;
1244   unsigned int *node_mapping;
1245   int current_index;
1246   VEC(unsigned,heap) *scc_stack;
1247 };
1248
1249
1250 /* Recursive routine to find strongly connected components in GRAPH.
1251    SI is the SCC info to store the information in, and N is the id of current
1252    graph node we are processing.
1253
1254    This is Tarjan's strongly connected component finding algorithm, as
1255    modified by Nuutila to keep only non-root nodes on the stack.
1256    The algorithm can be found in "On finding the strongly connected
1257    connected components in a directed graph" by Esko Nuutila and Eljas
1258    Soisalon-Soininen, in Information Processing Letters volume 49,
1259    number 1, pages 9-14.  */
1260
1261 static void
1262 scc_visit (constraint_graph_t graph, struct scc_info *si, unsigned int n)
1263 {
1264   unsigned int i;
1265   bitmap_iterator bi;
1266   unsigned int my_dfs;
1267
1268   SET_BIT (si->visited, n);
1269   si->dfs[n] = si->current_index ++;
1270   my_dfs = si->dfs[n];
1271
1272   /* Visit all the successors.  */
1273   EXECUTE_IF_IN_NONNULL_BITMAP (graph->succs[n], 0, i, bi)
1274     {
1275       unsigned int w;
1276
1277       if (i > LAST_REF_NODE)
1278         break;
1279
1280       w = find (i);
1281       if (TEST_BIT (si->deleted, w))
1282         continue;
1283
1284       if (!TEST_BIT (si->visited, w))
1285         scc_visit (graph, si, w);
1286       {
1287         unsigned int t = find (w);
1288         unsigned int nnode = find (n);
1289         gcc_assert (nnode == n);
1290
1291         if (si->dfs[t] < si->dfs[nnode])
1292           si->dfs[n] = si->dfs[t];
1293       }
1294     }
1295
1296   /* See if any components have been identified.  */
1297   if (si->dfs[n] == my_dfs)
1298     {
1299       if (VEC_length (unsigned, si->scc_stack) > 0
1300           && si->dfs[VEC_last (unsigned, si->scc_stack)] >= my_dfs)
1301         {
1302           bitmap scc = BITMAP_ALLOC (NULL);
1303           bool have_ref_node = n >= FIRST_REF_NODE;
1304           unsigned int lowest_node;
1305           bitmap_iterator bi;
1306
1307           bitmap_set_bit (scc, n);
1308
1309           while (VEC_length (unsigned, si->scc_stack) != 0
1310                  && si->dfs[VEC_last (unsigned, si->scc_stack)] >= my_dfs)
1311             {
1312               unsigned int w = VEC_pop (unsigned, si->scc_stack);
1313
1314               bitmap_set_bit (scc, w);
1315               if (w >= FIRST_REF_NODE)
1316                 have_ref_node = true;
1317             }
1318
1319           lowest_node = bitmap_first_set_bit (scc);
1320           gcc_assert (lowest_node < FIRST_REF_NODE);
1321
1322           /* Collapse the SCC nodes into a single node, and mark the
1323              indirect cycles.  */
1324           EXECUTE_IF_SET_IN_BITMAP (scc, 0, i, bi)
1325             {
1326               if (i < FIRST_REF_NODE)
1327                 {
1328                   if (unite (lowest_node, i))
1329                     unify_nodes (graph, lowest_node, i, false);
1330                 }
1331               else
1332                 {
1333                   unite (lowest_node, i);
1334                   graph->indirect_cycles[i - FIRST_REF_NODE] = lowest_node;
1335                 }
1336             }
1337         }
1338       SET_BIT (si->deleted, n);
1339     }
1340   else
1341     VEC_safe_push (unsigned, heap, si->scc_stack, n);
1342 }
1343
1344 /* Unify node FROM into node TO, updating the changed count if
1345    necessary when UPDATE_CHANGED is true.  */
1346
1347 static void
1348 unify_nodes (constraint_graph_t graph, unsigned int to, unsigned int from,
1349              bool update_changed)
1350 {
1351
1352   gcc_assert (to != from && find (to) == to);
1353   if (dump_file && (dump_flags & TDF_DETAILS))
1354     fprintf (dump_file, "Unifying %s to %s\n",
1355              get_varinfo (from)->name,
1356              get_varinfo (to)->name);
1357
1358   if (update_changed)
1359     stats.unified_vars_dynamic++;
1360   else
1361     stats.unified_vars_static++;
1362
1363   merge_graph_nodes (graph, to, from);
1364   merge_node_constraints (graph, to, from);
1365
1366   if (get_varinfo (from)->no_tbaa_pruning)
1367     get_varinfo (to)->no_tbaa_pruning = true;
1368
1369   /* Mark TO as changed if FROM was changed. If TO was already marked
1370      as changed, decrease the changed count.  */
1371
1372   if (update_changed && TEST_BIT (changed, from))
1373     {
1374       RESET_BIT (changed, from);
1375       if (!TEST_BIT (changed, to))
1376         SET_BIT (changed, to);
1377       else
1378         {
1379           gcc_assert (changed_count > 0);
1380           changed_count--;
1381         }
1382     }
1383   if (get_varinfo (from)->solution)
1384     {
1385       /* If the solution changes because of the merging, we need to mark
1386          the variable as changed.  */
1387       if (bitmap_ior_into (get_varinfo (to)->solution,
1388                            get_varinfo (from)->solution))
1389         {
1390           if (update_changed && !TEST_BIT (changed, to))
1391             {
1392               SET_BIT (changed, to);
1393               changed_count++;
1394             }
1395         }
1396       
1397       BITMAP_FREE (get_varinfo (from)->solution);
1398       BITMAP_FREE (get_varinfo (from)->oldsolution);
1399       
1400       if (stats.iterations > 0)
1401         {
1402           BITMAP_FREE (get_varinfo (to)->oldsolution);
1403           get_varinfo (to)->oldsolution = BITMAP_ALLOC (&oldpta_obstack);
1404         }
1405     }
1406   if (valid_graph_edge (graph, to, to))
1407     {
1408       if (graph->succs[to])
1409         bitmap_clear_bit (graph->succs[to], to);
1410     }
1411 }
1412
1413 /* Information needed to compute the topological ordering of a graph.  */
1414
1415 struct topo_info
1416 {
1417   /* sbitmap of visited nodes.  */
1418   sbitmap visited;
1419   /* Array that stores the topological order of the graph, *in
1420      reverse*.  */
1421   VEC(unsigned,heap) *topo_order;
1422 };
1423
1424
1425 /* Initialize and return a topological info structure.  */
1426
1427 static struct topo_info *
1428 init_topo_info (void)
1429 {
1430   size_t size = graph->size;
1431   struct topo_info *ti = XNEW (struct topo_info);
1432   ti->visited = sbitmap_alloc (size);
1433   sbitmap_zero (ti->visited);
1434   ti->topo_order = VEC_alloc (unsigned, heap, 1);
1435   return ti;
1436 }
1437
1438
1439 /* Free the topological sort info pointed to by TI.  */
1440
1441 static void
1442 free_topo_info (struct topo_info *ti)
1443 {
1444   sbitmap_free (ti->visited);
1445   VEC_free (unsigned, heap, ti->topo_order);
1446   free (ti);
1447 }
1448
1449 /* Visit the graph in topological order, and store the order in the
1450    topo_info structure.  */
1451
1452 static void
1453 topo_visit (constraint_graph_t graph, struct topo_info *ti,
1454             unsigned int n)
1455 {
1456   bitmap_iterator bi;
1457   unsigned int j;
1458
1459   SET_BIT (ti->visited, n);
1460
1461   if (graph->succs[n])
1462     EXECUTE_IF_SET_IN_BITMAP (graph->succs[n], 0, j, bi)
1463       {
1464         if (!TEST_BIT (ti->visited, j))
1465           topo_visit (graph, ti, j);
1466       }
1467
1468   VEC_safe_push (unsigned, heap, ti->topo_order, n);
1469 }
1470
1471 /* Return true if variable N + OFFSET is a legal field of N.  */
1472
1473 static bool
1474 type_safe (unsigned int n, unsigned HOST_WIDE_INT *offset)
1475 {
1476   varinfo_t ninfo = get_varinfo (n);
1477
1478   /* For things we've globbed to single variables, any offset into the
1479      variable acts like the entire variable, so that it becomes offset
1480      0.  */
1481   if (ninfo->is_special_var
1482       || ninfo->is_artificial_var
1483       || ninfo->is_unknown_size_var
1484       || ninfo->is_full_var)
1485     {
1486       *offset = 0;
1487       return true;
1488     }
1489   return (get_varinfo (n)->offset + *offset) < get_varinfo (n)->fullsize;
1490 }
1491
1492 /* Process a constraint C that represents x = *y, using DELTA as the
1493    starting solution.  */
1494
1495 static void
1496 do_sd_constraint (constraint_graph_t graph, constraint_t c,
1497                   bitmap delta)
1498 {
1499   unsigned int lhs = c->lhs.var;
1500   bool flag = false;
1501   bitmap sol = get_varinfo (lhs)->solution;
1502   unsigned int j;
1503   bitmap_iterator bi;
1504
1505   if (bitmap_bit_p (delta, anything_id))
1506     {
1507       flag |= bitmap_set_bit (sol, anything_id);
1508       goto done;
1509     }
1510
1511   /* For x = *ESCAPED and x = *CALLUSED we want to compute the
1512      reachability set of the rhs var.  As a pointer to a sub-field
1513      of a variable can also reach all other fields of the variable
1514      we simply have to expand the solution to contain all sub-fields
1515      if one sub-field is contained.  */
1516   if (c->rhs.var == escaped_id
1517       || c->rhs.var == callused_id)
1518     {
1519       bitmap vars = NULL;
1520       /* In a first pass record all variables we need to add all
1521          sub-fields off.  This avoids quadratic behavior.  */
1522       EXECUTE_IF_SET_IN_BITMAP (delta, 0, j, bi)
1523         {
1524           varinfo_t v = get_varinfo (j);
1525           if (v->is_full_var)
1526             continue;
1527
1528           v = lookup_vi_for_tree (v->decl);
1529           if (v->next != NULL)
1530             {
1531               if (vars == NULL)
1532                 vars = BITMAP_ALLOC (NULL);
1533               bitmap_set_bit (vars, v->id);
1534             }
1535         }
1536       /* In the second pass now do the addition to the solution and
1537          to speed up solving add it to the delta as well.  */
1538       if (vars != NULL)
1539         {
1540           EXECUTE_IF_SET_IN_BITMAP (vars, 0, j, bi)
1541             {
1542               varinfo_t v = get_varinfo (j);
1543               for (; v != NULL; v = v->next)
1544                 {
1545                   if (bitmap_set_bit (sol, v->id))
1546                     {
1547                       flag = true;
1548                       bitmap_set_bit (delta, v->id);
1549                     }
1550                 }
1551             }
1552           BITMAP_FREE (vars);
1553         }
1554     }
1555
1556   /* For each variable j in delta (Sol(y)), add
1557      an edge in the graph from j to x, and union Sol(j) into Sol(x).  */
1558   EXECUTE_IF_SET_IN_BITMAP (delta, 0, j, bi)
1559     {
1560       unsigned HOST_WIDE_INT roffset = c->rhs.offset;
1561       if (type_safe (j, &roffset))
1562         {
1563           varinfo_t v;
1564           unsigned HOST_WIDE_INT fieldoffset = get_varinfo (j)->offset + roffset;
1565           unsigned int t;
1566
1567           v = first_vi_for_offset (get_varinfo (j), fieldoffset);
1568           /* If the access is outside of the variable we can ignore it.  */
1569           if (!v)
1570             continue;
1571           t = find (v->id);
1572
1573           /* Adding edges from the special vars is pointless.
1574              They don't have sets that can change.  */
1575           if (get_varinfo (t)->is_special_var)
1576             flag |= bitmap_ior_into (sol, get_varinfo (t)->solution);
1577           /* Merging the solution from ESCAPED needlessly increases
1578              the set.  Use ESCAPED as representative instead.
1579              Same for CALLUSED.  */
1580           else if (get_varinfo (t)->id == escaped_id
1581                    || get_varinfo (t)->id == callused_id)
1582             flag |= bitmap_set_bit (sol, get_varinfo (t)->id);
1583           else if (add_graph_edge (graph, lhs, t))
1584             flag |= bitmap_ior_into (sol, get_varinfo (t)->solution);
1585         }
1586     }
1587
1588 done:
1589   /* If the LHS solution changed, mark the var as changed.  */
1590   if (flag)
1591     {
1592       get_varinfo (lhs)->solution = sol;
1593       if (!TEST_BIT (changed, lhs))
1594         {
1595           SET_BIT (changed, lhs);
1596           changed_count++;
1597         }
1598     }
1599 }
1600
1601 /* Process a constraint C that represents *x = y.  */
1602
1603 static void
1604 do_ds_constraint (constraint_t c, bitmap delta)
1605 {
1606   unsigned int rhs = c->rhs.var;
1607   bitmap sol = get_varinfo (rhs)->solution;
1608   unsigned int j;
1609   bitmap_iterator bi;
1610
1611  if (bitmap_bit_p (sol, anything_id))
1612    {
1613      EXECUTE_IF_SET_IN_BITMAP (delta, 0, j, bi)
1614        {
1615          varinfo_t jvi = get_varinfo (j);
1616          unsigned int t;
1617          unsigned int loff = c->lhs.offset;
1618          unsigned HOST_WIDE_INT fieldoffset = jvi->offset + loff;
1619          varinfo_t v;
1620
1621          v = get_varinfo (j);
1622          if (!v->is_full_var)
1623            {
1624              v = first_vi_for_offset (v, fieldoffset);
1625              /* If the access is outside of the variable we can ignore it.  */
1626              if (!v)
1627                continue;
1628            }
1629          t = find (v->id);
1630
1631          if (bitmap_set_bit (get_varinfo (t)->solution, anything_id)
1632              && !TEST_BIT (changed, t))
1633            {
1634              SET_BIT (changed, t);
1635              changed_count++;
1636            }
1637        }
1638      return;
1639    }
1640
1641   /* For each member j of delta (Sol(x)), add an edge from y to j and
1642      union Sol(y) into Sol(j) */
1643   EXECUTE_IF_SET_IN_BITMAP (delta, 0, j, bi)
1644     {
1645       unsigned HOST_WIDE_INT loff = c->lhs.offset;
1646       if (type_safe (j, &loff) && !(get_varinfo (j)->is_special_var))
1647         {
1648           varinfo_t v;
1649           unsigned int t;
1650           unsigned HOST_WIDE_INT fieldoffset = get_varinfo (j)->offset + loff;
1651           bitmap tmp;
1652
1653           v = first_vi_for_offset (get_varinfo (j), fieldoffset);
1654           /* If the access is outside of the variable we can ignore it.  */
1655           if (!v)
1656             continue;
1657           t = find (v->id);
1658           tmp = get_varinfo (t)->solution;
1659
1660           if (set_union_with_increment (tmp, sol, 0))
1661             {
1662               get_varinfo (t)->solution = tmp;
1663               if (t == rhs)
1664                 sol = get_varinfo (rhs)->solution;
1665               if (!TEST_BIT (changed, t))
1666                 {
1667                   SET_BIT (changed, t);
1668                   changed_count++;
1669                 }
1670             }
1671         }
1672     }
1673 }
1674
1675 /* Handle a non-simple (simple meaning requires no iteration),
1676    constraint (IE *x = &y, x = *y, *x = y, and x = y with offsets involved).  */
1677
1678 static void
1679 do_complex_constraint (constraint_graph_t graph, constraint_t c, bitmap delta)
1680 {
1681   if (c->lhs.type == DEREF)
1682     {
1683       if (c->rhs.type == ADDRESSOF)
1684         {
1685           gcc_unreachable();
1686         }
1687       else
1688         {
1689           /* *x = y */
1690           do_ds_constraint (c, delta);
1691         }
1692     }
1693   else if (c->rhs.type == DEREF)
1694     {
1695       /* x = *y */
1696       if (!(get_varinfo (c->lhs.var)->is_special_var))
1697         do_sd_constraint (graph, c, delta);
1698     }
1699   else
1700     {
1701       bitmap tmp;
1702       bitmap solution;
1703       bool flag = false;
1704
1705       gcc_assert (c->rhs.type == SCALAR && c->lhs.type == SCALAR);
1706       solution = get_varinfo (c->rhs.var)->solution;
1707       tmp = get_varinfo (c->lhs.var)->solution;
1708
1709       flag = set_union_with_increment (tmp, solution, c->rhs.offset);
1710
1711       if (flag)
1712         {
1713           get_varinfo (c->lhs.var)->solution = tmp;
1714           if (!TEST_BIT (changed, c->lhs.var))
1715             {
1716               SET_BIT (changed, c->lhs.var);
1717               changed_count++;
1718             }
1719         }
1720     }
1721 }
1722
1723 /* Initialize and return a new SCC info structure.  */
1724
1725 static struct scc_info *
1726 init_scc_info (size_t size)
1727 {
1728   struct scc_info *si = XNEW (struct scc_info);
1729   size_t i;
1730
1731   si->current_index = 0;
1732   si->visited = sbitmap_alloc (size);
1733   sbitmap_zero (si->visited);
1734   si->deleted = sbitmap_alloc (size);
1735   sbitmap_zero (si->deleted);
1736   si->node_mapping = XNEWVEC (unsigned int, size);
1737   si->dfs = XCNEWVEC (unsigned int, size);
1738
1739   for (i = 0; i < size; i++)
1740     si->node_mapping[i] = i;
1741
1742   si->scc_stack = VEC_alloc (unsigned, heap, 1);
1743   return si;
1744 }
1745
1746 /* Free an SCC info structure pointed to by SI */
1747
1748 static void
1749 free_scc_info (struct scc_info *si)
1750 {
1751   sbitmap_free (si->visited);
1752   sbitmap_free (si->deleted);
1753   free (si->node_mapping);
1754   free (si->dfs);
1755   VEC_free (unsigned, heap, si->scc_stack);
1756   free (si);
1757 }
1758
1759
1760 /* Find indirect cycles in GRAPH that occur, using strongly connected
1761    components, and note them in the indirect cycles map.
1762
1763    This technique comes from Ben Hardekopf and Calvin Lin,
1764    "It Pays to be Lazy: Fast and Accurate Pointer Analysis for Millions of
1765    Lines of Code", submitted to PLDI 2007.  */
1766
1767 static void
1768 find_indirect_cycles (constraint_graph_t graph)
1769 {
1770   unsigned int i;
1771   unsigned int size = graph->size;
1772   struct scc_info *si = init_scc_info (size);
1773
1774   for (i = 0; i < MIN (LAST_REF_NODE, size); i ++ )
1775     if (!TEST_BIT (si->visited, i) && find (i) == i)
1776       scc_visit (graph, si, i);
1777
1778   free_scc_info (si);
1779 }
1780
1781 /* Compute a topological ordering for GRAPH, and store the result in the
1782    topo_info structure TI.  */
1783
1784 static void
1785 compute_topo_order (constraint_graph_t graph,
1786                     struct topo_info *ti)
1787 {
1788   unsigned int i;
1789   unsigned int size = graph->size;
1790
1791   for (i = 0; i != size; ++i)
1792     if (!TEST_BIT (ti->visited, i) && find (i) == i)
1793       topo_visit (graph, ti, i);
1794 }
1795
1796 /* Structure used to for hash value numbering of pointer equivalence
1797    classes.  */
1798
1799 typedef struct equiv_class_label
1800 {
1801   unsigned int equivalence_class;
1802   bitmap labels;
1803   hashval_t hashcode;
1804 } *equiv_class_label_t;
1805 typedef const struct equiv_class_label *const_equiv_class_label_t;
1806
1807 /* A hashtable for mapping a bitmap of labels->pointer equivalence
1808    classes.  */
1809 static htab_t pointer_equiv_class_table;
1810
1811 /* A hashtable for mapping a bitmap of labels->location equivalence
1812    classes.  */
1813 static htab_t location_equiv_class_table;
1814
1815 /* Hash function for a equiv_class_label_t */
1816
1817 static hashval_t
1818 equiv_class_label_hash (const void *p)
1819 {
1820   const_equiv_class_label_t const ecl = (const_equiv_class_label_t) p;
1821   return ecl->hashcode;
1822 }
1823
1824 /* Equality function for two equiv_class_label_t's.  */
1825
1826 static int
1827 equiv_class_label_eq (const void *p1, const void *p2)
1828 {
1829   const_equiv_class_label_t const eql1 = (const_equiv_class_label_t) p1;
1830   const_equiv_class_label_t const eql2 = (const_equiv_class_label_t) p2;
1831   return bitmap_equal_p (eql1->labels, eql2->labels);
1832 }
1833
1834 /* Lookup a equivalence class in TABLE by the bitmap of LABELS it
1835    contains.  */
1836
1837 static unsigned int
1838 equiv_class_lookup (htab_t table, bitmap labels)
1839 {
1840   void **slot;
1841   struct equiv_class_label ecl;
1842
1843   ecl.labels = labels;
1844   ecl.hashcode = bitmap_hash (labels);
1845
1846   slot = htab_find_slot_with_hash (table, &ecl,
1847                                    ecl.hashcode, NO_INSERT);
1848   if (!slot)
1849     return 0;
1850   else
1851     return ((equiv_class_label_t) *slot)->equivalence_class;
1852 }
1853
1854
1855 /* Add an equivalence class named EQUIVALENCE_CLASS with labels LABELS
1856    to TABLE.  */
1857
1858 static void
1859 equiv_class_add (htab_t table, unsigned int equivalence_class,
1860                  bitmap labels)
1861 {
1862   void **slot;
1863   equiv_class_label_t ecl = XNEW (struct equiv_class_label);
1864
1865   ecl->labels = labels;
1866   ecl->equivalence_class = equivalence_class;
1867   ecl->hashcode = bitmap_hash (labels);
1868
1869   slot = htab_find_slot_with_hash (table, ecl,
1870                                    ecl->hashcode, INSERT);
1871   gcc_assert (!*slot);
1872   *slot = (void *) ecl;
1873 }
1874
1875 /* Perform offline variable substitution.
1876
1877    This is a worst case quadratic time way of identifying variables
1878    that must have equivalent points-to sets, including those caused by
1879    static cycles, and single entry subgraphs, in the constraint graph.
1880
1881    The technique is described in "Exploiting Pointer and Location
1882    Equivalence to Optimize Pointer Analysis. In the 14th International
1883    Static Analysis Symposium (SAS), August 2007."  It is known as the
1884    "HU" algorithm, and is equivalent to value numbering the collapsed
1885    constraint graph including evaluating unions.
1886
1887    The general method of finding equivalence classes is as follows:
1888    Add fake nodes (REF nodes) and edges for *a = b and a = *b constraints.
1889    Initialize all non-REF nodes to be direct nodes.
1890    For each constraint a = a U {b}, we set pts(a) = pts(a) u {fresh
1891    variable}
1892    For each constraint containing the dereference, we also do the same
1893    thing.
1894
1895    We then compute SCC's in the graph and unify nodes in the same SCC,
1896    including pts sets.
1897
1898    For each non-collapsed node x:
1899     Visit all unvisited explicit incoming edges.
1900     Ignoring all non-pointers, set pts(x) = Union of pts(a) for y
1901     where y->x.
1902     Lookup the equivalence class for pts(x).
1903      If we found one, equivalence_class(x) = found class.
1904      Otherwise, equivalence_class(x) = new class, and new_class is
1905     added to the lookup table.
1906
1907    All direct nodes with the same equivalence class can be replaced
1908    with a single representative node.
1909    All unlabeled nodes (label == 0) are not pointers and all edges
1910    involving them can be eliminated.
1911    We perform these optimizations during rewrite_constraints
1912
1913    In addition to pointer equivalence class finding, we also perform
1914    location equivalence class finding.  This is the set of variables
1915    that always appear together in points-to sets.  We use this to
1916    compress the size of the points-to sets.  */
1917
1918 /* Current maximum pointer equivalence class id.  */
1919 static int pointer_equiv_class;
1920
1921 /* Current maximum location equivalence class id.  */
1922 static int location_equiv_class;
1923
1924 /* Recursive routine to find strongly connected components in GRAPH,
1925    and label it's nodes with DFS numbers.  */
1926
1927 static void
1928 condense_visit (constraint_graph_t graph, struct scc_info *si, unsigned int n)
1929 {
1930   unsigned int i;
1931   bitmap_iterator bi;
1932   unsigned int my_dfs;
1933
1934   gcc_assert (si->node_mapping[n] == n);
1935   SET_BIT (si->visited, n);
1936   si->dfs[n] = si->current_index ++;
1937   my_dfs = si->dfs[n];
1938
1939   /* Visit all the successors.  */
1940   EXECUTE_IF_IN_NONNULL_BITMAP (graph->preds[n], 0, i, bi)
1941     {
1942       unsigned int w = si->node_mapping[i];
1943
1944       if (TEST_BIT (si->deleted, w))
1945         continue;
1946
1947       if (!TEST_BIT (si->visited, w))
1948         condense_visit (graph, si, w);
1949       {
1950         unsigned int t = si->node_mapping[w];
1951         unsigned int nnode = si->node_mapping[n];
1952         gcc_assert (nnode == n);
1953
1954         if (si->dfs[t] < si->dfs[nnode])
1955           si->dfs[n] = si->dfs[t];
1956       }
1957     }
1958
1959   /* Visit all the implicit predecessors.  */
1960   EXECUTE_IF_IN_NONNULL_BITMAP (graph->implicit_preds[n], 0, i, bi)
1961     {
1962       unsigned int w = si->node_mapping[i];
1963
1964       if (TEST_BIT (si->deleted, w))
1965         continue;
1966
1967       if (!TEST_BIT (si->visited, w))
1968         condense_visit (graph, si, w);
1969       {
1970         unsigned int t = si->node_mapping[w];
1971         unsigned int nnode = si->node_mapping[n];
1972         gcc_assert (nnode == n);
1973
1974         if (si->dfs[t] < si->dfs[nnode])
1975           si->dfs[n] = si->dfs[t];
1976       }
1977     }
1978
1979   /* See if any components have been identified.  */
1980   if (si->dfs[n] == my_dfs)
1981     {
1982       while (VEC_length (unsigned, si->scc_stack) != 0
1983              && si->dfs[VEC_last (unsigned, si->scc_stack)] >= my_dfs)
1984         {
1985           unsigned int w = VEC_pop (unsigned, si->scc_stack);
1986           si->node_mapping[w] = n;
1987
1988           if (!TEST_BIT (graph->direct_nodes, w))
1989             RESET_BIT (graph->direct_nodes, n);
1990
1991           /* Unify our nodes.  */
1992           if (graph->preds[w])
1993             {
1994               if (!graph->preds[n])
1995                 graph->preds[n] = BITMAP_ALLOC (&predbitmap_obstack);
1996               bitmap_ior_into (graph->preds[n], graph->preds[w]);
1997             }
1998           if (graph->implicit_preds[w])
1999             {
2000               if (!graph->implicit_preds[n])
2001                 graph->implicit_preds[n] = BITMAP_ALLOC (&predbitmap_obstack);
2002               bitmap_ior_into (graph->implicit_preds[n],
2003                                graph->implicit_preds[w]);
2004             }
2005           if (graph->points_to[w])
2006             {
2007               if (!graph->points_to[n])
2008                 graph->points_to[n] = BITMAP_ALLOC (&predbitmap_obstack);
2009               bitmap_ior_into (graph->points_to[n],
2010                                graph->points_to[w]);
2011             }
2012         }
2013       SET_BIT (si->deleted, n);
2014     }
2015   else
2016     VEC_safe_push (unsigned, heap, si->scc_stack, n);
2017 }
2018
2019 /* Label pointer equivalences.  */
2020
2021 static void
2022 label_visit (constraint_graph_t graph, struct scc_info *si, unsigned int n)
2023 {
2024   unsigned int i;
2025   bitmap_iterator bi;
2026   SET_BIT (si->visited, n);
2027
2028   if (!graph->points_to[n])
2029     graph->points_to[n] = BITMAP_ALLOC (&predbitmap_obstack);
2030
2031   /* Label and union our incoming edges's points to sets.  */
2032   EXECUTE_IF_IN_NONNULL_BITMAP (graph->preds[n], 0, i, bi)
2033     {
2034       unsigned int w = si->node_mapping[i];
2035       if (!TEST_BIT (si->visited, w))
2036         label_visit (graph, si, w);
2037
2038       /* Skip unused edges  */
2039       if (w == n || graph->pointer_label[w] == 0)
2040         continue;
2041
2042       if (graph->points_to[w])
2043         bitmap_ior_into(graph->points_to[n], graph->points_to[w]);
2044     }
2045   /* Indirect nodes get fresh variables.  */
2046   if (!TEST_BIT (graph->direct_nodes, n))
2047     bitmap_set_bit (graph->points_to[n], FIRST_REF_NODE + n);
2048
2049   if (!bitmap_empty_p (graph->points_to[n]))
2050     {
2051       unsigned int label = equiv_class_lookup (pointer_equiv_class_table,
2052                                                graph->points_to[n]);
2053       if (!label)
2054         {
2055           label = pointer_equiv_class++;
2056           equiv_class_add (pointer_equiv_class_table,
2057                            label, graph->points_to[n]);
2058         }
2059       graph->pointer_label[n] = label;
2060     }
2061 }
2062
2063 /* Perform offline variable substitution, discovering equivalence
2064    classes, and eliminating non-pointer variables.  */
2065
2066 static struct scc_info *
2067 perform_var_substitution (constraint_graph_t graph)
2068 {
2069   unsigned int i;
2070   unsigned int size = graph->size;
2071   struct scc_info *si = init_scc_info (size);
2072
2073   bitmap_obstack_initialize (&iteration_obstack);
2074   pointer_equiv_class_table = htab_create (511, equiv_class_label_hash,
2075                                            equiv_class_label_eq, free);
2076   location_equiv_class_table = htab_create (511, equiv_class_label_hash,
2077                                             equiv_class_label_eq, free);
2078   pointer_equiv_class = 1;
2079   location_equiv_class = 1;
2080
2081   /* Condense the nodes, which means to find SCC's, count incoming
2082      predecessors, and unite nodes in SCC's.  */
2083   for (i = 0; i < FIRST_REF_NODE; i++)
2084     if (!TEST_BIT (si->visited, si->node_mapping[i]))
2085       condense_visit (graph, si, si->node_mapping[i]);
2086
2087   sbitmap_zero (si->visited);
2088   /* Actually the label the nodes for pointer equivalences  */
2089   for (i = 0; i < FIRST_REF_NODE; i++)
2090     if (!TEST_BIT (si->visited, si->node_mapping[i]))
2091       label_visit (graph, si, si->node_mapping[i]);
2092
2093   /* Calculate location equivalence labels.  */
2094   for (i = 0; i < FIRST_REF_NODE; i++)
2095     {
2096       bitmap pointed_by;
2097       bitmap_iterator bi;
2098       unsigned int j;
2099       unsigned int label;
2100
2101       if (!graph->pointed_by[i])
2102         continue;
2103       pointed_by = BITMAP_ALLOC (&iteration_obstack);
2104
2105       /* Translate the pointed-by mapping for pointer equivalence
2106          labels.  */
2107       EXECUTE_IF_SET_IN_BITMAP (graph->pointed_by[i], 0, j, bi)
2108         {
2109           bitmap_set_bit (pointed_by,
2110                           graph->pointer_label[si->node_mapping[j]]);
2111         }
2112       /* The original pointed_by is now dead.  */
2113       BITMAP_FREE (graph->pointed_by[i]);
2114
2115       /* Look up the location equivalence label if one exists, or make
2116          one otherwise.  */
2117       label = equiv_class_lookup (location_equiv_class_table,
2118                                   pointed_by);
2119       if (label == 0)
2120         {
2121           label = location_equiv_class++;
2122           equiv_class_add (location_equiv_class_table,
2123                            label, pointed_by);
2124         }
2125       else
2126         {
2127           if (dump_file && (dump_flags & TDF_DETAILS))
2128             fprintf (dump_file, "Found location equivalence for node %s\n",
2129                      get_varinfo (i)->name);
2130           BITMAP_FREE (pointed_by);
2131         }
2132       graph->loc_label[i] = label;
2133
2134     }
2135
2136   if (dump_file && (dump_flags & TDF_DETAILS))
2137     for (i = 0; i < FIRST_REF_NODE; i++)
2138       {
2139         bool direct_node = TEST_BIT (graph->direct_nodes, i);
2140         fprintf (dump_file,
2141                  "Equivalence classes for %s node id %d:%s are pointer: %d"
2142                  ", location:%d\n",
2143                  direct_node ? "Direct node" : "Indirect node", i,
2144                  get_varinfo (i)->name,
2145                  graph->pointer_label[si->node_mapping[i]],
2146                  graph->loc_label[si->node_mapping[i]]);
2147       }
2148
2149   /* Quickly eliminate our non-pointer variables.  */
2150
2151   for (i = 0; i < FIRST_REF_NODE; i++)
2152     {
2153       unsigned int node = si->node_mapping[i];
2154
2155       if (graph->pointer_label[node] == 0)
2156         {
2157           if (dump_file && (dump_flags & TDF_DETAILS))
2158             fprintf (dump_file,
2159                      "%s is a non-pointer variable, eliminating edges.\n",
2160                      get_varinfo (node)->name);
2161           stats.nonpointer_vars++;
2162           clear_edges_for_node (graph, node);
2163         }
2164     }
2165
2166   return si;
2167 }
2168
2169 /* Free information that was only necessary for variable
2170    substitution.  */
2171
2172 static void
2173 free_var_substitution_info (struct scc_info *si)
2174 {
2175   free_scc_info (si);
2176   free (graph->pointer_label);
2177   free (graph->loc_label);
2178   free (graph->pointed_by);
2179   free (graph->points_to);
2180   free (graph->eq_rep);
2181   sbitmap_free (graph->direct_nodes);
2182   htab_delete (pointer_equiv_class_table);
2183   htab_delete (location_equiv_class_table);
2184   bitmap_obstack_release (&iteration_obstack);
2185 }
2186
2187 /* Return an existing node that is equivalent to NODE, which has
2188    equivalence class LABEL, if one exists.  Return NODE otherwise.  */
2189
2190 static unsigned int
2191 find_equivalent_node (constraint_graph_t graph,
2192                       unsigned int node, unsigned int label)
2193 {
2194   /* If the address version of this variable is unused, we can
2195      substitute it for anything else with the same label.
2196      Otherwise, we know the pointers are equivalent, but not the
2197      locations, and we can unite them later.  */
2198
2199   if (!bitmap_bit_p (graph->address_taken, node))
2200     {
2201       gcc_assert (label < graph->size);
2202
2203       if (graph->eq_rep[label] != -1)
2204         {
2205           /* Unify the two variables since we know they are equivalent.  */
2206           if (unite (graph->eq_rep[label], node))
2207             unify_nodes (graph, graph->eq_rep[label], node, false);
2208           return graph->eq_rep[label];
2209         }
2210       else
2211         {
2212           graph->eq_rep[label] = node;
2213           graph->pe_rep[label] = node;
2214         }
2215     }
2216   else
2217     {
2218       gcc_assert (label < graph->size);
2219       graph->pe[node] = label;
2220       if (graph->pe_rep[label] == -1)
2221         graph->pe_rep[label] = node;
2222     }
2223
2224   return node;
2225 }
2226
2227 /* Unite pointer equivalent but not location equivalent nodes in
2228    GRAPH.  This may only be performed once variable substitution is
2229    finished.  */
2230
2231 static void
2232 unite_pointer_equivalences (constraint_graph_t graph)
2233 {
2234   unsigned int i;
2235
2236   /* Go through the pointer equivalences and unite them to their
2237      representative, if they aren't already.  */
2238   for (i = 0; i < FIRST_REF_NODE; i++)
2239     {
2240       unsigned int label = graph->pe[i];
2241       if (label)
2242         {
2243           int label_rep = graph->pe_rep[label];
2244           
2245           if (label_rep == -1)
2246             continue;
2247           
2248           label_rep = find (label_rep);
2249           if (label_rep >= 0 && unite (label_rep, find (i)))
2250             unify_nodes (graph, label_rep, i, false);
2251         }
2252     }
2253 }
2254
2255 /* Move complex constraints to the GRAPH nodes they belong to.  */
2256
2257 static void
2258 move_complex_constraints (constraint_graph_t graph)
2259 {
2260   int i;
2261   constraint_t c;
2262
2263   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
2264     {
2265       if (c)
2266         {
2267           struct constraint_expr lhs = c->lhs;
2268           struct constraint_expr rhs = c->rhs;
2269
2270           if (lhs.type == DEREF)
2271             {
2272               insert_into_complex (graph, lhs.var, c);
2273             }
2274           else if (rhs.type == DEREF)
2275             {
2276               if (!(get_varinfo (lhs.var)->is_special_var))
2277                 insert_into_complex (graph, rhs.var, c);
2278             }
2279           else if (rhs.type != ADDRESSOF && lhs.var > anything_id
2280                    && (lhs.offset != 0 || rhs.offset != 0))
2281             {
2282               insert_into_complex (graph, rhs.var, c);
2283             }
2284         }
2285     }
2286 }
2287
2288
2289 /* Optimize and rewrite complex constraints while performing
2290    collapsing of equivalent nodes.  SI is the SCC_INFO that is the
2291    result of perform_variable_substitution.  */
2292
2293 static void
2294 rewrite_constraints (constraint_graph_t graph,
2295                      struct scc_info *si)
2296 {
2297   int i;
2298   unsigned int j;
2299   constraint_t c;
2300
2301   for (j = 0; j < graph->size; j++)
2302     gcc_assert (find (j) == j);
2303
2304   for (i = 0; VEC_iterate (constraint_t, constraints, i, c); i++)
2305     {
2306       struct constraint_expr lhs = c->lhs;
2307       struct constraint_expr rhs = c->rhs;
2308       unsigned int lhsvar = find (get_varinfo_fc (lhs.var)->id);
2309       unsigned int rhsvar = find (get_varinfo_fc (rhs.var)->id);
2310       unsigned int lhsnode, rhsnode;
2311       unsigned int lhslabel, rhslabel;
2312
2313       lhsnode = si->node_mapping[lhsvar];
2314       rhsnode = si->node_mapping[rhsvar];
2315       lhslabel = graph->pointer_label[lhsnode];
2316       rhslabel = graph->pointer_label[rhsnode];
2317
2318       /* See if it is really a non-pointer variable, and if so, ignore
2319          the constraint.  */
2320       if (lhslabel == 0)
2321         {
2322           if (dump_file && (dump_flags & TDF_DETAILS))
2323             {
2324               
2325               fprintf (dump_file, "%s is a non-pointer variable,"
2326                        "ignoring constraint:",
2327                        get_varinfo (lhs.var)->name);
2328               dump_constraint (dump_file, c);
2329             }
2330           VEC_replace (constraint_t, constraints, i, NULL);
2331           continue;
2332         }
2333
2334       if (rhslabel == 0)
2335         {
2336           if (dump_file && (dump_flags & TDF_DETAILS))
2337             {
2338               
2339               fprintf (dump_file, "%s is a non-pointer variable,"
2340                        "ignoring constraint:",
2341                        get_varinfo (rhs.var)->name);
2342               dump_constraint (dump_file, c);
2343             }
2344           VEC_replace (constraint_t, constraints, i, NULL);
2345           continue;
2346         }
2347
2348       lhsvar = find_equivalent_node (graph, lhsvar, lhslabel);
2349       rhsvar = find_equivalent_node (graph, rhsvar, rhslabel);
2350       c->lhs.var = lhsvar;
2351       c->rhs.var = rhsvar;
2352
2353     }
2354 }
2355
2356 /* Eliminate indirect cycles involving NODE.  Return true if NODE was
2357    part of an SCC, false otherwise.  */
2358
2359 static bool
2360 eliminate_indirect_cycles (unsigned int node)
2361 {
2362   if (graph->indirect_cycles[node] != -1
2363       && !bitmap_empty_p (get_varinfo (node)->solution))
2364     {
2365       unsigned int i;
2366       VEC(unsigned,heap) *queue = NULL;
2367       int queuepos;
2368       unsigned int to = find (graph->indirect_cycles[node]);
2369       bitmap_iterator bi;
2370
2371       /* We can't touch the solution set and call unify_nodes
2372          at the same time, because unify_nodes is going to do
2373          bitmap unions into it. */
2374
2375       EXECUTE_IF_SET_IN_BITMAP (get_varinfo (node)->solution, 0, i, bi)
2376         {
2377           if (find (i) == i && i != to)
2378             {
2379               if (unite (to, i))
2380                 VEC_safe_push (unsigned, heap, queue, i);
2381             }
2382         }
2383
2384       for (queuepos = 0;
2385            VEC_iterate (unsigned, queue, queuepos, i);
2386            queuepos++)
2387         {
2388           unify_nodes (graph, to, i, true);
2389         }
2390       VEC_free (unsigned, heap, queue);
2391       return true;
2392     }
2393   return false;
2394 }
2395
2396 /* Solve the constraint graph GRAPH using our worklist solver.
2397    This is based on the PW* family of solvers from the "Efficient Field
2398    Sensitive Pointer Analysis for C" paper.
2399    It works by iterating over all the graph nodes, processing the complex
2400    constraints and propagating the copy constraints, until everything stops
2401    changed.  This corresponds to steps 6-8 in the solving list given above.  */
2402
2403 static void
2404 solve_graph (constraint_graph_t graph)
2405 {
2406   unsigned int size = graph->size;
2407   unsigned int i;
2408   bitmap pts;
2409
2410   changed_count = 0;
2411   changed = sbitmap_alloc (size);
2412   sbitmap_zero (changed);
2413
2414   /* Mark all initial non-collapsed nodes as changed.  */
2415   for (i = 0; i < size; i++)
2416     {
2417       varinfo_t ivi = get_varinfo (i);
2418       if (find (i) == i && !bitmap_empty_p (ivi->solution)
2419           && ((graph->succs[i] && !bitmap_empty_p (graph->succs[i]))
2420               || VEC_length (constraint_t, graph->complex[i]) > 0))
2421         {
2422           SET_BIT (changed, i);
2423           changed_count++;
2424         }
2425     }
2426
2427   /* Allocate a bitmap to be used to store the changed bits.  */
2428   pts = BITMAP_ALLOC (&pta_obstack);
2429
2430   while (changed_count > 0)
2431     {
2432       unsigned int i;
2433       struct topo_info *ti = init_topo_info ();
2434       stats.iterations++;
2435
2436       bitmap_obstack_initialize (&iteration_obstack);
2437
2438       compute_topo_order (graph, ti);
2439
2440       while (VEC_length (unsigned, ti->topo_order) != 0)
2441         {
2442
2443           i = VEC_pop (unsigned, ti->topo_order);
2444
2445           /* If this variable is not a representative, skip it.  */
2446           if (find (i) != i)
2447             continue;
2448
2449           /* In certain indirect cycle cases, we may merge this
2450              variable to another.  */
2451           if (eliminate_indirect_cycles (i) && find (i) != i)
2452             continue;
2453
2454           /* If the node has changed, we need to process the
2455              complex constraints and outgoing edges again.  */
2456           if (TEST_BIT (changed, i))
2457             {
2458               unsigned int j;
2459               constraint_t c;
2460               bitmap solution;
2461               VEC(constraint_t,heap) *complex = graph->complex[i];
2462               bool solution_empty;
2463
2464               RESET_BIT (changed, i);
2465               changed_count--;
2466
2467               /* Compute the changed set of solution bits.  */
2468               bitmap_and_compl (pts, get_varinfo (i)->solution,
2469                                 get_varinfo (i)->oldsolution);
2470
2471               if (bitmap_empty_p (pts))
2472                 continue;
2473
2474               bitmap_ior_into (get_varinfo (i)->oldsolution, pts);
2475
2476               solution = get_varinfo (i)->solution;
2477               solution_empty = bitmap_empty_p (solution);
2478
2479               /* Process the complex constraints */
2480               for (j = 0; VEC_iterate (constraint_t, complex, j, c); j++)
2481                 {
2482                   /* XXX: This is going to unsort the constraints in
2483                      some cases, which will occasionally add duplicate
2484                      constraints during unification.  This does not
2485                      affect correctness.  */
2486                   c->lhs.var = find (c->lhs.var);
2487                   c->rhs.var = find (c->rhs.var);
2488
2489                   /* The only complex constraint that can change our
2490                      solution to non-empty, given an empty solution,
2491                      is a constraint where the lhs side is receiving
2492                      some set from elsewhere.  */
2493                   if (!solution_empty || c->lhs.type != DEREF)
2494                     do_complex_constraint (graph, c, pts);
2495                 }
2496
2497               solution_empty = bitmap_empty_p (solution);
2498
2499               if (!solution_empty
2500                   /* Do not propagate the ESCAPED/CALLUSED solutions.  */
2501                   && i != escaped_id
2502                   && i != callused_id)
2503                 {
2504                   bitmap_iterator bi;
2505
2506                   /* Propagate solution to all successors.  */
2507                   EXECUTE_IF_IN_NONNULL_BITMAP (graph->succs[i],
2508                                                 0, j, bi)
2509                     {
2510                       bitmap tmp;
2511                       bool flag;
2512
2513                       unsigned int to = find (j);
2514                       tmp = get_varinfo (to)->solution;
2515                       flag = false;
2516
2517                       /* Don't try to propagate to ourselves.  */
2518                       if (to == i)
2519                         continue;
2520
2521                       flag = set_union_with_increment (tmp, pts, 0);
2522
2523                       if (flag)
2524                         {
2525                           get_varinfo (to)->solution = tmp;
2526                           if (!TEST_BIT (changed, to))
2527                             {
2528                               SET_BIT (changed, to);
2529                               changed_count++;
2530                             }
2531                         }
2532                     }
2533                 }
2534             }
2535         }
2536       free_topo_info (ti);
2537       bitmap_obstack_release (&iteration_obstack);
2538     }
2539
2540   BITMAP_FREE (pts);
2541   sbitmap_free (changed);
2542   bitmap_obstack_release (&oldpta_obstack);
2543 }
2544
2545 /* Map from trees to variable infos.  */
2546 static struct pointer_map_t *vi_for_tree;
2547
2548
2549 /* Insert ID as the variable id for tree T in the vi_for_tree map.  */
2550
2551 static void
2552 insert_vi_for_tree (tree t, varinfo_t vi)
2553 {
2554   void **slot = pointer_map_insert (vi_for_tree, t);
2555   gcc_assert (vi);
2556   gcc_assert (*slot == NULL);
2557   *slot = vi;
2558 }
2559
2560 /* Find the variable info for tree T in VI_FOR_TREE.  If T does not
2561    exist in the map, return NULL, otherwise, return the varinfo we found.  */
2562
2563 static varinfo_t
2564 lookup_vi_for_tree (tree t)
2565 {
2566   void **slot = pointer_map_contains (vi_for_tree, t);
2567   if (slot == NULL)
2568     return NULL;
2569
2570   return (varinfo_t) *slot;
2571 }
2572
2573 /* Return a printable name for DECL  */
2574
2575 static const char *
2576 alias_get_name (tree decl)
2577 {
2578   const char *res = get_name (decl);
2579   char *temp;
2580   int num_printed = 0;
2581
2582   if (res != NULL)
2583     return res;
2584
2585   res = "NULL";
2586   if (!dump_file)
2587     return res;
2588
2589   if (TREE_CODE (decl) == SSA_NAME)
2590     {
2591       num_printed = asprintf (&temp, "%s_%u",
2592                               alias_get_name (SSA_NAME_VAR (decl)),
2593                               SSA_NAME_VERSION (decl));
2594     }
2595   else if (DECL_P (decl))
2596     {
2597       num_printed = asprintf (&temp, "D.%u", DECL_UID (decl));
2598     }
2599   if (num_printed > 0)
2600     {
2601       res = ggc_strdup (temp);
2602       free (temp);
2603     }
2604   return res;
2605 }
2606
2607 /* Find the variable id for tree T in the map.
2608    If T doesn't exist in the map, create an entry for it and return it.  */
2609
2610 static varinfo_t
2611 get_vi_for_tree (tree t)
2612 {
2613   void **slot = pointer_map_contains (vi_for_tree, t);
2614   if (slot == NULL)
2615     return get_varinfo (create_variable_info_for (t, alias_get_name (t)));
2616
2617   return (varinfo_t) *slot;
2618 }
2619
2620 /* Get a constraint expression for a new temporary variable.  */
2621
2622 static struct constraint_expr
2623 get_constraint_exp_for_temp (tree t)
2624 {
2625   struct constraint_expr cexpr;
2626
2627   gcc_assert (SSA_VAR_P (t));
2628
2629   cexpr.type = SCALAR;
2630   cexpr.var = get_vi_for_tree (t)->id;
2631   cexpr.offset = 0;
2632
2633   return cexpr;
2634 }
2635
2636 /* Get a constraint expression vector from an SSA_VAR_P node.
2637    If address_p is true, the result will be taken its address of.  */
2638
2639 static void
2640 get_constraint_for_ssa_var (tree t, VEC(ce_s, heap) **results, bool address_p)
2641 {
2642   struct constraint_expr cexpr;
2643   varinfo_t vi;
2644
2645   /* We allow FUNCTION_DECLs here even though it doesn't make much sense.  */
2646   gcc_assert (SSA_VAR_P (t) || DECL_P (t));
2647
2648   /* For parameters, get at the points-to set for the actual parm
2649      decl.  */
2650   if (TREE_CODE (t) == SSA_NAME
2651       && TREE_CODE (SSA_NAME_VAR (t)) == PARM_DECL
2652       && SSA_NAME_IS_DEFAULT_DEF (t))
2653     {
2654       get_constraint_for_ssa_var (SSA_NAME_VAR (t), results, address_p);
2655       return;
2656     }
2657
2658   vi = get_vi_for_tree (t);
2659   cexpr.var = vi->id;
2660   cexpr.type = SCALAR;
2661   cexpr.offset = 0;
2662   /* If we determine the result is "anything", and we know this is readonly,
2663      say it points to readonly memory instead.  */
2664   if (cexpr.var == anything_id && TREE_READONLY (t))
2665     {
2666       gcc_unreachable ();
2667       cexpr.type = ADDRESSOF;
2668       cexpr.var = readonly_id;
2669     }
2670
2671   /* If we are not taking the address of the constraint expr, add all
2672      sub-fiels of the variable as well.  */
2673   if (!address_p)
2674     {
2675       for (; vi; vi = vi->next)
2676         {
2677           cexpr.var = vi->id;
2678           VEC_safe_push (ce_s, heap, *results, &cexpr);
2679         }
2680       return;
2681     }
2682
2683   VEC_safe_push (ce_s, heap, *results, &cexpr);
2684 }
2685
2686 /* Process constraint T, performing various simplifications and then
2687    adding it to our list of overall constraints.  */
2688
2689 static void
2690 process_constraint (constraint_t t)
2691 {
2692   struct constraint_expr rhs = t->rhs;
2693   struct constraint_expr lhs = t->lhs;
2694
2695   gcc_assert (rhs.var < VEC_length (varinfo_t, varmap));
2696   gcc_assert (lhs.var < VEC_length (varinfo_t, varmap));
2697
2698   /* ANYTHING == ANYTHING is pointless.  */
2699   if (lhs.var == anything_id && rhs.var == anything_id)
2700     return;
2701
2702   /* If we have &ANYTHING = something, convert to SOMETHING = &ANYTHING) */
2703   else if (lhs.var == anything_id && lhs.type == ADDRESSOF)
2704     {
2705       rhs = t->lhs;
2706       t->lhs = t->rhs;
2707       t->rhs = rhs;
2708       process_constraint (t);
2709     }
2710   /* This can happen in our IR with things like n->a = *p */
2711   else if (rhs.type == DEREF && lhs.type == DEREF && rhs.var != anything_id)
2712     {
2713       /* Split into tmp = *rhs, *lhs = tmp */
2714       tree rhsdecl = get_varinfo (rhs.var)->decl;
2715       tree pointertype = TREE_TYPE (rhsdecl);
2716       tree pointedtotype = TREE_TYPE (pointertype);
2717       tree tmpvar = create_tmp_var_raw (pointedtotype, "doubledereftmp");
2718       struct constraint_expr tmplhs = get_constraint_exp_for_temp (tmpvar);
2719
2720       process_constraint (new_constraint (tmplhs, rhs));
2721       process_constraint (new_constraint (lhs, tmplhs));
2722     }
2723   else if (rhs.type == ADDRESSOF && lhs.type == DEREF)
2724     {
2725       /* Split into tmp = &rhs, *lhs = tmp */
2726       tree rhsdecl = get_varinfo (rhs.var)->decl;
2727       tree pointertype = TREE_TYPE (rhsdecl);
2728       tree tmpvar = create_tmp_var_raw (pointertype, "derefaddrtmp");
2729       struct constraint_expr tmplhs = get_constraint_exp_for_temp (tmpvar);
2730
2731       process_constraint (new_constraint (tmplhs, rhs));
2732       process_constraint (new_constraint (lhs, tmplhs));
2733     }
2734   else
2735     {
2736       gcc_assert (rhs.type != ADDRESSOF || rhs.offset == 0);
2737       VEC_safe_push (constraint_t, heap, constraints, t);
2738     }
2739 }
2740
2741 /* Return true if T is a variable of a type that could contain
2742    pointers.  */
2743
2744 static bool
2745 could_have_pointers (tree t)
2746 {
2747   tree type = TREE_TYPE (t);
2748
2749   if (POINTER_TYPE_P (type)
2750       || AGGREGATE_TYPE_P (type))
2751     return true;
2752
2753   return false;
2754 }
2755
2756 /* Return the position, in bits, of FIELD_DECL from the beginning of its
2757    structure.  */
2758
2759 static HOST_WIDE_INT
2760 bitpos_of_field (const tree fdecl)
2761 {
2762
2763   if (!host_integerp (DECL_FIELD_OFFSET (fdecl), 0)
2764       || !host_integerp (DECL_FIELD_BIT_OFFSET (fdecl), 0))
2765     return -1;
2766
2767   return (TREE_INT_CST_LOW (DECL_FIELD_OFFSET (fdecl)) * 8
2768           + TREE_INT_CST_LOW (DECL_FIELD_BIT_OFFSET (fdecl)));
2769 }
2770
2771
2772 /* Get constraint expressions for offsetting PTR by OFFSET.  Stores the
2773    resulting constraint expressions in *RESULTS.  */
2774
2775 static void
2776 get_constraint_for_ptr_offset (tree ptr, tree offset,
2777                                VEC (ce_s, heap) **results)
2778 {
2779   struct constraint_expr *c;
2780   unsigned int j, n;
2781   unsigned HOST_WIDE_INT rhsunitoffset, rhsoffset;
2782
2783   /* If we do not do field-sensitive PTA adding offsets to pointers
2784      does not change the points-to solution.  */
2785   if (!use_field_sensitive)
2786     {
2787       get_constraint_for (ptr, results);
2788       return;
2789     }
2790
2791   /* If the offset is not a non-negative integer constant that fits
2792      in a HOST_WIDE_INT, we have to fall back to a conservative
2793      solution which includes all sub-fields of all pointed-to
2794      variables of ptr.
2795      ???  As we do not have the ability to express this, fall back
2796      to anything.  */
2797   if (!host_integerp (offset, 1))
2798     {
2799       struct constraint_expr temp;
2800       temp.var = anything_id;
2801       temp.type = SCALAR;
2802       temp.offset = 0;
2803       VEC_safe_push (ce_s, heap, *results, &temp);
2804       return;
2805     }
2806
2807   /* Make sure the bit-offset also fits.  */
2808   rhsunitoffset = TREE_INT_CST_LOW (offset);
2809   rhsoffset = rhsunitoffset * BITS_PER_UNIT;
2810   if (rhsunitoffset != rhsoffset / BITS_PER_UNIT)
2811     {
2812       struct constraint_expr temp;
2813       temp.var = anything_id;
2814       temp.type = SCALAR;
2815       temp.offset = 0;
2816       VEC_safe_push (ce_s, heap, *results, &temp);
2817       return;
2818     }
2819
2820   get_constraint_for (ptr, results);
2821   if (rhsoffset == 0)
2822     return;
2823
2824   /* As we are eventually appending to the solution do not use
2825      VEC_iterate here.  */
2826   n = VEC_length (ce_s, *results);
2827   for (j = 0; j < n; j++)
2828     {
2829       varinfo_t curr;
2830       c = VEC_index (ce_s, *results, j);
2831       curr = get_varinfo (c->var);
2832
2833       if (c->type == ADDRESSOF
2834           && !curr->is_full_var)
2835         {
2836           varinfo_t temp, curr = get_varinfo (c->var);
2837
2838           /* Search the sub-field which overlaps with the
2839              pointed-to offset.  As we deal with positive offsets
2840              only, we can start the search from the current variable.  */
2841           temp = first_vi_for_offset (curr, curr->offset + rhsoffset);
2842
2843           /* If the result is outside of the variable we have to provide
2844              a conservative result, as the variable is still reachable
2845              from the resulting pointer (even though it technically
2846              cannot point to anything).  The last sub-field is such
2847              a conservative result.
2848              ???  If we always had a sub-field for &object + 1 then
2849              we could represent this in a more precise way.  */
2850           if (temp == NULL)
2851             {
2852               temp = curr;
2853               while (temp->next != NULL)
2854                 temp = temp->next;
2855               continue;
2856             }
2857
2858           /* If the found variable is not exactly at the pointed to
2859              result, we have to include the next variable in the
2860              solution as well.  Otherwise two increments by offset / 2
2861              do not result in the same or a conservative superset
2862              solution.  */
2863           if (temp->offset != curr->offset + rhsoffset
2864               && temp->next != NULL)
2865             {
2866               struct constraint_expr c2;
2867               c2.var = temp->next->id;
2868               c2.type = ADDRESSOF;
2869               c2.offset = 0;
2870               VEC_safe_push (ce_s, heap, *results, &c2);
2871             }
2872           c->var = temp->id;
2873           c->offset = 0;
2874         }
2875       else if (c->type == ADDRESSOF
2876                /* If this varinfo represents a full variable just use it.  */
2877                && curr->is_full_var)
2878         c->offset = 0;
2879       else
2880         c->offset = rhsoffset;
2881     }
2882 }
2883
2884
2885 /* Given a COMPONENT_REF T, return the constraint_expr vector for it.
2886    If address_p is true the result will be taken its address of.  */
2887
2888 static void
2889 get_constraint_for_component_ref (tree t, VEC(ce_s, heap) **results,
2890                                   bool address_p)
2891 {
2892   tree orig_t = t;
2893   HOST_WIDE_INT bitsize = -1;
2894   HOST_WIDE_INT bitmaxsize = -1;
2895   HOST_WIDE_INT bitpos;
2896   tree forzero;
2897   struct constraint_expr *result;
2898
2899   /* Some people like to do cute things like take the address of
2900      &0->a.b */
2901   forzero = t;
2902   while (!SSA_VAR_P (forzero) && !CONSTANT_CLASS_P (forzero))
2903     forzero = TREE_OPERAND (forzero, 0);
2904
2905   if (CONSTANT_CLASS_P (forzero) && integer_zerop (forzero))
2906     {
2907       struct constraint_expr temp;
2908
2909       temp.offset = 0;
2910       temp.var = integer_id;
2911       temp.type = SCALAR;
2912       VEC_safe_push (ce_s, heap, *results, &temp);
2913       return;
2914     }
2915
2916   t = get_ref_base_and_extent (t, &bitpos, &bitsize, &bitmaxsize);
2917
2918   /* Pretend to take the address of the base, we'll take care of
2919      adding the required subset of sub-fields below.  */
2920   get_constraint_for_1 (t, results, true);
2921   gcc_assert (VEC_length (ce_s, *results) == 1);
2922   result = VEC_last (ce_s, *results);
2923
2924   /* This can also happen due to weird offsetof type macros.  */
2925   if (TREE_CODE (t) != ADDR_EXPR && result->type == ADDRESSOF)
2926     result->type = SCALAR;
2927
2928   if (result->type == SCALAR
2929       && get_varinfo (result->var)->is_full_var)
2930     /* For single-field vars do not bother about the offset.  */
2931     result->offset = 0;
2932   else if (result->type == SCALAR)
2933     {
2934       /* In languages like C, you can access one past the end of an
2935          array.  You aren't allowed to dereference it, so we can
2936          ignore this constraint. When we handle pointer subtraction,
2937          we may have to do something cute here.  */
2938
2939       if ((unsigned HOST_WIDE_INT)bitpos < get_varinfo (result->var)->fullsize
2940           && bitmaxsize != 0)
2941         {
2942           /* It's also not true that the constraint will actually start at the
2943              right offset, it may start in some padding.  We only care about
2944              setting the constraint to the first actual field it touches, so
2945              walk to find it.  */
2946           struct constraint_expr cexpr = *result;
2947           varinfo_t curr;
2948           VEC_pop (ce_s, *results);
2949           cexpr.offset = 0;
2950           for (curr = get_varinfo (cexpr.var); curr; curr = curr->next)
2951             {
2952               if (ranges_overlap_p (curr->offset, curr->size,
2953                                     bitpos, bitmaxsize))
2954                 {
2955                   cexpr.var = curr->id;
2956                   VEC_safe_push (ce_s, heap, *results, &cexpr);
2957                   if (address_p)
2958                     break;
2959                 }
2960             }
2961           /* If we are going to take the address of this field then
2962              to be able to compute reachability correctly add at least
2963              the last field of the variable.  */
2964           if (address_p
2965               && VEC_length (ce_s, *results) == 0)
2966             {
2967               curr = get_varinfo (cexpr.var);
2968               while (curr->next != NULL)
2969                 curr = curr->next;
2970               cexpr.var = curr->id;
2971               VEC_safe_push (ce_s, heap, *results, &cexpr);
2972             }
2973           else
2974             /* Assert that we found *some* field there. The user couldn't be
2975                accessing *only* padding.  */
2976             /* Still the user could access one past the end of an array
2977                embedded in a struct resulting in accessing *only* padding.  */
2978             gcc_assert (VEC_length (ce_s, *results) >= 1
2979                         || ref_contains_array_ref (orig_t));
2980         }
2981       else if (bitmaxsize == 0)
2982         {
2983           if (dump_file && (dump_flags & TDF_DETAILS))
2984             fprintf (dump_file, "Access to zero-sized part of variable,"
2985                      "ignoring\n");
2986         }
2987       else
2988         if (dump_file && (dump_flags & TDF_DETAILS))
2989           fprintf (dump_file, "Access to past the end of variable, ignoring\n");
2990     }
2991   else if (bitmaxsize == -1)
2992     {
2993       /* We can't handle DEREF constraints with unknown size, we'll
2994          get the wrong answer.  Punt and return anything.  */
2995       result->var = anything_id;
2996       result->offset = 0;
2997     }
2998   else
2999     result->offset = bitpos;
3000 }
3001
3002
3003 /* Dereference the constraint expression CONS, and return the result.
3004    DEREF (ADDRESSOF) = SCALAR
3005    DEREF (SCALAR) = DEREF
3006    DEREF (DEREF) = (temp = DEREF1; result = DEREF(temp))
3007    This is needed so that we can handle dereferencing DEREF constraints.  */
3008
3009 static void
3010 do_deref (VEC (ce_s, heap) **constraints)
3011 {
3012   struct constraint_expr *c;
3013   unsigned int i = 0;
3014
3015   for (i = 0; VEC_iterate (ce_s, *constraints, i, c); i++)
3016     {
3017       if (c->type == SCALAR)
3018         c->type = DEREF;
3019       else if (c->type == ADDRESSOF)
3020         c->type = SCALAR;
3021       else if (c->type == DEREF)
3022         {
3023           tree tmpvar = create_tmp_var_raw (ptr_type_node, "dereftmp");
3024           struct constraint_expr tmplhs = get_constraint_exp_for_temp (tmpvar);
3025           process_constraint (new_constraint (tmplhs, *c));
3026           c->var = tmplhs.var;
3027         }
3028       else
3029         gcc_unreachable ();
3030     }
3031 }
3032
3033 /* Given a tree T, return the constraint expression for it.  */
3034
3035 static void
3036 get_constraint_for_1 (tree t, VEC (ce_s, heap) **results, bool address_p)
3037 {
3038   struct constraint_expr temp;
3039
3040   /* x = integer is all glommed to a single variable, which doesn't
3041      point to anything by itself.  That is, of course, unless it is an
3042      integer constant being treated as a pointer, in which case, we
3043      will return that this is really the addressof anything.  This
3044      happens below, since it will fall into the default case. The only
3045      case we know something about an integer treated like a pointer is
3046      when it is the NULL pointer, and then we just say it points to
3047      NULL.  */
3048   if (TREE_CODE (t) == INTEGER_CST
3049       && integer_zerop (t))
3050     {
3051       temp.var = nothing_id;
3052       temp.type = ADDRESSOF;
3053       temp.offset = 0;
3054       VEC_safe_push (ce_s, heap, *results, &temp);
3055       return;
3056     }
3057
3058   /* String constants are read-only.  */
3059   if (TREE_CODE (t) == STRING_CST)
3060     {
3061       temp.var = readonly_id;
3062       temp.type = SCALAR;
3063       temp.offset = 0;
3064       VEC_safe_push (ce_s, heap, *results, &temp);
3065       return;
3066     }
3067
3068   switch (TREE_CODE_CLASS (TREE_CODE (t)))
3069     {
3070     case tcc_expression:
3071       {
3072         switch (TREE_CODE (t))
3073           {
3074           case ADDR_EXPR:
3075             {
3076               struct constraint_expr *c;
3077               unsigned int i;
3078               tree exp = TREE_OPERAND (t, 0);
3079
3080               get_constraint_for_1 (exp, results, true);
3081
3082               for (i = 0; VEC_iterate (ce_s, *results, i, c); i++)
3083                 {
3084                   if (c->type == DEREF)
3085                     c->type = SCALAR;
3086                   else
3087                     c->type = ADDRESSOF;
3088                 }
3089               return;
3090             }
3091             break;
3092           default:;
3093           }
3094         break;
3095       }
3096     case tcc_reference:
3097       {
3098         switch (TREE_CODE (t))
3099           {
3100           case INDIRECT_REF:
3101             {
3102               get_constraint_for_1 (TREE_OPERAND (t, 0), results, address_p);
3103               do_deref (results);
3104               return;
3105             }
3106           case ARRAY_REF:
3107           case ARRAY_RANGE_REF:
3108           case COMPONENT_REF:
3109             get_constraint_for_component_ref (t, results, address_p);
3110             return;
3111           default:;
3112           }
3113         break;
3114       }
3115     case tcc_exceptional:
3116       {
3117         switch (TREE_CODE (t))
3118           {
3119           case SSA_NAME:
3120             {
3121               get_constraint_for_ssa_var (t, results, address_p);
3122               return;
3123             }
3124           default:;
3125           }
3126         break;
3127       }
3128     case tcc_declaration:
3129       {
3130         get_constraint_for_ssa_var (t, results, address_p);
3131         return;
3132       }
3133     default:;
3134     }
3135
3136   /* The default fallback is a constraint from anything.  */
3137   temp.type = ADDRESSOF;
3138   temp.var = anything_id;
3139   temp.offset = 0;
3140   VEC_safe_push (ce_s, heap, *results, &temp);
3141 }
3142
3143 /* Given a gimple tree T, return the constraint expression vector for it.  */
3144
3145 static void
3146 get_constraint_for (tree t, VEC (ce_s, heap) **results)
3147 {
3148   gcc_assert (VEC_length (ce_s, *results) == 0);
3149
3150   get_constraint_for_1 (t, results, false);
3151 }
3152
3153 /* Handle the structure copy case where we have a simple structure copy
3154    between LHS and RHS that is of SIZE (in bits)
3155
3156    For each field of the lhs variable (lhsfield)
3157      For each field of the rhs variable at lhsfield.offset (rhsfield)
3158        add the constraint lhsfield = rhsfield
3159
3160    If we fail due to some kind of type unsafety or other thing we
3161    can't handle, return false.  We expect the caller to collapse the
3162    variable in that case.  */
3163
3164 static bool
3165 do_simple_structure_copy (const struct constraint_expr lhs,
3166                           const struct constraint_expr rhs,
3167                           const unsigned HOST_WIDE_INT size)
3168 {
3169   varinfo_t p = get_varinfo (lhs.var);
3170   unsigned HOST_WIDE_INT pstart, last;
3171   pstart = p->offset;
3172   last = p->offset + size;
3173   for (; p && p->offset < last; p = p->next)
3174     {
3175       varinfo_t q;
3176       struct constraint_expr templhs = lhs;
3177       struct constraint_expr temprhs = rhs;
3178       unsigned HOST_WIDE_INT fieldoffset;
3179
3180       templhs.var = p->id;
3181       q = get_varinfo (temprhs.var);
3182       fieldoffset = p->offset - pstart;
3183       q = first_vi_for_offset (q, q->offset + fieldoffset);
3184       if (!q)
3185         return false;
3186       temprhs.var = q->id;
3187       process_constraint (new_constraint (templhs, temprhs));
3188     }
3189   return true;
3190 }
3191
3192
3193 /* Handle the structure copy case where we have a  structure copy between a
3194    aggregate on the LHS and a dereference of a pointer on the RHS
3195    that is of SIZE (in bits)
3196
3197    For each field of the lhs variable (lhsfield)
3198        rhs.offset = lhsfield->offset
3199        add the constraint lhsfield = rhs
3200 */
3201
3202 static void
3203 do_rhs_deref_structure_copy (const struct constraint_expr lhs,
3204                              const struct constraint_expr rhs,
3205                              const unsigned HOST_WIDE_INT size)
3206 {
3207   varinfo_t p = get_varinfo (lhs.var);
3208   unsigned HOST_WIDE_INT pstart,last;
3209   pstart = p->offset;
3210   last = p->offset + size;
3211
3212   for (; p && p->offset < last; p = p->next)
3213     {
3214       varinfo_t q;
3215       struct constraint_expr templhs = lhs;
3216       struct constraint_expr temprhs = rhs;
3217       unsigned HOST_WIDE_INT fieldoffset;
3218
3219
3220       if (templhs.type == SCALAR)
3221         templhs.var = p->id;
3222       else
3223         templhs.offset = p->offset;
3224
3225       q = get_varinfo (temprhs.var);
3226       fieldoffset = p->offset - pstart;
3227       temprhs.offset += fieldoffset;
3228       process_constraint (new_constraint (templhs, temprhs));
3229     }
3230 }
3231
3232 /* Handle the structure copy case where we have a structure copy
3233    between an aggregate on the RHS and a dereference of a pointer on
3234    the LHS that is of SIZE (in bits)
3235
3236    For each field of the rhs variable (rhsfield)
3237        lhs.offset = rhsfield->offset
3238        add the constraint lhs = rhsfield
3239 */
3240
3241 static void
3242 do_lhs_deref_structure_copy (const struct constraint_expr lhs,
3243                              const struct constraint_expr rhs,
3244                              const unsigned HOST_WIDE_INT size)
3245 {
3246   varinfo_t p = get_varinfo (rhs.var);
3247   unsigned HOST_WIDE_INT pstart,last;
3248   pstart = p->offset;
3249   last = p->offset + size;
3250
3251   for (; p && p->offset < last; p = p->next)
3252     {
3253       varinfo_t q;
3254       struct constraint_expr templhs = lhs;
3255       struct constraint_expr temprhs = rhs;
3256       unsigned HOST_WIDE_INT fieldoffset;
3257
3258
3259       if (temprhs.type == SCALAR)
3260         temprhs.var = p->id;
3261       else
3262         temprhs.offset = p->offset;
3263
3264       q = get_varinfo (templhs.var);
3265       fieldoffset = p->offset - pstart;
3266       templhs.offset += fieldoffset;
3267       process_constraint (new_constraint (templhs, temprhs));
3268     }
3269 }
3270
3271 /* Sometimes, frontends like to give us bad type information.  This
3272    function will collapse all the fields from VAR to the end of VAR,
3273    into VAR, so that we treat those fields as a single variable.
3274    We return the variable they were collapsed into.  */
3275
3276 static unsigned int
3277 collapse_rest_of_var (unsigned int var)
3278 {
3279   varinfo_t currvar = get_varinfo (var);
3280   varinfo_t field;
3281
3282   for (field = currvar->next; field; field = field->next)
3283     {
3284       if (dump_file)
3285         fprintf (dump_file, "Type safety: Collapsing var %s into %s\n",
3286                  field->name, currvar->name);
3287
3288       gcc_assert (field->collapsed_to == 0);
3289       field->collapsed_to = currvar->id;
3290     }
3291
3292   currvar->next = NULL;
3293   currvar->size = currvar->fullsize - currvar->offset;
3294
3295   return currvar->id;
3296 }
3297
3298 /* Handle aggregate copies by expanding into copies of the respective
3299    fields of the structures.  */
3300
3301 static void
3302 do_structure_copy (tree lhsop, tree rhsop)
3303 {
3304   struct constraint_expr lhs, rhs, tmp;
3305   VEC (ce_s, heap) *lhsc = NULL, *rhsc = NULL;
3306   varinfo_t p;
3307   unsigned HOST_WIDE_INT lhssize;
3308   unsigned HOST_WIDE_INT rhssize;
3309
3310   /* Pretend we are taking the address of the constraint exprs.
3311      We deal with walking the sub-fields ourselves.  */
3312   get_constraint_for_1 (lhsop, &lhsc, true);
3313   get_constraint_for_1 (rhsop, &rhsc, true);
3314   gcc_assert (VEC_length (ce_s, lhsc) == 1);
3315   gcc_assert (VEC_length (ce_s, rhsc) == 1);
3316   lhs = *(VEC_last (ce_s, lhsc));
3317   rhs = *(VEC_last (ce_s, rhsc));
3318
3319   VEC_free (ce_s, heap, lhsc);
3320   VEC_free (ce_s, heap, rhsc);
3321
3322   /* If we have special var = x, swap it around.  */
3323   if (lhs.var <= integer_id && !(get_varinfo (rhs.var)->is_special_var))
3324     {
3325       tmp = lhs;
3326       lhs = rhs;
3327       rhs = tmp;
3328     }
3329
3330   /*  This is fairly conservative for the RHS == ADDRESSOF case, in that it's
3331       possible it's something we could handle.  However, most cases falling
3332       into this are dealing with transparent unions, which are slightly
3333       weird. */
3334   if (rhs.type == ADDRESSOF && !(get_varinfo (rhs.var)->is_special_var))
3335     {
3336       rhs.type = ADDRESSOF;
3337       rhs.var = anything_id;
3338     }
3339
3340   /* If the RHS is a special var, or an addressof, set all the LHS fields to
3341      that special var.  */
3342   if (rhs.var <= integer_id)
3343     {
3344       for (p = get_varinfo (lhs.var); p; p = p->next)
3345         {
3346           struct constraint_expr templhs = lhs;
3347           struct constraint_expr temprhs = rhs;
3348
3349           if (templhs.type == SCALAR )
3350             templhs.var = p->id;
3351           else
3352             templhs.offset += p->offset;
3353           process_constraint (new_constraint (templhs, temprhs));
3354         }
3355     }
3356   else
3357     {
3358       tree rhstype = TREE_TYPE (rhsop);
3359       tree lhstype = TREE_TYPE (lhsop);
3360       tree rhstypesize;
3361       tree lhstypesize;
3362
3363       lhstypesize = DECL_P (lhsop) ? DECL_SIZE (lhsop) : TYPE_SIZE (lhstype);
3364       rhstypesize = DECL_P (rhsop) ? DECL_SIZE (rhsop) : TYPE_SIZE (rhstype);
3365
3366       /* If we have a variably sized types on the rhs or lhs, and a deref
3367          constraint, add the constraint, lhsconstraint = &ANYTHING.
3368          This is conservatively correct because either the lhs is an unknown
3369          sized var (if the constraint is SCALAR), or the lhs is a DEREF
3370          constraint, and every variable it can point to must be unknown sized
3371          anyway, so we don't need to worry about fields at all.  */
3372       if ((rhs.type == DEREF && TREE_CODE (rhstypesize) != INTEGER_CST)
3373           || (lhs.type == DEREF && TREE_CODE (lhstypesize) != INTEGER_CST))
3374         {
3375           rhs.var = anything_id;
3376           rhs.type = ADDRESSOF;
3377           rhs.offset = 0;
3378           process_constraint (new_constraint (lhs, rhs));
3379           return;
3380         }
3381
3382       /* The size only really matters insofar as we don't set more or less of
3383          the variable.  If we hit an unknown size var, the size should be the
3384          whole darn thing.  */
3385       if (get_varinfo (rhs.var)->is_unknown_size_var)
3386         rhssize = ~0;
3387       else
3388         rhssize = TREE_INT_CST_LOW (rhstypesize);
3389
3390       if (get_varinfo (lhs.var)->is_unknown_size_var)
3391         lhssize = ~0;
3392       else
3393         lhssize = TREE_INT_CST_LOW (lhstypesize);
3394
3395
3396       if (rhs.type == SCALAR && lhs.type == SCALAR)
3397         {
3398           if (!do_simple_structure_copy (lhs, rhs, MIN (lhssize, rhssize)))
3399             {
3400               lhs.var = collapse_rest_of_var (lhs.var);
3401               rhs.var = collapse_rest_of_var (rhs.var);
3402               lhs.offset = 0;
3403               rhs.offset = 0;
3404               lhs.type = SCALAR;
3405               rhs.type = SCALAR;
3406               process_constraint (new_constraint (lhs, rhs));
3407             }
3408         }
3409       else if (lhs.type != DEREF && rhs.type == DEREF)
3410         do_rhs_deref_structure_copy (lhs, rhs, MIN (lhssize, rhssize));
3411       else if (lhs.type == DEREF && rhs.type != DEREF)
3412         do_lhs_deref_structure_copy (lhs, rhs, MIN (lhssize, rhssize));
3413       else
3414         {
3415           tree pointedtotype = lhstype;
3416           tree tmpvar;
3417
3418           gcc_assert (rhs.type == DEREF && lhs.type == DEREF);
3419           tmpvar = create_tmp_var_raw (pointedtotype, "structcopydereftmp");
3420           do_structure_copy (tmpvar, rhsop);
3421           do_structure_copy (lhsop, tmpvar);
3422         }
3423     }
3424 }
3425
3426 /* Create a constraint ID = OP.  */
3427
3428 static void
3429 make_constraint_to (unsigned id, tree op)
3430 {
3431   VEC(ce_s, heap) *rhsc = NULL;
3432   struct constraint_expr *c;
3433   struct constraint_expr includes;
3434   unsigned int j;
3435
3436   includes.var = id;
3437   includes.offset = 0;
3438   includes.type = SCALAR;
3439
3440   get_constraint_for (op, &rhsc);
3441   for (j = 0; VEC_iterate (ce_s, rhsc, j, c); j++)
3442     process_constraint (new_constraint (includes, *c));
3443   VEC_free (ce_s, heap, rhsc);
3444 }
3445
3446 /* Make constraints necessary to make OP escape.  */
3447
3448 static void
3449 make_escape_constraint (tree op)
3450 {
3451   make_constraint_to (escaped_id, op);
3452 }
3453
3454 /* For non-IPA mode, generate constraints necessary for a call on the
3455    RHS.  */
3456
3457 static void
3458 handle_rhs_call (gimple stmt)
3459 {
3460   unsigned i;
3461
3462   for (i = 0; i < gimple_call_num_args (stmt); ++i)
3463     {
3464       tree arg = gimple_call_arg (stmt, i);
3465
3466       /* Find those pointers being passed, and make sure they end up
3467          pointing to anything.  */
3468       if (could_have_pointers (arg))
3469         make_escape_constraint (arg);
3470     }
3471
3472   /* The static chain escapes as well.  */
3473   if (gimple_call_chain (stmt))
3474     make_escape_constraint (gimple_call_chain (stmt));
3475 }
3476
3477 /* For non-IPA mode, generate constraints necessary for a call
3478    that returns a pointer and assigns it to LHS.  This simply makes
3479    the LHS point to global and escaped variables.  */
3480
3481 static void
3482 handle_lhs_call (tree lhs, int flags)
3483 {
3484   VEC(ce_s, heap) *lhsc = NULL;
3485   struct constraint_expr rhsc;
3486   unsigned int j;
3487   struct constraint_expr *lhsp;
3488
3489   get_constraint_for (lhs, &lhsc);
3490
3491   if (flags & ECF_MALLOC)
3492     {
3493       tree heapvar = heapvar_lookup (lhs);
3494       varinfo_t vi;
3495
3496       if (heapvar == NULL)
3497         {
3498           heapvar = create_tmp_var_raw (ptr_type_node, "HEAP");
3499           DECL_EXTERNAL (heapvar) = 1;
3500           get_var_ann (heapvar)->is_heapvar = 1;
3501           if (gimple_referenced_vars (cfun))
3502             add_referenced_var (heapvar);
3503           heapvar_insert (lhs, heapvar);
3504         }
3505
3506       rhsc.var = create_variable_info_for (heapvar,
3507                                            alias_get_name (heapvar));
3508       vi = get_varinfo (rhsc.var);
3509       vi->is_artificial_var = 1;
3510       vi->is_heap_var = 1;
3511       rhsc.type = ADDRESSOF;
3512       rhsc.offset = 0;
3513     }
3514   else
3515     {
3516       rhsc.var = escaped_id;
3517       rhsc.offset = 0;
3518       rhsc.type = ADDRESSOF;
3519     }
3520   for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
3521     process_constraint (new_constraint (*lhsp, rhsc));
3522   VEC_free (ce_s, heap, lhsc);
3523 }
3524
3525 /* For non-IPA mode, generate constraints necessary for a call of a
3526    const function that returns a pointer in the statement STMT.  */
3527
3528 static void
3529 handle_const_call (gimple stmt)
3530 {
3531   tree lhs = gimple_call_lhs (stmt);
3532   VEC(ce_s, heap) *lhsc = NULL;
3533   struct constraint_expr rhsc;
3534   unsigned int j, k;
3535   struct constraint_expr *lhsp;
3536   tree tmpvar;
3537   struct constraint_expr tmpc;
3538
3539   get_constraint_for (lhs, &lhsc);
3540
3541   /* If this is a nested function then it can return anything.  */
3542   if (gimple_call_chain (stmt))
3543     {
3544       rhsc.var = anything_id;
3545       rhsc.offset = 0;
3546       rhsc.type = ADDRESSOF;
3547       for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
3548         process_constraint (new_constraint (*lhsp, rhsc));
3549       VEC_free (ce_s, heap, lhsc);
3550       return;
3551     }
3552
3553   /* We always use a temporary here, otherwise we end up with a quadratic
3554      amount of constraints for
3555        large_struct = const_call (large_struct);
3556      in field-sensitive PTA.  */
3557   tmpvar = create_tmp_var_raw (ptr_type_node, "consttmp");
3558   tmpc = get_constraint_exp_for_temp (tmpvar);
3559
3560   /* May return addresses of globals.  */
3561   rhsc.var = nonlocal_id;
3562   rhsc.offset = 0;
3563   rhsc.type = ADDRESSOF;
3564   process_constraint (new_constraint (tmpc, rhsc));
3565
3566   /* May return arguments.  */
3567   for (k = 0; k < gimple_call_num_args (stmt); ++k)
3568     {
3569       tree arg = gimple_call_arg (stmt, k);
3570
3571       if (could_have_pointers (arg))
3572         {
3573           VEC(ce_s, heap) *argc = NULL;
3574           struct constraint_expr *argp;
3575           int i;
3576
3577           get_constraint_for (arg, &argc);
3578           for (i = 0; VEC_iterate (ce_s, argc, i, argp); i++)
3579             process_constraint (new_constraint (tmpc, *argp));
3580           VEC_free (ce_s, heap, argc);
3581         }
3582     }
3583
3584   for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
3585     process_constraint (new_constraint (*lhsp, tmpc));
3586
3587   VEC_free (ce_s, heap, lhsc);
3588 }
3589
3590 /* For non-IPA mode, generate constraints necessary for a call to a
3591    pure function in statement STMT.  */
3592
3593 static void
3594 handle_pure_call (gimple stmt)
3595 {
3596   unsigned i;
3597
3598   /* Memory reached from pointer arguments is call-used.  */
3599   for (i = 0; i < gimple_call_num_args (stmt); ++i)
3600     {
3601       tree arg = gimple_call_arg (stmt, i);
3602
3603       if (could_have_pointers (arg))
3604         make_constraint_to (callused_id, arg);
3605     }
3606
3607   /* The static chain is used as well.  */
3608   if (gimple_call_chain (stmt))
3609     make_constraint_to (callused_id, gimple_call_chain (stmt));
3610
3611   /* If the call returns a pointer it may point to reachable memory
3612      from the arguments.  Not so for malloc functions though.  */
3613   if (gimple_call_lhs (stmt)
3614       && could_have_pointers (gimple_call_lhs (stmt))
3615       && !(gimple_call_flags (stmt) & ECF_MALLOC))
3616     {
3617       tree lhs = gimple_call_lhs (stmt);
3618       VEC(ce_s, heap) *lhsc = NULL;
3619       struct constraint_expr rhsc;
3620       struct constraint_expr *lhsp;
3621       unsigned j;
3622
3623       get_constraint_for (lhs, &lhsc);
3624
3625       /* If this is a nested function then it can return anything.  */
3626       if (gimple_call_chain (stmt))
3627         {
3628           rhsc.var = anything_id;
3629           rhsc.offset = 0;
3630           rhsc.type = ADDRESSOF;
3631           for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
3632             process_constraint (new_constraint (*lhsp, rhsc));
3633           VEC_free (ce_s, heap, lhsc);
3634           return;
3635         }
3636
3637       /* Else just add the call-used memory here.  Escaped variables
3638          and globals will be dealt with in handle_lhs_call.  */
3639       rhsc.var = callused_id;
3640       rhsc.offset = 0;
3641       rhsc.type = ADDRESSOF;
3642       for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
3643         process_constraint (new_constraint (*lhsp, rhsc));
3644       VEC_free (ce_s, heap, lhsc);
3645     }
3646 }
3647
3648 /* Walk statement T setting up aliasing constraints according to the
3649    references found in T.  This function is the main part of the
3650    constraint builder.  AI points to auxiliary alias information used
3651    when building alias sets and computing alias grouping heuristics.  */
3652
3653 static void
3654 find_func_aliases (gimple origt)
3655 {
3656   gimple t = origt;
3657   VEC(ce_s, heap) *lhsc = NULL;
3658   VEC(ce_s, heap) *rhsc = NULL;
3659   struct constraint_expr *c;
3660   enum escape_type stmt_escape_type;
3661
3662   /* Now build constraints expressions.  */
3663   if (gimple_code (t) == GIMPLE_PHI)
3664     {
3665       gcc_assert (!AGGREGATE_TYPE_P (TREE_TYPE (gimple_phi_result (t))));
3666
3667       /* Only care about pointers and structures containing
3668          pointers.  */
3669       if (could_have_pointers (gimple_phi_result (t)))
3670         {
3671           size_t i;
3672           unsigned int j;
3673
3674           /* For a phi node, assign all the arguments to
3675              the result.  */
3676           get_constraint_for (gimple_phi_result (t), &lhsc);
3677           for (i = 0; i < gimple_phi_num_args (t); i++)
3678             {
3679               tree rhstype;
3680               tree strippedrhs = PHI_ARG_DEF (t, i);
3681
3682               STRIP_NOPS (strippedrhs);
3683               rhstype = TREE_TYPE (strippedrhs);
3684               get_constraint_for (gimple_phi_arg_def (t, i), &rhsc);
3685
3686               for (j = 0; VEC_iterate (ce_s, lhsc, j, c); j++)
3687                 {
3688                   struct constraint_expr *c2;
3689                   while (VEC_length (ce_s, rhsc) > 0)
3690                     {
3691                       c2 = VEC_last (ce_s, rhsc);
3692                       process_constraint (new_constraint (*c, *c2));
3693                       VEC_pop (ce_s, rhsc);
3694                     }
3695                 }
3696             }
3697         }
3698     }
3699   /* In IPA mode, we need to generate constraints to pass call
3700      arguments through their calls.   There are two cases,
3701      either a GIMPLE_CALL returning a value, or just a plain
3702      GIMPLE_CALL when we are not.
3703
3704      In non-ipa mode, we need to generate constraints for each
3705      pointer passed by address.  */
3706   else if (is_gimple_call (t))
3707     {
3708       if (!in_ipa_mode)
3709         {
3710           int flags = gimple_call_flags (t);
3711
3712           /* Const functions can return their arguments and addresses
3713              of global memory but not of escaped memory.  */
3714           if (flags & ECF_CONST)
3715             {
3716               if (gimple_call_lhs (t)
3717                   && could_have_pointers (gimple_call_lhs (t)))
3718                 handle_const_call (t);
3719             }
3720           /* Pure functions can return addresses in and of memory
3721              reachable from their arguments, but they are not an escape
3722              point for reachable memory of their arguments.  */
3723           else if (flags & ECF_PURE)
3724             {
3725               handle_pure_call (t);
3726               if (gimple_call_lhs (t)
3727                   && could_have_pointers (gimple_call_lhs (t)))
3728                 handle_lhs_call (gimple_call_lhs (t), flags);
3729             }
3730           else
3731             {
3732               handle_rhs_call (t);
3733               if (gimple_call_lhs (t)
3734                   && could_have_pointers (gimple_call_lhs (t)))
3735                 handle_lhs_call (gimple_call_lhs (t), flags);
3736             }
3737         }
3738       else
3739         {
3740           tree lhsop;
3741           varinfo_t fi;
3742           int i = 1;
3743           size_t j;
3744           tree decl;
3745
3746           lhsop = gimple_call_lhs (t);
3747           decl = gimple_call_fndecl (t);
3748
3749           /* If we can directly resolve the function being called, do so.
3750              Otherwise, it must be some sort of indirect expression that
3751              we should still be able to handle.  */
3752           if (decl)
3753             fi = get_vi_for_tree (decl);
3754           else
3755             {
3756               decl = gimple_call_fn (t);
3757               fi = get_vi_for_tree (decl);
3758             }
3759
3760           /* Assign all the passed arguments to the appropriate incoming
3761              parameters of the function.  */
3762           for (j = 0; j < gimple_call_num_args (t); j++)
3763             {
3764               struct constraint_expr lhs ;
3765               struct constraint_expr *rhsp;
3766               tree arg = gimple_call_arg (t, j);
3767
3768               get_constraint_for (arg, &rhsc);
3769               if (TREE_CODE (decl) != FUNCTION_DECL)
3770                 {
3771                   lhs.type = DEREF;
3772                   lhs.var = fi->id;
3773                   lhs.offset = i;
3774                 }
3775               else
3776                 {
3777                   lhs.type = SCALAR;
3778                   lhs.var = first_vi_for_offset (fi, i)->id;
3779                   lhs.offset = 0;
3780                 }
3781               while (VEC_length (ce_s, rhsc) != 0)
3782                 {
3783                   rhsp = VEC_last (ce_s, rhsc);
3784                   process_constraint (new_constraint (lhs, *rhsp));
3785                   VEC_pop (ce_s, rhsc);
3786                 }
3787               i++;
3788             }
3789
3790           /* If we are returning a value, assign it to the result.  */
3791           if (lhsop)
3792             {
3793               struct constraint_expr rhs;
3794               struct constraint_expr *lhsp;
3795               unsigned int j = 0;
3796
3797               get_constraint_for (lhsop, &lhsc);
3798               if (TREE_CODE (decl) != FUNCTION_DECL)
3799                 {
3800                   rhs.type = DEREF;
3801                   rhs.var = fi->id;
3802                   rhs.offset = i;
3803                 }
3804               else
3805                 {
3806                   rhs.type = SCALAR;
3807                   rhs.var = first_vi_for_offset (fi, i)->id;
3808                   rhs.offset = 0;
3809                 }
3810               for (j = 0; VEC_iterate (ce_s, lhsc, j, lhsp); j++)
3811                 process_constraint (new_constraint (*lhsp, rhs));
3812             }
3813         }
3814     }
3815   /* Otherwise, just a regular assignment statement.  Only care about
3816      operations with pointer result, others are dealt with as escape
3817      points if they have pointer operands.  */
3818   else if (is_gimple_assign (t)
3819            && could_have_pointers (gimple_assign_lhs (t)))
3820     {
3821       /* Otherwise, just a regular assignment statement.  */
3822       tree lhsop = gimple_assign_lhs (t);
3823       tree rhsop = (gimple_num_ops (t) == 2) ? gimple_assign_rhs1 (t) : NULL;
3824
3825       if (rhsop && AGGREGATE_TYPE_P (TREE_TYPE (lhsop)))
3826         do_structure_copy (lhsop, rhsop);
3827       else
3828         {
3829           unsigned int j;
3830           struct constraint_expr temp;
3831           get_constraint_for (lhsop, &lhsc);
3832
3833           if (gimple_assign_rhs_code (t) == POINTER_PLUS_EXPR)
3834             get_constraint_for_ptr_offset (gimple_assign_rhs1 (t),
3835                                            gimple_assign_rhs2 (t), &rhsc);
3836           else if ((CONVERT_EXPR_CODE_P (gimple_assign_rhs_code (t))
3837                     && !(POINTER_TYPE_P (gimple_expr_type (t))
3838                          && !POINTER_TYPE_P (TREE_TYPE (rhsop))))
3839                    || gimple_assign_single_p (t))
3840             get_constraint_for (rhsop, &rhsc);
3841           else
3842             {
3843               temp.type = ADDRESSOF;
3844               temp.var = anything_id;
3845               temp.offset = 0;
3846               VEC_safe_push (ce_s, heap, rhsc, &temp);
3847             }
3848           for (j = 0; VEC_iterate (ce_s, lhsc, j, c); j++)
3849             {
3850               struct constraint_expr *c2;
3851               unsigned int k;
3852
3853               for (k = 0; VEC_iterate (ce_s, rhsc, k, c2); k++)
3854                 process_constraint (new_constraint (*c, *c2));
3855             }
3856         }
3857     }
3858   else if (gimple_code (t) == GIMPLE_CHANGE_DYNAMIC_TYPE)
3859     {
3860       unsigned int j;
3861
3862       get_constraint_for (gimple_cdt_location (t), &lhsc);
3863       for (j = 0; VEC_iterate (ce_s, lhsc, j, c); ++j)
3864         get_varinfo (c->var)->no_tbaa_pruning = true;
3865     }
3866
3867   stmt_escape_type = is_escape_site (t);
3868   if (stmt_escape_type == ESCAPE_STORED_IN_GLOBAL)
3869     {
3870       gcc_assert (is_gimple_assign (t));
3871       if (gimple_assign_rhs_code (t) == ADDR_EXPR)
3872         {
3873           tree rhs = gimple_assign_rhs1 (t);
3874           tree base = get_base_address (TREE_OPERAND (rhs, 0));
3875           if (base
3876               && (!DECL_P (base)
3877                   || !is_global_var (base)))
3878             make_escape_constraint (rhs);
3879         }
3880       else if (get_gimple_rhs_class (gimple_assign_rhs_code (t))
3881                == GIMPLE_SINGLE_RHS)
3882         {
3883           if (could_have_pointers (gimple_assign_rhs1 (t)))
3884             make_escape_constraint (gimple_assign_rhs1 (t));
3885         }
3886       else
3887         gcc_unreachable ();
3888     }
3889   else if (stmt_escape_type == ESCAPE_BAD_CAST)
3890     {
3891       gcc_assert (is_gimple_assign (t));
3892       gcc_assert (CONVERT_EXPR_CODE_P (gimple_assign_rhs_code (t))
3893                   || gimple_assign_rhs_code (t) == VIEW_CONVERT_EXPR);
3894       make_escape_constraint (gimple_assign_rhs1 (t));
3895     }
3896   else if (stmt_escape_type == ESCAPE_TO_ASM)
3897     {
3898       unsigned i;
3899       for (i = 0; i < gimple_asm_noutputs (t); ++i)
3900         {
3901           tree op = TREE_VALUE (gimple_asm_output_op (t, i));
3902           if (op && could_have_pointers (op))
3903             /* Strictly we'd only need the constraints from ESCAPED and
3904                NONLOCAL.  */
3905             make_escape_constraint (op);
3906         }
3907       for (i = 0; i < gimple_asm_ninputs (t); ++i)
3908         {
3909           tree op = TREE_VALUE (gimple_asm_input_op (t, i));
3910           if (op && could_have_pointers (op))
3911             /* Strictly we'd only need the constraint to ESCAPED.  */
3912             make_escape_constraint (op);
3913         }
3914     }
3915
3916   /* After promoting variables and computing aliasing we will
3917      need to re-scan most statements.  FIXME: Try to minimize the
3918      number of statements re-scanned.  It's not really necessary to
3919      re-scan *all* statements.  */
3920   if (!in_ipa_mode)
3921     gimple_set_modified (origt, true);
3922   VEC_free (ce_s, heap, rhsc);
3923   VEC_free (ce_s, heap, lhsc);
3924 }
3925
3926
3927 /* Find the first varinfo in the same variable as START that overlaps with
3928    OFFSET.
3929    Effectively, walk the chain of fields for the variable START to find the
3930    first field that overlaps with OFFSET.
3931    Return NULL if we can't find one.  */
3932
3933 static varinfo_t
3934 first_vi_for_offset (varinfo_t start, unsigned HOST_WIDE_INT offset)
3935 {
3936   varinfo_t curr = start;
3937   while (curr)
3938     {
3939       /* We may not find a variable in the field list with the actual
3940          offset when when we have glommed a structure to a variable.
3941          In that case, however, offset should still be within the size
3942          of the variable. */
3943       if (offset >= curr->offset && offset < (curr->offset +  curr->size))
3944         return curr;
3945       curr = curr->next;
3946     }
3947   return NULL;
3948 }
3949
3950
3951 /* Insert the varinfo FIELD into the field list for BASE, at the front
3952    of the list.  */
3953
3954 static void
3955 insert_into_field_list (varinfo_t base, varinfo_t field)
3956 {
3957   varinfo_t prev = base;
3958   varinfo_t curr = base->next;
3959
3960   field->next = curr;
3961   prev->next = field;
3962 }
3963
3964 /* Insert the varinfo FIELD into the field list for BASE, ordered by
3965    offset.  */
3966
3967 static void
3968 insert_into_field_list_sorted (varinfo_t base, varinfo_t field)
3969 {
3970   varinfo_t prev = base;
3971   varinfo_t curr = base->next;
3972
3973   if (curr == NULL)
3974     {
3975       prev->next = field;
3976       field->next = NULL;
3977     }
3978   else
3979     {
3980       while (curr)
3981         {
3982           if (field->offset <= curr->offset)
3983             break;
3984           prev = curr;
3985           curr = curr->next;
3986         }
3987       field->next = prev->next;
3988       prev->next = field;
3989     }
3990 }
3991
3992 /* This structure is used during pushing fields onto the fieldstack
3993    to track the offset of the field, since bitpos_of_field gives it
3994    relative to its immediate containing type, and we want it relative
3995    to the ultimate containing object.  */
3996
3997 struct fieldoff
3998 {
3999   /* Offset from the base of the base containing object to this field.  */
4000   HOST_WIDE_INT offset;
4001
4002   /* Size, in bits, of the field.  */
4003   unsigned HOST_WIDE_INT size;
4004
4005   unsigned has_unknown_size : 1;
4006
4007   unsigned may_have_pointers : 1;
4008 };
4009 typedef struct fieldoff fieldoff_s;
4010
4011 DEF_VEC_O(fieldoff_s);
4012 DEF_VEC_ALLOC_O(fieldoff_s,heap);
4013
4014 /* qsort comparison function for two fieldoff's PA and PB */
4015
4016 static int
4017 fieldoff_compare (const void *pa, const void *pb)
4018 {
4019   const fieldoff_s *foa = (const fieldoff_s *)pa;
4020   const fieldoff_s *fob = (const fieldoff_s *)pb;
4021   unsigned HOST_WIDE_INT foasize, fobsize;
4022
4023   if (foa->offset < fob->offset)
4024     return -1;
4025   else if (foa->offset > fob->offset)
4026     return 1;
4027
4028   foasize = foa->size;
4029   fobsize = fob->size;
4030   if (foasize < fobsize)
4031     return -1;
4032   else if (foasize > fobsize)
4033     return 1;
4034   return 0;
4035 }
4036
4037 /* Sort a fieldstack according to the field offset and sizes.  */
4038 static void
4039 sort_fieldstack (VEC(fieldoff_s,heap) *fieldstack)
4040 {
4041   qsort (VEC_address (fieldoff_s, fieldstack),
4042          VEC_length (fieldoff_s, fieldstack),
4043          sizeof (fieldoff_s),
4044          fieldoff_compare);
4045 }
4046
4047 /* Return true if V is a tree that we can have subvars for.
4048    Normally, this is any aggregate type.  Also complex
4049    types which are not gimple registers can have subvars.  */
4050
4051 static inline bool
4052 var_can_have_subvars (const_tree v)
4053 {
4054   /* Volatile variables should never have subvars.  */
4055   if (TREE_THIS_VOLATILE (v))
4056     return false;
4057
4058   /* Non decls or memory tags can never have subvars.  */
4059   if (!DECL_P (v) || MTAG_P (v))
4060     return false;
4061
4062   /* Aggregates without overlapping fields can have subvars.  */
4063   if (TREE_CODE (TREE_TYPE (v)) == RECORD_TYPE)
4064     return true;
4065
4066   return false;
4067 }
4068
4069 /* Given a TYPE, and a vector of field offsets FIELDSTACK, push all
4070    the fields of TYPE onto fieldstack, recording their offsets along
4071    the way.
4072
4073    OFFSET is used to keep track of the offset in this entire
4074    structure, rather than just the immediately containing structure.
4075    Returns the number of fields pushed.  */
4076
4077 static int
4078 push_fields_onto_fieldstack (tree type, VEC(fieldoff_s,heap) **fieldstack,
4079                              HOST_WIDE_INT offset)
4080 {
4081   tree field;
4082   int count = 0;
4083
4084   if (TREE_CODE (type) != RECORD_TYPE)
4085     return 0;
4086
4087   /* If the vector of fields is growing too big, bail out early.
4088      Callers check for VEC_length <= MAX_FIELDS_FOR_FIELD_SENSITIVE, make
4089      sure this fails.  */
4090   if (VEC_length (fieldoff_s, *fieldstack) > MAX_FIELDS_FOR_FIELD_SENSITIVE)
4091     return 0;
4092
4093   for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
4094     if (TREE_CODE (field) == FIELD_DECL)
4095       {
4096         bool push = false;
4097         int pushed = 0;
4098         HOST_WIDE_INT foff = bitpos_of_field (field);
4099
4100         if (!var_can_have_subvars (field)
4101             || TREE_CODE (TREE_TYPE (field)) == QUAL_UNION_TYPE
4102             || TREE_CODE (TREE_TYPE (field)) == UNION_TYPE)
4103           push = true;
4104         else if (!(pushed = push_fields_onto_fieldstack
4105                    (TREE_TYPE (field), fieldstack, offset + foff))
4106                  && (DECL_SIZE (field)
4107                      && !integer_zerop (DECL_SIZE (field))))
4108           /* Empty structures may have actual size, like in C++.  So
4109              see if we didn't push any subfields and the size is
4110              nonzero, push the field onto the stack.  */
4111           push = true;
4112
4113         if (push)
4114           {
4115             fieldoff_s *pair = NULL;
4116             bool has_unknown_size = false;
4117
4118             if (!VEC_empty (fieldoff_s, *fieldstack))
4119               pair = VEC_last (fieldoff_s, *fieldstack);
4120
4121             if (!DECL_SIZE (field)
4122                 || !host_integerp (DECL_SIZE (field), 1))
4123               has_unknown_size = true;
4124
4125             /* If adjacent fields do not contain pointers merge them.  */
4126             if (pair
4127                 && !pair->may_have_pointers
4128                 && !could_have_pointers (field)
4129                 && !pair->has_unknown_size
4130                 && !has_unknown_size
4131                 && pair->offset + (HOST_WIDE_INT)pair->size == offset + foff)
4132               {
4133                 pair = VEC_last (fieldoff_s, *fieldstack);
4134                 pair->size += TREE_INT_CST_LOW (DECL_SIZE (field));
4135               }
4136             else
4137               {
4138                 pair = VEC_safe_push (fieldoff_s, heap, *fieldstack, NULL);
4139                 pair->offset = offset + foff;
4140                 pair->has_unknown_size = has_unknown_size;
4141                 if (!has_unknown_size)
4142                   pair->size = TREE_INT_CST_LOW (DECL_SIZE (field));
4143                 else
4144                   pair->size = -1;
4145                 pair->may_have_pointers = could_have_pointers (field);
4146                 count++;
4147               }
4148           }
4149         else
4150           count += pushed;
4151       }
4152
4153   return count;
4154 }
4155
4156 /* Create a constraint ID = &FROM.  */
4157
4158 static void
4159 make_constraint_from (varinfo_t vi, int from)
4160 {
4161   struct constraint_expr lhs, rhs;
4162
4163   lhs.var = vi->id;
4164   lhs.offset = 0;
4165   lhs.type = SCALAR;
4166
4167   rhs.var = from;
4168   rhs.offset = 0;
4169   rhs.type = ADDRESSOF;
4170   process_constraint (new_constraint (lhs, rhs));
4171 }
4172
4173 /* Count the number of arguments DECL has, and set IS_VARARGS to true
4174    if it is a varargs function.  */
4175
4176 static unsigned int
4177 count_num_arguments (tree decl, bool *is_varargs)
4178 {
4179   unsigned int i = 0;
4180   tree t;
4181
4182   for (t = TYPE_ARG_TYPES (TREE_TYPE (decl));
4183        t;
4184        t = TREE_CHAIN (t))
4185     {
4186       if (TREE_VALUE (t) == void_type_node)
4187         break;
4188       i++;
4189     }
4190
4191   if (!t)
4192     *is_varargs = true;
4193   return i;
4194 }
4195
4196 /* Creation function node for DECL, using NAME, and return the index
4197    of the variable we've created for the function.  */
4198
4199 static unsigned int
4200 create_function_info_for (tree decl, const char *name)
4201 {
4202   unsigned int index = VEC_length (varinfo_t, varmap);
4203   varinfo_t vi;
4204   tree arg;
4205   unsigned int i;
4206   bool is_varargs = false;
4207
4208   /* Create the variable info.  */
4209
4210   vi = new_var_info (decl, index, name);
4211   vi->decl = decl;
4212   vi->offset = 0;
4213   vi->size = 1;
4214   vi->fullsize = count_num_arguments (decl, &is_varargs) + 1;
4215   insert_vi_for_tree (vi->decl, vi);
4216   VEC_safe_push (varinfo_t, heap, varmap, vi);
4217
4218   stats.total_vars++;
4219
4220   /* If it's varargs, we don't know how many arguments it has, so we
4221      can't do much.  */
4222   if (is_varargs)
4223     {
4224       vi->fullsize = ~0;
4225       vi->size = ~0;
4226       vi->is_unknown_size_var = true;
4227       return index;
4228     }
4229
4230
4231   arg = DECL_ARGUMENTS (decl);
4232
4233   /* Set up variables for each argument.  */
4234   for (i = 1; i < vi->fullsize; i++)
4235     {
4236       varinfo_t argvi;
4237       const char *newname;
4238       char *tempname;
4239       unsigned int newindex;
4240       tree argdecl = decl;
4241
4242       if (arg)
4243         argdecl = arg;
4244
4245       newindex = VEC_length (varinfo_t, varmap);
4246       asprintf (&tempname, "%s.arg%d", name, i-1);
4247       newname = ggc_strdup (tempname);
4248       free (tempname);
4249
4250       argvi = new_var_info (argdecl, newindex, newname);
4251       argvi->decl = argdecl;
4252       VEC_safe_push (varinfo_t, heap, varmap, argvi);
4253       argvi->offset = i;
4254       argvi->size = 1;
4255       argvi->is_full_var = true;
4256       argvi->fullsize = vi->fullsize;
4257       insert_into_field_list_sorted (vi, argvi);
4258       stats.total_vars ++;
4259       if (arg)
4260         {
4261           insert_vi_for_tree (arg, argvi);
4262           arg = TREE_CHAIN (arg);
4263         }
4264     }
4265
4266   /* Create a variable for the return var.  */
4267   if (DECL_RESULT (decl) != NULL
4268       || !VOID_TYPE_P (TREE_TYPE (TREE_TYPE (decl))))
4269     {
4270       varinfo_t resultvi;
4271       const char *newname;
4272       char *tempname;
4273       unsigned int newindex;
4274       tree resultdecl = decl;
4275
4276       vi->fullsize ++;
4277
4278       if (DECL_RESULT (decl))
4279         resultdecl = DECL_RESULT (decl);
4280
4281       newindex = VEC_length (varinfo_t, varmap);
4282       asprintf (&tempname, "%s.result", name);
4283       newname = ggc_strdup (tempname);
4284       free (tempname);
4285
4286       resultvi = new_var_info (resultdecl, newindex, newname);
4287       resultvi->decl = resultdecl;
4288       VEC_safe_push (varinfo_t, heap, varmap, resultvi);
4289       resultvi->offset = i;
4290       resultvi->size = 1;
4291       resultvi->fullsize = vi->fullsize;
4292       resultvi->is_full_var = true;
4293       insert_into_field_list_sorted (vi, resultvi);
4294       stats.total_vars ++;
4295       if (DECL_RESULT (decl))
4296         insert_vi_for_tree (DECL_RESULT (decl), resultvi);
4297     }
4298   return index;
4299 }
4300
4301
4302 /* Return true if FIELDSTACK contains fields that overlap.
4303    FIELDSTACK is assumed to be sorted by offset.  */
4304
4305 static bool
4306 check_for_overlaps (VEC (fieldoff_s,heap) *fieldstack)
4307 {
4308   fieldoff_s *fo = NULL;
4309   unsigned int i;
4310   HOST_WIDE_INT lastoffset = -1;
4311
4312   for (i = 0; VEC_iterate (fieldoff_s, fieldstack, i, fo); i++)
4313     {
4314       if (fo->offset == lastoffset)
4315         return true;
4316       lastoffset = fo->offset;
4317     }
4318   return false;
4319 }
4320
4321 /* Create a varinfo structure for NAME and DECL, and add it to VARMAP.
4322    This will also create any varinfo structures necessary for fields
4323    of DECL.  */
4324
4325 static unsigned int
4326 create_variable_info_for (tree decl, const char *name)
4327 {
4328   unsigned int index = VEC_length (varinfo_t, varmap);
4329   varinfo_t vi;
4330   tree decl_type = TREE_TYPE (decl);
4331   tree declsize = DECL_P (decl) ? DECL_SIZE (decl) : TYPE_SIZE (decl_type);
4332   bool is_global = DECL_P (decl) ? is_global_var (decl) : false;
4333   VEC (fieldoff_s,heap) *fieldstack = NULL;
4334
4335   if (TREE_CODE (decl) == FUNCTION_DECL && in_ipa_mode)
4336     return create_function_info_for (decl, name);
4337
4338   if (var_can_have_subvars (decl) && use_field_sensitive
4339       && (!var_ann (decl)
4340           || var_ann (decl)->noalias_state == 0)
4341       && (!var_ann (decl)
4342           || !var_ann (decl)->is_heapvar))
4343     push_fields_onto_fieldstack (decl_type, &fieldstack, 0);
4344
4345   /* If the variable doesn't have subvars, we may end up needing to
4346      sort the field list and create fake variables for all the
4347      fields.  */
4348   vi = new_var_info (decl, index, name);
4349   vi->decl = decl;
4350   vi->offset = 0;
4351   if (!declsize
4352       || !host_integerp (declsize, 1))
4353     {
4354       vi->is_unknown_size_var = true;
4355       vi->fullsize = ~0;
4356       vi->size = ~0;
4357     }
4358   else
4359     {
4360       vi->fullsize = TREE_INT_CST_LOW (declsize);
4361       vi->size = vi->fullsize;
4362     }
4363
4364   insert_vi_for_tree (vi->decl, vi);
4365   VEC_safe_push (varinfo_t, heap, varmap, vi);
4366   if (is_global && (!flag_whole_program || !in_ipa_mode)
4367       && could_have_pointers (decl))
4368     {
4369       if (var_ann (decl)
4370           && var_ann (decl)->noalias_state == NO_ALIAS_ANYTHING)
4371         make_constraint_from (vi, vi->id);
4372       else
4373         make_constraint_from (vi, escaped_id);
4374     }
4375
4376   stats.total_vars++;
4377   if (use_field_sensitive
4378       && !vi->is_unknown_size_var
4379       && var_can_have_subvars (decl)
4380       && VEC_length (fieldoff_s, fieldstack) > 1
4381       && VEC_length (fieldoff_s, fieldstack) <= MAX_FIELDS_FOR_FIELD_SENSITIVE)
4382     {
4383       unsigned int newindex = VEC_length (varinfo_t, varmap);
4384       fieldoff_s *fo = NULL;
4385       bool notokay = false;
4386       unsigned int i;
4387
4388       for (i = 0; !notokay && VEC_iterate (fieldoff_s, fieldstack, i, fo); i++)
4389         {
4390           if (fo->has_unknown_size
4391               || fo->offset < 0)
4392             {
4393               notokay = true;
4394               break;
4395             }
4396         }
4397
4398       /* We can't sort them if we have a field with a variable sized type,
4399          which will make notokay = true.  In that case, we are going to return
4400          without creating varinfos for the fields anyway, so sorting them is a
4401          waste to boot.  */
4402       if (!notokay)
4403         {
4404           sort_fieldstack (fieldstack);
4405           /* Due to some C++ FE issues, like PR 22488, we might end up
4406              what appear to be overlapping fields even though they,
4407              in reality, do not overlap.  Until the C++ FE is fixed,
4408              we will simply disable field-sensitivity for these cases.  */
4409           notokay = check_for_overlaps (fieldstack);
4410         }
4411
4412
4413       if (VEC_length (fieldoff_s, fieldstack) != 0)
4414         fo = VEC_index (fieldoff_s, fieldstack, 0);
4415
4416       if (fo == NULL || notokay)
4417         {
4418           vi->is_unknown_size_var = 1;
4419           vi->fullsize = ~0;
4420           vi->size = ~0;
4421           vi->is_full_var = true;
4422           VEC_free (fieldoff_s, heap, fieldstack);
4423           return index;
4424         }
4425
4426       vi->size = fo->size;
4427       vi->offset = fo->offset;
4428       for (i = VEC_length (fieldoff_s, fieldstack) - 1;
4429            i >= 1 && VEC_iterate (fieldoff_s, fieldstack, i, fo);
4430            i--)
4431         {
4432           varinfo_t newvi;
4433           const char *newname = "NULL";
4434           char *tempname;
4435
4436           newindex = VEC_length (varinfo_t, varmap);
4437           if (dump_file)
4438             {
4439               asprintf (&tempname, "%s." HOST_WIDE_INT_PRINT_DEC
4440                         "+" HOST_WIDE_INT_PRINT_DEC,
4441                         vi->name, fo->offset, fo->size);
4442               newname = ggc_strdup (tempname);
4443               free (tempname);
4444             }
4445           newvi = new_var_info (decl, newindex, newname);
4446           newvi->offset = fo->offset;
4447           newvi->size = fo->size;
4448           newvi->fullsize = vi->fullsize;
4449           insert_into_field_list (vi, newvi);
4450           VEC_safe_push (varinfo_t, heap, varmap, newvi);
4451           if (is_global && (!flag_whole_program || !in_ipa_mode)
4452               && fo->may_have_pointers)
4453             make_constraint_from (newvi, escaped_id);
4454
4455           stats.total_vars++;
4456         }
4457     }
4458   else
4459     vi->is_full_var = true;
4460
4461   VEC_free (fieldoff_s, heap, fieldstack);
4462
4463   return index;
4464 }
4465
4466 /* Print out the points-to solution for VAR to FILE.  */
4467
4468 void
4469 dump_solution_for_var (FILE *file, unsigned int var)
4470 {
4471   varinfo_t vi = get_varinfo (var);
4472   unsigned int i;
4473   bitmap_iterator bi;
4474
4475   if (find (var) != var)
4476     {
4477       varinfo_t vipt = get_varinfo (find (var));
4478       fprintf (file, "%s = same as %s\n", vi->name, vipt->name);
4479     }
4480   else
4481     {
4482       fprintf (file, "%s = { ", vi->name);
4483       EXECUTE_IF_SET_IN_BITMAP (vi->solution, 0, i, bi)
4484         {
4485           fprintf (file, "%s ", get_varinfo (i)->name);
4486         }
4487       fprintf (file, "}");
4488       if (vi->no_tbaa_pruning)
4489         fprintf (file, " no-tbaa-pruning");
4490       fprintf (file, "\n");
4491     }
4492 }
4493
4494 /* Print the points-to solution for VAR to stdout.  */
4495
4496 void
4497 debug_solution_for_var (unsigned int var)
4498 {
4499   dump_solution_for_var (stdout, var);
4500 }
4501
4502 /* Create varinfo structures for all of the variables in the
4503    function for intraprocedural mode.  */
4504
4505 static void
4506 intra_create_variable_infos (void)
4507 {
4508   tree t;
4509   struct constraint_expr lhs, rhs;
4510
4511   /* For each incoming pointer argument arg, create the constraint ARG
4512      = NONLOCAL or a dummy variable if flag_argument_noalias is set.  */
4513   for (t = DECL_ARGUMENTS (current_function_decl); t; t = TREE_CHAIN (t))
4514     {
4515       varinfo_t p;
4516
4517       if (!could_have_pointers (t))
4518         continue;
4519
4520       /* If flag_argument_noalias is set, then function pointer
4521          arguments are guaranteed not to point to each other.  In that
4522          case, create an artificial variable PARM_NOALIAS and the
4523          constraint ARG = &PARM_NOALIAS.  */
4524       if (POINTER_TYPE_P (TREE_TYPE (t)) && flag_argument_noalias > 0)
4525         {
4526           varinfo_t vi;
4527           tree heapvar = heapvar_lookup (t);
4528
4529           lhs.offset = 0;
4530           lhs.type = SCALAR;
4531           lhs.var  = get_vi_for_tree (t)->id;
4532
4533           if (heapvar == NULL_TREE)
4534             {
4535               var_ann_t ann;
4536               heapvar = create_tmp_var_raw (TREE_TYPE (TREE_TYPE (t)),
4537                                             "PARM_NOALIAS");
4538               DECL_EXTERNAL (heapvar) = 1;
4539               if (gimple_referenced_vars (cfun))
4540                 add_referenced_var (heapvar);
4541
4542               heapvar_insert (t, heapvar);
4543
4544               ann = get_var_ann (heapvar);
4545               ann->is_heapvar = 1;
4546               if (flag_argument_noalias == 1)
4547                 ann->noalias_state = NO_ALIAS;
4548               else if (flag_argument_noalias == 2)
4549                 ann->noalias_state = NO_ALIAS_GLOBAL;
4550               else if (flag_argument_noalias == 3)
4551                 ann->noalias_state = NO_ALIAS_ANYTHING;
4552               else
4553                 gcc_unreachable ();
4554             }
4555
4556           vi = get_vi_for_tree (heapvar);
4557           vi->is_artificial_var = 1;
4558           vi->is_heap_var = 1;
4559           rhs.var = vi->id;
4560           rhs.type = ADDRESSOF;
4561           rhs.offset = 0;
4562           for (p = get_varinfo (lhs.var); p; p = p->next)
4563             {
4564               struct constraint_expr temp = lhs;
4565               temp.var = p->id;
4566               process_constraint (new_constraint (temp, rhs));
4567             }
4568         }
4569       else
4570         {
4571           varinfo_t arg_vi = get_vi_for_tree (t);
4572
4573           for (p = arg_vi; p; p = p->next)
4574             make_constraint_from (p, nonlocal_id);
4575         }
4576     }
4577
4578   /* Add a constraint for a result decl that is passed by reference.  */
4579   if (DECL_RESULT (cfun->decl)
4580       && DECL_BY_REFERENCE (DECL_RESULT (cfun->decl)))
4581     {
4582       varinfo_t p, result_vi = get_vi_for_tree (DECL_RESULT (cfun->decl));
4583
4584       for (p = result_vi; p; p = p->next)
4585         make_constraint_from (p, nonlocal_id);
4586     }
4587
4588   /* Add a constraint for the incoming static chain parameter.  */
4589   if (cfun->static_chain_decl != NULL_TREE)
4590     {
4591       varinfo_t p, chain_vi = get_vi_for_tree (cfun->static_chain_decl);
4592
4593       for (p = chain_vi; p; p = p->next)
4594         make_constraint_from (p, nonlocal_id);
4595     }
4596 }
4597
4598 /* Structure used to put solution bitmaps in a hashtable so they can
4599    be shared among variables with the same points-to set.  */
4600
4601 typedef struct shared_bitmap_info
4602 {
4603   bitmap pt_vars;
4604   hashval_t hashcode;
4605 } *shared_bitmap_info_t;
4606 typedef const struct shared_bitmap_info *const_shared_bitmap_info_t;
4607
4608 static htab_t shared_bitmap_table;
4609
4610 /* Hash function for a shared_bitmap_info_t */
4611
4612 static hashval_t
4613 shared_bitmap_hash (const void *p)
4614 {
4615   const_shared_bitmap_info_t const bi = (const_shared_bitmap_info_t) p;
4616   return bi->hashcode;
4617 }
4618
4619 /* Equality function for two shared_bitmap_info_t's. */
4620
4621 static int
4622 shared_bitmap_eq (const void *p1, const void *p2)
4623 {
4624   const_shared_bitmap_info_t const sbi1 = (const_shared_bitmap_info_t) p1;
4625   const_shared_bitmap_info_t const sbi2 = (const_shared_bitmap_info_t) p2;
4626   return bitmap_equal_p (sbi1->pt_vars, sbi2->pt_vars);
4627 }
4628
4629 /* Lookup a bitmap in the shared bitmap hashtable, and return an already
4630    existing instance if there is one, NULL otherwise.  */
4631
4632 static bitmap
4633 shared_bitmap_lookup (bitmap pt_vars)
4634 {
4635   void **slot;
4636   struct shared_bitmap_info sbi;
4637
4638   sbi.pt_vars = pt_vars;
4639   sbi.hashcode = bitmap_hash (pt_vars);
4640
4641   slot = htab_find_slot_with_hash (shared_bitmap_table, &sbi,
4642                                    sbi.hashcode, NO_INSERT);
4643   if (!slot)
4644     return NULL;
4645   else
4646     return ((shared_bitmap_info_t) *slot)->pt_vars;
4647 }
4648
4649
4650 /* Add a bitmap to the shared bitmap hashtable.  */
4651
4652 static void
4653 shared_bitmap_add (bitmap pt_vars)
4654 {
4655   void **slot;
4656   shared_bitmap_info_t sbi = XNEW (struct shared_bitmap_info);
4657
4658   sbi->pt_vars = pt_vars;
4659   sbi->hashcode = bitmap_hash (pt_vars);
4660
4661   slot = htab_find_slot_with_hash (shared_bitmap_table, sbi,
4662                                    sbi->hashcode, INSERT);
4663   gcc_assert (!*slot);
4664   *slot = (void *) sbi;
4665 }
4666
4667
4668 /* Set bits in INTO corresponding to the variable uids in solution set
4669    FROM, which came from variable PTR.
4670    For variables that are actually dereferenced, we also use type
4671    based alias analysis to prune the points-to sets.
4672    IS_DEREFED is true if PTR was directly dereferenced, which we use to
4673    help determine whether we are we are allowed to prune using TBAA.
4674    If NO_TBAA_PRUNING is true, we do not perform any TBAA pruning of
4675    the from set.  Returns the number of pruned variables.  */
4676
4677 static unsigned
4678 set_uids_in_ptset (tree ptr, bitmap into, bitmap from, bool is_derefed,
4679                    bool no_tbaa_pruning)
4680 {
4681   unsigned int i;
4682   bitmap_iterator bi;
4683   unsigned pruned = 0;
4684
4685   gcc_assert (POINTER_TYPE_P (TREE_TYPE (ptr)));
4686
4687   EXECUTE_IF_SET_IN_BITMAP (from, 0, i, bi)
4688     {
4689       varinfo_t vi = get_varinfo (i);
4690
4691       /* The only artificial variables that are allowed in a may-alias
4692          set are heap variables.  */
4693       if (vi->is_artificial_var && !vi->is_heap_var)
4694         continue;
4695
4696       if (TREE_CODE (vi->decl) == VAR_DECL
4697           || TREE_CODE (vi->decl) == PARM_DECL
4698           || TREE_CODE (vi->decl) == RESULT_DECL)
4699         {
4700           /* Just add VI->DECL to the alias set.
4701              Don't type prune artificial vars or points-to sets
4702              for pointers that have not been dereferenced or with
4703              type-based pruning disabled.  */
4704           if (vi->is_artificial_var
4705               || !is_derefed
4706               || no_tbaa_pruning)
4707             bitmap_set_bit (into, DECL_UID (vi->decl));
4708           else
4709             {
4710               alias_set_type var_alias_set, mem_alias_set;
4711               var_alias_set = get_alias_set (vi->decl);
4712               mem_alias_set = get_alias_set (TREE_TYPE (TREE_TYPE (ptr)));
4713               if (may_alias_p (SSA_NAME_VAR (ptr), mem_alias_set,
4714                                vi->decl, var_alias_set, true))
4715                 bitmap_set_bit (into, DECL_UID (vi->decl));
4716               else
4717                 ++pruned;
4718             }
4719         }
4720     }
4721
4722   return pruned;
4723 }
4724
4725
4726 static bool have_alias_info = false;
4727
4728 /* Emit a note for the pointer initialization point DEF.  */
4729
4730 static void
4731 emit_pointer_definition (tree ptr, bitmap visited)
4732 {
4733   gimple def = SSA_NAME_DEF_STMT (ptr);
4734   if (gimple_code (def) == GIMPLE_PHI)
4735     {
4736       use_operand_p argp;
4737       ssa_op_iter oi;
4738
4739       FOR_EACH_PHI_ARG (argp, def, oi, SSA_OP_USE)
4740         {
4741           tree arg = USE_FROM_PTR (argp);
4742           if (TREE_CODE (arg) == SSA_NAME)
4743             {
4744               if (bitmap_set_bit (visited, SSA_NAME_VERSION (arg)))
4745                 emit_pointer_definition (arg, visited);
4746             }
4747           else
4748             inform (0, "initialized from %qE", arg);
4749         }
4750     }
4751   else if (!gimple_nop_p (def))
4752     inform (gimple_location (def), "initialized from here");
4753 }
4754
4755 /* Emit a strict aliasing warning for dereferencing the pointer PTR.  */
4756
4757 static void
4758 emit_alias_warning (tree ptr)
4759 {
4760   gimple use;
4761   imm_use_iterator ui;
4762   bool warned = false;
4763
4764   FOR_EACH_IMM_USE_STMT (use, ui, ptr)
4765     {
4766       tree deref = NULL_TREE;
4767
4768       if (gimple_has_lhs (use))
4769         {
4770           tree lhs = get_base_address (gimple_get_lhs (use));
4771           if (lhs
4772               && INDIRECT_REF_P (lhs)
4773               && TREE_OPERAND (lhs, 0) == ptr)
4774             deref = lhs;
4775         }
4776       if (gimple_assign_single_p (use))
4777         {
4778           tree rhs = get_base_address (gimple_assign_rhs1 (use));
4779           if (rhs
4780               && INDIRECT_REF_P (rhs)
4781               && TREE_OPERAND (rhs, 0) == ptr)
4782             deref = rhs;
4783         }
4784       else if (is_gimple_call (use))
4785         {
4786           unsigned i;
4787           for (i = 0; i < gimple_call_num_args (use); ++i)
4788             {
4789               tree op = get_base_address (gimple_call_arg (use, i));
4790               if (op
4791                   && INDIRECT_REF_P (op)
4792                   && TREE_OPERAND (op, 0) == ptr)
4793                 deref = op;
4794             }
4795         }
4796       if (deref
4797           && !TREE_NO_WARNING (deref))
4798         {
4799           TREE_NO_WARNING (deref) = 1;
4800           warned |= warning_at (gimple_location (use), OPT_Wstrict_aliasing,
4801                                 "dereferencing pointer %qD does break "
4802                                 "strict-aliasing rules", SSA_NAME_VAR (ptr));
4803         }
4804     }
4805   if (warned)
4806     {
4807       bitmap visited = BITMAP_ALLOC (NULL);
4808       emit_pointer_definition (ptr, visited);
4809       BITMAP_FREE (visited);
4810     }
4811 }
4812
4813 /* Given a pointer variable P, fill in its points-to set, or return
4814    false if we can't.
4815    Rather than return false for variables that point-to anything, we
4816    instead find the corresponding SMT, and merge in its aliases.  In
4817    addition to these aliases, we also set the bits for the SMT's
4818    themselves and their subsets, as SMT's are still in use by
4819    non-SSA_NAME's, and pruning may eliminate every one of their
4820    aliases.  In such a case, if we did not include the right set of
4821    SMT's in the points-to set of the variable, we'd end up with
4822    statements that do not conflict but should.  */
4823
4824 bool
4825 find_what_p_points_to (tree p)
4826 {
4827   tree lookup_p = p;
4828   varinfo_t vi;
4829
4830   if (!have_alias_info)
4831     return false;
4832
4833   /* For parameters, get at the points-to set for the actual parm
4834      decl.  */
4835   if (TREE_CODE (p) == SSA_NAME
4836       && TREE_CODE (SSA_NAME_VAR (p)) == PARM_DECL
4837       && SSA_NAME_IS_DEFAULT_DEF (p))
4838     lookup_p = SSA_NAME_VAR (p);
4839
4840   vi = lookup_vi_for_tree (lookup_p);
4841   if (vi)
4842     {
4843       if (vi->is_artificial_var)
4844         return false;
4845
4846       /* See if this is a field or a structure.  */
4847       if (vi->size != vi->fullsize)
4848         {
4849           /* Nothing currently asks about structure fields directly,
4850              but when they do, we need code here to hand back the
4851              points-to set.  */
4852           return false;
4853         }
4854       else
4855         {
4856           struct ptr_info_def *pi = get_ptr_info (p);
4857           unsigned int i, pruned;
4858           bitmap_iterator bi;
4859           bool was_pt_anything = false;
4860           bitmap finished_solution;
4861           bitmap result;
4862
4863           if (!pi->memory_tag_needed)
4864             return false;
4865
4866           /* This variable may have been collapsed, let's get the real
4867              variable.  */
4868           vi = get_varinfo (find (vi->id));
4869
4870           /* Translate artificial variables into SSA_NAME_PTR_INFO
4871              attributes.  */
4872           EXECUTE_IF_SET_IN_BITMAP (vi->solution, 0, i, bi)
4873             {
4874               varinfo_t vi = get_varinfo (i);
4875
4876               if (vi->is_artificial_var)
4877                 {
4878                   /* FIXME.  READONLY should be handled better so that
4879                      flow insensitive aliasing can disregard writable
4880                      aliases.  */
4881                   if (vi->id == nothing_id)
4882                     pi->pt_null = 1;
4883                   else if (vi->id == anything_id
4884                            || vi->id == nonlocal_id
4885                            || vi->id == escaped_id
4886                            || vi->id == callused_id)
4887                     was_pt_anything = 1;
4888                   else if (vi->id == readonly_id)
4889                     was_pt_anything = 1;
4890                   else if (vi->id == integer_id)
4891                     was_pt_anything = 1;
4892                   else if (vi->is_heap_var)
4893                     pi->pt_global_mem = 1;
4894                 }
4895             }
4896
4897           /* Instead of doing extra work, simply do not create
4898              points-to information for pt_anything pointers.  This
4899              will cause the operand scanner to fall back to the
4900              type-based SMT and its aliases.  Which is the best
4901              we could do here for the points-to set as well.  */
4902           if (was_pt_anything)
4903             return false;
4904
4905           /* Share the final set of variables when possible.  */
4906           finished_solution = BITMAP_GGC_ALLOC ();
4907           stats.points_to_sets_created++;
4908
4909           pruned = set_uids_in_ptset (p, finished_solution, vi->solution,
4910                                       pi->is_dereferenced,
4911                                       vi->no_tbaa_pruning);
4912           result = shared_bitmap_lookup (finished_solution);
4913
4914           if (!result)
4915             {
4916               shared_bitmap_add (finished_solution);
4917               pi->pt_vars = finished_solution;
4918             }
4919           else
4920             {
4921               pi->pt_vars = result;
4922               bitmap_clear (finished_solution);
4923             }
4924
4925           if (bitmap_empty_p (pi->pt_vars))
4926             {
4927               pi->pt_vars = NULL;
4928               if (pruned > 0
4929                   && pi->is_dereferenced
4930                   && warn_strict_aliasing > 0
4931                   && !SSA_NAME_IS_DEFAULT_DEF (p))
4932                 {
4933                   if (dump_file && dump_flags & TDF_DETAILS)
4934                     {
4935                       fprintf (dump_file, "alias warning for ");
4936                       print_generic_expr (dump_file, p, 0);
4937                       fprintf (dump_file, "\n");
4938                     }
4939                   emit_alias_warning (p);
4940                 }
4941             }
4942
4943           return true;
4944         }
4945     }
4946
4947   return false;
4948 }
4949
4950 /* Mark the ESCAPED solution as call clobbered.  Returns false if
4951    pt_anything escaped which needs all locals that have their address
4952    taken marked call clobbered as well.  */
4953
4954 bool
4955 clobber_what_escaped (void)
4956 {
4957   varinfo_t vi;
4958   unsigned int i;
4959   bitmap_iterator bi;
4960
4961   if (!have_alias_info)
4962     return false;
4963
4964   /* This variable may have been collapsed, let's get the real
4965      variable for escaped_id.  */
4966   vi = get_varinfo (find (escaped_id));
4967
4968   /* If call-used memory escapes we need to include it in the
4969      set of escaped variables.  This can happen if a pure
4970      function returns a pointer and this pointer escapes.  */
4971   if (bitmap_bit_p (vi->solution, callused_id))
4972     {
4973       varinfo_t cu_vi = get_varinfo (find (callused_id));
4974       bitmap_ior_into (vi->solution, cu_vi->solution);
4975     }
4976
4977   /* Mark variables in the solution call-clobbered.  */
4978   EXECUTE_IF_SET_IN_BITMAP (vi->solution, 0, i, bi)
4979     {
4980       varinfo_t vi = get_varinfo (i);
4981
4982       if (vi->is_artificial_var)
4983         {
4984           /* nothing_id and readonly_id do not cause any
4985              call clobber ops.  For anything_id and integer_id
4986              we need to clobber all addressable vars.  */
4987           if (vi->id == anything_id
4988               || vi->id == integer_id)
4989             return false;
4990         }
4991
4992       /* Only artificial heap-vars are further interesting.  */
4993       if (vi->is_artificial_var && !vi->is_heap_var)
4994         continue;
4995
4996       if ((TREE_CODE (vi->decl) == VAR_DECL
4997            || TREE_CODE (vi->decl) == PARM_DECL
4998            || TREE_CODE (vi->decl) == RESULT_DECL)
4999           && !unmodifiable_var_p (vi->decl))
5000         mark_call_clobbered (vi->decl, ESCAPE_TO_CALL);
5001     }
5002
5003   return true;
5004 }
5005
5006 /* Compute the call-used variables.  */
5007
5008 void
5009 compute_call_used_vars (void)
5010 {
5011   varinfo_t vi;
5012   unsigned int i;
5013   bitmap_iterator bi;
5014   bool has_anything_id = false;
5015
5016   if (!have_alias_info)
5017     return;
5018
5019   /* This variable may have been collapsed, let's get the real
5020      variable for escaped_id.  */
5021   vi = get_varinfo (find (callused_id));
5022
5023   /* Mark variables in the solution call-clobbered.  */
5024   EXECUTE_IF_SET_IN_BITMAP (vi->solution, 0, i, bi)
5025     {
5026       varinfo_t vi = get_varinfo (i);
5027
5028       if (vi->is_artificial_var)
5029         {
5030           /* For anything_id and integer_id we need to make
5031              all local addressable vars call-used.  */
5032           if (vi->id == anything_id
5033               || vi->id == integer_id)
5034             has_anything_id = true;
5035         }
5036
5037       /* Only artificial heap-vars are further interesting.  */
5038       if (vi->is_artificial_var && !vi->is_heap_var)
5039         continue;
5040
5041       if ((TREE_CODE (vi->decl) == VAR_DECL
5042            || TREE_CODE (vi->decl) == PARM_DECL
5043            || TREE_CODE (vi->decl) == RESULT_DECL)
5044           && !unmodifiable_var_p (vi->decl))
5045         bitmap_set_bit (gimple_call_used_vars (cfun), DECL_UID (vi->decl));
5046     }
5047
5048   /* If anything is call-used, add all addressable locals to the set.  */
5049   if (has_anything_id)
5050     bitmap_ior_into (gimple_call_used_vars (cfun),
5051                      gimple_addressable_vars (cfun));
5052 }
5053
5054
5055 /* Dump points-to information to OUTFILE.  */
5056
5057 void
5058 dump_sa_points_to_info (FILE *outfile)
5059 {
5060   unsigned int i;
5061
5062   fprintf (outfile, "\nPoints-to sets\n\n");
5063
5064   if (dump_flags & TDF_STATS)
5065     {
5066       fprintf (outfile, "Stats:\n");
5067       fprintf (outfile, "Total vars:               %d\n", stats.total_vars);
5068       fprintf (outfile, "Non-pointer vars:          %d\n",
5069                stats.nonpointer_vars);
5070       fprintf (outfile, "Statically unified vars:  %d\n",
5071                stats.unified_vars_static);
5072       fprintf (outfile, "Dynamically unified vars: %d\n",
5073                stats.unified_vars_dynamic);
5074       fprintf (outfile, "Iterations:               %d\n", stats.iterations);
5075       fprintf (outfile, "Number of edges:          %d\n", stats.num_edges);
5076       fprintf (outfile, "Number of implicit edges: %d\n",
5077                stats.num_implicit_edges);
5078     }
5079
5080   for (i = 0; i < VEC_length (varinfo_t, varmap); i++)
5081     dump_solution_for_var (outfile, i);
5082 }
5083
5084
5085 /* Debug points-to information to stderr.  */
5086
5087 void
5088 debug_sa_points_to_info (void)
5089 {
5090   dump_sa_points_to_info (stderr);
5091 }
5092
5093
5094 /* Initialize the always-existing constraint variables for NULL
5095    ANYTHING, READONLY, and INTEGER */
5096
5097 static void
5098 init_base_vars (void)
5099 {
5100   struct constraint_expr lhs, rhs;
5101
5102   /* Create the NULL variable, used to represent that a variable points
5103      to NULL.  */
5104   nothing_tree = create_tmp_var_raw (void_type_node, "NULL");
5105   var_nothing = new_var_info (nothing_tree, nothing_id, "NULL");
5106   insert_vi_for_tree (nothing_tree, var_nothing);
5107   var_nothing->is_artificial_var = 1;
5108   var_nothing->offset = 0;
5109   var_nothing->size = ~0;
5110   var_nothing->fullsize = ~0;
5111   var_nothing->is_special_var = 1;
5112   VEC_safe_push (varinfo_t, heap, varmap, var_nothing);
5113
5114   /* Create the ANYTHING variable, used to represent that a variable
5115      points to some unknown piece of memory.  */
5116   anything_tree = create_tmp_var_raw (void_type_node, "ANYTHING");
5117   var_anything = new_var_info (anything_tree, anything_id, "ANYTHING");
5118   insert_vi_for_tree (anything_tree, var_anything);
5119   var_anything->is_artificial_var = 1;
5120   var_anything->size = ~0;
5121   var_anything->offset = 0;
5122   var_anything->next = NULL;
5123   var_anything->fullsize = ~0;
5124   var_anything->is_special_var = 1;
5125
5126   /* Anything points to anything.  This makes deref constraints just
5127      work in the presence of linked list and other p = *p type loops,
5128      by saying that *ANYTHING = ANYTHING. */
5129   VEC_safe_push (varinfo_t, heap, varmap, var_anything);
5130   lhs.type = SCALAR;
5131   lhs.var = anything_id;
5132   lhs.offset = 0;
5133   rhs.type = ADDRESSOF;
5134   rhs.var = anything_id;
5135   rhs.offset = 0;
5136
5137   /* This specifically does not use process_constraint because
5138      process_constraint ignores all anything = anything constraints, since all
5139      but this one are redundant.  */
5140   VEC_safe_push (constraint_t, heap, constraints, new_constraint (lhs, rhs));
5141
5142   /* Create the READONLY variable, used to represent that a variable
5143      points to readonly memory.  */
5144   readonly_tree = create_tmp_var_raw (void_type_node, "READONLY");
5145   var_readonly = new_var_info (readonly_tree, readonly_id, "READONLY");
5146   var_readonly->is_artificial_var = 1;
5147   var_readonly->offset = 0;
5148   var_readonly->size = ~0;
5149   var_readonly->fullsize = ~0;
5150   var_readonly->next = NULL;
5151   var_readonly->is_special_var = 1;
5152   insert_vi_for_tree (readonly_tree, var_readonly);
5153   VEC_safe_push (varinfo_t, heap, varmap, var_readonly);
5154
5155   /* readonly memory points to anything, in order to make deref
5156      easier.  In reality, it points to anything the particular
5157      readonly variable can point to, but we don't track this
5158      separately. */
5159   lhs.type = SCALAR;
5160   lhs.var = readonly_id;
5161   lhs.offset = 0;
5162   rhs.type = ADDRESSOF;
5163   rhs.var = readonly_id;  /* FIXME */
5164   rhs.offset = 0;
5165   process_constraint (new_constraint (lhs, rhs));
5166
5167   /* Create the ESCAPED variable, used to represent the set of escaped
5168      memory.  */
5169   escaped_tree = create_tmp_var_raw (void_type_node, "ESCAPED");
5170   var_escaped = new_var_info (escaped_tree, escaped_id, "ESCAPED");
5171   insert_vi_for_tree (escaped_tree, var_escaped);
5172   var_escaped->is_artificial_var = 1;
5173   var_escaped->offset = 0;
5174   var_escaped->size = ~0;
5175   var_escaped->fullsize = ~0;
5176   var_escaped->is_special_var = 0;
5177   VEC_safe_push (varinfo_t, heap, varmap, var_escaped);
5178   gcc_assert (VEC_index (varinfo_t, varmap, 3) == var_escaped);
5179
5180   /* ESCAPED = *ESCAPED, because escaped is may-deref'd at calls, etc.  */
5181   lhs.type = SCALAR;
5182   lhs.var = escaped_id;
5183   lhs.offset = 0;
5184   rhs.type = DEREF;
5185   rhs.var = escaped_id;
5186   rhs.offset = 0;
5187   process_constraint (new_constraint (lhs, rhs));
5188
5189   /* Create the NONLOCAL variable, used to represent the set of nonlocal
5190      memory.  */
5191   nonlocal_tree = create_tmp_var_raw (void_type_node, "NONLOCAL");
5192   var_nonlocal = new_var_info (nonlocal_tree, nonlocal_id, "NONLOCAL");
5193   insert_vi_for_tree (nonlocal_tree, var_nonlocal);
5194   var_nonlocal->is_artificial_var = 1;
5195   var_nonlocal->offset = 0;
5196   var_nonlocal->size = ~0;
5197   var_nonlocal->fullsize = ~0;
5198   var_nonlocal->is_special_var = 1;
5199   VEC_safe_push (varinfo_t, heap, varmap, var_nonlocal);
5200
5201   /* Nonlocal memory points to escaped (which includes nonlocal),
5202      in order to make deref easier.  */
5203   lhs.type = SCALAR;
5204   lhs.var = nonlocal_id;
5205   lhs.offset = 0;
5206   rhs.type = ADDRESSOF;
5207   rhs.var = escaped_id;
5208   rhs.offset = 0;
5209   process_constraint (new_constraint (lhs, rhs));
5210
5211   /* Create the CALLUSED variable, used to represent the set of call-used
5212      memory.  */
5213   callused_tree = create_tmp_var_raw (void_type_node, "CALLUSED");
5214   var_callused = new_var_info (callused_tree, callused_id, "CALLUSED");
5215   insert_vi_for_tree (callused_tree, var_callused);
5216   var_callused->is_artificial_var = 1;
5217   var_callused->offset = 0;
5218   var_callused->size = ~0;
5219   var_callused->fullsize = ~0;
5220   var_callused->is_special_var = 0;
5221   VEC_safe_push (varinfo_t, heap, varmap, var_callused);
5222
5223   /* CALLUSED = *CALLUSED, because call-used is may-deref'd at calls, etc.  */
5224   lhs.type = SCALAR;
5225   lhs.var = callused_id;
5226   lhs.offset = 0;
5227   rhs.type = DEREF;
5228   rhs.var = callused_id;
5229   rhs.offset = 0;
5230   process_constraint (new_constraint (lhs, rhs));
5231
5232   /* Create the INTEGER variable, used to represent that a variable points
5233      to an INTEGER.  */
5234   integer_tree = create_tmp_var_raw (void_type_node, "INTEGER");
5235   var_integer = new_var_info (integer_tree, integer_id, "INTEGER");
5236   insert_vi_for_tree (integer_tree, var_integer);
5237   var_integer->is_artificial_var = 1;
5238   var_integer->size = ~0;
5239   var_integer->fullsize = ~0;
5240   var_integer->offset = 0;
5241   var_integer->next = NULL;
5242   var_integer->is_special_var = 1;
5243   VEC_safe_push (varinfo_t, heap, varmap, var_integer);
5244
5245   /* INTEGER = ANYTHING, because we don't know where a dereference of
5246      a random integer will point to.  */
5247   lhs.type = SCALAR;
5248   lhs.var = integer_id;
5249   lhs.offset = 0;
5250   rhs.type = ADDRESSOF;
5251   rhs.var = anything_id;
5252   rhs.offset = 0;
5253   process_constraint (new_constraint (lhs, rhs));
5254
5255   /* *ESCAPED = &ESCAPED.  This is true because we have to assume
5256      everything pointed to by escaped can also point to escaped. */
5257   lhs.type = DEREF;
5258   lhs.var = escaped_id;
5259   lhs.offset = 0;
5260   rhs.type = ADDRESSOF;
5261   rhs.var = escaped_id;
5262   rhs.offset = 0;
5263   process_constraint (new_constraint (lhs, rhs));
5264
5265   /* *ESCAPED = &NONLOCAL.  This is true because we have to assume
5266      everything pointed to by escaped can also point to nonlocal. */
5267   lhs.type = DEREF;
5268   lhs.var = escaped_id;
5269   lhs.offset = 0;
5270   rhs.type = ADDRESSOF;
5271   rhs.var = nonlocal_id;
5272   rhs.offset = 0;
5273   process_constraint (new_constraint (lhs, rhs));
5274 }
5275
5276 /* Initialize things necessary to perform PTA */
5277
5278 static void
5279 init_alias_vars (void)
5280 {
5281   use_field_sensitive = (MAX_FIELDS_FOR_FIELD_SENSITIVE > 1);
5282
5283   bitmap_obstack_initialize (&pta_obstack);
5284   bitmap_obstack_initialize (&oldpta_obstack);
5285   bitmap_obstack_initialize (&predbitmap_obstack);
5286
5287   constraint_pool = create_alloc_pool ("Constraint pool",
5288                                        sizeof (struct constraint), 30);
5289   variable_info_pool = create_alloc_pool ("Variable info pool",
5290                                           sizeof (struct variable_info), 30);
5291   constraints = VEC_alloc (constraint_t, heap, 8);
5292   varmap = VEC_alloc (varinfo_t, heap, 8);
5293   vi_for_tree = pointer_map_create ();
5294
5295   memset (&stats, 0, sizeof (stats));
5296   shared_bitmap_table = htab_create (511, shared_bitmap_hash,
5297                                      shared_bitmap_eq, free);
5298   init_base_vars ();
5299 }
5300
5301 /* Remove the REF and ADDRESS edges from GRAPH, as well as all the
5302    predecessor edges.  */
5303
5304 static void
5305 remove_preds_and_fake_succs (constraint_graph_t graph)
5306 {
5307   unsigned int i;
5308
5309   /* Clear the implicit ref and address nodes from the successor
5310      lists.  */
5311   for (i = 0; i < FIRST_REF_NODE; i++)
5312     {
5313       if (graph->succs[i])
5314         bitmap_clear_range (graph->succs[i], FIRST_REF_NODE,
5315                             FIRST_REF_NODE * 2);
5316     }
5317
5318   /* Free the successor list for the non-ref nodes.  */
5319   for (i = FIRST_REF_NODE; i < graph->size; i++)
5320     {
5321       if (graph->succs[i])
5322         BITMAP_FREE (graph->succs[i]);
5323     }
5324
5325   /* Now reallocate the size of the successor list as, and blow away
5326      the predecessor bitmaps.  */
5327   graph->size = VEC_length (varinfo_t, varmap);
5328   graph->succs = XRESIZEVEC (bitmap, graph->succs, graph->size);
5329
5330   free (graph->implicit_preds);
5331   graph->implicit_preds = NULL;
5332   free (graph->preds);
5333   graph->preds = NULL;
5334   bitmap_obstack_release (&predbitmap_obstack);
5335 }
5336
5337 /* Compute the set of variables we can't TBAA prune.  */
5338
5339 static void
5340 compute_tbaa_pruning (void)
5341 {
5342   unsigned int size = VEC_length (varinfo_t, varmap);
5343   unsigned int i;
5344   bool any;
5345
5346   changed_count = 0;
5347   changed = sbitmap_alloc (size);
5348   sbitmap_zero (changed);
5349
5350   /* Mark all initial no_tbaa_pruning nodes as changed.  */
5351   any = false;
5352   for (i = 0; i < size; ++i)
5353     {
5354       varinfo_t ivi = get_varinfo (i);
5355
5356       if (find (i) == i && ivi->no_tbaa_pruning)
5357         {
5358           any = true;
5359           if ((graph->succs[i] && !bitmap_empty_p (graph->succs[i]))
5360               || VEC_length (constraint_t, graph->complex[i]) > 0)
5361             {
5362               SET_BIT (changed, i);
5363               ++changed_count;
5364             }
5365         }
5366     }
5367
5368   while (changed_count > 0)
5369     {
5370       struct topo_info *ti = init_topo_info ();
5371       ++stats.iterations;
5372
5373       compute_topo_order (graph, ti);
5374
5375       while (VEC_length (unsigned, ti->topo_order) != 0)
5376         {
5377           bitmap_iterator bi;
5378
5379           i = VEC_pop (unsigned, ti->topo_order);
5380
5381           /* If this variable is not a representative, skip it.  */
5382           if (find (i) != i)
5383             continue;
5384
5385           /* If the node has changed, we need to process the complex
5386              constraints and outgoing edges again.  */
5387           if (TEST_BIT (changed, i))
5388             {
5389               unsigned int j;
5390               constraint_t c;
5391               VEC(constraint_t,heap) *complex = graph->complex[i];
5392
5393               RESET_BIT (changed, i);
5394               --changed_count;
5395
5396               /* Process the complex copy constraints.  */
5397               for (j = 0; VEC_iterate (constraint_t, complex, j, c); ++j)
5398                 {
5399                   if (c->lhs.type == SCALAR && c->rhs.type == SCALAR)
5400                     {
5401                       varinfo_t lhsvi = get_varinfo (find (c->lhs.var));
5402
5403                       if (!lhsvi->no_tbaa_pruning)
5404                         {
5405                           lhsvi->no_tbaa_pruning = true;
5406                           if (!TEST_BIT (changed, lhsvi->id))
5407                             {
5408                               SET_BIT (changed, lhsvi->id);
5409                               ++changed_count;
5410                             }
5411                         }
5412                     }
5413                 }
5414
5415               /* Propagate to all successors.  */
5416               EXECUTE_IF_IN_NONNULL_BITMAP (graph->succs[i], 0, j, bi)
5417                 {
5418                   unsigned int to = find (j);
5419                   varinfo_t tovi = get_varinfo (to);
5420
5421                   /* Don't propagate to ourselves.  */
5422                   if (to == i)
5423                     continue;
5424
5425                   if (!tovi->no_tbaa_pruning)
5426                     {
5427                       tovi->no_tbaa_pruning = true;
5428                       if (!TEST_BIT (changed, to))
5429                         {
5430                           SET_BIT (changed, to);
5431                           ++changed_count;
5432                         }
5433                     }
5434                 }
5435             }
5436         }
5437
5438       free_topo_info (ti);
5439     }
5440
5441   sbitmap_free (changed);
5442
5443   if (any)
5444     {
5445       for (i = 0; i < size; ++i)
5446         {
5447           varinfo_t ivi = get_varinfo (i);
5448           varinfo_t ivip = get_varinfo (find (i));
5449
5450           if (ivip->no_tbaa_pruning)
5451             {
5452               tree var = ivi->decl;
5453
5454               if (TREE_CODE (var) == SSA_NAME)
5455                 var = SSA_NAME_VAR (var);
5456
5457               if (POINTER_TYPE_P (TREE_TYPE (var)))
5458                 {
5459                   DECL_NO_TBAA_P (var) = 1;
5460
5461                   /* Tell the RTL layer that this pointer can alias
5462                      anything.  */
5463                   DECL_POINTER_ALIAS_SET (var) = 0;
5464                 }
5465             }
5466         }
5467     }
5468 }
5469
5470 /* Create points-to sets for the current function.  See the comments
5471    at the start of the file for an algorithmic overview.  */
5472
5473 void
5474 compute_points_to_sets (void)
5475 {
5476   struct scc_info *si;
5477   basic_block bb;
5478
5479   timevar_push (TV_TREE_PTA);
5480
5481   init_alias_vars ();
5482   init_alias_heapvars ();
5483
5484   intra_create_variable_infos ();
5485
5486   /* Now walk all statements and derive aliases.  */
5487   FOR_EACH_BB (bb)
5488     {
5489       gimple_stmt_iterator gsi;
5490
5491       for (gsi = gsi_start_phis (bb); !gsi_end_p (gsi); gsi_next (&gsi))
5492         {
5493           gimple phi = gsi_stmt (gsi);
5494
5495           if (is_gimple_reg (gimple_phi_result (phi)))
5496             find_func_aliases (phi);
5497         }
5498
5499       for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); )
5500         {
5501           gimple stmt = gsi_stmt (gsi);
5502
5503           find_func_aliases (stmt);
5504
5505           /* The information in GIMPLE_CHANGE_DYNAMIC_TYPE statements
5506              has now been captured, and we can remove them.  */
5507           if (gimple_code (stmt) == GIMPLE_CHANGE_DYNAMIC_TYPE)
5508             gsi_remove (&gsi, true);
5509           else
5510             gsi_next (&gsi);
5511         }
5512     }
5513
5514
5515   if (dump_file)
5516     {
5517       fprintf (dump_file, "Points-to analysis\n\nConstraints:\n\n");
5518       dump_constraints (dump_file);
5519     }
5520
5521   if (dump_file)
5522     fprintf (dump_file,
5523              "\nCollapsing static cycles and doing variable "
5524              "substitution\n");
5525
5526   init_graph (VEC_length (varinfo_t, varmap) * 2);
5527   
5528   if (dump_file)
5529     fprintf (dump_file, "Building predecessor graph\n");
5530   build_pred_graph ();
5531   
5532   if (dump_file)
5533     fprintf (dump_file, "Detecting pointer and location "
5534              "equivalences\n");
5535   si = perform_var_substitution (graph);
5536   
5537   if (dump_file)
5538     fprintf (dump_file, "Rewriting constraints and unifying "
5539              "variables\n");
5540   rewrite_constraints (graph, si);
5541   free_var_substitution_info (si);
5542
5543   build_succ_graph ();
5544
5545   if (dump_file && (dump_flags & TDF_GRAPH))
5546     dump_constraint_graph (dump_file);
5547
5548   move_complex_constraints (graph);
5549
5550   if (dump_file)
5551     fprintf (dump_file, "Uniting pointer but not location equivalent "
5552              "variables\n");
5553   unite_pointer_equivalences (graph);
5554
5555   if (dump_file)
5556     fprintf (dump_file, "Finding indirect cycles\n");
5557   find_indirect_cycles (graph);
5558
5559   /* Implicit nodes and predecessors are no longer necessary at this
5560      point. */
5561   remove_preds_and_fake_succs (graph);
5562
5563   if (dump_file)
5564     fprintf (dump_file, "Solving graph\n");
5565
5566   solve_graph (graph);
5567
5568   compute_tbaa_pruning ();
5569
5570   if (dump_file)
5571     dump_sa_points_to_info (dump_file);
5572
5573   have_alias_info = true;
5574
5575   timevar_pop (TV_TREE_PTA);
5576 }
5577
5578
5579 /* Delete created points-to sets.  */
5580
5581 void
5582 delete_points_to_sets (void)
5583 {
5584   unsigned int i;
5585
5586   htab_delete (shared_bitmap_table);
5587   if (dump_file && (dump_flags & TDF_STATS))
5588     fprintf (dump_file, "Points to sets created:%d\n",
5589              stats.points_to_sets_created);
5590
5591   pointer_map_destroy (vi_for_tree);
5592   bitmap_obstack_release (&pta_obstack);
5593   VEC_free (constraint_t, heap, constraints);
5594
5595   for (i = 0; i < graph->size; i++)
5596     VEC_free (constraint_t, heap, graph->complex[i]);
5597   free (graph->complex);
5598
5599   free (graph->rep);
5600   free (graph->succs);
5601   free (graph->pe);
5602   free (graph->pe_rep);
5603   free (graph->indirect_cycles);
5604   free (graph);
5605
5606   VEC_free (varinfo_t, heap, varmap);
5607   free_alloc_pool (variable_info_pool);
5608   free_alloc_pool (constraint_pool);
5609   have_alias_info = false;
5610 }
5611
5612 /* Return true if we should execute IPA PTA.  */
5613 static bool
5614 gate_ipa_pta (void)
5615 {
5616   return (flag_ipa_pta
5617           /* Don't bother doing anything if the program has errors.  */
5618           && !(errorcount || sorrycount));
5619 }
5620
5621 /* Execute the driver for IPA PTA.  */
5622 static unsigned int
5623 ipa_pta_execute (void)
5624 {
5625   struct cgraph_node *node;
5626   struct scc_info *si;
5627
5628   in_ipa_mode = 1;
5629   init_alias_heapvars ();
5630   init_alias_vars ();
5631
5632   for (node = cgraph_nodes; node; node = node->next)
5633     {
5634       if (!node->analyzed || cgraph_is_master_clone (node))
5635         {
5636           unsigned int varid;
5637
5638           varid = create_function_info_for (node->decl,
5639                                             cgraph_node_name (node));
5640           if (node->local.externally_visible)
5641             {
5642               varinfo_t fi = get_varinfo (varid);
5643               for (; fi; fi = fi->next)
5644                 make_constraint_from (fi, anything_id);
5645             }
5646         }
5647     }
5648   for (node = cgraph_nodes; node; node = node->next)
5649     {
5650       if (node->analyzed && cgraph_is_master_clone (node))
5651         {
5652           struct function *func = DECL_STRUCT_FUNCTION (node->decl);
5653           basic_block bb;
5654           tree old_func_decl = current_function_decl;
5655           if (dump_file)
5656             fprintf (dump_file,
5657                      "Generating constraints for %s\n",
5658                      cgraph_node_name (node));
5659           push_cfun (func);
5660           current_function_decl = node->decl;
5661
5662           FOR_EACH_BB_FN (bb, func)
5663             {
5664               gimple_stmt_iterator gsi;
5665
5666               for (gsi = gsi_start_phis (bb); !gsi_end_p (gsi);
5667                    gsi_next (&gsi))
5668                 {
5669                   gimple phi = gsi_stmt (gsi);
5670
5671                   if (is_gimple_reg (gimple_phi_result (phi)))
5672                     find_func_aliases (phi);
5673                 }
5674
5675               for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
5676                 find_func_aliases (gsi_stmt (gsi));
5677             }
5678           current_function_decl = old_func_decl;
5679           pop_cfun ();
5680         }
5681       else
5682         {
5683           /* Make point to anything.  */
5684         }
5685     }
5686
5687   if (dump_file)
5688     {
5689       fprintf (dump_file, "Points-to analysis\n\nConstraints:\n\n");
5690       dump_constraints (dump_file);
5691     }
5692
5693   if (dump_file)
5694     fprintf (dump_file,
5695              "\nCollapsing static cycles and doing variable "
5696              "substitution:\n");
5697
5698   init_graph (VEC_length (varinfo_t, varmap) * 2);
5699   build_pred_graph ();
5700   si = perform_var_substitution (graph);
5701   rewrite_constraints (graph, si);
5702   free_var_substitution_info (si);
5703
5704   build_succ_graph ();
5705   move_complex_constraints (graph);
5706   unite_pointer_equivalences (graph);
5707   find_indirect_cycles (graph);
5708
5709   /* Implicit nodes and predecessors are no longer necessary at this
5710      point. */
5711   remove_preds_and_fake_succs (graph);
5712
5713   if (dump_file)
5714     fprintf (dump_file, "\nSolving graph\n");
5715
5716   solve_graph (graph);
5717
5718   if (dump_file)
5719     dump_sa_points_to_info (dump_file);
5720
5721   in_ipa_mode = 0;
5722   delete_alias_heapvars ();
5723   delete_points_to_sets ();
5724   return 0;
5725 }
5726
5727 struct simple_ipa_opt_pass pass_ipa_pta =
5728 {
5729  {
5730   SIMPLE_IPA_PASS,
5731   "pta",                                /* name */
5732   gate_ipa_pta,                 /* gate */
5733   ipa_pta_execute,                      /* execute */
5734   NULL,                                 /* sub */
5735   NULL,                                 /* next */
5736   0,                                    /* static_pass_number */
5737   TV_IPA_PTA,                   /* tv_id */
5738   0,                                    /* properties_required */
5739   0,                                    /* properties_provided */
5740   0,                                    /* properties_destroyed */
5741   0,                                    /* todo_flags_start */
5742   TODO_update_ssa                       /* todo_flags_finish */
5743  }
5744 };
5745
5746 /* Initialize the heapvar for statement mapping.  */
5747 void
5748 init_alias_heapvars (void)
5749 {
5750   if (!heapvar_for_stmt)
5751     heapvar_for_stmt = htab_create_ggc (11, tree_map_hash, tree_map_eq,
5752                                         NULL);
5753 }
5754
5755 void
5756 delete_alias_heapvars (void)
5757 {
5758   htab_delete (heapvar_for_stmt);
5759   heapvar_for_stmt = NULL;
5760 }
5761
5762 #include "gt-tree-ssa-structalias.h"