OSDN Git Service

2010-06-26 Richard Guenther <rguenther@suse.de>
[pf3gnuchains/gcc-fork.git] / gcc / tree-ssa-alias.c
1 /* Alias analysis for trees.
2    Copyright (C) 2004, 2005, 2006, 2007, 2008, 2009, 2010
3    Free Software Foundation, Inc.
4    Contributed by Diego Novillo <dnovillo@redhat.com>
5
6 This file is part of GCC.
7
8 GCC is free software; you can redistribute it and/or modify
9 it under the terms of the GNU General Public License as published by
10 the Free Software Foundation; either version 3, or (at your option)
11 any later version.
12
13 GCC is distributed in the hope that it will be useful,
14 but WITHOUT ANY WARRANTY; without even the implied warranty of
15 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16 GNU General Public License for more details.
17
18 You should have received a copy of the GNU General Public License
19 along with GCC; see the file COPYING3.  If not see
20 <http://www.gnu.org/licenses/>.  */
21
22 #include "config.h"
23 #include "system.h"
24 #include "coretypes.h"
25 #include "tm.h"
26 #include "tree.h"
27 #include "tm_p.h"
28 #include "basic-block.h"
29 #include "timevar.h"
30 #include "ggc.h"
31 #include "langhooks.h"
32 #include "flags.h"
33 #include "function.h"
34 #include "tree-pretty-print.h"
35 #include "tree-dump.h"
36 #include "gimple.h"
37 #include "tree-flow.h"
38 #include "tree-inline.h"
39 #include "tree-pass.h"
40 #include "convert.h"
41 #include "params.h"
42 #include "ipa-type-escape.h"
43 #include "vec.h"
44 #include "bitmap.h"
45 #include "vecprim.h"
46 #include "pointer-set.h"
47 #include "alloc-pool.h"
48 #include "tree-ssa-alias.h"
49
50 /* Broad overview of how alias analysis on gimple works:
51
52    Statements clobbering or using memory are linked through the
53    virtual operand factored use-def chain.  The virtual operand
54    is unique per function, its symbol is accessible via gimple_vop (cfun).
55    Virtual operands are used for efficiently walking memory statements
56    in the gimple IL and are useful for things like value-numbering as
57    a generation count for memory references.
58
59    SSA_NAME pointers may have associated points-to information
60    accessible via the SSA_NAME_PTR_INFO macro.  Flow-insensitive
61    points-to information is (re-)computed by the TODO_rebuild_alias
62    pass manager todo.  Points-to information is also used for more
63    precise tracking of call-clobbered and call-used variables and
64    related disambiguations.
65
66    This file contains functions for disambiguating memory references,
67    the so called alias-oracle and tools for walking of the gimple IL.
68
69    The main alias-oracle entry-points are
70
71    bool stmt_may_clobber_ref_p (gimple, tree)
72
73      This function queries if a statement may invalidate (parts of)
74      the memory designated by the reference tree argument.
75
76    bool ref_maybe_used_by_stmt_p (gimple, tree)
77
78      This function queries if a statement may need (parts of) the
79      memory designated by the reference tree argument.
80
81    There are variants of these functions that only handle the call
82    part of a statement, call_may_clobber_ref_p and ref_maybe_used_by_call_p.
83    Note that these do not disambiguate against a possible call lhs.
84
85    bool refs_may_alias_p (tree, tree)
86
87      This function tries to disambiguate two reference trees.
88
89    bool ptr_deref_may_alias_global_p (tree)
90
91      This function queries if dereferencing a pointer variable may
92      alias global memory.
93
94    More low-level disambiguators are available and documented in
95    this file.  Low-level disambiguators dealing with points-to
96    information are in tree-ssa-structalias.c.  */
97
98
99 /* Query statistics for the different low-level disambiguators.
100    A high-level query may trigger multiple of them.  */
101
102 static struct {
103   unsigned HOST_WIDE_INT refs_may_alias_p_may_alias;
104   unsigned HOST_WIDE_INT refs_may_alias_p_no_alias;
105   unsigned HOST_WIDE_INT ref_maybe_used_by_call_p_may_alias;
106   unsigned HOST_WIDE_INT ref_maybe_used_by_call_p_no_alias;
107   unsigned HOST_WIDE_INT call_may_clobber_ref_p_may_alias;
108   unsigned HOST_WIDE_INT call_may_clobber_ref_p_no_alias;
109 } alias_stats;
110
111 void
112 dump_alias_stats (FILE *s)
113 {
114   fprintf (s, "\nAlias oracle query stats:\n");
115   fprintf (s, "  refs_may_alias_p: "
116            HOST_WIDE_INT_PRINT_DEC" disambiguations, "
117            HOST_WIDE_INT_PRINT_DEC" queries\n",
118            alias_stats.refs_may_alias_p_no_alias,
119            alias_stats.refs_may_alias_p_no_alias
120            + alias_stats.refs_may_alias_p_may_alias);
121   fprintf (s, "  ref_maybe_used_by_call_p: "
122            HOST_WIDE_INT_PRINT_DEC" disambiguations, "
123            HOST_WIDE_INT_PRINT_DEC" queries\n",
124            alias_stats.ref_maybe_used_by_call_p_no_alias,
125            alias_stats.refs_may_alias_p_no_alias
126            + alias_stats.ref_maybe_used_by_call_p_may_alias);
127   fprintf (s, "  call_may_clobber_ref_p: "
128            HOST_WIDE_INT_PRINT_DEC" disambiguations, "
129            HOST_WIDE_INT_PRINT_DEC" queries\n",
130            alias_stats.call_may_clobber_ref_p_no_alias,
131            alias_stats.call_may_clobber_ref_p_no_alias
132            + alias_stats.call_may_clobber_ref_p_may_alias);
133 }
134
135
136 /* Return true, if dereferencing PTR may alias with a global variable.  */
137
138 bool
139 ptr_deref_may_alias_global_p (tree ptr)
140 {
141   struct ptr_info_def *pi;
142
143   /* If we end up with a pointer constant here that may point
144      to global memory.  */
145   if (TREE_CODE (ptr) != SSA_NAME)
146     return true;
147
148   pi = SSA_NAME_PTR_INFO (ptr);
149
150   /* If we do not have points-to information for this variable,
151      we have to punt.  */
152   if (!pi)
153     return true;
154
155   /* ???  This does not use TBAA to prune globals ptr may not access.  */
156   return pt_solution_includes_global (&pi->pt);
157 }
158
159 /* Return true if dereferencing PTR may alias DECL.
160    The caller is responsible for applying TBAA to see if PTR
161    may access DECL at all.  */
162
163 static bool
164 ptr_deref_may_alias_decl_p (tree ptr, tree decl)
165 {
166   struct ptr_info_def *pi;
167
168   gcc_assert ((TREE_CODE (ptr) == SSA_NAME
169                || TREE_CODE (ptr) == ADDR_EXPR
170                || TREE_CODE (ptr) == INTEGER_CST)
171               && (TREE_CODE (decl) == VAR_DECL
172                   || TREE_CODE (decl) == PARM_DECL
173                   || TREE_CODE (decl) == RESULT_DECL));
174
175   /* Non-aliased variables can not be pointed to.  */
176   if (!may_be_aliased (decl))
177     return false;
178
179   /* ADDR_EXPR pointers either just offset another pointer or directly
180      specify the pointed-to set.  */
181   if (TREE_CODE (ptr) == ADDR_EXPR)
182     {
183       tree base = get_base_address (TREE_OPERAND (ptr, 0));
184       if (base
185           && INDIRECT_REF_P (base))
186         ptr = TREE_OPERAND (base, 0);
187       else if (base
188                && SSA_VAR_P (base))
189         return base == decl;
190       else if (base
191                && CONSTANT_CLASS_P (base))
192         return false;
193       else
194         return true;
195     }
196
197   /* We can end up with dereferencing constant pointers.
198      Just bail out in this case.  */
199   if (TREE_CODE (ptr) == INTEGER_CST)
200     return true;
201
202   /* If we do not have useful points-to information for this pointer
203      we cannot disambiguate anything else.  */
204   pi = SSA_NAME_PTR_INFO (ptr);
205   if (!pi)
206     return true;
207
208   /* If the decl can be used as a restrict tag and we have a restrict
209      pointer and that pointers points-to set doesn't contain this decl
210      then they can't alias.  */
211   if (DECL_RESTRICTED_P (decl)
212       && TYPE_RESTRICT (TREE_TYPE (ptr))
213       && pi->pt.vars_contains_restrict)
214     return bitmap_bit_p (pi->pt.vars, DECL_PT_UID (decl));
215
216   return pt_solution_includes (&pi->pt, decl);
217 }
218
219 /* Return true if dereferenced PTR1 and PTR2 may alias.
220    The caller is responsible for applying TBAA to see if accesses
221    through PTR1 and PTR2 may conflict at all.  */
222
223 static bool
224 ptr_derefs_may_alias_p (tree ptr1, tree ptr2)
225 {
226   struct ptr_info_def *pi1, *pi2;
227
228   gcc_assert ((TREE_CODE (ptr1) == SSA_NAME
229                || TREE_CODE (ptr1) == ADDR_EXPR
230                || TREE_CODE (ptr1) == INTEGER_CST)
231               && (TREE_CODE (ptr2) == SSA_NAME
232                   || TREE_CODE (ptr2) == ADDR_EXPR
233                   || TREE_CODE (ptr2) == INTEGER_CST));
234
235   /* ADDR_EXPR pointers either just offset another pointer or directly
236      specify the pointed-to set.  */
237   if (TREE_CODE (ptr1) == ADDR_EXPR)
238     {
239       tree base = get_base_address (TREE_OPERAND (ptr1, 0));
240       if (base
241           && INDIRECT_REF_P (base))
242         ptr1 = TREE_OPERAND (base, 0);
243       else if (base
244                && SSA_VAR_P (base))
245         return ptr_deref_may_alias_decl_p (ptr2, base);
246       else
247         return true;
248     }
249   if (TREE_CODE (ptr2) == ADDR_EXPR)
250     {
251       tree base = get_base_address (TREE_OPERAND (ptr2, 0));
252       if (base
253           && INDIRECT_REF_P (base))
254         ptr2 = TREE_OPERAND (base, 0);
255       else if (base
256                && SSA_VAR_P (base))
257         return ptr_deref_may_alias_decl_p (ptr1, base);
258       else
259         return true;
260     }
261
262   /* We can end up with dereferencing constant pointers.
263      Just bail out in this case.  */
264   if (TREE_CODE (ptr1) == INTEGER_CST
265       || TREE_CODE (ptr2) == INTEGER_CST)
266     return true;
267
268   /* We may end up with two empty points-to solutions for two same pointers.
269      In this case we still want to say both pointers alias, so shortcut
270      that here.  */
271   if (ptr1 == ptr2)
272     return true;
273
274   /* If we do not have useful points-to information for either pointer
275      we cannot disambiguate anything else.  */
276   pi1 = SSA_NAME_PTR_INFO (ptr1);
277   pi2 = SSA_NAME_PTR_INFO (ptr2);
278   if (!pi1 || !pi2)
279     return true;
280
281   /* If both pointers are restrict-qualified try to disambiguate
282      with restrict information.  */
283   if (TYPE_RESTRICT (TREE_TYPE (ptr1))
284       && TYPE_RESTRICT (TREE_TYPE (ptr2))
285       && !pt_solutions_same_restrict_base (&pi1->pt, &pi2->pt))
286     return false;
287
288   /* ???  This does not use TBAA to prune decls from the intersection
289      that not both pointers may access.  */
290   return pt_solutions_intersect (&pi1->pt, &pi2->pt);
291 }
292
293 /* Return true if dereferencing PTR may alias *REF.
294    The caller is responsible for applying TBAA to see if PTR
295    may access *REF at all.  */
296
297 static bool
298 ptr_deref_may_alias_ref_p_1 (tree ptr, ao_ref *ref)
299 {
300   tree base = ao_ref_base (ref);
301
302   if (INDIRECT_REF_P (base))
303     return ptr_derefs_may_alias_p (ptr, TREE_OPERAND (base, 0));
304   else if (SSA_VAR_P (base))
305     return ptr_deref_may_alias_decl_p (ptr, base);
306
307   return true;
308 }
309
310
311 /* Dump alias information on FILE.  */
312
313 void
314 dump_alias_info (FILE *file)
315 {
316   size_t i;
317   const char *funcname
318     = lang_hooks.decl_printable_name (current_function_decl, 2);
319   referenced_var_iterator rvi;
320   tree var;
321
322   fprintf (file, "\n\nAlias information for %s\n\n", funcname);
323
324   fprintf (file, "Aliased symbols\n\n");
325
326   FOR_EACH_REFERENCED_VAR (var, rvi)
327     {
328       if (may_be_aliased (var))
329         dump_variable (file, var);
330     }
331
332   fprintf (file, "\nCall clobber information\n");
333
334   fprintf (file, "\nESCAPED");
335   dump_points_to_solution (file, &cfun->gimple_df->escaped);
336
337   fprintf (file, "\n\nFlow-insensitive points-to information\n\n");
338
339   for (i = 1; i < num_ssa_names; i++)
340     {
341       tree ptr = ssa_name (i);
342       struct ptr_info_def *pi;
343
344       if (ptr == NULL_TREE
345           || SSA_NAME_IN_FREE_LIST (ptr))
346         continue;
347
348       pi = SSA_NAME_PTR_INFO (ptr);
349       if (pi)
350         dump_points_to_info_for (file, ptr);
351     }
352
353   fprintf (file, "\n");
354 }
355
356
357 /* Dump alias information on stderr.  */
358
359 DEBUG_FUNCTION void
360 debug_alias_info (void)
361 {
362   dump_alias_info (stderr);
363 }
364
365
366 /* Return the alias information associated with pointer T.  It creates a
367    new instance if none existed.  */
368
369 struct ptr_info_def *
370 get_ptr_info (tree t)
371 {
372   struct ptr_info_def *pi;
373
374   gcc_assert (POINTER_TYPE_P (TREE_TYPE (t)));
375
376   pi = SSA_NAME_PTR_INFO (t);
377   if (pi == NULL)
378     {
379       pi = ggc_alloc_cleared_ptr_info_def ();
380       pt_solution_reset (&pi->pt);
381       SSA_NAME_PTR_INFO (t) = pi;
382     }
383
384   return pi;
385 }
386
387 /* Dump the points-to set *PT into FILE.  */
388
389 void
390 dump_points_to_solution (FILE *file, struct pt_solution *pt)
391 {
392   if (pt->anything)
393     fprintf (file, ", points-to anything");
394
395   if (pt->nonlocal)
396     fprintf (file, ", points-to non-local");
397
398   if (pt->escaped)
399     fprintf (file, ", points-to escaped");
400
401   if (pt->ipa_escaped)
402     fprintf (file, ", points-to unit escaped");
403
404   if (pt->null)
405     fprintf (file, ", points-to NULL");
406
407   if (pt->vars)
408     {
409       fprintf (file, ", points-to vars: ");
410       dump_decl_set (file, pt->vars);
411       if (pt->vars_contains_global)
412         fprintf (file, " (includes global vars)");
413       if (pt->vars_contains_restrict)
414         fprintf (file, " (includes restrict tags)");
415     }
416 }
417
418 /* Dump points-to information for SSA_NAME PTR into FILE.  */
419
420 void
421 dump_points_to_info_for (FILE *file, tree ptr)
422 {
423   struct ptr_info_def *pi = SSA_NAME_PTR_INFO (ptr);
424
425   print_generic_expr (file, ptr, dump_flags);
426
427   if (pi)
428     dump_points_to_solution (file, &pi->pt);
429   else
430     fprintf (file, ", points-to anything");
431
432   fprintf (file, "\n");
433 }
434
435
436 /* Dump points-to information for VAR into stderr.  */
437
438 DEBUG_FUNCTION void
439 debug_points_to_info_for (tree var)
440 {
441   dump_points_to_info_for (stderr, var);
442 }
443
444
445 /* Initializes the alias-oracle reference representation *R from REF.  */
446
447 void
448 ao_ref_init (ao_ref *r, tree ref)
449 {
450   r->ref = ref;
451   r->base = NULL_TREE;
452   r->offset = 0;
453   r->size = -1;
454   r->max_size = -1;
455   r->ref_alias_set = -1;
456   r->base_alias_set = -1;
457 }
458
459 /* Returns the base object of the memory reference *REF.  */
460
461 tree
462 ao_ref_base (ao_ref *ref)
463 {
464   if (ref->base)
465     return ref->base;
466   ref->base = get_ref_base_and_extent (ref->ref, &ref->offset, &ref->size,
467                                        &ref->max_size);
468   return ref->base;
469 }
470
471 /* Returns the base object alias set of the memory reference *REF.  */
472
473 static alias_set_type ATTRIBUTE_UNUSED
474 ao_ref_base_alias_set (ao_ref *ref)
475 {
476   if (ref->base_alias_set != -1)
477     return ref->base_alias_set;
478   ref->base_alias_set = get_alias_set (ao_ref_base (ref));
479   return ref->base_alias_set;
480 }
481
482 /* Returns the reference alias set of the memory reference *REF.  */
483
484 alias_set_type
485 ao_ref_alias_set (ao_ref *ref)
486 {
487   if (ref->ref_alias_set != -1)
488     return ref->ref_alias_set;
489   ref->ref_alias_set = get_alias_set (ref->ref);
490   return ref->ref_alias_set;
491 }
492
493 /* Init an alias-oracle reference representation from a gimple pointer
494    PTR and a gimple size SIZE in bytes.  If SIZE is NULL_TREE the the
495    size is assumed to be unknown.  The access is assumed to be only
496    to or after of the pointer target, not before it.  */
497
498 void
499 ao_ref_init_from_ptr_and_size (ao_ref *ref, tree ptr, tree size)
500 {
501   HOST_WIDE_INT t1, t2;
502   ref->ref = NULL_TREE;
503   if (TREE_CODE (ptr) == ADDR_EXPR)
504     ref->base = get_ref_base_and_extent (TREE_OPERAND (ptr, 0),
505                                          &ref->offset, &t1, &t2);
506   else
507     {
508       ref->base = build1 (INDIRECT_REF, char_type_node, ptr);
509       ref->offset = 0;
510     }
511   if (size
512       && host_integerp (size, 0)
513       && TREE_INT_CST_LOW (size) * 8 / 8 == TREE_INT_CST_LOW (size))
514     ref->max_size = ref->size = TREE_INT_CST_LOW (size) * 8;
515   else
516     ref->max_size = ref->size = -1;
517   ref->ref_alias_set = 0;
518   ref->base_alias_set = 0;
519 }
520
521 /* Return 1 if TYPE1 and TYPE2 are to be considered equivalent for the
522    purpose of TBAA.  Return 0 if they are distinct and -1 if we cannot
523    decide.  */
524
525 static inline int
526 same_type_for_tbaa (tree type1, tree type2)
527 {
528   type1 = TYPE_MAIN_VARIANT (type1);
529   type2 = TYPE_MAIN_VARIANT (type2);
530
531   /* If we would have to do structural comparison bail out.  */
532   if (TYPE_STRUCTURAL_EQUALITY_P (type1)
533       || TYPE_STRUCTURAL_EQUALITY_P (type2))
534     return -1;
535
536   /* Compare the canonical types.  */
537   if (TYPE_CANONICAL (type1) == TYPE_CANONICAL (type2))
538     return 1;
539
540   /* ??? Array types are not properly unified in all cases as we have
541      spurious changes in the index types for example.  Removing this
542      causes all sorts of problems with the Fortran frontend.  */
543   if (TREE_CODE (type1) == ARRAY_TYPE
544       && TREE_CODE (type2) == ARRAY_TYPE)
545     return -1;
546
547   /* ??? In Ada, an lvalue of an unconstrained type can be used to access an
548      object of one of its constrained subtypes, e.g. when a function with an
549      unconstrained parameter passed by reference is called on an object and
550      inlined.  But, even in the case of a fixed size, type and subtypes are
551      not equivalent enough as to share the same TYPE_CANONICAL, since this
552      would mean that conversions between them are useless, whereas they are
553      not (e.g. type and subtypes can have different modes).  So, in the end,
554      they are only guaranteed to have the same alias set.  */
555   if (get_alias_set (type1) == get_alias_set (type2))
556     return -1;
557
558   /* The types are known to be not equal.  */
559   return 0;
560 }
561
562 /* Determine if the two component references REF1 and REF2 which are
563    based on access types TYPE1 and TYPE2 and of which at least one is based
564    on an indirect reference may alias.  REF2 is the only one that can
565    be a decl in which case REF2_IS_DECL is true.
566    REF1_ALIAS_SET, BASE1_ALIAS_SET, REF2_ALIAS_SET and BASE2_ALIAS_SET
567    are the respective alias sets.  */
568
569 static bool
570 aliasing_component_refs_p (tree ref1, tree type1,
571                            alias_set_type ref1_alias_set,
572                            alias_set_type base1_alias_set,
573                            HOST_WIDE_INT offset1, HOST_WIDE_INT max_size1,
574                            tree ref2, tree type2,
575                            alias_set_type ref2_alias_set,
576                            alias_set_type base2_alias_set,
577                            HOST_WIDE_INT offset2, HOST_WIDE_INT max_size2,
578                            bool ref2_is_decl)
579 {
580   /* If one reference is a component references through pointers try to find a
581      common base and apply offset based disambiguation.  This handles
582      for example
583        struct A { int i; int j; } *q;
584        struct B { struct A a; int k; } *p;
585      disambiguating q->i and p->a.j.  */
586   tree *refp;
587   int same_p;
588
589   /* Now search for the type1 in the access path of ref2.  This
590      would be a common base for doing offset based disambiguation on.  */
591   refp = &ref2;
592   while (handled_component_p (*refp)
593          && same_type_for_tbaa (TREE_TYPE (*refp), type1) == 0)
594     refp = &TREE_OPERAND (*refp, 0);
595   same_p = same_type_for_tbaa (TREE_TYPE (*refp), type1);
596   /* If we couldn't compare types we have to bail out.  */
597   if (same_p == -1)
598     return true;
599   else if (same_p == 1)
600     {
601       HOST_WIDE_INT offadj, sztmp, msztmp;
602       get_ref_base_and_extent (*refp, &offadj, &sztmp, &msztmp);
603       offset2 -= offadj;
604       return ranges_overlap_p (offset1, max_size1, offset2, max_size2);
605     }
606   /* If we didn't find a common base, try the other way around.  */
607   refp = &ref1;
608   while (handled_component_p (*refp)
609          && same_type_for_tbaa (TREE_TYPE (*refp), type2) == 0)
610     refp = &TREE_OPERAND (*refp, 0);
611   same_p = same_type_for_tbaa (TREE_TYPE (*refp), type2);
612   /* If we couldn't compare types we have to bail out.  */
613   if (same_p == -1)
614     return true;
615   else if (same_p == 1)
616     {
617       HOST_WIDE_INT offadj, sztmp, msztmp;
618       get_ref_base_and_extent (*refp, &offadj, &sztmp, &msztmp);
619       offset1 -= offadj;
620       return ranges_overlap_p (offset1, max_size1, offset2, max_size2);
621     }
622
623   /* If we have two type access paths B1.path1 and B2.path2 they may
624      only alias if either B1 is in B2.path2 or B2 is in B1.path1.
625      But we can still have a path that goes B1.path1...B2.path2 with
626      a part that we do not see.  So we can only disambiguate now
627      if there is no B2 in the tail of path1 and no B1 on the
628      tail of path2.  */
629   if (base1_alias_set == ref2_alias_set
630       || alias_set_subset_of (base1_alias_set, ref2_alias_set))
631     return true;
632   /* If this is ptr vs. decl then we know there is no ptr ... decl path.  */
633   if (!ref2_is_decl)
634     return (base2_alias_set == ref1_alias_set
635             || alias_set_subset_of (base2_alias_set, ref1_alias_set));
636   return false;
637 }
638
639 /* Return true if two memory references based on the variables BASE1
640    and BASE2 constrained to [OFFSET1, OFFSET1 + MAX_SIZE1) and
641    [OFFSET2, OFFSET2 + MAX_SIZE2) may alias.  */
642
643 static bool
644 decl_refs_may_alias_p (tree base1,
645                        HOST_WIDE_INT offset1, HOST_WIDE_INT max_size1,
646                        tree base2,
647                        HOST_WIDE_INT offset2, HOST_WIDE_INT max_size2)
648 {
649   gcc_assert (SSA_VAR_P (base1) && SSA_VAR_P (base2));
650
651   /* If both references are based on different variables, they cannot alias.  */
652   if (base1 != base2)
653     return false;
654
655   /* If both references are based on the same variable, they cannot alias if
656      the accesses do not overlap.  */
657   return ranges_overlap_p (offset1, max_size1, offset2, max_size2);
658 }
659
660 /* Return true if an indirect reference based on *PTR1 constrained
661    to [OFFSET1, OFFSET1 + MAX_SIZE1) may alias a variable based on BASE2
662    constrained to [OFFSET2, OFFSET2 + MAX_SIZE2).  *PTR1 and BASE2 have
663    the alias sets BASE1_ALIAS_SET and BASE2_ALIAS_SET which can be -1
664    in which case they are computed on-demand.  REF1 and REF2
665    if non-NULL are the complete memory reference trees.  */
666
667 static bool
668 indirect_ref_may_alias_decl_p (tree ref1, tree ptr1,
669                                HOST_WIDE_INT offset1, HOST_WIDE_INT max_size1,
670                                alias_set_type ref1_alias_set,
671                                alias_set_type base1_alias_set,
672                                tree ref2, tree base2,
673                                HOST_WIDE_INT offset2, HOST_WIDE_INT max_size2,
674                                alias_set_type ref2_alias_set,
675                                alias_set_type base2_alias_set)
676 {
677   /* If only one reference is based on a variable, they cannot alias if
678      the pointer access is beyond the extent of the variable access.
679      (the pointer base cannot validly point to an offset less than zero
680      of the variable).
681      They also cannot alias if the pointer may not point to the decl.  */
682   if (max_size2 != -1
683       && !ranges_overlap_p (offset1, max_size1, 0, offset2 + max_size2))
684     return false;
685   if (!ptr_deref_may_alias_decl_p (ptr1, base2))
686     return false;
687
688   /* Disambiguations that rely on strict aliasing rules follow.  */
689   if (!flag_strict_aliasing)
690     return true;
691
692   /* If the alias set for a pointer access is zero all bets are off.  */
693   if (base1_alias_set == -1)
694     base1_alias_set = get_deref_alias_set (ptr1);
695   if (base1_alias_set == 0)
696     return true;
697   if (base2_alias_set == -1)
698     base2_alias_set = get_alias_set (base2);
699
700   /* If both references are through the same type, they do not alias
701      if the accesses do not overlap.  This does extra disambiguation
702      for mixed/pointer accesses but requires strict aliasing.  */
703   if (same_type_for_tbaa (TREE_TYPE (TREE_TYPE (ptr1)),
704                           TREE_TYPE (base2)) == 1)
705     return ranges_overlap_p (offset1, max_size1, offset2, max_size2);
706
707   /* The only way to access a variable is through a pointer dereference
708      of the same alias set or a subset of it.  */
709   if (base1_alias_set != base2_alias_set
710       && !alias_set_subset_of (base1_alias_set, base2_alias_set))
711     return false;
712
713   /* Do access-path based disambiguation.  */
714   if (ref1 && ref2
715       && handled_component_p (ref1)
716       && handled_component_p (ref2))
717     return aliasing_component_refs_p (ref1, TREE_TYPE (TREE_TYPE (ptr1)),
718                                       ref1_alias_set, base1_alias_set,
719                                       offset1, max_size1,
720                                       ref2, TREE_TYPE (base2),
721                                       ref2_alias_set, base2_alias_set,
722                                       offset2, max_size2, true);
723
724   return true;
725 }
726
727 /* Return true if two indirect references based on *PTR1
728    and *PTR2 constrained to [OFFSET1, OFFSET1 + MAX_SIZE1) and
729    [OFFSET2, OFFSET2 + MAX_SIZE2) may alias.  *PTR1 and *PTR2 have
730    the alias sets BASE1_ALIAS_SET and BASE2_ALIAS_SET which can be -1
731    in which case they are computed on-demand.  REF1 and REF2
732    if non-NULL are the complete memory reference trees. */
733
734 static bool
735 indirect_refs_may_alias_p (tree ref1, tree ptr1,
736                            HOST_WIDE_INT offset1, HOST_WIDE_INT max_size1,
737                            alias_set_type ref1_alias_set,
738                            alias_set_type base1_alias_set,
739                            tree ref2, tree ptr2,
740                            HOST_WIDE_INT offset2, HOST_WIDE_INT max_size2,
741                            alias_set_type ref2_alias_set,
742                            alias_set_type base2_alias_set)
743 {
744   /* If both bases are based on pointers they cannot alias if they may not
745      point to the same memory object or if they point to the same object
746      and the accesses do not overlap.  */
747   if (operand_equal_p (ptr1, ptr2, 0))
748     return ranges_overlap_p (offset1, max_size1, offset2, max_size2);
749   if (!ptr_derefs_may_alias_p (ptr1, ptr2))
750     return false;
751
752   /* Disambiguations that rely on strict aliasing rules follow.  */
753   if (!flag_strict_aliasing)
754     return true;
755
756   /* If the alias set for a pointer access is zero all bets are off.  */
757   if (base1_alias_set == -1)
758     base1_alias_set = get_deref_alias_set (ptr1);
759   if (base1_alias_set == 0)
760     return true;
761   if (base2_alias_set == -1)
762     base2_alias_set = get_deref_alias_set (ptr2);
763   if (base2_alias_set == 0)
764     return true;
765
766   /* If both references are through the same type, they do not alias
767      if the accesses do not overlap.  This does extra disambiguation
768      for mixed/pointer accesses but requires strict aliasing.  */
769   if (same_type_for_tbaa (TREE_TYPE (TREE_TYPE (ptr1)),
770                           TREE_TYPE (TREE_TYPE (ptr2))) == 1)
771     return ranges_overlap_p (offset1, max_size1, offset2, max_size2);
772
773   /* Do type-based disambiguation.  */
774   if (base1_alias_set != base2_alias_set
775       && !alias_sets_conflict_p (base1_alias_set, base2_alias_set))
776     return false;
777
778   /* Do access-path based disambiguation.  */
779   if (ref1 && ref2
780       && handled_component_p (ref1)
781       && handled_component_p (ref2))
782     return aliasing_component_refs_p (ref1, TREE_TYPE (TREE_TYPE (ptr1)),
783                                       ref1_alias_set, base1_alias_set,
784                                       offset1, max_size1,
785                                       ref2, TREE_TYPE (TREE_TYPE (ptr2)),
786                                       ref2_alias_set, base2_alias_set,
787                                       offset2, max_size2, false);
788
789   return true;
790 }
791
792 /* Return true, if the two memory references REF1 and REF2 may alias.  */
793
794 bool
795 refs_may_alias_p_1 (ao_ref *ref1, ao_ref *ref2, bool tbaa_p)
796 {
797   tree base1, base2;
798   HOST_WIDE_INT offset1 = 0, offset2 = 0;
799   HOST_WIDE_INT max_size1 = -1, max_size2 = -1;
800   bool var1_p, var2_p, ind1_p, ind2_p;
801   alias_set_type set;
802
803   gcc_checking_assert ((!ref1->ref
804                         || DECL_P (ref1->ref)
805                         || handled_component_p (ref1->ref)
806                         || INDIRECT_REF_P (ref1->ref)
807                         || TREE_CODE (ref1->ref) == TARGET_MEM_REF)
808                        && (!ref2->ref
809                            || DECL_P (ref2->ref)
810                            || handled_component_p (ref2->ref)
811                            || INDIRECT_REF_P (ref2->ref)
812                            || TREE_CODE (ref2->ref) == TARGET_MEM_REF));
813
814   /* Decompose the references into their base objects and the access.  */
815   base1 = ao_ref_base (ref1);
816   offset1 = ref1->offset;
817   max_size1 = ref1->max_size;
818   base2 = ao_ref_base (ref2);
819   offset2 = ref2->offset;
820   max_size2 = ref2->max_size;
821
822   /* We can end up with registers or constants as bases for example from
823      *D.1663_44 = VIEW_CONVERT_EXPR<struct DB_LSN>(__tmp$B0F64_59);
824      which is seen as a struct copy.  */
825   if (TREE_CODE (base1) == SSA_NAME
826       || TREE_CODE (base2) == SSA_NAME
827       || TREE_CODE (base1) == CONST_DECL
828       || TREE_CODE (base2) == CONST_DECL
829       || is_gimple_min_invariant (base1)
830       || is_gimple_min_invariant (base2))
831     return false;
832
833   /* We can end up refering to code via function and label decls.
834      As we likely do not properly track code aliases conservatively
835      bail out.  */
836   if (TREE_CODE (base1) == FUNCTION_DECL
837       || TREE_CODE (base2) == FUNCTION_DECL
838       || TREE_CODE (base1) == LABEL_DECL
839       || TREE_CODE (base2) == LABEL_DECL)
840     return true;
841
842   /* Defer to simple offset based disambiguation if we have
843      references based on two decls.  Do this before defering to
844      TBAA to handle must-alias cases in conformance with the
845      GCC extension of allowing type-punning through unions.  */
846   var1_p = SSA_VAR_P (base1);
847   var2_p = SSA_VAR_P (base2);
848   if (var1_p && var2_p)
849     return decl_refs_may_alias_p (base1, offset1, max_size1,
850                                   base2, offset2, max_size2);
851
852   ind1_p = INDIRECT_REF_P (base1);
853   ind2_p = INDIRECT_REF_P (base2);
854   /* Canonicalize the pointer-vs-decl case.  */
855   if (ind1_p && var2_p)
856     {
857       HOST_WIDE_INT tmp1;
858       tree tmp2;
859       ao_ref *tmp3;
860       tmp1 = offset1; offset1 = offset2; offset2 = tmp1;
861       tmp1 = max_size1; max_size1 = max_size2; max_size2 = tmp1;
862       tmp2 = base1; base1 = base2; base2 = tmp2;
863       tmp3 = ref1; ref1 = ref2; ref2 = tmp3;
864       var1_p = true;
865       ind1_p = false;
866       var2_p = false;
867       ind2_p = true;
868     }
869
870   /* If we are about to disambiguate pointer-vs-decl try harder to
871      see must-aliases and give leeway to some invalid cases.
872      This covers a pretty minimal set of cases only and does not
873      when called from the RTL oracle.  It handles cases like
874
875        int i = 1;
876        return *(float *)&i;
877
878      and also fixes gfortran.dg/lto/pr40725.  */
879   if (var1_p && ind2_p
880       && cfun
881       && gimple_in_ssa_p (cfun)
882       && TREE_CODE (TREE_OPERAND (base2, 0)) == SSA_NAME)
883     {
884       gimple def_stmt = SSA_NAME_DEF_STMT (TREE_OPERAND (base2, 0));
885       while (is_gimple_assign (def_stmt)
886              && (gimple_assign_rhs_code (def_stmt) == SSA_NAME
887                  || CONVERT_EXPR_CODE_P (gimple_assign_rhs_code (def_stmt))))
888         {
889           tree rhs = gimple_assign_rhs1 (def_stmt);
890           HOST_WIDE_INT offset, size, max_size;
891
892           /* Look through SSA name copies and pointer conversions.  */
893           if (TREE_CODE (rhs) == SSA_NAME
894               && POINTER_TYPE_P (TREE_TYPE (rhs)))
895             {
896               def_stmt = SSA_NAME_DEF_STMT (rhs);
897               continue;
898             }
899           if (TREE_CODE (rhs) != ADDR_EXPR)
900             break;
901
902           /* If the pointer is defined as an address based on a decl
903              use plain offset disambiguation and ignore TBAA.  */
904           rhs = TREE_OPERAND (rhs, 0);
905           rhs = get_ref_base_and_extent (rhs, &offset, &size, &max_size);
906           if (SSA_VAR_P (rhs))
907             {
908               base2 = rhs;
909               offset2 += offset;
910               if (size != max_size
911                   || max_size == -1)
912                 max_size2 = -1;
913               return decl_refs_may_alias_p (base1, offset1, max_size1,
914                                             base2, offset2, max_size2);
915             }
916
917           /* Do not continue looking through &p->x to limit time
918              complexity.  */
919           break;
920         }
921     }
922
923   /* First defer to TBAA if possible.  */
924   if (tbaa_p
925       && flag_strict_aliasing
926       && !alias_sets_conflict_p (ao_ref_alias_set (ref1),
927                                  ao_ref_alias_set (ref2)))
928     return false;
929
930   /* If one reference is a TARGET_MEM_REF weird things are allowed.  Still
931      TBAA disambiguation based on the access type is possible, so bail
932      out only after that check.  */
933   if ((ref1->ref && TREE_CODE (ref1->ref) == TARGET_MEM_REF)
934       || (ref2->ref && TREE_CODE (ref2->ref) == TARGET_MEM_REF))
935     return true;
936
937   /* Dispatch to the pointer-vs-decl or pointer-vs-pointer disambiguators.  */
938   set = tbaa_p ? -1 : 0;
939   if (var1_p && ind2_p)
940     return indirect_ref_may_alias_decl_p (ref2->ref, TREE_OPERAND (base2, 0),
941                                           offset2, max_size2,
942                                           ao_ref_alias_set (ref2), set,
943                                           ref1->ref, base1,
944                                           offset1, max_size1,
945                                           ao_ref_alias_set (ref1), set);
946   else if (ind1_p && ind2_p)
947     return indirect_refs_may_alias_p (ref1->ref, TREE_OPERAND (base1, 0),
948                                       offset1, max_size1,
949                                       ao_ref_alias_set (ref1), set,
950                                       ref2->ref, TREE_OPERAND (base2, 0),
951                                       offset2, max_size2,
952                                       ao_ref_alias_set (ref2), set);
953
954   gcc_unreachable ();
955 }
956
957 bool
958 refs_may_alias_p (tree ref1, tree ref2)
959 {
960   ao_ref r1, r2;
961   bool res;
962   ao_ref_init (&r1, ref1);
963   ao_ref_init (&r2, ref2);
964   res = refs_may_alias_p_1 (&r1, &r2, true);
965   if (res)
966     ++alias_stats.refs_may_alias_p_may_alias;
967   else
968     ++alias_stats.refs_may_alias_p_no_alias;
969   return res;
970 }
971
972 /* Returns true if there is a anti-dependence for the STORE that
973    executes after the LOAD.  */
974
975 bool
976 refs_anti_dependent_p (tree load, tree store)
977 {
978   ao_ref r1, r2;
979   ao_ref_init (&r1, load);
980   ao_ref_init (&r2, store);
981   return refs_may_alias_p_1 (&r1, &r2, false);
982 }
983
984 /* Returns true if there is a output dependence for the stores
985    STORE1 and STORE2.  */
986
987 bool
988 refs_output_dependent_p (tree store1, tree store2)
989 {
990   ao_ref r1, r2;
991   ao_ref_init (&r1, store1);
992   ao_ref_init (&r2, store2);
993   return refs_may_alias_p_1 (&r1, &r2, false);
994 }
995
996 /* If the call CALL may use the memory reference REF return true,
997    otherwise return false.  */
998
999 static bool
1000 ref_maybe_used_by_call_p_1 (gimple call, ao_ref *ref)
1001 {
1002   tree base, callee;
1003   unsigned i;
1004   int flags = gimple_call_flags (call);
1005
1006   /* Const functions without a static chain do not implicitly use memory.  */
1007   if (!gimple_call_chain (call)
1008       && (flags & (ECF_CONST|ECF_NOVOPS)))
1009     goto process_args;
1010
1011   base = ao_ref_base (ref);
1012   if (!base)
1013     return true;
1014
1015   /* If the reference is based on a decl that is not aliased the call
1016      cannot possibly use it.  */
1017   if (DECL_P (base)
1018       && !may_be_aliased (base)
1019       /* But local statics can be used through recursion.  */
1020       && !is_global_var (base))
1021     goto process_args;
1022
1023   callee = gimple_call_fndecl (call);
1024
1025   /* Handle those builtin functions explicitly that do not act as
1026      escape points.  See tree-ssa-structalias.c:find_func_aliases
1027      for the list of builtins we might need to handle here.  */
1028   if (callee != NULL_TREE
1029       && DECL_BUILT_IN_CLASS (callee) == BUILT_IN_NORMAL)
1030     switch (DECL_FUNCTION_CODE (callee))
1031       {
1032         /* All the following functions clobber memory pointed to by
1033            their first argument.  */
1034         case BUILT_IN_STRCPY:
1035         case BUILT_IN_STRNCPY:
1036         case BUILT_IN_MEMCPY:
1037         case BUILT_IN_MEMMOVE:
1038         case BUILT_IN_MEMPCPY:
1039         case BUILT_IN_STPCPY:
1040         case BUILT_IN_STPNCPY:
1041         case BUILT_IN_STRCAT:
1042         case BUILT_IN_STRNCAT:
1043           {
1044             ao_ref dref;
1045             tree size = NULL_TREE;
1046             if (gimple_call_num_args (call) == 3)
1047               size = gimple_call_arg (call, 2);
1048             ao_ref_init_from_ptr_and_size (&dref,
1049                                            gimple_call_arg (call, 1),
1050                                            size);
1051             return refs_may_alias_p_1 (&dref, ref, false);
1052           }
1053         case BUILT_IN_BCOPY:
1054           {
1055             ao_ref dref;
1056             tree size = gimple_call_arg (call, 2);
1057             ao_ref_init_from_ptr_and_size (&dref,
1058                                            gimple_call_arg (call, 0),
1059                                            size);
1060             return refs_may_alias_p_1 (&dref, ref, false);
1061           }
1062         /* The following builtins do not read from memory.  */
1063         case BUILT_IN_FREE:
1064         case BUILT_IN_MALLOC:
1065         case BUILT_IN_CALLOC:
1066         case BUILT_IN_MEMSET:
1067         case BUILT_IN_FREXP:
1068         case BUILT_IN_FREXPF:
1069         case BUILT_IN_FREXPL:
1070         case BUILT_IN_GAMMA_R:
1071         case BUILT_IN_GAMMAF_R:
1072         case BUILT_IN_GAMMAL_R:
1073         case BUILT_IN_LGAMMA_R:
1074         case BUILT_IN_LGAMMAF_R:
1075         case BUILT_IN_LGAMMAL_R:
1076         case BUILT_IN_MODF:
1077         case BUILT_IN_MODFF:
1078         case BUILT_IN_MODFL:
1079         case BUILT_IN_REMQUO:
1080         case BUILT_IN_REMQUOF:
1081         case BUILT_IN_REMQUOL:
1082         case BUILT_IN_SINCOS:
1083         case BUILT_IN_SINCOSF:
1084         case BUILT_IN_SINCOSL:
1085           return false;
1086
1087         default:
1088           /* Fallthru to general call handling.  */;
1089       }
1090
1091   /* Check if base is a global static variable that is not read
1092      by the function.  */
1093   if (TREE_CODE (base) == VAR_DECL
1094       && TREE_STATIC (base))
1095     {
1096       bitmap not_read;
1097
1098       if (callee != NULL_TREE
1099           && (not_read
1100                 = ipa_reference_get_not_read_global (cgraph_node (callee)))
1101           && bitmap_bit_p (not_read, DECL_UID (base)))
1102         goto process_args;
1103     }
1104
1105   /* Check if the base variable is call-used.  */
1106   if (DECL_P (base))
1107     {
1108       if (pt_solution_includes (gimple_call_use_set (call), base))
1109         return true;
1110     }
1111   else if (INDIRECT_REF_P (base)
1112            && TREE_CODE (TREE_OPERAND (base, 0)) == SSA_NAME)
1113     {
1114       struct ptr_info_def *pi = SSA_NAME_PTR_INFO (TREE_OPERAND (base, 0));
1115       if (!pi)
1116         return true;
1117
1118       if (pt_solutions_intersect (gimple_call_use_set (call), &pi->pt))
1119         return true;
1120     }
1121   else
1122     return true;
1123
1124   /* Inspect call arguments for passed-by-value aliases.  */
1125 process_args:
1126   for (i = 0; i < gimple_call_num_args (call); ++i)
1127     {
1128       tree op = gimple_call_arg (call, i);
1129       int flags = gimple_call_arg_flags (call, i);
1130
1131       if (flags & EAF_UNUSED)
1132         continue;
1133
1134       if (TREE_CODE (op) == WITH_SIZE_EXPR)
1135         op = TREE_OPERAND (op, 0);
1136
1137       if (TREE_CODE (op) != SSA_NAME
1138           && !is_gimple_min_invariant (op))
1139         {
1140           ao_ref r;
1141           ao_ref_init (&r, op);
1142           if (refs_may_alias_p_1 (&r, ref, true))
1143             return true;
1144         }
1145     }
1146
1147   return false;
1148 }
1149
1150 static bool
1151 ref_maybe_used_by_call_p (gimple call, tree ref)
1152 {
1153   ao_ref r;
1154   bool res;
1155   ao_ref_init (&r, ref);
1156   res = ref_maybe_used_by_call_p_1 (call, &r);
1157   if (res)
1158     ++alias_stats.ref_maybe_used_by_call_p_may_alias;
1159   else
1160     ++alias_stats.ref_maybe_used_by_call_p_no_alias;
1161   return res;
1162 }
1163
1164
1165 /* If the statement STMT may use the memory reference REF return
1166    true, otherwise return false.  */
1167
1168 bool
1169 ref_maybe_used_by_stmt_p (gimple stmt, tree ref)
1170 {
1171   if (is_gimple_assign (stmt))
1172     {
1173       tree rhs;
1174
1175       /* All memory assign statements are single.  */
1176       if (!gimple_assign_single_p (stmt))
1177         return false;
1178
1179       rhs = gimple_assign_rhs1 (stmt);
1180       if (is_gimple_reg (rhs)
1181           || is_gimple_min_invariant (rhs)
1182           || gimple_assign_rhs_code (stmt) == CONSTRUCTOR)
1183         return false;
1184
1185       return refs_may_alias_p (rhs, ref);
1186     }
1187   else if (is_gimple_call (stmt))
1188     return ref_maybe_used_by_call_p (stmt, ref);
1189
1190   return true;
1191 }
1192
1193 /* If the call in statement CALL may clobber the memory reference REF
1194    return true, otherwise return false.  */
1195
1196 static bool
1197 call_may_clobber_ref_p_1 (gimple call, ao_ref *ref)
1198 {
1199   tree base;
1200   tree callee;
1201
1202   /* If the call is pure or const it cannot clobber anything.  */
1203   if (gimple_call_flags (call)
1204       & (ECF_PURE|ECF_CONST|ECF_LOOPING_CONST_OR_PURE|ECF_NOVOPS))
1205     return false;
1206
1207   base = ao_ref_base (ref);
1208   if (!base)
1209     return true;
1210
1211   if (TREE_CODE (base) == SSA_NAME
1212       || CONSTANT_CLASS_P (base))
1213     return false;
1214
1215   /* If the reference is based on a decl that is not aliased the call
1216      cannot possibly clobber it.  */
1217   if (DECL_P (base)
1218       && !may_be_aliased (base)
1219       /* But local non-readonly statics can be modified through recursion
1220          or the call may implement a threading barrier which we must
1221          treat as may-def.  */
1222       && (TREE_READONLY (base)
1223           || !is_global_var (base)))
1224     return false;
1225
1226   callee = gimple_call_fndecl (call);
1227
1228   /* Handle those builtin functions explicitly that do not act as
1229      escape points.  See tree-ssa-structalias.c:find_func_aliases
1230      for the list of builtins we might need to handle here.  */
1231   if (callee != NULL_TREE
1232       && DECL_BUILT_IN_CLASS (callee) == BUILT_IN_NORMAL)
1233     switch (DECL_FUNCTION_CODE (callee))
1234       {
1235         /* All the following functions clobber memory pointed to by
1236            their first argument.  */
1237         case BUILT_IN_STRCPY:
1238         case BUILT_IN_STRNCPY:
1239         case BUILT_IN_MEMCPY:
1240         case BUILT_IN_MEMMOVE:
1241         case BUILT_IN_MEMPCPY:
1242         case BUILT_IN_STPCPY:
1243         case BUILT_IN_STPNCPY:
1244         case BUILT_IN_STRCAT:
1245         case BUILT_IN_STRNCAT:
1246         case BUILT_IN_MEMSET:
1247           {
1248             ao_ref dref;
1249             tree size = NULL_TREE;
1250             if (gimple_call_num_args (call) == 3)
1251               size = gimple_call_arg (call, 2);
1252             ao_ref_init_from_ptr_and_size (&dref,
1253                                            gimple_call_arg (call, 0),
1254                                            size);
1255             return refs_may_alias_p_1 (&dref, ref, false);
1256           }
1257         case BUILT_IN_BCOPY:
1258           {
1259             ao_ref dref;
1260             tree size = gimple_call_arg (call, 2);
1261             ao_ref_init_from_ptr_and_size (&dref,
1262                                            gimple_call_arg (call, 1),
1263                                            size);
1264             return refs_may_alias_p_1 (&dref, ref, false);
1265           }
1266         /* Allocating memory does not have any side-effects apart from
1267            being the definition point for the pointer.  */
1268         case BUILT_IN_MALLOC:
1269         case BUILT_IN_CALLOC:
1270           /* Unix98 specifies that errno is set on allocation failure.
1271              Until we properly can track the errno location assume it
1272              is not a local decl but external or anonymous storage in
1273              a different translation unit.  Also assume it is of
1274              type int as required by the standard.  */
1275           if (flag_errno_math
1276               && TREE_TYPE (base) == integer_type_node)
1277             {
1278               struct ptr_info_def *pi;
1279               if (DECL_P (base)
1280                   && !TREE_STATIC (base))
1281                 return true;
1282               else if (INDIRECT_REF_P (base)
1283                        && TREE_CODE (TREE_OPERAND (base, 0)) == SSA_NAME
1284                        && (pi = SSA_NAME_PTR_INFO (TREE_OPERAND (base, 0))))
1285                 return pi->pt.anything || pi->pt.nonlocal;
1286             }
1287           return false;
1288         /* Freeing memory kills the pointed-to memory.  More importantly
1289            the call has to serve as a barrier for moving loads and stores
1290            across it.  */
1291         case BUILT_IN_FREE:
1292           {
1293             tree ptr = gimple_call_arg (call, 0);
1294             return ptr_deref_may_alias_ref_p_1 (ptr, ref);
1295           }
1296         case BUILT_IN_GAMMA_R:
1297         case BUILT_IN_GAMMAF_R:
1298         case BUILT_IN_GAMMAL_R:
1299         case BUILT_IN_LGAMMA_R:
1300         case BUILT_IN_LGAMMAF_R:
1301         case BUILT_IN_LGAMMAL_R:
1302           {
1303             tree out = gimple_call_arg (call, 1);
1304             if (ptr_deref_may_alias_ref_p_1 (out, ref))
1305               return true;
1306             if (flag_errno_math)
1307               break;
1308             return false;
1309           }
1310         case BUILT_IN_FREXP:
1311         case BUILT_IN_FREXPF:
1312         case BUILT_IN_FREXPL:
1313         case BUILT_IN_MODF:
1314         case BUILT_IN_MODFF:
1315         case BUILT_IN_MODFL:
1316           {
1317             tree out = gimple_call_arg (call, 1);
1318             return ptr_deref_may_alias_ref_p_1 (out, ref);
1319           }
1320         case BUILT_IN_REMQUO:
1321         case BUILT_IN_REMQUOF:
1322         case BUILT_IN_REMQUOL:
1323           {
1324             tree out = gimple_call_arg (call, 2);
1325             if (ptr_deref_may_alias_ref_p_1 (out, ref))
1326               return true;
1327             if (flag_errno_math)
1328               break;
1329             return false;
1330           }
1331         case BUILT_IN_SINCOS:
1332         case BUILT_IN_SINCOSF:
1333         case BUILT_IN_SINCOSL:
1334           {
1335             tree sin = gimple_call_arg (call, 1);
1336             tree cos = gimple_call_arg (call, 2);
1337             return (ptr_deref_may_alias_ref_p_1 (sin, ref)
1338                     || ptr_deref_may_alias_ref_p_1 (cos, ref));
1339           }
1340         default:
1341           /* Fallthru to general call handling.  */;
1342       }
1343
1344   /* Check if base is a global static variable that is not written
1345      by the function.  */
1346   if (callee != NULL_TREE
1347       && TREE_CODE (base) == VAR_DECL
1348       && TREE_STATIC (base))
1349     {
1350       bitmap not_written;
1351
1352       if ((not_written
1353              = ipa_reference_get_not_written_global (cgraph_node (callee)))
1354           && bitmap_bit_p (not_written, DECL_UID (base)))
1355         return false;
1356     }
1357
1358   /* Check if the base variable is call-clobbered.  */
1359   if (DECL_P (base))
1360     return pt_solution_includes (gimple_call_clobber_set (call), base);
1361   else if (INDIRECT_REF_P (base)
1362            && TREE_CODE (TREE_OPERAND (base, 0)) == SSA_NAME)
1363     {
1364       struct ptr_info_def *pi = SSA_NAME_PTR_INFO (TREE_OPERAND (base, 0));
1365       if (!pi)
1366         return true;
1367
1368       return pt_solutions_intersect (gimple_call_clobber_set (call), &pi->pt);
1369     }
1370
1371   return true;
1372 }
1373
1374 /* If the call in statement CALL may clobber the memory reference REF
1375    return true, otherwise return false.  */
1376
1377 bool
1378 call_may_clobber_ref_p (gimple call, tree ref)
1379 {
1380   bool res;
1381   ao_ref r;
1382   ao_ref_init (&r, ref);
1383   res = call_may_clobber_ref_p_1 (call, &r);
1384   if (res)
1385     ++alias_stats.call_may_clobber_ref_p_may_alias;
1386   else
1387     ++alias_stats.call_may_clobber_ref_p_no_alias;
1388   return res;
1389 }
1390
1391
1392 /* If the statement STMT may clobber the memory reference REF return true,
1393    otherwise return false.  */
1394
1395 bool
1396 stmt_may_clobber_ref_p_1 (gimple stmt, ao_ref *ref)
1397 {
1398   if (is_gimple_call (stmt))
1399     {
1400       tree lhs = gimple_call_lhs (stmt);
1401       if (lhs
1402           && !is_gimple_reg (lhs))
1403         {
1404           ao_ref r;
1405           ao_ref_init (&r, lhs);
1406           if (refs_may_alias_p_1 (ref, &r, true))
1407             return true;
1408         }
1409
1410       return call_may_clobber_ref_p_1 (stmt, ref);
1411     }
1412   else if (is_gimple_assign (stmt))
1413     {
1414       ao_ref r;
1415       ao_ref_init (&r, gimple_assign_lhs (stmt));
1416       return refs_may_alias_p_1 (ref, &r, true);
1417     }
1418   else if (gimple_code (stmt) == GIMPLE_ASM)
1419     return true;
1420
1421   return false;
1422 }
1423
1424 bool
1425 stmt_may_clobber_ref_p (gimple stmt, tree ref)
1426 {
1427   ao_ref r;
1428   ao_ref_init (&r, ref);
1429   return stmt_may_clobber_ref_p_1 (stmt, &r);
1430 }
1431
1432
1433 /* Walk the virtual use-def chain of VUSE until hitting the virtual operand
1434    TARGET or a statement clobbering the memory reference REF in which
1435    case false is returned.  The walk starts with VUSE, one argument of PHI.  */
1436
1437 static bool
1438 maybe_skip_until (gimple phi, tree target, ao_ref *ref,
1439                   tree vuse, bitmap *visited)
1440 {
1441   if (!*visited)
1442     *visited = BITMAP_ALLOC (NULL);
1443
1444   bitmap_set_bit (*visited, SSA_NAME_VERSION (PHI_RESULT (phi)));
1445
1446   /* Walk until we hit the target.  */
1447   while (vuse != target)
1448     {
1449       gimple def_stmt = SSA_NAME_DEF_STMT (vuse);
1450       /* Recurse for PHI nodes.  */
1451       if (gimple_code (def_stmt) == GIMPLE_PHI)
1452         {
1453           /* An already visited PHI node ends the walk successfully.  */
1454           if (bitmap_bit_p (*visited, SSA_NAME_VERSION (PHI_RESULT (def_stmt))))
1455             return true;
1456           vuse = get_continuation_for_phi (def_stmt, ref, visited);
1457           if (!vuse)
1458             return false;
1459           continue;
1460         }
1461       /* A clobbering statement or the end of the IL ends it failing.  */
1462       else if (gimple_nop_p (def_stmt)
1463                || stmt_may_clobber_ref_p_1 (def_stmt, ref))
1464         return false;
1465       vuse = gimple_vuse (def_stmt);
1466     }
1467   return true;
1468 }
1469
1470 /* Starting from a PHI node for the virtual operand of the memory reference
1471    REF find a continuation virtual operand that allows to continue walking
1472    statements dominating PHI skipping only statements that cannot possibly
1473    clobber REF.  Returns NULL_TREE if no suitable virtual operand can
1474    be found.  */
1475
1476 tree
1477 get_continuation_for_phi (gimple phi, ao_ref *ref, bitmap *visited)
1478 {
1479   unsigned nargs = gimple_phi_num_args (phi);
1480
1481   /* Through a single-argument PHI we can simply look through.  */
1482   if (nargs == 1)
1483     return PHI_ARG_DEF (phi, 0);
1484
1485   /* For two arguments try to skip non-aliasing code until we hit
1486      the phi argument definition that dominates the other one.  */
1487   if (nargs == 2)
1488     {
1489       tree arg0 = PHI_ARG_DEF (phi, 0);
1490       tree arg1 = PHI_ARG_DEF (phi, 1);
1491       gimple def0 = SSA_NAME_DEF_STMT (arg0);
1492       gimple def1 = SSA_NAME_DEF_STMT (arg1);
1493       tree common_vuse;
1494
1495       if (arg0 == arg1)
1496         return arg0;
1497       else if (gimple_nop_p (def0)
1498                || (!gimple_nop_p (def1)
1499                    && dominated_by_p (CDI_DOMINATORS,
1500                                       gimple_bb (def1), gimple_bb (def0))))
1501         {
1502           if (maybe_skip_until (phi, arg0, ref, arg1, visited))
1503             return arg0;
1504         }
1505       else if (gimple_nop_p (def1)
1506                || dominated_by_p (CDI_DOMINATORS,
1507                                   gimple_bb (def0), gimple_bb (def1)))
1508         {
1509           if (maybe_skip_until (phi, arg1, ref, arg0, visited))
1510             return arg1;
1511         }
1512       /* Special case of a diamond:
1513            MEM_1 = ...
1514            goto (cond) ? L1 : L2
1515            L1: store1 = ...    #MEM_2 = vuse(MEM_1)
1516                goto L3
1517            L2: store2 = ...    #MEM_3 = vuse(MEM_1)
1518            L3: MEM_4 = PHI<MEM_2, MEM_3>
1519          We were called with the PHI at L3, MEM_2 and MEM_3 don't
1520          dominate each other, but still we can easily skip this PHI node
1521          if we recognize that the vuse MEM operand is the same for both,
1522          and that we can skip both statements (they don't clobber us).
1523          This is still linear.  Don't use maybe_skip_until, that might
1524          potentially be slow.  */
1525       else if ((common_vuse = gimple_vuse (def0))
1526                && common_vuse == gimple_vuse (def1))
1527         {
1528           if (!stmt_may_clobber_ref_p_1 (def0, ref)
1529               && !stmt_may_clobber_ref_p_1 (def1, ref))
1530             return common_vuse;
1531         }
1532     }
1533
1534   return NULL_TREE;
1535 }
1536
1537 /* Based on the memory reference REF and its virtual use VUSE call
1538    WALKER for each virtual use that is equivalent to VUSE, including VUSE
1539    itself.  That is, for each virtual use for which its defining statement
1540    does not clobber REF.
1541
1542    WALKER is called with REF, the current virtual use and DATA.  If
1543    WALKER returns non-NULL the walk stops and its result is returned.
1544    At the end of a non-successful walk NULL is returned.
1545
1546    TRANSLATE if non-NULL is called with a pointer to REF, the virtual
1547    use which definition is a statement that may clobber REF and DATA.
1548    If TRANSLATE returns (void *)-1 the walk stops and NULL is returned.
1549    If TRANSLATE returns non-NULL the walk stops and its result is returned.
1550    If TRANSLATE returns NULL the walk continues and TRANSLATE is supposed
1551    to adjust REF and *DATA to make that valid.
1552
1553    TODO: Cache the vector of equivalent vuses per ref, vuse pair.  */
1554
1555 void *
1556 walk_non_aliased_vuses (ao_ref *ref, tree vuse,
1557                         void *(*walker)(ao_ref *, tree, void *),
1558                         void *(*translate)(ao_ref *, tree, void *), void *data)
1559 {
1560   bitmap visited = NULL;
1561   void *res;
1562
1563   timevar_push (TV_ALIAS_STMT_WALK);
1564
1565   do
1566     {
1567       gimple def_stmt;
1568
1569       /* ???  Do we want to account this to TV_ALIAS_STMT_WALK?  */
1570       res = (*walker) (ref, vuse, data);
1571       if (res)
1572         break;
1573
1574       def_stmt = SSA_NAME_DEF_STMT (vuse);
1575       if (gimple_nop_p (def_stmt))
1576         break;
1577       else if (gimple_code (def_stmt) == GIMPLE_PHI)
1578         vuse = get_continuation_for_phi (def_stmt, ref, &visited);
1579       else
1580         {
1581           if (stmt_may_clobber_ref_p_1 (def_stmt, ref))
1582             {
1583               if (!translate)
1584                 break;
1585               res = (*translate) (ref, vuse, data);
1586               /* Failed lookup and translation.  */
1587               if (res == (void *)-1)
1588                 {
1589                   res = NULL;
1590                   break;
1591                 }
1592               /* Lookup succeeded.  */
1593               else if (res != NULL)
1594                 break;
1595               /* Translation succeeded, continue walking.  */
1596             }
1597           vuse = gimple_vuse (def_stmt);
1598         }
1599     }
1600   while (vuse);
1601
1602   if (visited)
1603     BITMAP_FREE (visited);
1604
1605   timevar_pop (TV_ALIAS_STMT_WALK);
1606
1607   return res;
1608 }
1609
1610
1611 /* Based on the memory reference REF call WALKER for each vdef which
1612    defining statement may clobber REF, starting with VDEF.  If REF
1613    is NULL_TREE, each defining statement is visited.
1614
1615    WALKER is called with REF, the current vdef and DATA.  If WALKER
1616    returns true the walk is stopped, otherwise it continues.
1617
1618    At PHI nodes walk_aliased_vdefs forks into one walk for reach
1619    PHI argument (but only one walk continues on merge points), the
1620    return value is true if any of the walks was successful.
1621
1622    The function returns the number of statements walked.  */
1623
1624 static unsigned int
1625 walk_aliased_vdefs_1 (ao_ref *ref, tree vdef,
1626                       bool (*walker)(ao_ref *, tree, void *), void *data,
1627                       bitmap *visited, unsigned int cnt)
1628 {
1629   do
1630     {
1631       gimple def_stmt = SSA_NAME_DEF_STMT (vdef);
1632
1633       if (*visited
1634           && !bitmap_set_bit (*visited, SSA_NAME_VERSION (vdef)))
1635         return cnt;
1636
1637       if (gimple_nop_p (def_stmt))
1638         return cnt;
1639       else if (gimple_code (def_stmt) == GIMPLE_PHI)
1640         {
1641           unsigned i;
1642           if (!*visited)
1643             *visited = BITMAP_ALLOC (NULL);
1644           for (i = 0; i < gimple_phi_num_args (def_stmt); ++i)
1645             cnt += walk_aliased_vdefs_1 (ref, gimple_phi_arg_def (def_stmt, i),
1646                                          walker, data, visited, 0);
1647           return cnt;
1648         }
1649
1650       /* ???  Do we want to account this to TV_ALIAS_STMT_WALK?  */
1651       cnt++;
1652       if ((!ref
1653            || stmt_may_clobber_ref_p_1 (def_stmt, ref))
1654           && (*walker) (ref, vdef, data))
1655         return cnt;
1656
1657       vdef = gimple_vuse (def_stmt);
1658     }
1659   while (1);
1660 }
1661
1662 unsigned int
1663 walk_aliased_vdefs (ao_ref *ref, tree vdef,
1664                     bool (*walker)(ao_ref *, tree, void *), void *data,
1665                     bitmap *visited)
1666 {
1667   bitmap local_visited = NULL;
1668   unsigned int ret;
1669
1670   timevar_push (TV_ALIAS_STMT_WALK);
1671
1672   ret = walk_aliased_vdefs_1 (ref, vdef, walker, data,
1673                               visited ? visited : &local_visited, 0);
1674   if (local_visited)
1675     BITMAP_FREE (local_visited);
1676
1677   timevar_pop (TV_ALIAS_STMT_WALK);
1678
1679   return ret;
1680 }
1681