OSDN Git Service

2009-10-26 Ben Elliston <bje@au.ibm.com>
[pf3gnuchains/gcc-fork.git] / gcc / tree-ssa-loop-ivopts.c
1 /* Induction variable optimizations.
2    Copyright (C) 2003, 2004, 2005, 2006, 2007, 2008, 2009
3    Free Software Foundation, Inc.
4    
5 This file is part of GCC.
6    
7 GCC is free software; you can redistribute it and/or modify it
8 under the terms of the GNU General Public License as published by the
9 Free Software Foundation; either version 3, or (at your option) any
10 later version.
11    
12 GCC is distributed in the hope that it will be useful, but WITHOUT
13 ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16    
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING3.  If not see
19 <http://www.gnu.org/licenses/>.  */
20
21 /* This pass tries to find the optimal set of induction variables for the loop.
22    It optimizes just the basic linear induction variables (although adding
23    support for other types should not be too hard).  It includes the
24    optimizations commonly known as strength reduction, induction variable
25    coalescing and induction variable elimination.  It does it in the
26    following steps:
27
28    1) The interesting uses of induction variables are found.  This includes
29
30       -- uses of induction variables in non-linear expressions
31       -- addresses of arrays
32       -- comparisons of induction variables
33
34    2) Candidates for the induction variables are found.  This includes
35
36       -- old induction variables
37       -- the variables defined by expressions derived from the "interesting
38          uses" above
39
40    3) The optimal (w.r. to a cost function) set of variables is chosen.  The
41       cost function assigns a cost to sets of induction variables and consists
42       of three parts:
43
44       -- The use costs.  Each of the interesting uses chooses the best induction
45          variable in the set and adds its cost to the sum.  The cost reflects
46          the time spent on modifying the induction variables value to be usable
47          for the given purpose (adding base and offset for arrays, etc.).
48       -- The variable costs.  Each of the variables has a cost assigned that
49          reflects the costs associated with incrementing the value of the
50          variable.  The original variables are somewhat preferred.
51       -- The set cost.  Depending on the size of the set, extra cost may be
52          added to reflect register pressure.
53
54       All the costs are defined in a machine-specific way, using the target
55       hooks and machine descriptions to determine them.
56
57    4) The trees are transformed to use the new variables, the dead code is
58       removed.
59    
60    All of this is done loop by loop.  Doing it globally is theoretically
61    possible, it might give a better performance and it might enable us
62    to decide costs more precisely, but getting all the interactions right
63    would be complicated.  */
64
65 #include "config.h"
66 #include "system.h"
67 #include "coretypes.h"
68 #include "tm.h"
69 #include "tree.h"
70 #include "rtl.h"
71 #include "tm_p.h"
72 #include "hard-reg-set.h"
73 #include "basic-block.h"
74 #include "output.h"
75 #include "diagnostic.h"
76 #include "tree-flow.h"
77 #include "tree-dump.h"
78 #include "timevar.h"
79 #include "cfgloop.h"
80 #include "varray.h"
81 #include "expr.h"
82 #include "tree-pass.h"
83 #include "ggc.h"
84 #include "insn-config.h"
85 #include "recog.h"
86 #include "pointer-set.h"
87 #include "hashtab.h"
88 #include "tree-chrec.h"
89 #include "tree-scalar-evolution.h"
90 #include "cfgloop.h"
91 #include "params.h"
92 #include "langhooks.h"
93 #include "tree-affine.h"
94 #include "target.h"
95
96 /* The infinite cost.  */
97 #define INFTY 10000000
98
99 /* The expected number of loop iterations.  TODO -- use profiling instead of
100    this.  */
101 #define AVG_LOOP_NITER(LOOP) 5
102
103
104 /* Representation of the induction variable.  */
105 struct iv
106 {
107   tree base;            /* Initial value of the iv.  */
108   tree base_object;     /* A memory object to that the induction variable points.  */
109   tree step;            /* Step of the iv (constant only).  */
110   tree ssa_name;        /* The ssa name with the value.  */
111   bool biv_p;           /* Is it a biv?  */
112   bool have_use_for;    /* Do we already have a use for it?  */
113   unsigned use_id;      /* The identifier in the use if it is the case.  */
114 };
115
116 /* Per-ssa version information (induction variable descriptions, etc.).  */
117 struct version_info
118 {
119   tree name;            /* The ssa name.  */
120   struct iv *iv;        /* Induction variable description.  */
121   bool has_nonlin_use;  /* For a loop-level invariant, whether it is used in
122                            an expression that is not an induction variable.  */
123   unsigned inv_id;      /* Id of an invariant.  */
124   bool preserve_biv;    /* For the original biv, whether to preserve it.  */
125 };
126
127 /* Types of uses.  */
128 enum use_type
129 {
130   USE_NONLINEAR_EXPR,   /* Use in a nonlinear expression.  */
131   USE_ADDRESS,          /* Use in an address.  */
132   USE_COMPARE           /* Use is a compare.  */
133 };
134
135 /* Cost of a computation.  */
136 typedef struct
137 {
138   int cost;             /* The runtime cost.  */
139   unsigned complexity;  /* The estimate of the complexity of the code for
140                            the computation (in no concrete units --
141                            complexity field should be larger for more
142                            complex expressions and addressing modes).  */
143 } comp_cost;
144
145 static const comp_cost zero_cost = {0, 0};
146 static const comp_cost infinite_cost = {INFTY, INFTY};
147
148 /* The candidate - cost pair.  */
149 struct cost_pair
150 {
151   struct iv_cand *cand; /* The candidate.  */
152   comp_cost cost;       /* The cost.  */
153   bitmap depends_on;    /* The list of invariants that have to be
154                            preserved.  */
155   tree value;           /* For final value elimination, the expression for
156                            the final value of the iv.  For iv elimination,
157                            the new bound to compare with.  */
158 };
159
160 /* Use.  */
161 struct iv_use
162 {
163   unsigned id;          /* The id of the use.  */
164   enum use_type type;   /* Type of the use.  */
165   struct iv *iv;        /* The induction variable it is based on.  */
166   gimple stmt;          /* Statement in that it occurs.  */
167   tree *op_p;           /* The place where it occurs.  */
168   bitmap related_cands; /* The set of "related" iv candidates, plus the common
169                            important ones.  */
170
171   unsigned n_map_members; /* Number of candidates in the cost_map list.  */
172   struct cost_pair *cost_map;
173                         /* The costs wrto the iv candidates.  */
174
175   struct iv_cand *selected;
176                         /* The selected candidate.  */
177 };
178
179 /* The position where the iv is computed.  */
180 enum iv_position
181 {
182   IP_NORMAL,            /* At the end, just before the exit condition.  */
183   IP_END,               /* At the end of the latch block.  */
184   IP_BEFORE_USE,        /* Immediately before a specific use.  */
185   IP_AFTER_USE,         /* Immediately after a specific use.  */
186   IP_ORIGINAL           /* The original biv.  */
187 };
188
189 /* The induction variable candidate.  */
190 struct iv_cand
191 {
192   unsigned id;          /* The number of the candidate.  */
193   bool important;       /* Whether this is an "important" candidate, i.e. such
194                            that it should be considered by all uses.  */
195   enum iv_position pos; /* Where it is computed.  */
196   gimple incremented_at;/* For original biv, the statement where it is
197                            incremented.  */
198   tree var_before;      /* The variable used for it before increment.  */
199   tree var_after;       /* The variable used for it after increment.  */
200   struct iv *iv;        /* The value of the candidate.  NULL for
201                            "pseudocandidate" used to indicate the possibility
202                            to replace the final value of an iv by direct
203                            computation of the value.  */
204   unsigned cost;        /* Cost of the candidate.  */
205   unsigned cost_step;   /* Cost of the candidate's increment operation.  */
206   struct iv_use *ainc_use; /* For IP_{BEFORE,AFTER}_USE candidates, the place
207                               where it is incremented.  */
208   bitmap depends_on;    /* The list of invariants that are used in step of the
209                            biv.  */
210 };
211
212 /* The data used by the induction variable optimizations.  */
213
214 typedef struct iv_use *iv_use_p;
215 DEF_VEC_P(iv_use_p);
216 DEF_VEC_ALLOC_P(iv_use_p,heap);
217
218 typedef struct iv_cand *iv_cand_p;
219 DEF_VEC_P(iv_cand_p);
220 DEF_VEC_ALLOC_P(iv_cand_p,heap);
221
222 struct ivopts_data
223 {
224   /* The currently optimized loop.  */
225   struct loop *current_loop;
226
227   /* Numbers of iterations for all exits of the current loop.  */
228   struct pointer_map_t *niters;
229
230   /* Number of registers used in it.  */
231   unsigned regs_used;
232
233   /* The size of version_info array allocated.  */
234   unsigned version_info_size;
235
236   /* The array of information for the ssa names.  */
237   struct version_info *version_info;
238
239   /* The bitmap of indices in version_info whose value was changed.  */
240   bitmap relevant;
241
242   /* The uses of induction variables.  */
243   VEC(iv_use_p,heap) *iv_uses;
244
245   /* The candidates.  */
246   VEC(iv_cand_p,heap) *iv_candidates;
247
248   /* A bitmap of important candidates.  */
249   bitmap important_candidates;
250
251   /* The maximum invariant id.  */
252   unsigned max_inv_id;
253
254   /* Whether to consider just related and important candidates when replacing a
255      use.  */
256   bool consider_all_candidates;
257
258   /* Are we optimizing for speed?  */
259   bool speed;
260 };
261
262 /* An assignment of iv candidates to uses.  */
263
264 struct iv_ca
265 {
266   /* The number of uses covered by the assignment.  */
267   unsigned upto;
268
269   /* Number of uses that cannot be expressed by the candidates in the set.  */
270   unsigned bad_uses;
271
272   /* Candidate assigned to a use, together with the related costs.  */
273   struct cost_pair **cand_for_use;
274
275   /* Number of times each candidate is used.  */
276   unsigned *n_cand_uses;
277
278   /* The candidates used.  */
279   bitmap cands;
280
281   /* The number of candidates in the set.  */
282   unsigned n_cands;
283
284   /* Total number of registers needed.  */
285   unsigned n_regs;
286
287   /* Total cost of expressing uses.  */
288   comp_cost cand_use_cost;
289
290   /* Total cost of candidates.  */
291   unsigned cand_cost;
292
293   /* Number of times each invariant is used.  */
294   unsigned *n_invariant_uses;
295
296   /* Total cost of the assignment.  */
297   comp_cost cost;
298 };
299
300 /* Difference of two iv candidate assignments.  */
301
302 struct iv_ca_delta
303 {
304   /* Changed use.  */
305   struct iv_use *use;
306
307   /* An old assignment (for rollback purposes).  */
308   struct cost_pair *old_cp;
309
310   /* A new assignment.  */
311   struct cost_pair *new_cp;
312
313   /* Next change in the list.  */
314   struct iv_ca_delta *next_change;
315 };
316
317 /* Bound on number of candidates below that all candidates are considered.  */
318
319 #define CONSIDER_ALL_CANDIDATES_BOUND \
320   ((unsigned) PARAM_VALUE (PARAM_IV_CONSIDER_ALL_CANDIDATES_BOUND))
321
322 /* If there are more iv occurrences, we just give up (it is quite unlikely that
323    optimizing such a loop would help, and it would take ages).  */
324
325 #define MAX_CONSIDERED_USES \
326   ((unsigned) PARAM_VALUE (PARAM_IV_MAX_CONSIDERED_USES))
327
328 /* If there are at most this number of ivs in the set, try removing unnecessary
329    ivs from the set always.  */
330
331 #define ALWAYS_PRUNE_CAND_SET_BOUND \
332   ((unsigned) PARAM_VALUE (PARAM_IV_ALWAYS_PRUNE_CAND_SET_BOUND))
333
334 /* The list of trees for that the decl_rtl field must be reset is stored
335    here.  */
336
337 static VEC(tree,heap) *decl_rtl_to_reset;
338
339 /* Number of uses recorded in DATA.  */
340
341 static inline unsigned
342 n_iv_uses (struct ivopts_data *data)
343 {
344   return VEC_length (iv_use_p, data->iv_uses);
345 }
346
347 /* Ith use recorded in DATA.  */
348
349 static inline struct iv_use *
350 iv_use (struct ivopts_data *data, unsigned i)
351 {
352   return VEC_index (iv_use_p, data->iv_uses, i);
353 }
354
355 /* Number of candidates recorded in DATA.  */
356
357 static inline unsigned
358 n_iv_cands (struct ivopts_data *data)
359 {
360   return VEC_length (iv_cand_p, data->iv_candidates);
361 }
362
363 /* Ith candidate recorded in DATA.  */
364
365 static inline struct iv_cand *
366 iv_cand (struct ivopts_data *data, unsigned i)
367 {
368   return VEC_index (iv_cand_p, data->iv_candidates, i);
369 }
370
371 /* The single loop exit if it dominates the latch, NULL otherwise.  */
372
373 edge
374 single_dom_exit (struct loop *loop)
375 {
376   edge exit = single_exit (loop);
377
378   if (!exit)
379     return NULL;
380
381   if (!just_once_each_iteration_p (loop, exit->src))
382     return NULL;
383
384   return exit;
385 }
386
387 /* Dumps information about the induction variable IV to FILE.  */
388
389 extern void dump_iv (FILE *, struct iv *);
390 void
391 dump_iv (FILE *file, struct iv *iv)
392 {
393   if (iv->ssa_name)
394     {
395       fprintf (file, "ssa name ");
396       print_generic_expr (file, iv->ssa_name, TDF_SLIM);
397       fprintf (file, "\n");
398     }
399
400   fprintf (file, "  type ");
401   print_generic_expr (file, TREE_TYPE (iv->base), TDF_SLIM);
402   fprintf (file, "\n");
403
404   if (iv->step)
405     {
406       fprintf (file, "  base ");
407       print_generic_expr (file, iv->base, TDF_SLIM);
408       fprintf (file, "\n");
409
410       fprintf (file, "  step ");
411       print_generic_expr (file, iv->step, TDF_SLIM);
412       fprintf (file, "\n");
413     }
414   else
415     {
416       fprintf (file, "  invariant ");
417       print_generic_expr (file, iv->base, TDF_SLIM);
418       fprintf (file, "\n");
419     }
420
421   if (iv->base_object)
422     {
423       fprintf (file, "  base object ");
424       print_generic_expr (file, iv->base_object, TDF_SLIM);
425       fprintf (file, "\n");
426     }
427
428   if (iv->biv_p)
429     fprintf (file, "  is a biv\n");
430 }
431
432 /* Dumps information about the USE to FILE.  */
433
434 extern void dump_use (FILE *, struct iv_use *);
435 void
436 dump_use (FILE *file, struct iv_use *use)
437 {
438   fprintf (file, "use %d\n", use->id);
439
440   switch (use->type)
441     {
442     case USE_NONLINEAR_EXPR:
443       fprintf (file, "  generic\n");
444       break;
445
446     case USE_ADDRESS:
447       fprintf (file, "  address\n");
448       break;
449
450     case USE_COMPARE:
451       fprintf (file, "  compare\n");
452       break;
453
454     default:
455       gcc_unreachable ();
456     }
457
458   fprintf (file, "  in statement ");
459   print_gimple_stmt (file, use->stmt, 0, 0);
460   fprintf (file, "\n");
461
462   fprintf (file, "  at position ");
463   if (use->op_p)
464     print_generic_expr (file, *use->op_p, TDF_SLIM);
465   fprintf (file, "\n");
466
467   dump_iv (file, use->iv);
468
469   if (use->related_cands)
470     {
471       fprintf (file, "  related candidates ");
472       dump_bitmap (file, use->related_cands);
473     }
474 }
475
476 /* Dumps information about the uses to FILE.  */
477
478 extern void dump_uses (FILE *, struct ivopts_data *);
479 void
480 dump_uses (FILE *file, struct ivopts_data *data)
481 {
482   unsigned i;
483   struct iv_use *use;
484
485   for (i = 0; i < n_iv_uses (data); i++)
486     {
487       use = iv_use (data, i);
488
489       dump_use (file, use);
490       fprintf (file, "\n");
491     }
492 }
493
494 /* Dumps information about induction variable candidate CAND to FILE.  */
495
496 extern void dump_cand (FILE *, struct iv_cand *);
497 void
498 dump_cand (FILE *file, struct iv_cand *cand)
499 {
500   struct iv *iv = cand->iv;
501
502   fprintf (file, "candidate %d%s\n",
503            cand->id, cand->important ? " (important)" : "");
504
505   if (cand->depends_on)
506     {
507       fprintf (file, "  depends on ");
508       dump_bitmap (file, cand->depends_on);
509     }
510
511   if (!iv)
512     {
513       fprintf (file, "  final value replacement\n");
514       return;
515     }
516
517   switch (cand->pos)
518     {
519     case IP_NORMAL:
520       fprintf (file, "  incremented before exit test\n");
521       break;
522
523     case IP_BEFORE_USE:
524       fprintf (file, "  incremented before use %d\n", cand->ainc_use->id);
525       break;
526
527     case IP_AFTER_USE:
528       fprintf (file, "  incremented after use %d\n", cand->ainc_use->id);
529       break;
530
531     case IP_END:
532       fprintf (file, "  incremented at end\n");
533       break;
534
535     case IP_ORIGINAL:
536       fprintf (file, "  original biv\n");
537       break;
538     }
539
540   dump_iv (file, iv);
541 }
542
543 /* Returns the info for ssa version VER.  */
544
545 static inline struct version_info *
546 ver_info (struct ivopts_data *data, unsigned ver)
547 {
548   return data->version_info + ver;
549 }
550
551 /* Returns the info for ssa name NAME.  */
552
553 static inline struct version_info *
554 name_info (struct ivopts_data *data, tree name)
555 {
556   return ver_info (data, SSA_NAME_VERSION (name));
557 }
558
559 /* Returns true if STMT is after the place where the IP_NORMAL ivs will be
560    emitted in LOOP.  */
561
562 static bool
563 stmt_after_ip_normal_pos (struct loop *loop, gimple stmt)
564 {
565   basic_block bb = ip_normal_pos (loop), sbb = gimple_bb (stmt);
566
567   gcc_assert (bb);
568
569   if (sbb == loop->latch)
570     return true;
571
572   if (sbb != bb)
573     return false;
574
575   return stmt == last_stmt (bb);
576 }
577
578 /* Returns true if STMT if after the place where the original induction
579    variable CAND is incremented.  If TRUE_IF_EQUAL is set, we return true
580    if the positions are identical.  */
581
582 static bool
583 stmt_after_inc_pos (struct iv_cand *cand, gimple stmt, bool true_if_equal)
584 {
585   basic_block cand_bb = gimple_bb (cand->incremented_at);
586   basic_block stmt_bb = gimple_bb (stmt);
587
588   if (!dominated_by_p (CDI_DOMINATORS, stmt_bb, cand_bb))
589     return false;
590
591   if (stmt_bb != cand_bb)
592     return true;
593
594   if (true_if_equal
595       && gimple_uid (stmt) == gimple_uid (cand->incremented_at))
596     return true;
597   return gimple_uid (stmt) > gimple_uid (cand->incremented_at);
598 }
599
600 /* Returns true if STMT if after the place where the induction variable
601    CAND is incremented in LOOP.  */
602
603 static bool
604 stmt_after_increment (struct loop *loop, struct iv_cand *cand, gimple stmt)
605 {
606   switch (cand->pos)
607     {
608     case IP_END:
609       return false;
610
611     case IP_NORMAL:
612       return stmt_after_ip_normal_pos (loop, stmt);
613
614     case IP_ORIGINAL:
615     case IP_AFTER_USE:
616       return stmt_after_inc_pos (cand, stmt, false);
617
618     case IP_BEFORE_USE:
619       return stmt_after_inc_pos (cand, stmt, true);
620
621     default:
622       gcc_unreachable ();
623     }
624 }
625
626 /* Returns true if EXP is a ssa name that occurs in an abnormal phi node.  */
627
628 static bool
629 abnormal_ssa_name_p (tree exp)
630 {
631   if (!exp)
632     return false;
633
634   if (TREE_CODE (exp) != SSA_NAME)
635     return false;
636
637   return SSA_NAME_OCCURS_IN_ABNORMAL_PHI (exp) != 0;
638 }
639
640 /* Returns false if BASE or INDEX contains a ssa name that occurs in an
641    abnormal phi node.  Callback for for_each_index.  */
642
643 static bool
644 idx_contains_abnormal_ssa_name_p (tree base, tree *index,
645                                   void *data ATTRIBUTE_UNUSED)
646 {
647   if (TREE_CODE (base) == ARRAY_REF || TREE_CODE (base) == ARRAY_RANGE_REF)
648     {
649       if (abnormal_ssa_name_p (TREE_OPERAND (base, 2)))
650         return false;
651       if (abnormal_ssa_name_p (TREE_OPERAND (base, 3)))
652         return false;
653     }
654
655   return !abnormal_ssa_name_p (*index);
656 }
657
658 /* Returns true if EXPR contains a ssa name that occurs in an
659    abnormal phi node.  */
660
661 bool
662 contains_abnormal_ssa_name_p (tree expr)
663 {
664   enum tree_code code;
665   enum tree_code_class codeclass;
666
667   if (!expr)
668     return false;
669
670   code = TREE_CODE (expr);
671   codeclass = TREE_CODE_CLASS (code);
672
673   if (code == SSA_NAME)
674     return SSA_NAME_OCCURS_IN_ABNORMAL_PHI (expr) != 0;
675
676   if (code == INTEGER_CST
677       || is_gimple_min_invariant (expr))
678     return false;
679
680   if (code == ADDR_EXPR)
681     return !for_each_index (&TREE_OPERAND (expr, 0),
682                             idx_contains_abnormal_ssa_name_p,
683                             NULL);
684
685   switch (codeclass)
686     {
687     case tcc_binary:
688     case tcc_comparison:
689       if (contains_abnormal_ssa_name_p (TREE_OPERAND (expr, 1)))
690         return true;
691
692       /* Fallthru.  */
693     case tcc_unary:
694       if (contains_abnormal_ssa_name_p (TREE_OPERAND (expr, 0)))
695         return true;
696
697       break;
698
699     default:
700       gcc_unreachable ();
701     }
702
703   return false;
704 }
705
706 /*  Returns tree describing number of iterations determined from
707     EXIT of DATA->current_loop, or NULL if something goes wrong.  */
708
709 static tree
710 niter_for_exit (struct ivopts_data *data, edge exit)
711 {
712   struct tree_niter_desc desc;
713   tree niter;
714   void **slot;
715
716   if (!data->niters)
717     {
718       data->niters = pointer_map_create ();
719       slot = NULL;
720     }
721   else
722     slot = pointer_map_contains (data->niters, exit);
723
724   if (!slot)
725     {
726       /* Try to determine number of iterations.  We must know it
727          unconditionally (i.e., without possibility of # of iterations
728          being zero).  Also, we cannot safely work with ssa names that
729          appear in phi nodes on abnormal edges, so that we do not create
730          overlapping life ranges for them (PR 27283).  */
731       if (number_of_iterations_exit (data->current_loop,
732                                      exit, &desc, true)
733           && integer_zerop (desc.may_be_zero)
734           && !contains_abnormal_ssa_name_p (desc.niter))
735         niter = desc.niter;
736       else
737         niter = NULL_TREE;
738
739       *pointer_map_insert (data->niters, exit) = niter;
740     }
741   else
742     niter = (tree) *slot;
743
744   return niter;
745 }
746
747 /* Returns tree describing number of iterations determined from
748    single dominating exit of DATA->current_loop, or NULL if something
749    goes wrong.  */
750
751 static tree
752 niter_for_single_dom_exit (struct ivopts_data *data)
753 {
754   edge exit = single_dom_exit (data->current_loop);
755
756   if (!exit)
757     return NULL;
758
759   return niter_for_exit (data, exit);
760 }
761
762 /* Initializes data structures used by the iv optimization pass, stored
763    in DATA.  */
764
765 static void
766 tree_ssa_iv_optimize_init (struct ivopts_data *data)
767 {
768   data->version_info_size = 2 * num_ssa_names;
769   data->version_info = XCNEWVEC (struct version_info, data->version_info_size);
770   data->relevant = BITMAP_ALLOC (NULL);
771   data->important_candidates = BITMAP_ALLOC (NULL);
772   data->max_inv_id = 0;
773   data->niters = NULL;
774   data->iv_uses = VEC_alloc (iv_use_p, heap, 20);
775   data->iv_candidates = VEC_alloc (iv_cand_p, heap, 20);
776   decl_rtl_to_reset = VEC_alloc (tree, heap, 20);
777 }
778
779 /* Returns a memory object to that EXPR points.  In case we are able to
780    determine that it does not point to any such object, NULL is returned.  */
781
782 static tree
783 determine_base_object (tree expr)
784 {
785   enum tree_code code = TREE_CODE (expr);
786   tree base, obj;
787
788   /* If this is a pointer casted to any type, we need to determine
789      the base object for the pointer; so handle conversions before
790      throwing away non-pointer expressions.  */
791   if (CONVERT_EXPR_P (expr))
792     return determine_base_object (TREE_OPERAND (expr, 0));
793
794   if (!POINTER_TYPE_P (TREE_TYPE (expr)))
795     return NULL_TREE;
796
797   switch (code)
798     {
799     case INTEGER_CST:
800       return NULL_TREE;
801
802     case ADDR_EXPR:
803       obj = TREE_OPERAND (expr, 0);
804       base = get_base_address (obj);
805
806       if (!base)
807         return expr;
808
809       if (TREE_CODE (base) == INDIRECT_REF)
810         return determine_base_object (TREE_OPERAND (base, 0));
811
812       return fold_convert (ptr_type_node,
813                            build_fold_addr_expr (base));
814
815     case POINTER_PLUS_EXPR:
816       return determine_base_object (TREE_OPERAND (expr, 0));
817
818     case PLUS_EXPR:
819     case MINUS_EXPR:
820       /* Pointer addition is done solely using POINTER_PLUS_EXPR.  */
821       gcc_unreachable ();
822
823     default:
824       return fold_convert (ptr_type_node, expr);
825     }
826 }
827
828 /* Allocates an induction variable with given initial value BASE and step STEP
829    for loop LOOP.  */
830
831 static struct iv *
832 alloc_iv (tree base, tree step)
833 {
834   struct iv *iv = XCNEW (struct iv);
835   gcc_assert (step != NULL_TREE);
836
837   iv->base = base;
838   iv->base_object = determine_base_object (base);
839   iv->step = step;
840   iv->biv_p = false;
841   iv->have_use_for = false;
842   iv->use_id = 0;
843   iv->ssa_name = NULL_TREE;
844
845   return iv;
846 }
847
848 /* Sets STEP and BASE for induction variable IV.  */
849
850 static void
851 set_iv (struct ivopts_data *data, tree iv, tree base, tree step)
852 {
853   struct version_info *info = name_info (data, iv);
854
855   gcc_assert (!info->iv);
856
857   bitmap_set_bit (data->relevant, SSA_NAME_VERSION (iv));
858   info->iv = alloc_iv (base, step);
859   info->iv->ssa_name = iv;
860 }
861
862 /* Finds induction variable declaration for VAR.  */
863
864 static struct iv *
865 get_iv (struct ivopts_data *data, tree var)
866 {
867   basic_block bb;
868   tree type = TREE_TYPE (var);
869
870   if (!POINTER_TYPE_P (type)
871       && !INTEGRAL_TYPE_P (type))
872     return NULL;
873
874   if (!name_info (data, var)->iv)
875     {
876       bb = gimple_bb (SSA_NAME_DEF_STMT (var));
877
878       if (!bb
879           || !flow_bb_inside_loop_p (data->current_loop, bb))
880         set_iv (data, var, var, build_int_cst (type, 0));
881     }
882
883   return name_info (data, var)->iv;
884 }
885
886 /* Determines the step of a biv defined in PHI.  Returns NULL if PHI does
887    not define a simple affine biv with nonzero step.  */
888
889 static tree
890 determine_biv_step (gimple phi)
891 {
892   struct loop *loop = gimple_bb (phi)->loop_father;
893   tree name = PHI_RESULT (phi);
894   affine_iv iv;
895
896   if (!is_gimple_reg (name))
897     return NULL_TREE;
898
899   if (!simple_iv (loop, loop, name, &iv, true))
900     return NULL_TREE;
901
902   return integer_zerop (iv.step) ? NULL_TREE : iv.step;
903 }
904
905 /* Finds basic ivs.  */
906
907 static bool
908 find_bivs (struct ivopts_data *data)
909 {
910   gimple phi;
911   tree step, type, base;
912   bool found = false;
913   struct loop *loop = data->current_loop;
914   gimple_stmt_iterator psi;
915
916   for (psi = gsi_start_phis (loop->header); !gsi_end_p (psi); gsi_next (&psi))
917     {
918       phi = gsi_stmt (psi);
919
920       if (SSA_NAME_OCCURS_IN_ABNORMAL_PHI (PHI_RESULT (phi)))
921         continue;
922
923       step = determine_biv_step (phi);
924       if (!step)
925         continue;
926
927       base = PHI_ARG_DEF_FROM_EDGE (phi, loop_preheader_edge (loop));
928       base = expand_simple_operations (base);
929       if (contains_abnormal_ssa_name_p (base)
930           || contains_abnormal_ssa_name_p (step))
931         continue;
932
933       type = TREE_TYPE (PHI_RESULT (phi));
934       base = fold_convert (type, base);
935       if (step)
936         {
937           if (POINTER_TYPE_P (type))
938             step = fold_convert (sizetype, step);
939           else
940             step = fold_convert (type, step);
941         }
942
943       set_iv (data, PHI_RESULT (phi), base, step);
944       found = true;
945     }
946
947   return found;
948 }
949
950 /* Marks basic ivs.  */
951
952 static void
953 mark_bivs (struct ivopts_data *data)
954 {
955   gimple phi;
956   tree var;
957   struct iv *iv, *incr_iv;
958   struct loop *loop = data->current_loop;
959   basic_block incr_bb;
960   gimple_stmt_iterator psi;
961
962   for (psi = gsi_start_phis (loop->header); !gsi_end_p (psi); gsi_next (&psi))
963     {
964       phi = gsi_stmt (psi);
965
966       iv = get_iv (data, PHI_RESULT (phi));
967       if (!iv)
968         continue;
969
970       var = PHI_ARG_DEF_FROM_EDGE (phi, loop_latch_edge (loop));
971       incr_iv = get_iv (data, var);
972       if (!incr_iv)
973         continue;
974
975       /* If the increment is in the subloop, ignore it.  */
976       incr_bb = gimple_bb (SSA_NAME_DEF_STMT (var));
977       if (incr_bb->loop_father != data->current_loop
978           || (incr_bb->flags & BB_IRREDUCIBLE_LOOP))
979         continue;
980
981       iv->biv_p = true;
982       incr_iv->biv_p = true;
983     }
984 }
985
986 /* Checks whether STMT defines a linear induction variable and stores its
987    parameters to IV.  */
988
989 static bool
990 find_givs_in_stmt_scev (struct ivopts_data *data, gimple stmt, affine_iv *iv)
991 {
992   tree lhs;
993   struct loop *loop = data->current_loop;
994
995   iv->base = NULL_TREE;
996   iv->step = NULL_TREE;
997
998   if (gimple_code (stmt) != GIMPLE_ASSIGN)
999     return false;
1000
1001   lhs = gimple_assign_lhs (stmt);
1002   if (TREE_CODE (lhs) != SSA_NAME)
1003     return false;
1004
1005   if (!simple_iv (loop, loop_containing_stmt (stmt), lhs, iv, true))
1006     return false;
1007   iv->base = expand_simple_operations (iv->base);
1008
1009   if (contains_abnormal_ssa_name_p (iv->base)
1010       || contains_abnormal_ssa_name_p (iv->step))
1011     return false;
1012
1013   return true;
1014 }
1015
1016 /* Finds general ivs in statement STMT.  */
1017
1018 static void
1019 find_givs_in_stmt (struct ivopts_data *data, gimple stmt)
1020 {
1021   affine_iv iv;
1022
1023   if (!find_givs_in_stmt_scev (data, stmt, &iv))
1024     return;
1025
1026   set_iv (data, gimple_assign_lhs (stmt), iv.base, iv.step);
1027 }
1028
1029 /* Finds general ivs in basic block BB.  */
1030
1031 static void
1032 find_givs_in_bb (struct ivopts_data *data, basic_block bb)
1033 {
1034   gimple_stmt_iterator bsi;
1035
1036   for (bsi = gsi_start_bb (bb); !gsi_end_p (bsi); gsi_next (&bsi))
1037     find_givs_in_stmt (data, gsi_stmt (bsi));
1038 }
1039
1040 /* Finds general ivs.  */
1041
1042 static void
1043 find_givs (struct ivopts_data *data)
1044 {
1045   struct loop *loop = data->current_loop;
1046   basic_block *body = get_loop_body_in_dom_order (loop);
1047   unsigned i;
1048
1049   for (i = 0; i < loop->num_nodes; i++)
1050     find_givs_in_bb (data, body[i]);
1051   free (body);
1052 }
1053
1054 /* For each ssa name defined in LOOP determines whether it is an induction
1055    variable and if so, its initial value and step.  */
1056
1057 static bool
1058 find_induction_variables (struct ivopts_data *data)
1059 {
1060   unsigned i;
1061   bitmap_iterator bi;
1062
1063   if (!find_bivs (data))
1064     return false;
1065
1066   find_givs (data);
1067   mark_bivs (data);
1068
1069   if (dump_file && (dump_flags & TDF_DETAILS))
1070     {
1071       tree niter = niter_for_single_dom_exit (data);
1072
1073       if (niter)
1074         {
1075           fprintf (dump_file, "  number of iterations ");
1076           print_generic_expr (dump_file, niter, TDF_SLIM);
1077           fprintf (dump_file, "\n\n");
1078         };
1079  
1080       fprintf (dump_file, "Induction variables:\n\n");
1081
1082       EXECUTE_IF_SET_IN_BITMAP (data->relevant, 0, i, bi)
1083         {
1084           if (ver_info (data, i)->iv)
1085             dump_iv (dump_file, ver_info (data, i)->iv);
1086         }
1087     }
1088
1089   return true;
1090 }
1091
1092 /* Records a use of type USE_TYPE at *USE_P in STMT whose value is IV.  */
1093
1094 static struct iv_use *
1095 record_use (struct ivopts_data *data, tree *use_p, struct iv *iv,
1096             gimple stmt, enum use_type use_type)
1097 {
1098   struct iv_use *use = XCNEW (struct iv_use);
1099
1100   use->id = n_iv_uses (data);
1101   use->type = use_type;
1102   use->iv = iv;
1103   use->stmt = stmt;
1104   use->op_p = use_p;
1105   use->related_cands = BITMAP_ALLOC (NULL);
1106
1107   /* To avoid showing ssa name in the dumps, if it was not reset by the
1108      caller.  */
1109   iv->ssa_name = NULL_TREE;
1110
1111   if (dump_file && (dump_flags & TDF_DETAILS))
1112     dump_use (dump_file, use);
1113
1114   VEC_safe_push (iv_use_p, heap, data->iv_uses, use);
1115
1116   return use;
1117 }
1118
1119 /* Checks whether OP is a loop-level invariant and if so, records it.
1120    NONLINEAR_USE is true if the invariant is used in a way we do not
1121    handle specially.  */
1122
1123 static void
1124 record_invariant (struct ivopts_data *data, tree op, bool nonlinear_use)
1125 {
1126   basic_block bb;
1127   struct version_info *info;
1128
1129   if (TREE_CODE (op) != SSA_NAME
1130       || !is_gimple_reg (op))
1131     return;
1132
1133   bb = gimple_bb (SSA_NAME_DEF_STMT (op));
1134   if (bb
1135       && flow_bb_inside_loop_p (data->current_loop, bb))
1136     return;
1137
1138   info = name_info (data, op);
1139   info->name = op;
1140   info->has_nonlin_use |= nonlinear_use;
1141   if (!info->inv_id)
1142     info->inv_id = ++data->max_inv_id;
1143   bitmap_set_bit (data->relevant, SSA_NAME_VERSION (op));
1144 }
1145
1146 /* Checks whether the use OP is interesting and if so, records it.  */
1147
1148 static struct iv_use *
1149 find_interesting_uses_op (struct ivopts_data *data, tree op)
1150 {
1151   struct iv *iv;
1152   struct iv *civ;
1153   gimple stmt;
1154   struct iv_use *use;
1155
1156   if (TREE_CODE (op) != SSA_NAME)
1157     return NULL;
1158
1159   iv = get_iv (data, op);
1160   if (!iv)
1161     return NULL;
1162   
1163   if (iv->have_use_for)
1164     {
1165       use = iv_use (data, iv->use_id);
1166
1167       gcc_assert (use->type == USE_NONLINEAR_EXPR);
1168       return use;
1169     }
1170
1171   if (integer_zerop (iv->step))
1172     {
1173       record_invariant (data, op, true);
1174       return NULL;
1175     }
1176   iv->have_use_for = true;
1177
1178   civ = XNEW (struct iv);
1179   *civ = *iv;
1180
1181   stmt = SSA_NAME_DEF_STMT (op);
1182   gcc_assert (gimple_code (stmt) == GIMPLE_PHI
1183               || is_gimple_assign (stmt));
1184
1185   use = record_use (data, NULL, civ, stmt, USE_NONLINEAR_EXPR);
1186   iv->use_id = use->id;
1187
1188   return use;
1189 }
1190
1191 /* Given a condition in statement STMT, checks whether it is a compare
1192    of an induction variable and an invariant.  If this is the case,
1193    CONTROL_VAR is set to location of the iv, BOUND to the location of
1194    the invariant, IV_VAR and IV_BOUND are set to the corresponding
1195    induction variable descriptions, and true is returned.  If this is not
1196    the case, CONTROL_VAR and BOUND are set to the arguments of the
1197    condition and false is returned.  */
1198
1199 static bool
1200 extract_cond_operands (struct ivopts_data *data, gimple stmt,
1201                        tree **control_var, tree **bound,
1202                        struct iv **iv_var, struct iv **iv_bound)
1203 {
1204   /* The objects returned when COND has constant operands.  */
1205   static struct iv const_iv;
1206   static tree zero;
1207   tree *op0 = &zero, *op1 = &zero, *tmp_op;
1208   struct iv *iv0 = &const_iv, *iv1 = &const_iv, *tmp_iv;
1209   bool ret = false;
1210
1211   if (gimple_code (stmt) == GIMPLE_COND)
1212     {
1213       op0 = gimple_cond_lhs_ptr (stmt);
1214       op1 = gimple_cond_rhs_ptr (stmt);
1215     }
1216   else
1217     {
1218       op0 = gimple_assign_rhs1_ptr (stmt);
1219       op1 = gimple_assign_rhs2_ptr (stmt);
1220     }
1221
1222   zero = integer_zero_node;
1223   const_iv.step = integer_zero_node;
1224
1225   if (TREE_CODE (*op0) == SSA_NAME)
1226     iv0 = get_iv (data, *op0);
1227   if (TREE_CODE (*op1) == SSA_NAME)
1228     iv1 = get_iv (data, *op1);
1229
1230   /* Exactly one of the compared values must be an iv, and the other one must
1231      be an invariant.  */
1232   if (!iv0 || !iv1)
1233     goto end;
1234
1235   if (integer_zerop (iv0->step))
1236     {
1237       /* Control variable may be on the other side.  */
1238       tmp_op = op0; op0 = op1; op1 = tmp_op;
1239       tmp_iv = iv0; iv0 = iv1; iv1 = tmp_iv;
1240     }
1241   ret = !integer_zerop (iv0->step) && integer_zerop (iv1->step);
1242
1243 end:
1244   if (control_var)
1245     *control_var = op0;;
1246   if (iv_var)
1247     *iv_var = iv0;;
1248   if (bound)
1249     *bound = op1;
1250   if (iv_bound)
1251     *iv_bound = iv1;
1252
1253   return ret;
1254 }
1255
1256 /* Checks whether the condition in STMT is interesting and if so,
1257    records it.  */
1258
1259 static void
1260 find_interesting_uses_cond (struct ivopts_data *data, gimple stmt)
1261 {
1262   tree *var_p, *bound_p;
1263   struct iv *var_iv, *civ;
1264
1265   if (!extract_cond_operands (data, stmt, &var_p, &bound_p, &var_iv, NULL))
1266     {
1267       find_interesting_uses_op (data, *var_p);
1268       find_interesting_uses_op (data, *bound_p);
1269       return;
1270     }
1271
1272   civ = XNEW (struct iv);
1273   *civ = *var_iv;
1274   record_use (data, NULL, civ, stmt, USE_COMPARE);
1275 }
1276
1277 /* Returns true if expression EXPR is obviously invariant in LOOP,
1278    i.e. if all its operands are defined outside of the LOOP.  LOOP
1279    should not be the function body.  */
1280
1281 bool
1282 expr_invariant_in_loop_p (struct loop *loop, tree expr)
1283 {
1284   basic_block def_bb;
1285   unsigned i, len;
1286
1287   gcc_assert (loop_depth (loop) > 0);
1288
1289   if (is_gimple_min_invariant (expr))
1290     return true;
1291
1292   if (TREE_CODE (expr) == SSA_NAME)
1293     {
1294       def_bb = gimple_bb (SSA_NAME_DEF_STMT (expr));
1295       if (def_bb
1296           && flow_bb_inside_loop_p (loop, def_bb))
1297         return false;
1298
1299       return true;
1300     }
1301
1302   if (!EXPR_P (expr))
1303     return false;
1304
1305   len = TREE_OPERAND_LENGTH (expr);
1306   for (i = 0; i < len; i++)
1307     if (!expr_invariant_in_loop_p (loop, TREE_OPERAND (expr, i)))
1308       return false;
1309
1310   return true;
1311 }
1312
1313 /* Returns true if statement STMT is obviously invariant in LOOP,
1314    i.e. if all its operands on the RHS are defined outside of the LOOP.
1315    LOOP should not be the function body.  */
1316
1317 bool
1318 stmt_invariant_in_loop_p (struct loop *loop, gimple stmt)
1319 {
1320   unsigned i;
1321   tree lhs;
1322
1323   gcc_assert (loop_depth (loop) > 0);
1324
1325   lhs = gimple_get_lhs (stmt);
1326   for (i = 0; i < gimple_num_ops (stmt); i++)
1327     {
1328       tree op = gimple_op (stmt, i);
1329       if (op != lhs && !expr_invariant_in_loop_p (loop, op))
1330         return false;
1331     }
1332
1333   return true;
1334 }
1335
1336 /* Cumulates the steps of indices into DATA and replaces their values with the
1337    initial ones.  Returns false when the value of the index cannot be determined.
1338    Callback for for_each_index.  */
1339
1340 struct ifs_ivopts_data
1341 {
1342   struct ivopts_data *ivopts_data;
1343   gimple stmt;
1344   tree step;
1345 };
1346
1347 static bool
1348 idx_find_step (tree base, tree *idx, void *data)
1349 {
1350   struct ifs_ivopts_data *dta = (struct ifs_ivopts_data *) data;
1351   struct iv *iv;
1352   tree step, iv_base, iv_step, lbound, off;
1353   struct loop *loop = dta->ivopts_data->current_loop;
1354
1355   if (TREE_CODE (base) == MISALIGNED_INDIRECT_REF
1356       || TREE_CODE (base) == ALIGN_INDIRECT_REF)
1357     return false;
1358
1359   /* If base is a component ref, require that the offset of the reference
1360      be invariant.  */
1361   if (TREE_CODE (base) == COMPONENT_REF)
1362     {
1363       off = component_ref_field_offset (base);
1364       return expr_invariant_in_loop_p (loop, off);
1365     }
1366
1367   /* If base is array, first check whether we will be able to move the
1368      reference out of the loop (in order to take its address in strength
1369      reduction).  In order for this to work we need both lower bound
1370      and step to be loop invariants.  */
1371   if (TREE_CODE (base) == ARRAY_REF || TREE_CODE (base) == ARRAY_RANGE_REF)
1372     {
1373       /* Moreover, for a range, the size needs to be invariant as well.  */
1374       if (TREE_CODE (base) == ARRAY_RANGE_REF
1375           && !expr_invariant_in_loop_p (loop, TYPE_SIZE (TREE_TYPE (base))))
1376         return false;
1377
1378       step = array_ref_element_size (base);
1379       lbound = array_ref_low_bound (base);
1380
1381       if (!expr_invariant_in_loop_p (loop, step)
1382           || !expr_invariant_in_loop_p (loop, lbound))
1383         return false;
1384     }
1385
1386   if (TREE_CODE (*idx) != SSA_NAME)
1387     return true;
1388
1389   iv = get_iv (dta->ivopts_data, *idx);
1390   if (!iv)
1391     return false;
1392
1393   /* XXX  We produce for a base of *D42 with iv->base being &x[0]
1394           *&x[0], which is not folded and does not trigger the
1395           ARRAY_REF path below.  */
1396   *idx = iv->base;
1397
1398   if (integer_zerop (iv->step))
1399     return true;
1400
1401   if (TREE_CODE (base) == ARRAY_REF || TREE_CODE (base) == ARRAY_RANGE_REF)
1402     {
1403       step = array_ref_element_size (base);
1404
1405       /* We only handle addresses whose step is an integer constant.  */
1406       if (TREE_CODE (step) != INTEGER_CST)
1407         return false;
1408     }
1409   else
1410     /* The step for pointer arithmetics already is 1 byte.  */
1411     step = build_int_cst (sizetype, 1);
1412
1413   iv_base = iv->base;
1414   iv_step = iv->step;
1415   if (!convert_affine_scev (dta->ivopts_data->current_loop,
1416                             sizetype, &iv_base, &iv_step, dta->stmt,
1417                             false))
1418     {
1419       /* The index might wrap.  */
1420       return false;
1421     }
1422
1423   step = fold_build2 (MULT_EXPR, sizetype, step, iv_step);
1424   dta->step = fold_build2 (PLUS_EXPR, sizetype, dta->step, step);
1425
1426   return true;
1427 }
1428
1429 /* Records use in index IDX.  Callback for for_each_index.  Ivopts data
1430    object is passed to it in DATA.  */
1431
1432 static bool
1433 idx_record_use (tree base, tree *idx,
1434                 void *vdata)
1435 {
1436   struct ivopts_data *data = (struct ivopts_data *) vdata;
1437   find_interesting_uses_op (data, *idx);
1438   if (TREE_CODE (base) == ARRAY_REF || TREE_CODE (base) == ARRAY_RANGE_REF)
1439     {
1440       find_interesting_uses_op (data, array_ref_element_size (base));
1441       find_interesting_uses_op (data, array_ref_low_bound (base));
1442     }
1443   return true;
1444 }
1445
1446 /* If we can prove that TOP = cst * BOT for some constant cst,
1447    store cst to MUL and return true.  Otherwise return false.
1448    The returned value is always sign-extended, regardless of the
1449    signedness of TOP and BOT.  */
1450
1451 static bool
1452 constant_multiple_of (tree top, tree bot, double_int *mul)
1453 {
1454   tree mby;
1455   enum tree_code code;
1456   double_int res, p0, p1;
1457   unsigned precision = TYPE_PRECISION (TREE_TYPE (top));
1458
1459   STRIP_NOPS (top);
1460   STRIP_NOPS (bot);
1461
1462   if (operand_equal_p (top, bot, 0))
1463     {
1464       *mul = double_int_one;
1465       return true;
1466     }
1467
1468   code = TREE_CODE (top);
1469   switch (code)
1470     {
1471     case MULT_EXPR:
1472       mby = TREE_OPERAND (top, 1);
1473       if (TREE_CODE (mby) != INTEGER_CST)
1474         return false;
1475
1476       if (!constant_multiple_of (TREE_OPERAND (top, 0), bot, &res))
1477         return false;
1478
1479       *mul = double_int_sext (double_int_mul (res, tree_to_double_int (mby)),
1480                               precision);
1481       return true;
1482
1483     case PLUS_EXPR:
1484     case MINUS_EXPR:
1485       if (!constant_multiple_of (TREE_OPERAND (top, 0), bot, &p0)
1486           || !constant_multiple_of (TREE_OPERAND (top, 1), bot, &p1))
1487         return false;
1488
1489       if (code == MINUS_EXPR)
1490         p1 = double_int_neg (p1);
1491       *mul = double_int_sext (double_int_add (p0, p1), precision);
1492       return true;
1493
1494     case INTEGER_CST:
1495       if (TREE_CODE (bot) != INTEGER_CST)
1496         return false;
1497
1498       p0 = double_int_sext (tree_to_double_int (top), precision);
1499       p1 = double_int_sext (tree_to_double_int (bot), precision);
1500       if (double_int_zero_p (p1))
1501         return false;
1502       *mul = double_int_sext (double_int_sdivmod (p0, p1, FLOOR_DIV_EXPR, &res),
1503                               precision);
1504       return double_int_zero_p (res);
1505
1506     default:
1507       return false;
1508     }
1509 }
1510
1511 /* Returns true if memory reference REF with step STEP may be unaligned.  */
1512
1513 static bool
1514 may_be_unaligned_p (tree ref, tree step)
1515 {
1516   tree base;
1517   tree base_type;
1518   HOST_WIDE_INT bitsize;
1519   HOST_WIDE_INT bitpos;
1520   tree toffset;
1521   enum machine_mode mode;
1522   int unsignedp, volatilep;
1523   unsigned base_align;
1524
1525   /* TARGET_MEM_REFs are translated directly to valid MEMs on the target,
1526      thus they are not misaligned.  */
1527   if (TREE_CODE (ref) == TARGET_MEM_REF)
1528     return false;
1529
1530   /* The test below is basically copy of what expr.c:normal_inner_ref
1531      does to check whether the object must be loaded by parts when
1532      STRICT_ALIGNMENT is true.  */
1533   base = get_inner_reference (ref, &bitsize, &bitpos, &toffset, &mode,
1534                               &unsignedp, &volatilep, true);
1535   base_type = TREE_TYPE (base);
1536   base_align = TYPE_ALIGN (base_type);
1537
1538   if (mode != BLKmode)
1539     {
1540       double_int mul;
1541       tree al = build_int_cst (TREE_TYPE (step),
1542                                GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT);
1543
1544       if (base_align < GET_MODE_ALIGNMENT (mode)
1545           || bitpos % GET_MODE_ALIGNMENT (mode) != 0
1546           || bitpos % BITS_PER_UNIT != 0)
1547         return true;
1548     
1549       if (!constant_multiple_of (step, al, &mul))
1550         return true;
1551     }
1552
1553   return false;
1554 }
1555
1556 /* Return true if EXPR may be non-addressable.   */
1557
1558 static bool
1559 may_be_nonaddressable_p (tree expr)
1560 {
1561   switch (TREE_CODE (expr))
1562     {
1563     case TARGET_MEM_REF:
1564       /* TARGET_MEM_REFs are translated directly to valid MEMs on the
1565          target, thus they are always addressable.  */
1566       return false;
1567
1568     case COMPONENT_REF:
1569       return DECL_NONADDRESSABLE_P (TREE_OPERAND (expr, 1))
1570              || may_be_nonaddressable_p (TREE_OPERAND (expr, 0));
1571
1572     case VIEW_CONVERT_EXPR:
1573       /* This kind of view-conversions may wrap non-addressable objects
1574          and make them look addressable.  After some processing the
1575          non-addressability may be uncovered again, causing ADDR_EXPRs
1576          of inappropriate objects to be built.  */
1577       if (is_gimple_reg (TREE_OPERAND (expr, 0))
1578           || !is_gimple_addressable (TREE_OPERAND (expr, 0)))
1579         return true;
1580
1581       /* ... fall through ... */
1582
1583     case ARRAY_REF:
1584     case ARRAY_RANGE_REF:
1585       return may_be_nonaddressable_p (TREE_OPERAND (expr, 0));
1586
1587     CASE_CONVERT:
1588       return true;
1589
1590     default:
1591       break;
1592     }
1593
1594   return false;
1595 }
1596
1597 /* Finds addresses in *OP_P inside STMT.  */
1598
1599 static void
1600 find_interesting_uses_address (struct ivopts_data *data, gimple stmt, tree *op_p)
1601 {
1602   tree base = *op_p, step = build_int_cst (sizetype, 0);
1603   struct iv *civ;
1604   struct ifs_ivopts_data ifs_ivopts_data;
1605
1606   /* Do not play with volatile memory references.  A bit too conservative,
1607      perhaps, but safe.  */
1608   if (gimple_has_volatile_ops (stmt))
1609     goto fail;
1610
1611   /* Ignore bitfields for now.  Not really something terribly complicated
1612      to handle.  TODO.  */
1613   if (TREE_CODE (base) == BIT_FIELD_REF)
1614     goto fail;
1615
1616   base = unshare_expr (base);
1617
1618   if (TREE_CODE (base) == TARGET_MEM_REF)
1619     {
1620       tree type = build_pointer_type (TREE_TYPE (base));
1621       tree astep;
1622
1623       if (TMR_BASE (base)
1624           && TREE_CODE (TMR_BASE (base)) == SSA_NAME)
1625         {
1626           civ = get_iv (data, TMR_BASE (base));
1627           if (!civ)
1628             goto fail;
1629
1630           TMR_BASE (base) = civ->base;
1631           step = civ->step;
1632         }
1633       if (TMR_INDEX (base)
1634           && TREE_CODE (TMR_INDEX (base)) == SSA_NAME)
1635         {
1636           civ = get_iv (data, TMR_INDEX (base));
1637           if (!civ)
1638             goto fail;
1639
1640           TMR_INDEX (base) = civ->base;
1641           astep = civ->step;
1642
1643           if (astep)
1644             {
1645               if (TMR_STEP (base))
1646                 astep = fold_build2 (MULT_EXPR, type, TMR_STEP (base), astep);
1647
1648               step = fold_build2 (PLUS_EXPR, type, step, astep);
1649             }
1650         }
1651
1652       if (integer_zerop (step))
1653         goto fail;
1654       base = tree_mem_ref_addr (type, base);
1655     }
1656   else
1657     {
1658       ifs_ivopts_data.ivopts_data = data;
1659       ifs_ivopts_data.stmt = stmt;
1660       ifs_ivopts_data.step = build_int_cst (sizetype, 0);
1661       if (!for_each_index (&base, idx_find_step, &ifs_ivopts_data)
1662           || integer_zerop (ifs_ivopts_data.step))
1663         goto fail;
1664       step = ifs_ivopts_data.step;
1665
1666       gcc_assert (TREE_CODE (base) != ALIGN_INDIRECT_REF);
1667       gcc_assert (TREE_CODE (base) != MISALIGNED_INDIRECT_REF);
1668
1669       /* Check that the base expression is addressable.  This needs
1670          to be done after substituting bases of IVs into it.  */
1671       if (may_be_nonaddressable_p (base))
1672         goto fail;
1673
1674       /* Moreover, on strict alignment platforms, check that it is
1675          sufficiently aligned.  */
1676       if (STRICT_ALIGNMENT && may_be_unaligned_p (base, step))
1677         goto fail;
1678
1679       base = build_fold_addr_expr (base);
1680
1681       /* Substituting bases of IVs into the base expression might
1682          have caused folding opportunities.  */
1683       if (TREE_CODE (base) == ADDR_EXPR)
1684         {
1685           tree *ref = &TREE_OPERAND (base, 0);
1686           while (handled_component_p (*ref))
1687             ref = &TREE_OPERAND (*ref, 0);
1688           if (TREE_CODE (*ref) == INDIRECT_REF)
1689             *ref = fold_indirect_ref (*ref);
1690         }
1691     }
1692
1693   civ = alloc_iv (base, step);
1694   record_use (data, op_p, civ, stmt, USE_ADDRESS);
1695   return;
1696
1697 fail:
1698   for_each_index (op_p, idx_record_use, data);
1699 }
1700
1701 /* Finds and records invariants used in STMT.  */
1702
1703 static void
1704 find_invariants_stmt (struct ivopts_data *data, gimple stmt)
1705 {
1706   ssa_op_iter iter;
1707   use_operand_p use_p;
1708   tree op;
1709
1710   FOR_EACH_PHI_OR_STMT_USE (use_p, stmt, iter, SSA_OP_USE)
1711     {
1712       op = USE_FROM_PTR (use_p);
1713       record_invariant (data, op, false);
1714     }
1715 }
1716
1717 /* Finds interesting uses of induction variables in the statement STMT.  */
1718
1719 static void
1720 find_interesting_uses_stmt (struct ivopts_data *data, gimple stmt)
1721 {
1722   struct iv *iv;
1723   tree op, *lhs, *rhs;
1724   ssa_op_iter iter;
1725   use_operand_p use_p;
1726   enum tree_code code;
1727
1728   find_invariants_stmt (data, stmt);
1729
1730   if (gimple_code (stmt) == GIMPLE_COND)
1731     {
1732       find_interesting_uses_cond (data, stmt);
1733       return;
1734     }
1735
1736   if (is_gimple_assign (stmt))
1737     {
1738       lhs = gimple_assign_lhs_ptr (stmt);
1739       rhs = gimple_assign_rhs1_ptr (stmt);
1740
1741       if (TREE_CODE (*lhs) == SSA_NAME)
1742         {
1743           /* If the statement defines an induction variable, the uses are not
1744              interesting by themselves.  */
1745
1746           iv = get_iv (data, *lhs);
1747
1748           if (iv && !integer_zerop (iv->step))
1749             return;
1750         }
1751
1752       code = gimple_assign_rhs_code (stmt);
1753       if (get_gimple_rhs_class (code) == GIMPLE_SINGLE_RHS
1754           && (REFERENCE_CLASS_P (*rhs)
1755               || is_gimple_val (*rhs)))
1756         {
1757           if (REFERENCE_CLASS_P (*rhs))
1758             find_interesting_uses_address (data, stmt, rhs);
1759           else
1760             find_interesting_uses_op (data, *rhs);
1761
1762           if (REFERENCE_CLASS_P (*lhs))
1763             find_interesting_uses_address (data, stmt, lhs);
1764           return;
1765         }
1766       else if (TREE_CODE_CLASS (code) == tcc_comparison)
1767         {
1768           find_interesting_uses_cond (data, stmt);
1769           return;
1770         }
1771
1772       /* TODO -- we should also handle address uses of type
1773
1774          memory = call (whatever);
1775
1776          and
1777
1778          call (memory).  */
1779     }
1780
1781   if (gimple_code (stmt) == GIMPLE_PHI
1782       && gimple_bb (stmt) == data->current_loop->header)
1783     {
1784       iv = get_iv (data, PHI_RESULT (stmt));
1785
1786       if (iv && !integer_zerop (iv->step))
1787         return;
1788     }
1789
1790   FOR_EACH_PHI_OR_STMT_USE (use_p, stmt, iter, SSA_OP_USE)
1791     {
1792       op = USE_FROM_PTR (use_p);
1793
1794       if (TREE_CODE (op) != SSA_NAME)
1795         continue;
1796
1797       iv = get_iv (data, op);
1798       if (!iv)
1799         continue;
1800
1801       find_interesting_uses_op (data, op);
1802     }
1803 }
1804
1805 /* Finds interesting uses of induction variables outside of loops
1806    on loop exit edge EXIT.  */
1807
1808 static void
1809 find_interesting_uses_outside (struct ivopts_data *data, edge exit)
1810 {
1811   gimple phi;
1812   gimple_stmt_iterator psi;
1813   tree def;
1814
1815   for (psi = gsi_start_phis (exit->dest); !gsi_end_p (psi); gsi_next (&psi))
1816     {
1817       phi = gsi_stmt (psi);
1818       def = PHI_ARG_DEF_FROM_EDGE (phi, exit);
1819       if (is_gimple_reg (def))
1820         find_interesting_uses_op (data, def);
1821     }
1822 }
1823
1824 /* Finds uses of the induction variables that are interesting.  */
1825
1826 static void
1827 find_interesting_uses (struct ivopts_data *data)
1828 {
1829   basic_block bb;
1830   gimple_stmt_iterator bsi;
1831   basic_block *body = get_loop_body (data->current_loop);
1832   unsigned i;
1833   struct version_info *info;
1834   edge e;
1835
1836   if (dump_file && (dump_flags & TDF_DETAILS))
1837     fprintf (dump_file, "Uses:\n\n");
1838
1839   for (i = 0; i < data->current_loop->num_nodes; i++)
1840     {
1841       edge_iterator ei;
1842       bb = body[i];
1843
1844       FOR_EACH_EDGE (e, ei, bb->succs)
1845         if (e->dest != EXIT_BLOCK_PTR
1846             && !flow_bb_inside_loop_p (data->current_loop, e->dest))
1847           find_interesting_uses_outside (data, e);
1848
1849       for (bsi = gsi_start_phis (bb); !gsi_end_p (bsi); gsi_next (&bsi))
1850         find_interesting_uses_stmt (data, gsi_stmt (bsi));
1851       for (bsi = gsi_start_bb (bb); !gsi_end_p (bsi); gsi_next (&bsi))
1852         if (!is_gimple_debug (gsi_stmt (bsi)))
1853           find_interesting_uses_stmt (data, gsi_stmt (bsi));
1854     }
1855
1856   if (dump_file && (dump_flags & TDF_DETAILS))
1857     {
1858       bitmap_iterator bi;
1859
1860       fprintf (dump_file, "\n");
1861
1862       EXECUTE_IF_SET_IN_BITMAP (data->relevant, 0, i, bi)
1863         {
1864           info = ver_info (data, i);
1865           if (info->inv_id)
1866             {
1867               fprintf (dump_file, "  ");
1868               print_generic_expr (dump_file, info->name, TDF_SLIM);
1869               fprintf (dump_file, " is invariant (%d)%s\n",
1870                        info->inv_id, info->has_nonlin_use ? "" : ", eliminable");
1871             }
1872         }
1873
1874       fprintf (dump_file, "\n");
1875     }
1876
1877   free (body);
1878 }
1879
1880 /* Strips constant offsets from EXPR and stores them to OFFSET.  If INSIDE_ADDR
1881    is true, assume we are inside an address.  If TOP_COMPREF is true, assume
1882    we are at the top-level of the processed address.  */
1883
1884 static tree
1885 strip_offset_1 (tree expr, bool inside_addr, bool top_compref,
1886                 unsigned HOST_WIDE_INT *offset)
1887 {
1888   tree op0 = NULL_TREE, op1 = NULL_TREE, tmp, step;
1889   enum tree_code code;
1890   tree type, orig_type = TREE_TYPE (expr);
1891   unsigned HOST_WIDE_INT off0, off1, st;
1892   tree orig_expr = expr;
1893
1894   STRIP_NOPS (expr);
1895
1896   type = TREE_TYPE (expr);
1897   code = TREE_CODE (expr);
1898   *offset = 0;
1899
1900   switch (code)
1901     {
1902     case INTEGER_CST:
1903       if (!cst_and_fits_in_hwi (expr)
1904           || integer_zerop (expr))
1905         return orig_expr;
1906
1907       *offset = int_cst_value (expr);
1908       return build_int_cst (orig_type, 0);
1909
1910     case POINTER_PLUS_EXPR:
1911     case PLUS_EXPR:
1912     case MINUS_EXPR:
1913       op0 = TREE_OPERAND (expr, 0);
1914       op1 = TREE_OPERAND (expr, 1);
1915
1916       op0 = strip_offset_1 (op0, false, false, &off0);
1917       op1 = strip_offset_1 (op1, false, false, &off1);
1918
1919       *offset = (code == MINUS_EXPR ? off0 - off1 : off0 + off1);
1920       if (op0 == TREE_OPERAND (expr, 0)
1921           && op1 == TREE_OPERAND (expr, 1))
1922         return orig_expr;
1923
1924       if (integer_zerop (op1))
1925         expr = op0;
1926       else if (integer_zerop (op0))
1927         {
1928           if (code == MINUS_EXPR)
1929             expr = fold_build1 (NEGATE_EXPR, type, op1);
1930           else
1931             expr = op1;
1932         }
1933       else
1934         expr = fold_build2 (code, type, op0, op1);
1935
1936       return fold_convert (orig_type, expr);
1937
1938     case MULT_EXPR:
1939       op1 = TREE_OPERAND (expr, 1);
1940       if (!cst_and_fits_in_hwi (op1))
1941         return orig_expr;
1942
1943       op0 = TREE_OPERAND (expr, 0);
1944       op0 = strip_offset_1 (op0, false, false, &off0);
1945       if (op0 == TREE_OPERAND (expr, 0))
1946         return orig_expr;
1947
1948       *offset = off0 * int_cst_value (op1);
1949       if (integer_zerop (op0))
1950         expr = op0;
1951       else
1952         expr = fold_build2 (MULT_EXPR, type, op0, op1);
1953
1954       return fold_convert (orig_type, expr);
1955
1956     case ARRAY_REF:
1957     case ARRAY_RANGE_REF:
1958       if (!inside_addr)
1959         return orig_expr;
1960
1961       step = array_ref_element_size (expr);
1962       if (!cst_and_fits_in_hwi (step))
1963         break;
1964
1965       st = int_cst_value (step);
1966       op1 = TREE_OPERAND (expr, 1);
1967       op1 = strip_offset_1 (op1, false, false, &off1);
1968       *offset = off1 * st;
1969
1970       if (top_compref
1971           && integer_zerop (op1))
1972         {
1973           /* Strip the component reference completely.  */
1974           op0 = TREE_OPERAND (expr, 0);
1975           op0 = strip_offset_1 (op0, inside_addr, top_compref, &off0);
1976           *offset += off0;
1977           return op0;
1978         }
1979       break;
1980
1981     case COMPONENT_REF:
1982       if (!inside_addr)
1983         return orig_expr;
1984
1985       tmp = component_ref_field_offset (expr);
1986       if (top_compref
1987           && cst_and_fits_in_hwi (tmp))
1988         {
1989           /* Strip the component reference completely.  */
1990           op0 = TREE_OPERAND (expr, 0);
1991           op0 = strip_offset_1 (op0, inside_addr, top_compref, &off0);
1992           *offset = off0 + int_cst_value (tmp);
1993           return op0;
1994         }
1995       break;
1996
1997     case ADDR_EXPR:
1998       op0 = TREE_OPERAND (expr, 0);
1999       op0 = strip_offset_1 (op0, true, true, &off0);
2000       *offset += off0;
2001
2002       if (op0 == TREE_OPERAND (expr, 0))
2003         return orig_expr;
2004
2005       expr = build_fold_addr_expr (op0);
2006       return fold_convert (orig_type, expr);
2007
2008     case INDIRECT_REF:
2009       inside_addr = false;
2010       break;
2011
2012     default:
2013       return orig_expr;
2014     }
2015
2016   /* Default handling of expressions for that we want to recurse into
2017      the first operand.  */
2018   op0 = TREE_OPERAND (expr, 0);
2019   op0 = strip_offset_1 (op0, inside_addr, false, &off0);
2020   *offset += off0;
2021
2022   if (op0 == TREE_OPERAND (expr, 0)
2023       && (!op1 || op1 == TREE_OPERAND (expr, 1)))
2024     return orig_expr;
2025
2026   expr = copy_node (expr);
2027   TREE_OPERAND (expr, 0) = op0;
2028   if (op1)
2029     TREE_OPERAND (expr, 1) = op1;
2030
2031   /* Inside address, we might strip the top level component references,
2032      thus changing type of the expression.  Handling of ADDR_EXPR
2033      will fix that.  */
2034   expr = fold_convert (orig_type, expr);
2035
2036   return expr;
2037 }
2038
2039 /* Strips constant offsets from EXPR and stores them to OFFSET.  */
2040
2041 static tree
2042 strip_offset (tree expr, unsigned HOST_WIDE_INT *offset)
2043 {
2044   return strip_offset_1 (expr, false, false, offset);
2045 }
2046
2047 /* Returns variant of TYPE that can be used as base for different uses.
2048    We return unsigned type with the same precision, which avoids problems
2049    with overflows.  */
2050
2051 static tree
2052 generic_type_for (tree type)
2053 {
2054   if (POINTER_TYPE_P (type))
2055     return unsigned_type_for (type);
2056
2057   if (TYPE_UNSIGNED (type))
2058     return type;
2059
2060   return unsigned_type_for (type);
2061 }
2062
2063 /* Records invariants in *EXPR_P.  Callback for walk_tree.  DATA contains
2064    the bitmap to that we should store it.  */
2065
2066 static struct ivopts_data *fd_ivopts_data;
2067 static tree
2068 find_depends (tree *expr_p, int *ws ATTRIBUTE_UNUSED, void *data)
2069 {
2070   bitmap *depends_on = (bitmap *) data;
2071   struct version_info *info;
2072
2073   if (TREE_CODE (*expr_p) != SSA_NAME)
2074     return NULL_TREE;
2075   info = name_info (fd_ivopts_data, *expr_p);
2076
2077   if (!info->inv_id || info->has_nonlin_use)
2078     return NULL_TREE;
2079
2080   if (!*depends_on)
2081     *depends_on = BITMAP_ALLOC (NULL);
2082   bitmap_set_bit (*depends_on, info->inv_id);
2083
2084   return NULL_TREE;
2085 }
2086
2087 /* Adds a candidate BASE + STEP * i.  Important field is set to IMPORTANT and
2088    position to POS.  If USE is not NULL, the candidate is set as related to
2089    it.  If both BASE and STEP are NULL, we add a pseudocandidate for the
2090    replacement of the final value of the iv by a direct computation.  */
2091
2092 static struct iv_cand *
2093 add_candidate_1 (struct ivopts_data *data,
2094                  tree base, tree step, bool important, enum iv_position pos,
2095                  struct iv_use *use, gimple incremented_at)
2096 {
2097   unsigned i;
2098   struct iv_cand *cand = NULL;
2099   tree type, orig_type;
2100   
2101   if (base)
2102     {
2103       orig_type = TREE_TYPE (base);
2104       type = generic_type_for (orig_type);
2105       if (type != orig_type)
2106         {
2107           base = fold_convert (type, base);
2108           step = fold_convert (type, step);
2109         }
2110     }
2111
2112   for (i = 0; i < n_iv_cands (data); i++)
2113     {
2114       cand = iv_cand (data, i);
2115
2116       if (cand->pos != pos)
2117         continue;
2118
2119       if (cand->incremented_at != incremented_at
2120           || ((pos == IP_AFTER_USE || pos == IP_BEFORE_USE)
2121               && cand->ainc_use != use))
2122         continue;
2123
2124       if (!cand->iv)
2125         {
2126           if (!base && !step)
2127             break;
2128
2129           continue;
2130         }
2131
2132       if (!base && !step)
2133         continue;
2134
2135       if (operand_equal_p (base, cand->iv->base, 0)
2136           && operand_equal_p (step, cand->iv->step, 0))
2137         break;
2138     }
2139
2140   if (i == n_iv_cands (data))
2141     {
2142       cand = XCNEW (struct iv_cand);
2143       cand->id = i;
2144
2145       if (!base && !step)
2146         cand->iv = NULL;
2147       else
2148         cand->iv = alloc_iv (base, step);
2149
2150       cand->pos = pos;
2151       if (pos != IP_ORIGINAL && cand->iv)
2152         {
2153           cand->var_before = create_tmp_var_raw (TREE_TYPE (base), "ivtmp");
2154           cand->var_after = cand->var_before;
2155         }
2156       cand->important = important;
2157       cand->incremented_at = incremented_at;
2158       VEC_safe_push (iv_cand_p, heap, data->iv_candidates, cand);
2159
2160       if (step
2161           && TREE_CODE (step) != INTEGER_CST)
2162         {
2163           fd_ivopts_data = data;
2164           walk_tree (&step, find_depends, &cand->depends_on, NULL);
2165         }
2166
2167       if (pos == IP_AFTER_USE || pos == IP_BEFORE_USE)
2168         cand->ainc_use = use;
2169       else
2170         cand->ainc_use = NULL;
2171
2172       if (dump_file && (dump_flags & TDF_DETAILS))
2173         dump_cand (dump_file, cand);
2174     }
2175
2176   if (important && !cand->important)
2177     {
2178       cand->important = true;
2179       if (dump_file && (dump_flags & TDF_DETAILS))
2180         fprintf (dump_file, "Candidate %d is important\n", cand->id);
2181     }
2182
2183   if (use)
2184     {
2185       bitmap_set_bit (use->related_cands, i);
2186       if (dump_file && (dump_flags & TDF_DETAILS))
2187         fprintf (dump_file, "Candidate %d is related to use %d\n",
2188                  cand->id, use->id);
2189     }
2190
2191   return cand;
2192 }
2193
2194 /* Returns true if incrementing the induction variable at the end of the LOOP
2195    is allowed.
2196
2197    The purpose is to avoid splitting latch edge with a biv increment, thus
2198    creating a jump, possibly confusing other optimization passes and leaving
2199    less freedom to scheduler.  So we allow IP_END_POS only if IP_NORMAL_POS
2200    is not available (so we do not have a better alternative), or if the latch
2201    edge is already nonempty.  */
2202
2203 static bool
2204 allow_ip_end_pos_p (struct loop *loop)
2205 {
2206   if (!ip_normal_pos (loop))
2207     return true;
2208
2209   if (!empty_block_p (ip_end_pos (loop)))
2210     return true;
2211
2212   return false;
2213 }
2214
2215 /* If possible, adds autoincrement candidates BASE + STEP * i based on use USE.
2216    Important field is set to IMPORTANT.  */
2217
2218 static void
2219 add_autoinc_candidates (struct ivopts_data *data, tree base, tree step,
2220                         bool important, struct iv_use *use)
2221 {
2222   basic_block use_bb = gimple_bb (use->stmt);
2223   enum machine_mode mem_mode;
2224   unsigned HOST_WIDE_INT cstepi;
2225
2226   /* If we insert the increment in any position other than the standard
2227      ones, we must ensure that it is incremented once per iteration.
2228      It must not be in an inner nested loop, or one side of an if
2229      statement.  */
2230   if (use_bb->loop_father != data->current_loop
2231       || !dominated_by_p (CDI_DOMINATORS, data->current_loop->latch, use_bb)
2232       || stmt_could_throw_p (use->stmt)
2233       || !cst_and_fits_in_hwi (step))
2234     return;
2235
2236   cstepi = int_cst_value (step);
2237
2238   mem_mode = TYPE_MODE (TREE_TYPE (*use->op_p));
2239   if ((HAVE_PRE_INCREMENT && GET_MODE_SIZE (mem_mode) == cstepi)
2240       || (HAVE_PRE_DECREMENT && GET_MODE_SIZE (mem_mode) == -cstepi))
2241     {
2242       enum tree_code code = MINUS_EXPR;
2243       tree new_base;
2244       tree new_step = step;
2245
2246       if (POINTER_TYPE_P (TREE_TYPE (base)))
2247         {
2248           new_step = fold_build1 (NEGATE_EXPR, TREE_TYPE (step), step);
2249           code = POINTER_PLUS_EXPR;
2250         }
2251       else
2252         new_step = fold_convert (TREE_TYPE (base), new_step);
2253       new_base = fold_build2 (code, TREE_TYPE (base), base, new_step);
2254       add_candidate_1 (data, new_base, step, important, IP_BEFORE_USE, use,
2255                        use->stmt);
2256     }
2257   if ((HAVE_POST_INCREMENT && GET_MODE_SIZE (mem_mode) == cstepi)
2258       || (HAVE_POST_DECREMENT && GET_MODE_SIZE (mem_mode) == -cstepi))
2259     {
2260       add_candidate_1 (data, base, step, important, IP_AFTER_USE, use,
2261                        use->stmt);
2262     }
2263 }
2264
2265 /* Adds a candidate BASE + STEP * i.  Important field is set to IMPORTANT and
2266    position to POS.  If USE is not NULL, the candidate is set as related to
2267    it.  The candidate computation is scheduled on all available positions.  */
2268
2269 static void
2270 add_candidate (struct ivopts_data *data, 
2271                tree base, tree step, bool important, struct iv_use *use)
2272 {
2273   if (ip_normal_pos (data->current_loop))
2274     add_candidate_1 (data, base, step, important, IP_NORMAL, use, NULL);
2275   if (ip_end_pos (data->current_loop)
2276       && allow_ip_end_pos_p (data->current_loop))
2277     add_candidate_1 (data, base, step, important, IP_END, use, NULL);
2278
2279   if (use != NULL && use->type == USE_ADDRESS)
2280     add_autoinc_candidates (data, base, step, important, use);
2281 }
2282
2283 /* Add a standard "0 + 1 * iteration" iv candidate for a
2284    type with SIZE bits.  */
2285
2286 static void
2287 add_standard_iv_candidates_for_size (struct ivopts_data *data,
2288                                      unsigned int size)
2289 {
2290   tree type = lang_hooks.types.type_for_size (size, true);
2291   add_candidate (data, build_int_cst (type, 0), build_int_cst (type, 1),
2292                  true, NULL);
2293 }
2294
2295 /* Adds standard iv candidates.  */
2296
2297 static void
2298 add_standard_iv_candidates (struct ivopts_data *data)
2299 {
2300   add_standard_iv_candidates_for_size (data, INT_TYPE_SIZE);
2301
2302   /* The same for a double-integer type if it is still fast enough.  */
2303   if (BITS_PER_WORD >= INT_TYPE_SIZE * 2)
2304     add_standard_iv_candidates_for_size (data, INT_TYPE_SIZE * 2);
2305 }
2306
2307
2308 /* Adds candidates bases on the old induction variable IV.  */
2309
2310 static void
2311 add_old_iv_candidates (struct ivopts_data *data, struct iv *iv)
2312 {
2313   gimple phi;
2314   tree def;
2315   struct iv_cand *cand;
2316
2317   add_candidate (data, iv->base, iv->step, true, NULL);
2318
2319   /* The same, but with initial value zero.  */
2320   if (POINTER_TYPE_P (TREE_TYPE (iv->base)))
2321     add_candidate (data, size_int (0), iv->step, true, NULL);
2322   else
2323     add_candidate (data, build_int_cst (TREE_TYPE (iv->base), 0),
2324                    iv->step, true, NULL);
2325
2326   phi = SSA_NAME_DEF_STMT (iv->ssa_name);
2327   if (gimple_code (phi) == GIMPLE_PHI)
2328     {
2329       /* Additionally record the possibility of leaving the original iv
2330          untouched.  */
2331       def = PHI_ARG_DEF_FROM_EDGE (phi, loop_latch_edge (data->current_loop));
2332       cand = add_candidate_1 (data,
2333                               iv->base, iv->step, true, IP_ORIGINAL, NULL,
2334                               SSA_NAME_DEF_STMT (def));
2335       cand->var_before = iv->ssa_name;
2336       cand->var_after = def;
2337     }
2338 }
2339
2340 /* Adds candidates based on the old induction variables.  */
2341
2342 static void
2343 add_old_ivs_candidates (struct ivopts_data *data)
2344 {
2345   unsigned i;
2346   struct iv *iv;
2347   bitmap_iterator bi;
2348
2349   EXECUTE_IF_SET_IN_BITMAP (data->relevant, 0, i, bi)
2350     {
2351       iv = ver_info (data, i)->iv;
2352       if (iv && iv->biv_p && !integer_zerop (iv->step))
2353         add_old_iv_candidates (data, iv);
2354     }
2355 }
2356
2357 /* Adds candidates based on the value of the induction variable IV and USE.  */
2358
2359 static void
2360 add_iv_value_candidates (struct ivopts_data *data,
2361                          struct iv *iv, struct iv_use *use)
2362 {
2363   unsigned HOST_WIDE_INT offset;
2364   tree base;
2365   tree basetype;
2366
2367   add_candidate (data, iv->base, iv->step, false, use);
2368
2369   /* The same, but with initial value zero.  Make such variable important,
2370      since it is generic enough so that possibly many uses may be based
2371      on it.  */
2372   basetype = TREE_TYPE (iv->base);
2373   if (POINTER_TYPE_P (basetype))
2374     basetype = sizetype;
2375   add_candidate (data, build_int_cst (basetype, 0),
2376                  iv->step, true, use);
2377
2378   /* Third, try removing the constant offset.  Make sure to even
2379      add a candidate for &a[0] vs. (T *)&a.  */
2380   base = strip_offset (iv->base, &offset);
2381   if (offset
2382       || base != iv->base)
2383     add_candidate (data, base, iv->step, false, use);
2384 }
2385
2386 /* Adds candidates based on the uses.  */
2387
2388 static void
2389 add_derived_ivs_candidates (struct ivopts_data *data)
2390 {
2391   unsigned i;
2392
2393   for (i = 0; i < n_iv_uses (data); i++)
2394     {
2395       struct iv_use *use = iv_use (data, i);
2396
2397       if (!use)
2398         continue;
2399
2400       switch (use->type)
2401         {
2402         case USE_NONLINEAR_EXPR:
2403         case USE_COMPARE:
2404         case USE_ADDRESS:
2405           /* Just add the ivs based on the value of the iv used here.  */
2406           add_iv_value_candidates (data, use->iv, use);
2407           break;
2408
2409         default:
2410           gcc_unreachable ();
2411         }
2412     }
2413 }
2414
2415 /* Record important candidates and add them to related_cands bitmaps
2416    if needed.  */
2417
2418 static void
2419 record_important_candidates (struct ivopts_data *data)
2420 {
2421   unsigned i;
2422   struct iv_use *use;
2423
2424   for (i = 0; i < n_iv_cands (data); i++)
2425     {
2426       struct iv_cand *cand = iv_cand (data, i);
2427
2428       if (cand->important)
2429         bitmap_set_bit (data->important_candidates, i);
2430     }
2431
2432   data->consider_all_candidates = (n_iv_cands (data)
2433                                    <= CONSIDER_ALL_CANDIDATES_BOUND);
2434
2435   if (data->consider_all_candidates)
2436     {
2437       /* We will not need "related_cands" bitmaps in this case,
2438          so release them to decrease peak memory consumption.  */
2439       for (i = 0; i < n_iv_uses (data); i++)
2440         {
2441           use = iv_use (data, i);
2442           BITMAP_FREE (use->related_cands);
2443         }
2444     }
2445   else
2446     {
2447       /* Add important candidates to the related_cands bitmaps.  */
2448       for (i = 0; i < n_iv_uses (data); i++)
2449         bitmap_ior_into (iv_use (data, i)->related_cands,
2450                          data->important_candidates);
2451     }
2452 }
2453
2454 /* Allocates the data structure mapping the (use, candidate) pairs to costs.
2455    If consider_all_candidates is true, we use a two-dimensional array, otherwise
2456    we allocate a simple list to every use.  */
2457
2458 static void
2459 alloc_use_cost_map (struct ivopts_data *data)
2460 {
2461   unsigned i, size, s, j;
2462
2463   for (i = 0; i < n_iv_uses (data); i++)
2464     {
2465       struct iv_use *use = iv_use (data, i);
2466       bitmap_iterator bi;
2467
2468       if (data->consider_all_candidates)
2469         size = n_iv_cands (data);
2470       else
2471         {
2472           s = 0;
2473           EXECUTE_IF_SET_IN_BITMAP (use->related_cands, 0, j, bi)
2474             {
2475               s++;
2476             }
2477
2478           /* Round up to the power of two, so that moduling by it is fast.  */
2479           for (size = 1; size < s; size <<= 1)
2480             continue;
2481         }
2482
2483       use->n_map_members = size;
2484       use->cost_map = XCNEWVEC (struct cost_pair, size);
2485     }
2486 }
2487
2488 /* Returns description of computation cost of expression whose runtime
2489    cost is RUNTIME and complexity corresponds to COMPLEXITY.  */
2490
2491 static comp_cost
2492 new_cost (unsigned runtime, unsigned complexity)
2493 {
2494   comp_cost cost;
2495
2496   cost.cost = runtime;
2497   cost.complexity = complexity;
2498
2499   return cost;
2500 }
2501
2502 /* Adds costs COST1 and COST2.  */
2503
2504 static comp_cost
2505 add_costs (comp_cost cost1, comp_cost cost2)
2506 {
2507   cost1.cost += cost2.cost;
2508   cost1.complexity += cost2.complexity;
2509
2510   return cost1;
2511 }
2512 /* Subtracts costs COST1 and COST2.  */
2513
2514 static comp_cost
2515 sub_costs (comp_cost cost1, comp_cost cost2)
2516 {
2517   cost1.cost -= cost2.cost;
2518   cost1.complexity -= cost2.complexity;
2519
2520   return cost1;
2521 }
2522
2523 /* Returns a negative number if COST1 < COST2, a positive number if
2524    COST1 > COST2, and 0 if COST1 = COST2.  */
2525
2526 static int
2527 compare_costs (comp_cost cost1, comp_cost cost2)
2528 {
2529   if (cost1.cost == cost2.cost)
2530     return cost1.complexity - cost2.complexity;
2531
2532   return cost1.cost - cost2.cost;
2533 }
2534
2535 /* Returns true if COST is infinite.  */
2536
2537 static bool
2538 infinite_cost_p (comp_cost cost)
2539 {
2540   return cost.cost == INFTY;
2541 }
2542
2543 /* Sets cost of (USE, CANDIDATE) pair to COST and record that it depends
2544    on invariants DEPENDS_ON and that the value used in expressing it
2545    is VALUE.  */
2546
2547 static void
2548 set_use_iv_cost (struct ivopts_data *data,
2549                  struct iv_use *use, struct iv_cand *cand,
2550                  comp_cost cost, bitmap depends_on, tree value)
2551 {
2552   unsigned i, s;
2553
2554   if (infinite_cost_p (cost))
2555     {
2556       BITMAP_FREE (depends_on);
2557       return;
2558     }
2559
2560   if (data->consider_all_candidates)
2561     {
2562       use->cost_map[cand->id].cand = cand;
2563       use->cost_map[cand->id].cost = cost;
2564       use->cost_map[cand->id].depends_on = depends_on;
2565       use->cost_map[cand->id].value = value;
2566       return;
2567     }
2568
2569   /* n_map_members is a power of two, so this computes modulo.  */
2570   s = cand->id & (use->n_map_members - 1);
2571   for (i = s; i < use->n_map_members; i++)
2572     if (!use->cost_map[i].cand)
2573       goto found;
2574   for (i = 0; i < s; i++)
2575     if (!use->cost_map[i].cand)
2576       goto found;
2577
2578   gcc_unreachable ();
2579
2580 found:
2581   use->cost_map[i].cand = cand;
2582   use->cost_map[i].cost = cost;
2583   use->cost_map[i].depends_on = depends_on;
2584   use->cost_map[i].value = value;
2585 }
2586
2587 /* Gets cost of (USE, CANDIDATE) pair.  */
2588
2589 static struct cost_pair *
2590 get_use_iv_cost (struct ivopts_data *data, struct iv_use *use,
2591                  struct iv_cand *cand)
2592 {
2593   unsigned i, s;
2594   struct cost_pair *ret;
2595
2596   if (!cand)
2597     return NULL;
2598
2599   if (data->consider_all_candidates)
2600     {
2601       ret = use->cost_map + cand->id;
2602       if (!ret->cand)
2603         return NULL;
2604
2605       return ret;
2606     }
2607       
2608   /* n_map_members is a power of two, so this computes modulo.  */
2609   s = cand->id & (use->n_map_members - 1);
2610   for (i = s; i < use->n_map_members; i++)
2611     if (use->cost_map[i].cand == cand)
2612       return use->cost_map + i;
2613
2614   for (i = 0; i < s; i++)
2615     if (use->cost_map[i].cand == cand)
2616       return use->cost_map + i;
2617
2618   return NULL;
2619 }
2620
2621 /* Returns estimate on cost of computing SEQ.  */
2622
2623 static unsigned
2624 seq_cost (rtx seq, bool speed)
2625 {
2626   unsigned cost = 0;
2627   rtx set;
2628
2629   for (; seq; seq = NEXT_INSN (seq))
2630     {
2631       set = single_set (seq);
2632       if (set)
2633         cost += rtx_cost (set, SET,speed);
2634       else
2635         cost++;
2636     }
2637
2638   return cost;
2639 }
2640
2641 /* Produce DECL_RTL for object obj so it looks like it is stored in memory.  */
2642 static rtx
2643 produce_memory_decl_rtl (tree obj, int *regno)
2644 {
2645   addr_space_t as = TYPE_ADDR_SPACE (TREE_TYPE (obj));
2646   rtx x;
2647   
2648   gcc_assert (obj);
2649   if (TREE_STATIC (obj) || DECL_EXTERNAL (obj))
2650     {
2651       const char *name = IDENTIFIER_POINTER (DECL_ASSEMBLER_NAME (obj));
2652       x = gen_rtx_SYMBOL_REF (Pmode, name);
2653       SET_SYMBOL_REF_DECL (x, obj);
2654       x = gen_rtx_MEM (DECL_MODE (obj), x);
2655       set_mem_addr_space (x, as);
2656       targetm.encode_section_info (obj, x, true);
2657     }
2658   else
2659     {
2660       x = gen_raw_REG (Pmode, (*regno)++);
2661       x = gen_rtx_MEM (DECL_MODE (obj), x);
2662       set_mem_addr_space (x, as);
2663     }
2664
2665   return x;
2666 }
2667
2668 /* Prepares decl_rtl for variables referred in *EXPR_P.  Callback for
2669    walk_tree.  DATA contains the actual fake register number.  */
2670
2671 static tree
2672 prepare_decl_rtl (tree *expr_p, int *ws, void *data)
2673 {
2674   tree obj = NULL_TREE;
2675   rtx x = NULL_RTX;
2676   int *regno = (int *) data;
2677
2678   switch (TREE_CODE (*expr_p))
2679     {
2680     case ADDR_EXPR:
2681       for (expr_p = &TREE_OPERAND (*expr_p, 0);
2682            handled_component_p (*expr_p);
2683            expr_p = &TREE_OPERAND (*expr_p, 0))
2684         continue;
2685       obj = *expr_p;
2686       if (DECL_P (obj) && !DECL_RTL_SET_P (obj))
2687         x = produce_memory_decl_rtl (obj, regno);
2688       break;
2689
2690     case SSA_NAME:
2691       *ws = 0;
2692       obj = SSA_NAME_VAR (*expr_p);
2693       if (!DECL_RTL_SET_P (obj))
2694         x = gen_raw_REG (DECL_MODE (obj), (*regno)++);
2695       break;
2696
2697     case VAR_DECL:
2698     case PARM_DECL:
2699     case RESULT_DECL:
2700       *ws = 0;
2701       obj = *expr_p;
2702
2703       if (DECL_RTL_SET_P (obj))
2704         break;
2705
2706       if (DECL_MODE (obj) == BLKmode)
2707         x = produce_memory_decl_rtl (obj, regno);
2708       else
2709         x = gen_raw_REG (DECL_MODE (obj), (*regno)++);
2710
2711       break;
2712
2713     default:
2714       break;
2715     }
2716
2717   if (x)
2718     {
2719       VEC_safe_push (tree, heap, decl_rtl_to_reset, obj);
2720       SET_DECL_RTL (obj, x);
2721     }
2722
2723   return NULL_TREE;
2724 }
2725
2726 /* Determines cost of the computation of EXPR.  */
2727
2728 static unsigned
2729 computation_cost (tree expr, bool speed)
2730 {
2731   rtx seq, rslt;
2732   tree type = TREE_TYPE (expr);
2733   unsigned cost;
2734   /* Avoid using hard regs in ways which may be unsupported.  */
2735   int regno = LAST_VIRTUAL_REGISTER + 1;
2736   enum function_frequency real_frequency = cfun->function_frequency;
2737
2738   cfun->function_frequency = FUNCTION_FREQUENCY_NORMAL;
2739   crtl->maybe_hot_insn_p = speed;
2740   walk_tree (&expr, prepare_decl_rtl, &regno, NULL);
2741   start_sequence ();
2742   rslt = expand_expr (expr, NULL_RTX, TYPE_MODE (type), EXPAND_NORMAL);
2743   seq = get_insns ();
2744   end_sequence ();
2745   default_rtl_profile ();
2746   cfun->function_frequency = real_frequency;
2747
2748   cost = seq_cost (seq, speed);
2749   if (MEM_P (rslt))
2750     cost += address_cost (XEXP (rslt, 0), TYPE_MODE (type),
2751                           TYPE_ADDR_SPACE (type), speed);
2752
2753   return cost;
2754 }
2755
2756 /* Returns variable containing the value of candidate CAND at statement AT.  */
2757
2758 static tree
2759 var_at_stmt (struct loop *loop, struct iv_cand *cand, gimple stmt)
2760 {
2761   if (stmt_after_increment (loop, cand, stmt))
2762     return cand->var_after;
2763   else
2764     return cand->var_before;
2765 }
2766
2767 /* Return the most significant (sign) bit of T.  Similar to tree_int_cst_msb,
2768    but the bit is determined from TYPE_PRECISION, not MODE_BITSIZE.  */
2769
2770 int
2771 tree_int_cst_sign_bit (const_tree t)
2772 {
2773   unsigned bitno = TYPE_PRECISION (TREE_TYPE (t)) - 1;
2774   unsigned HOST_WIDE_INT w;
2775
2776   if (bitno < HOST_BITS_PER_WIDE_INT)
2777     w = TREE_INT_CST_LOW (t);
2778   else
2779     {
2780       w = TREE_INT_CST_HIGH (t);
2781       bitno -= HOST_BITS_PER_WIDE_INT;
2782     }
2783
2784   return (w >> bitno) & 1;
2785 }
2786
2787 /* If A is (TYPE) BA and B is (TYPE) BB, and the types of BA and BB have the
2788    same precision that is at least as wide as the precision of TYPE, stores
2789    BA to A and BB to B, and returns the type of BA.  Otherwise, returns the
2790    type of A and B.  */
2791
2792 static tree
2793 determine_common_wider_type (tree *a, tree *b)
2794 {
2795   tree wider_type = NULL;
2796   tree suba, subb;
2797   tree atype = TREE_TYPE (*a);
2798
2799   if (CONVERT_EXPR_P (*a))
2800     {
2801       suba = TREE_OPERAND (*a, 0);
2802       wider_type = TREE_TYPE (suba);
2803       if (TYPE_PRECISION (wider_type) < TYPE_PRECISION (atype))
2804         return atype;
2805     }
2806   else
2807     return atype;
2808
2809   if (CONVERT_EXPR_P (*b))
2810     {
2811       subb = TREE_OPERAND (*b, 0);
2812       if (TYPE_PRECISION (wider_type) != TYPE_PRECISION (TREE_TYPE (subb)))
2813         return atype;
2814     }
2815   else
2816     return atype;
2817
2818   *a = suba;
2819   *b = subb;
2820   return wider_type;
2821 }
2822
2823 /* Determines the expression by that USE is expressed from induction variable
2824    CAND at statement AT in LOOP.  The expression is stored in a decomposed
2825    form into AFF.  Returns false if USE cannot be expressed using CAND.  */
2826
2827 static bool
2828 get_computation_aff (struct loop *loop,
2829                      struct iv_use *use, struct iv_cand *cand, gimple at,
2830                      struct affine_tree_combination *aff)
2831 {
2832   tree ubase = use->iv->base;
2833   tree ustep = use->iv->step;
2834   tree cbase = cand->iv->base;
2835   tree cstep = cand->iv->step, cstep_common;
2836   tree utype = TREE_TYPE (ubase), ctype = TREE_TYPE (cbase);
2837   tree common_type, var;
2838   tree uutype;
2839   aff_tree cbase_aff, var_aff;
2840   double_int rat;
2841
2842   if (TYPE_PRECISION (utype) > TYPE_PRECISION (ctype))
2843     {
2844       /* We do not have a precision to express the values of use.  */
2845       return false;
2846     }
2847
2848   var = var_at_stmt (loop, cand, at);
2849   uutype = unsigned_type_for (utype);
2850
2851   /* If the conversion is not noop, perform it.  */
2852   if (TYPE_PRECISION (utype) < TYPE_PRECISION (ctype))
2853     {
2854       cstep = fold_convert (uutype, cstep);
2855       cbase = fold_convert (uutype, cbase);
2856       var = fold_convert (uutype, var);
2857     }
2858
2859   if (!constant_multiple_of (ustep, cstep, &rat))
2860     return false;
2861
2862   /* In case both UBASE and CBASE are shortened to UUTYPE from some common
2863      type, we achieve better folding by computing their difference in this
2864      wider type, and cast the result to UUTYPE.  We do not need to worry about
2865      overflows, as all the arithmetics will in the end be performed in UUTYPE
2866      anyway.  */
2867   common_type = determine_common_wider_type (&ubase, &cbase);
2868
2869   /* use = ubase - ratio * cbase + ratio * var.  */
2870   tree_to_aff_combination (ubase, common_type, aff);
2871   tree_to_aff_combination (cbase, common_type, &cbase_aff);
2872   tree_to_aff_combination (var, uutype, &var_aff);
2873
2874   /* We need to shift the value if we are after the increment.  */
2875   if (stmt_after_increment (loop, cand, at))
2876     {
2877       aff_tree cstep_aff;
2878   
2879       if (common_type != uutype)
2880         cstep_common = fold_convert (common_type, cstep);
2881       else
2882         cstep_common = cstep;
2883
2884       tree_to_aff_combination (cstep_common, common_type, &cstep_aff);
2885       aff_combination_add (&cbase_aff, &cstep_aff);
2886     }
2887
2888   aff_combination_scale (&cbase_aff, double_int_neg (rat));
2889   aff_combination_add (aff, &cbase_aff);
2890   if (common_type != uutype)
2891     aff_combination_convert (aff, uutype);
2892
2893   aff_combination_scale (&var_aff, rat);
2894   aff_combination_add (aff, &var_aff);
2895
2896   return true;
2897 }
2898
2899 /* Determines the expression by that USE is expressed from induction variable
2900    CAND at statement AT in LOOP.  The computation is unshared.  */
2901
2902 static tree
2903 get_computation_at (struct loop *loop,
2904                     struct iv_use *use, struct iv_cand *cand, gimple at)
2905 {
2906   aff_tree aff;
2907   tree type = TREE_TYPE (use->iv->base);
2908
2909   if (!get_computation_aff (loop, use, cand, at, &aff))
2910     return NULL_TREE;
2911   unshare_aff_combination (&aff);
2912   return fold_convert (type, aff_combination_to_tree (&aff));
2913 }
2914
2915 /* Determines the expression by that USE is expressed from induction variable
2916    CAND in LOOP.  The computation is unshared.  */
2917
2918 static tree
2919 get_computation (struct loop *loop, struct iv_use *use, struct iv_cand *cand)
2920 {
2921   return get_computation_at (loop, use, cand, use->stmt);
2922 }
2923
2924 /* Returns cost of addition in MODE.  */
2925
2926 static unsigned
2927 add_cost (enum machine_mode mode, bool speed)
2928 {
2929   static unsigned costs[NUM_MACHINE_MODES];
2930   rtx seq;
2931   unsigned cost;
2932
2933   if (costs[mode])
2934     return costs[mode];
2935
2936   start_sequence ();
2937   force_operand (gen_rtx_fmt_ee (PLUS, mode,
2938                                  gen_raw_REG (mode, LAST_VIRTUAL_REGISTER + 1),
2939                                  gen_raw_REG (mode, LAST_VIRTUAL_REGISTER + 2)),
2940                  NULL_RTX);
2941   seq = get_insns ();
2942   end_sequence ();
2943
2944   cost = seq_cost (seq, speed);
2945   if (!cost)
2946     cost = 1;
2947
2948   costs[mode] = cost;
2949       
2950   if (dump_file && (dump_flags & TDF_DETAILS))
2951     fprintf (dump_file, "Addition in %s costs %d\n",
2952              GET_MODE_NAME (mode), cost);
2953   return cost;
2954 }
2955
2956 /* Entry in a hashtable of already known costs for multiplication.  */
2957 struct mbc_entry
2958 {
2959   HOST_WIDE_INT cst;            /* The constant to multiply by.  */
2960   enum machine_mode mode;       /* In mode.  */
2961   unsigned cost;                /* The cost.  */
2962 };
2963
2964 /* Counts hash value for the ENTRY.  */
2965
2966 static hashval_t
2967 mbc_entry_hash (const void *entry)
2968 {
2969   const struct mbc_entry *e = (const struct mbc_entry *) entry;
2970
2971   return 57 * (hashval_t) e->mode + (hashval_t) (e->cst % 877);
2972 }
2973
2974 /* Compares the hash table entries ENTRY1 and ENTRY2.  */
2975
2976 static int
2977 mbc_entry_eq (const void *entry1, const void *entry2)
2978 {
2979   const struct mbc_entry *e1 = (const struct mbc_entry *) entry1;
2980   const struct mbc_entry *e2 = (const struct mbc_entry *) entry2;
2981
2982   return (e1->mode == e2->mode
2983           && e1->cst == e2->cst);
2984 }
2985
2986 /* Returns cost of multiplication by constant CST in MODE.  */
2987
2988 unsigned
2989 multiply_by_cost (HOST_WIDE_INT cst, enum machine_mode mode, bool speed)
2990 {
2991   static htab_t costs;
2992   struct mbc_entry **cached, act;
2993   rtx seq;
2994   unsigned cost;
2995
2996   if (!costs)
2997     costs = htab_create (100, mbc_entry_hash, mbc_entry_eq, free);
2998
2999   act.mode = mode;
3000   act.cst = cst;
3001   cached = (struct mbc_entry **) htab_find_slot (costs, &act, INSERT);
3002   if (*cached)
3003     return (*cached)->cost;
3004
3005   *cached = XNEW (struct mbc_entry);
3006   (*cached)->mode = mode;
3007   (*cached)->cst = cst;
3008
3009   start_sequence ();
3010   expand_mult (mode, gen_raw_REG (mode, LAST_VIRTUAL_REGISTER + 1),
3011                gen_int_mode (cst, mode), NULL_RTX, 0);
3012   seq = get_insns ();
3013   end_sequence ();
3014   
3015   cost = seq_cost (seq, speed);
3016
3017   if (dump_file && (dump_flags & TDF_DETAILS))
3018     fprintf (dump_file, "Multiplication by %d in %s costs %d\n",
3019              (int) cst, GET_MODE_NAME (mode), cost);
3020
3021   (*cached)->cost = cost;
3022
3023   return cost;
3024 }
3025
3026 /* Returns true if multiplying by RATIO is allowed in an address.  Test the
3027    validity for a memory reference accessing memory of mode MODE in
3028    address space AS.  */
3029
3030 DEF_VEC_P (sbitmap);
3031 DEF_VEC_ALLOC_P (sbitmap, heap);
3032
3033 bool
3034 multiplier_allowed_in_address_p (HOST_WIDE_INT ratio, enum machine_mode mode,
3035                                  addr_space_t as)
3036 {
3037 #define MAX_RATIO 128
3038   unsigned int data_index = (int) as * MAX_MACHINE_MODE + (int) mode;
3039   static VEC (sbitmap, heap) *valid_mult_list;
3040   sbitmap valid_mult;
3041
3042   if (data_index >= VEC_length (sbitmap, valid_mult_list))
3043     VEC_safe_grow_cleared (sbitmap, heap, valid_mult_list, data_index + 1);
3044
3045   valid_mult = VEC_index (sbitmap, valid_mult_list, data_index);
3046   if (!valid_mult)
3047     {
3048       rtx reg1 = gen_raw_REG (Pmode, LAST_VIRTUAL_REGISTER + 1);
3049       rtx addr;
3050       HOST_WIDE_INT i;
3051
3052       valid_mult = sbitmap_alloc (2 * MAX_RATIO + 1);
3053       sbitmap_zero (valid_mult);
3054       addr = gen_rtx_fmt_ee (MULT, Pmode, reg1, NULL_RTX);
3055       for (i = -MAX_RATIO; i <= MAX_RATIO; i++)
3056         {
3057           XEXP (addr, 1) = gen_int_mode (i, Pmode);
3058           if (memory_address_addr_space_p (mode, addr, as))
3059             SET_BIT (valid_mult, i + MAX_RATIO);
3060         }
3061
3062       if (dump_file && (dump_flags & TDF_DETAILS))
3063         {
3064           fprintf (dump_file, "  allowed multipliers:");
3065           for (i = -MAX_RATIO; i <= MAX_RATIO; i++)
3066             if (TEST_BIT (valid_mult, i + MAX_RATIO))
3067               fprintf (dump_file, " %d", (int) i);
3068           fprintf (dump_file, "\n");
3069           fprintf (dump_file, "\n");
3070         }
3071
3072       VEC_replace (sbitmap, valid_mult_list, data_index, valid_mult);
3073     }
3074
3075   if (ratio > MAX_RATIO || ratio < -MAX_RATIO)
3076     return false;
3077
3078   return TEST_BIT (valid_mult, ratio + MAX_RATIO);
3079 }
3080
3081 /* Returns cost of address in shape symbol + var + OFFSET + RATIO * index.
3082    If SYMBOL_PRESENT is false, symbol is omitted.  If VAR_PRESENT is false,
3083    variable is omitted.  Compute the cost for a memory reference that accesses
3084    a memory location of mode MEM_MODE in address space AS.
3085
3086    MAY_AUTOINC is set to true if the autoincrement (increasing index by
3087    size of MEM_MODE / RATIO) is available.  To make this determination, we
3088    look at the size of the increment to be made, which is given in CSTEP.
3089    CSTEP may be zero if the step is unknown.
3090    STMT_AFTER_INC is true iff the statement we're looking at is after the
3091    increment of the original biv.
3092
3093    TODO -- there must be some better way.  This all is quite crude.  */
3094
3095 typedef struct
3096 {
3097   HOST_WIDE_INT min_offset, max_offset;
3098   unsigned costs[2][2][2][2];
3099 } *address_cost_data;
3100
3101 DEF_VEC_P (address_cost_data);
3102 DEF_VEC_ALLOC_P (address_cost_data, heap);
3103
3104 static comp_cost
3105 get_address_cost (bool symbol_present, bool var_present,
3106                   unsigned HOST_WIDE_INT offset, HOST_WIDE_INT ratio,
3107                   HOST_WIDE_INT cstep, enum machine_mode mem_mode,
3108                   addr_space_t as, bool speed,
3109                   bool stmt_after_inc, bool *may_autoinc)
3110 {
3111   static VEC(address_cost_data, heap) *address_cost_data_list;
3112   unsigned int data_index = (int) as * MAX_MACHINE_MODE + (int) mem_mode;
3113   address_cost_data data;
3114   static bool has_preinc[MAX_MACHINE_MODE], has_postinc[MAX_MACHINE_MODE];
3115   static bool has_predec[MAX_MACHINE_MODE], has_postdec[MAX_MACHINE_MODE];
3116   unsigned cost, acost, complexity;
3117   bool offset_p, ratio_p, autoinc;
3118   HOST_WIDE_INT s_offset, autoinc_offset, msize;
3119   unsigned HOST_WIDE_INT mask;
3120   unsigned bits;
3121
3122   if (data_index >= VEC_length (address_cost_data, address_cost_data_list))
3123     VEC_safe_grow_cleared (address_cost_data, heap, address_cost_data_list,
3124                            data_index + 1);
3125
3126   data = VEC_index (address_cost_data, address_cost_data_list, data_index);
3127   if (!data)
3128     {
3129       HOST_WIDE_INT i;
3130       HOST_WIDE_INT start = BIGGEST_ALIGNMENT / BITS_PER_UNIT;
3131       HOST_WIDE_INT rat, off;
3132       int old_cse_not_expected;
3133       unsigned sym_p, var_p, off_p, rat_p, add_c;
3134       rtx seq, addr, base;
3135       rtx reg0, reg1;
3136
3137       data = (address_cost_data) xcalloc (1, sizeof (*data));
3138
3139       reg1 = gen_raw_REG (Pmode, LAST_VIRTUAL_REGISTER + 1);
3140
3141       addr = gen_rtx_fmt_ee (PLUS, Pmode, reg1, NULL_RTX);
3142       for (i = start; i <= 1 << 20; i <<= 1)
3143         {
3144           XEXP (addr, 1) = gen_int_mode (i, Pmode);
3145           if (!memory_address_addr_space_p (mem_mode, addr, as))
3146             break;
3147         }
3148       data->max_offset = i == start ? 0 : i >> 1;
3149       off = data->max_offset;
3150
3151       for (i = start; i <= 1 << 20; i <<= 1)
3152         {
3153           XEXP (addr, 1) = gen_int_mode (-i, Pmode);
3154           if (!memory_address_addr_space_p (mem_mode, addr, as))
3155             break;
3156         }
3157       data->min_offset = i == start ? 0 : -(i >> 1);
3158
3159       if (dump_file && (dump_flags & TDF_DETAILS))
3160         {
3161           fprintf (dump_file, "get_address_cost:\n");
3162           fprintf (dump_file, "  min offset %s %d\n",
3163                    GET_MODE_NAME (mem_mode),
3164                    (int) data->min_offset);
3165           fprintf (dump_file, "  max offset %s %d\n",
3166                    GET_MODE_NAME (mem_mode),
3167                    (int) data->max_offset);
3168         }
3169
3170       rat = 1;
3171       for (i = 2; i <= MAX_RATIO; i++)
3172         if (multiplier_allowed_in_address_p (i, mem_mode, as))
3173           {
3174             rat = i;
3175             break;
3176           }
3177
3178       /* Compute the cost of various addressing modes.  */
3179       acost = 0;
3180       reg0 = gen_raw_REG (Pmode, LAST_VIRTUAL_REGISTER + 1);
3181       reg1 = gen_raw_REG (Pmode, LAST_VIRTUAL_REGISTER + 2);
3182
3183       if (HAVE_PRE_DECREMENT)
3184         {
3185           addr = gen_rtx_PRE_DEC (Pmode, reg0);
3186           has_predec[mem_mode]
3187             = memory_address_addr_space_p (mem_mode, addr, as);
3188         }
3189       if (HAVE_POST_DECREMENT)
3190         {
3191           addr = gen_rtx_POST_DEC (Pmode, reg0);
3192           has_postdec[mem_mode]
3193             = memory_address_addr_space_p (mem_mode, addr, as);
3194         }
3195       if (HAVE_PRE_INCREMENT)
3196         {
3197           addr = gen_rtx_PRE_INC (Pmode, reg0);
3198           has_preinc[mem_mode]
3199             = memory_address_addr_space_p (mem_mode, addr, as);
3200         }
3201       if (HAVE_POST_INCREMENT)
3202         {
3203           addr = gen_rtx_POST_INC (Pmode, reg0);
3204           has_postinc[mem_mode]
3205             = memory_address_addr_space_p (mem_mode, addr, as);
3206         }
3207       for (i = 0; i < 16; i++)
3208         {
3209           sym_p = i & 1;
3210           var_p = (i >> 1) & 1;
3211           off_p = (i >> 2) & 1;
3212           rat_p = (i >> 3) & 1;
3213
3214           addr = reg0;
3215           if (rat_p)
3216             addr = gen_rtx_fmt_ee (MULT, Pmode, addr,
3217                                    gen_int_mode (rat, Pmode));
3218
3219           if (var_p)
3220             addr = gen_rtx_fmt_ee (PLUS, Pmode, addr, reg1);
3221
3222           if (sym_p)
3223             {
3224               base = gen_rtx_SYMBOL_REF (Pmode, ggc_strdup (""));
3225               /* ??? We can run into trouble with some backends by presenting
3226                  it with symbols which haven't been properly passed through
3227                  targetm.encode_section_info.  By setting the local bit, we
3228                  enhance the probability of things working.  */
3229               SYMBOL_REF_FLAGS (base) = SYMBOL_FLAG_LOCAL;
3230
3231               if (off_p)
3232                 base = gen_rtx_fmt_e (CONST, Pmode,
3233                                       gen_rtx_fmt_ee
3234                                         (PLUS, Pmode, base,
3235                                          gen_int_mode (off, Pmode)));
3236             }
3237           else if (off_p)
3238             base = gen_int_mode (off, Pmode);
3239           else
3240             base = NULL_RTX;
3241     
3242           if (base)
3243             addr = gen_rtx_fmt_ee (PLUS, Pmode, addr, base);
3244
3245           start_sequence ();
3246           /* To avoid splitting addressing modes, pretend that no cse will
3247              follow.  */
3248           old_cse_not_expected = cse_not_expected;
3249           cse_not_expected = true;
3250           addr = memory_address_addr_space (mem_mode, addr, as);
3251           cse_not_expected = old_cse_not_expected;
3252           seq = get_insns ();
3253           end_sequence ();
3254
3255           acost = seq_cost (seq, speed);
3256           acost += address_cost (addr, mem_mode, as, speed);
3257
3258           if (!acost)
3259             acost = 1;
3260           data->costs[sym_p][var_p][off_p][rat_p] = acost;
3261         }
3262
3263       /* On some targets, it is quite expensive to load symbol to a register,
3264          which makes addresses that contain symbols look much more expensive.
3265          However, the symbol will have to be loaded in any case before the
3266          loop (and quite likely we have it in register already), so it does not
3267          make much sense to penalize them too heavily.  So make some final
3268          tweaks for the SYMBOL_PRESENT modes:
3269
3270          If VAR_PRESENT is false, and the mode obtained by changing symbol to
3271          var is cheaper, use this mode with small penalty.
3272          If VAR_PRESENT is true, try whether the mode with
3273          SYMBOL_PRESENT = false is cheaper even with cost of addition, and
3274          if this is the case, use it.  */
3275       add_c = add_cost (Pmode, speed);
3276       for (i = 0; i < 8; i++)
3277         {
3278           var_p = i & 1;
3279           off_p = (i >> 1) & 1;
3280           rat_p = (i >> 2) & 1;
3281
3282           acost = data->costs[0][1][off_p][rat_p] + 1;
3283           if (var_p)
3284             acost += add_c;
3285
3286           if (acost < data->costs[1][var_p][off_p][rat_p])
3287             data->costs[1][var_p][off_p][rat_p] = acost;
3288         }
3289
3290       if (dump_file && (dump_flags & TDF_DETAILS))
3291         {
3292           fprintf (dump_file, "Address costs:\n");
3293       
3294           for (i = 0; i < 16; i++)
3295             {
3296               sym_p = i & 1;
3297               var_p = (i >> 1) & 1;
3298               off_p = (i >> 2) & 1;
3299               rat_p = (i >> 3) & 1;
3300
3301               fprintf (dump_file, "  ");
3302               if (sym_p)
3303                 fprintf (dump_file, "sym + ");
3304               if (var_p)
3305                 fprintf (dump_file, "var + ");
3306               if (off_p)
3307                 fprintf (dump_file, "cst + ");
3308               if (rat_p)
3309                 fprintf (dump_file, "rat * ");
3310
3311               acost = data->costs[sym_p][var_p][off_p][rat_p];
3312               fprintf (dump_file, "index costs %d\n", acost);
3313             }
3314           if (has_predec[mem_mode] || has_postdec[mem_mode]
3315               || has_preinc[mem_mode] || has_postinc[mem_mode])
3316             fprintf (dump_file, "  May include autoinc/dec\n");
3317           fprintf (dump_file, "\n");
3318         }
3319
3320       VEC_replace (address_cost_data, address_cost_data_list,
3321                    data_index, data);
3322     }
3323
3324   bits = GET_MODE_BITSIZE (Pmode);
3325   mask = ~(~(unsigned HOST_WIDE_INT) 0 << (bits - 1) << 1);
3326   offset &= mask;
3327   if ((offset >> (bits - 1) & 1))
3328     offset |= ~mask;
3329   s_offset = offset;
3330
3331   autoinc = false;
3332   msize = GET_MODE_SIZE (mem_mode);
3333   autoinc_offset = offset;
3334   if (stmt_after_inc)
3335     autoinc_offset += ratio * cstep;
3336   if (symbol_present || var_present || ratio != 1)
3337     autoinc = false;
3338   else if ((has_postinc[mem_mode] && autoinc_offset == 0
3339                && msize == cstep)
3340            || (has_postdec[mem_mode] && autoinc_offset == 0
3341                && msize == -cstep)
3342            || (has_preinc[mem_mode] && autoinc_offset == msize
3343                && msize == cstep)
3344            || (has_predec[mem_mode] && autoinc_offset == -msize
3345                && msize == -cstep))
3346     autoinc = true;
3347
3348   cost = 0;
3349   offset_p = (s_offset != 0
3350               && data->min_offset <= s_offset
3351               && s_offset <= data->max_offset);
3352   ratio_p = (ratio != 1
3353              && multiplier_allowed_in_address_p (ratio, mem_mode, as));
3354
3355   if (ratio != 1 && !ratio_p)
3356     cost += multiply_by_cost (ratio, Pmode, speed);
3357
3358   if (s_offset && !offset_p && !symbol_present)
3359     cost += add_cost (Pmode, speed);
3360
3361   if (may_autoinc)
3362     *may_autoinc = autoinc;
3363   acost = data->costs[symbol_present][var_present][offset_p][ratio_p];
3364   complexity = (symbol_present != 0) + (var_present != 0) + offset_p + ratio_p;
3365   return new_cost (cost + acost, complexity);
3366 }
3367
3368 /* Estimates cost of forcing expression EXPR into a variable.  */
3369
3370 static comp_cost
3371 force_expr_to_var_cost (tree expr, bool speed)
3372 {
3373   static bool costs_initialized = false;
3374   static unsigned integer_cost [2];
3375   static unsigned symbol_cost [2];
3376   static unsigned address_cost [2];
3377   tree op0, op1;
3378   comp_cost cost0, cost1, cost;
3379   enum machine_mode mode;
3380
3381   if (!costs_initialized)
3382     {
3383       tree type = build_pointer_type (integer_type_node);
3384       tree var, addr;
3385       rtx x;
3386       int i;
3387
3388       var = create_tmp_var_raw (integer_type_node, "test_var");
3389       TREE_STATIC (var) = 1;
3390       x = produce_memory_decl_rtl (var, NULL);
3391       SET_DECL_RTL (var, x);
3392
3393       addr = build1 (ADDR_EXPR, type, var);
3394
3395
3396       for (i = 0; i < 2; i++)
3397         {
3398           integer_cost[i] = computation_cost (build_int_cst (integer_type_node,
3399                                                              2000), i);
3400
3401           symbol_cost[i] = computation_cost (addr, i) + 1;
3402
3403           address_cost[i]
3404             = computation_cost (build2 (POINTER_PLUS_EXPR, type,
3405                                         addr,
3406                                         build_int_cst (sizetype, 2000)), i) + 1;
3407           if (dump_file && (dump_flags & TDF_DETAILS))
3408             {
3409               fprintf (dump_file, "force_expr_to_var_cost %s costs:\n", i ? "speed" : "size");
3410               fprintf (dump_file, "  integer %d\n", (int) integer_cost[i]);
3411               fprintf (dump_file, "  symbol %d\n", (int) symbol_cost[i]);
3412               fprintf (dump_file, "  address %d\n", (int) address_cost[i]);
3413               fprintf (dump_file, "  other %d\n", (int) target_spill_cost[i]);
3414               fprintf (dump_file, "\n");
3415             }
3416         }
3417
3418       costs_initialized = true;
3419     }
3420
3421   STRIP_NOPS (expr);
3422
3423   if (SSA_VAR_P (expr))
3424     return zero_cost;
3425
3426   if (is_gimple_min_invariant (expr))
3427     {
3428       if (TREE_CODE (expr) == INTEGER_CST)
3429         return new_cost (integer_cost [speed], 0);
3430
3431       if (TREE_CODE (expr) == ADDR_EXPR)
3432         {
3433           tree obj = TREE_OPERAND (expr, 0);
3434
3435           if (TREE_CODE (obj) == VAR_DECL
3436               || TREE_CODE (obj) == PARM_DECL
3437               || TREE_CODE (obj) == RESULT_DECL)
3438             return new_cost (symbol_cost [speed], 0);
3439         }
3440
3441       return new_cost (address_cost [speed], 0);
3442     }
3443
3444   switch (TREE_CODE (expr))
3445     {
3446     case POINTER_PLUS_EXPR:
3447     case PLUS_EXPR:
3448     case MINUS_EXPR:
3449     case MULT_EXPR:
3450       op0 = TREE_OPERAND (expr, 0);
3451       op1 = TREE_OPERAND (expr, 1);
3452       STRIP_NOPS (op0);
3453       STRIP_NOPS (op1);
3454
3455       if (is_gimple_val (op0))
3456         cost0 = zero_cost;
3457       else
3458         cost0 = force_expr_to_var_cost (op0, speed);
3459
3460       if (is_gimple_val (op1))
3461         cost1 = zero_cost;
3462       else
3463         cost1 = force_expr_to_var_cost (op1, speed);
3464
3465       break;
3466
3467     case NEGATE_EXPR:
3468       op0 = TREE_OPERAND (expr, 0);
3469       STRIP_NOPS (op0);
3470       op1 = NULL_TREE;
3471
3472       if (is_gimple_val (op0))
3473         cost0 = zero_cost;
3474       else
3475         cost0 = force_expr_to_var_cost (op0, speed);
3476
3477       cost1 = zero_cost;
3478       break;
3479
3480     default:
3481       /* Just an arbitrary value, FIXME.  */
3482       return new_cost (target_spill_cost[speed], 0);
3483     }
3484
3485   mode = TYPE_MODE (TREE_TYPE (expr));
3486   switch (TREE_CODE (expr))
3487     {
3488     case POINTER_PLUS_EXPR:
3489     case PLUS_EXPR:
3490     case MINUS_EXPR:
3491     case NEGATE_EXPR:
3492       cost = new_cost (add_cost (mode, speed), 0);
3493       break;
3494
3495     case MULT_EXPR:
3496       if (cst_and_fits_in_hwi (op0))
3497         cost = new_cost (multiply_by_cost (int_cst_value (op0), mode, speed), 0);
3498       else if (cst_and_fits_in_hwi (op1))                                  
3499         cost = new_cost (multiply_by_cost (int_cst_value (op1), mode, speed), 0);
3500       else
3501         return new_cost (target_spill_cost [speed], 0);
3502       break;
3503
3504     default:
3505       gcc_unreachable ();
3506     }
3507
3508   cost = add_costs (cost, cost0);
3509   cost = add_costs (cost, cost1);
3510
3511   /* Bound the cost by target_spill_cost.  The parts of complicated
3512      computations often are either loop invariant or at least can
3513      be shared between several iv uses, so letting this grow without
3514      limits would not give reasonable results.  */
3515   if (cost.cost > (int) target_spill_cost [speed])
3516     cost.cost = target_spill_cost [speed];
3517
3518   return cost;
3519 }
3520
3521 /* Estimates cost of forcing EXPR into a variable.  DEPENDS_ON is a set of the
3522    invariants the computation depends on.  */
3523
3524 static comp_cost
3525 force_var_cost (struct ivopts_data *data,
3526                 tree expr, bitmap *depends_on)
3527 {
3528   if (depends_on)
3529     {
3530       fd_ivopts_data = data;
3531       walk_tree (&expr, find_depends, depends_on, NULL);
3532     }
3533
3534   return force_expr_to_var_cost (expr, data->speed);
3535 }
3536
3537 /* Estimates cost of expressing address ADDR  as var + symbol + offset.  The
3538    value of offset is added to OFFSET, SYMBOL_PRESENT and VAR_PRESENT are set
3539    to false if the corresponding part is missing.  DEPENDS_ON is a set of the
3540    invariants the computation depends on.  */
3541
3542 static comp_cost
3543 split_address_cost (struct ivopts_data *data,
3544                     tree addr, bool *symbol_present, bool *var_present,
3545                     unsigned HOST_WIDE_INT *offset, bitmap *depends_on)
3546 {
3547   tree core;
3548   HOST_WIDE_INT bitsize;
3549   HOST_WIDE_INT bitpos;
3550   tree toffset;
3551   enum machine_mode mode;
3552   int unsignedp, volatilep;
3553   
3554   core = get_inner_reference (addr, &bitsize, &bitpos, &toffset, &mode,
3555                               &unsignedp, &volatilep, false);
3556
3557   if (toffset != 0
3558       || bitpos % BITS_PER_UNIT != 0
3559       || TREE_CODE (core) != VAR_DECL)
3560     {
3561       *symbol_present = false;
3562       *var_present = true;
3563       fd_ivopts_data = data;
3564       walk_tree (&addr, find_depends, depends_on, NULL);
3565       return new_cost (target_spill_cost[data->speed], 0);
3566     }
3567
3568   *offset += bitpos / BITS_PER_UNIT;
3569   if (TREE_STATIC (core)
3570       || DECL_EXTERNAL (core))
3571     {
3572       *symbol_present = true;
3573       *var_present = false;
3574       return zero_cost;
3575     }
3576       
3577   *symbol_present = false;
3578   *var_present = true;
3579   return zero_cost;
3580 }
3581
3582 /* Estimates cost of expressing difference of addresses E1 - E2 as
3583    var + symbol + offset.  The value of offset is added to OFFSET,
3584    SYMBOL_PRESENT and VAR_PRESENT are set to false if the corresponding
3585    part is missing.  DEPENDS_ON is a set of the invariants the computation
3586    depends on.  */
3587
3588 static comp_cost
3589 ptr_difference_cost (struct ivopts_data *data,
3590                      tree e1, tree e2, bool *symbol_present, bool *var_present,
3591                      unsigned HOST_WIDE_INT *offset, bitmap *depends_on)
3592 {
3593   HOST_WIDE_INT diff = 0;
3594   aff_tree aff_e1, aff_e2;
3595   tree type;
3596
3597   gcc_assert (TREE_CODE (e1) == ADDR_EXPR);
3598
3599   if (ptr_difference_const (e1, e2, &diff))
3600     {
3601       *offset += diff;
3602       *symbol_present = false;
3603       *var_present = false;
3604       return zero_cost;
3605     }
3606
3607   if (integer_zerop (e2))
3608     return split_address_cost (data, TREE_OPERAND (e1, 0),
3609                                symbol_present, var_present, offset, depends_on);
3610
3611   *symbol_present = false;
3612   *var_present = true;
3613
3614   type = signed_type_for (TREE_TYPE (e1));
3615   tree_to_aff_combination (e1, type, &aff_e1);
3616   tree_to_aff_combination (e2, type, &aff_e2);
3617   aff_combination_scale (&aff_e2, double_int_minus_one);
3618   aff_combination_add (&aff_e1, &aff_e2);
3619
3620   return force_var_cost (data, aff_combination_to_tree (&aff_e1), depends_on);
3621 }
3622
3623 /* Estimates cost of expressing difference E1 - E2 as
3624    var + symbol + offset.  The value of offset is added to OFFSET,
3625    SYMBOL_PRESENT and VAR_PRESENT are set to false if the corresponding
3626    part is missing.  DEPENDS_ON is a set of the invariants the computation
3627    depends on.  */
3628
3629 static comp_cost
3630 difference_cost (struct ivopts_data *data,
3631                  tree e1, tree e2, bool *symbol_present, bool *var_present,
3632                  unsigned HOST_WIDE_INT *offset, bitmap *depends_on)
3633 {
3634   enum machine_mode mode = TYPE_MODE (TREE_TYPE (e1));
3635   unsigned HOST_WIDE_INT off1, off2;
3636   aff_tree aff_e1, aff_e2;
3637   tree type;
3638
3639   e1 = strip_offset (e1, &off1);
3640   e2 = strip_offset (e2, &off2);
3641   *offset += off1 - off2;
3642
3643   STRIP_NOPS (e1);
3644   STRIP_NOPS (e2);
3645
3646   if (TREE_CODE (e1) == ADDR_EXPR)
3647     return ptr_difference_cost (data, e1, e2, symbol_present, var_present,
3648                                 offset, depends_on);
3649   *symbol_present = false;
3650
3651   if (operand_equal_p (e1, e2, 0))
3652     {
3653       *var_present = false;
3654       return zero_cost;
3655     }
3656
3657   *var_present = true;
3658
3659   if (integer_zerop (e2))
3660     return force_var_cost (data, e1, depends_on);
3661
3662   if (integer_zerop (e1))
3663     {
3664       comp_cost cost = force_var_cost (data, e2, depends_on);
3665       cost.cost += multiply_by_cost (-1, mode, data->speed);
3666       return cost;
3667     }
3668
3669   type = signed_type_for (TREE_TYPE (e1));
3670   tree_to_aff_combination (e1, type, &aff_e1);
3671   tree_to_aff_combination (e2, type, &aff_e2);
3672   aff_combination_scale (&aff_e2, double_int_minus_one);
3673   aff_combination_add (&aff_e1, &aff_e2);
3674
3675   return force_var_cost (data, aff_combination_to_tree (&aff_e1), depends_on);
3676 }
3677
3678 /* Determines the cost of the computation by that USE is expressed
3679    from induction variable CAND.  If ADDRESS_P is true, we just need
3680    to create an address from it, otherwise we want to get it into
3681    register.  A set of invariants we depend on is stored in
3682    DEPENDS_ON.  AT is the statement at that the value is computed.
3683    If CAN_AUTOINC is nonnull, use it to record whether autoinc
3684    addressing is likely.  */
3685
3686 static comp_cost
3687 get_computation_cost_at (struct ivopts_data *data,
3688                          struct iv_use *use, struct iv_cand *cand,
3689                          bool address_p, bitmap *depends_on, gimple at,
3690                          bool *can_autoinc)
3691 {
3692   tree ubase = use->iv->base, ustep = use->iv->step;
3693   tree cbase, cstep;
3694   tree utype = TREE_TYPE (ubase), ctype;
3695   unsigned HOST_WIDE_INT cstepi, offset = 0;
3696   HOST_WIDE_INT ratio, aratio;
3697   bool var_present, symbol_present, stmt_is_after_inc;
3698   comp_cost cost;
3699   double_int rat;
3700   bool speed = optimize_bb_for_speed_p (gimple_bb (at));
3701
3702   *depends_on = NULL;
3703
3704   /* Only consider real candidates.  */
3705   if (!cand->iv)
3706     return infinite_cost;
3707
3708   cbase = cand->iv->base;
3709   cstep = cand->iv->step;
3710   ctype = TREE_TYPE (cbase);
3711
3712   if (TYPE_PRECISION (utype) > TYPE_PRECISION (ctype))
3713     {
3714       /* We do not have a precision to express the values of use.  */
3715       return infinite_cost;
3716     }
3717
3718   if (address_p)
3719     {
3720       /* Do not try to express address of an object with computation based
3721          on address of a different object.  This may cause problems in rtl
3722          level alias analysis (that does not expect this to be happening,
3723          as this is illegal in C), and would be unlikely to be useful
3724          anyway.  */
3725       if (use->iv->base_object
3726           && cand->iv->base_object
3727           && !operand_equal_p (use->iv->base_object, cand->iv->base_object, 0))
3728         return infinite_cost;
3729     }
3730
3731   if (TYPE_PRECISION (utype) < TYPE_PRECISION (ctype))
3732     {
3733       /* TODO -- add direct handling of this case.  */
3734       goto fallback;
3735     }
3736
3737   /* CSTEPI is removed from the offset in case statement is after the
3738      increment.  If the step is not constant, we use zero instead.
3739      This is a bit imprecise (there is the extra addition), but
3740      redundancy elimination is likely to transform the code so that
3741      it uses value of the variable before increment anyway,
3742      so it is not that much unrealistic.  */
3743   if (cst_and_fits_in_hwi (cstep))
3744     cstepi = int_cst_value (cstep);
3745   else
3746     cstepi = 0;
3747
3748   if (!constant_multiple_of (ustep, cstep, &rat))
3749     return infinite_cost;
3750     
3751   if (double_int_fits_in_shwi_p (rat))
3752     ratio = double_int_to_shwi (rat);
3753   else
3754     return infinite_cost;
3755
3756   STRIP_NOPS (cbase);
3757   ctype = TREE_TYPE (cbase);
3758
3759   /* use = ubase + ratio * (var - cbase).  If either cbase is a constant
3760      or ratio == 1, it is better to handle this like
3761      
3762      ubase - ratio * cbase + ratio * var
3763      
3764      (also holds in the case ratio == -1, TODO.  */
3765
3766   if (cst_and_fits_in_hwi (cbase))
3767     {
3768       offset = - ratio * int_cst_value (cbase); 
3769       cost = difference_cost (data,
3770                               ubase, build_int_cst (utype, 0),
3771                               &symbol_present, &var_present, &offset,
3772                               depends_on);
3773     }
3774   else if (ratio == 1)
3775     {
3776       cost = difference_cost (data,
3777                               ubase, cbase,
3778                               &symbol_present, &var_present, &offset,
3779                               depends_on);
3780     }
3781   else if (address_p
3782            && !POINTER_TYPE_P (ctype)
3783            && multiplier_allowed_in_address_p
3784                 (ratio, TYPE_MODE (TREE_TYPE (utype)),
3785                         TYPE_ADDR_SPACE (TREE_TYPE (utype))))
3786     {
3787       cbase
3788         = fold_build2 (MULT_EXPR, ctype, cbase, build_int_cst (ctype, ratio));
3789       cost = difference_cost (data,
3790                               ubase, cbase,
3791                               &symbol_present, &var_present, &offset,
3792                               depends_on);
3793     }
3794   else
3795     {
3796       cost = force_var_cost (data, cbase, depends_on);
3797       cost.cost += add_cost (TYPE_MODE (ctype), data->speed);
3798       cost = add_costs (cost,
3799                         difference_cost (data,
3800                                          ubase, build_int_cst (utype, 0),
3801                                          &symbol_present, &var_present,
3802                                          &offset, depends_on));
3803     }
3804
3805   /* If we are after the increment, the value of the candidate is higher by
3806      one iteration.  */
3807   stmt_is_after_inc = stmt_after_increment (data->current_loop, cand, at);
3808   if (stmt_is_after_inc)
3809     offset -= ratio * cstepi;
3810
3811   /* Now the computation is in shape symbol + var1 + const + ratio * var2.
3812      (symbol/var1/const parts may be omitted).  If we are looking for an
3813      address, find the cost of addressing this.  */
3814   if (address_p)
3815     return add_costs (cost,
3816                       get_address_cost (symbol_present, var_present,
3817                                         offset, ratio, cstepi,
3818                                         TYPE_MODE (TREE_TYPE (utype)),
3819                                         TYPE_ADDR_SPACE (TREE_TYPE (utype)),
3820                                         speed, stmt_is_after_inc,
3821                                         can_autoinc));
3822
3823   /* Otherwise estimate the costs for computing the expression.  */
3824   if (!symbol_present && !var_present && !offset)
3825     {
3826       if (ratio != 1)
3827         cost.cost += multiply_by_cost (ratio, TYPE_MODE (ctype), speed);
3828       return cost;
3829     }
3830
3831   /* Symbol + offset should be compile-time computable so consider that they
3832       are added once to the variable, if present.  */
3833   if (var_present && (symbol_present || offset))
3834     cost.cost += add_cost (TYPE_MODE (ctype), speed)
3835                  / AVG_LOOP_NITER (data->current_loop);
3836
3837   /* Having offset does not affect runtime cost in case it is added to
3838      symbol, but it increases complexity.  */
3839   if (offset)
3840     cost.complexity++;
3841
3842   cost.cost += add_cost (TYPE_MODE (ctype), speed);
3843
3844   aratio = ratio > 0 ? ratio : -ratio;
3845   if (aratio != 1)
3846     cost.cost += multiply_by_cost (aratio, TYPE_MODE (ctype), speed);
3847
3848 fallback:
3849   if (can_autoinc)
3850     *can_autoinc = false;
3851
3852   {
3853     /* Just get the expression, expand it and measure the cost.  */
3854     tree comp = get_computation_at (data->current_loop, use, cand, at);
3855
3856     if (!comp)
3857       return infinite_cost;
3858
3859     if (address_p)
3860       comp = build1 (INDIRECT_REF, TREE_TYPE (TREE_TYPE (comp)), comp);
3861
3862     return new_cost (computation_cost (comp, speed), 0);
3863   }
3864 }
3865
3866 /* Determines the cost of the computation by that USE is expressed
3867    from induction variable CAND.  If ADDRESS_P is true, we just need
3868    to create an address from it, otherwise we want to get it into
3869    register.  A set of invariants we depend on is stored in
3870    DEPENDS_ON.  If CAN_AUTOINC is nonnull, use it to record whether
3871    autoinc addressing is likely.  */
3872
3873 static comp_cost
3874 get_computation_cost (struct ivopts_data *data,
3875                       struct iv_use *use, struct iv_cand *cand,
3876                       bool address_p, bitmap *depends_on, bool *can_autoinc)
3877 {
3878   return get_computation_cost_at (data,
3879                                   use, cand, address_p, depends_on, use->stmt,
3880                                   can_autoinc);
3881 }
3882
3883 /* Determines cost of basing replacement of USE on CAND in a generic
3884    expression.  */
3885
3886 static bool
3887 determine_use_iv_cost_generic (struct ivopts_data *data,
3888                                struct iv_use *use, struct iv_cand *cand)
3889 {
3890   bitmap depends_on;
3891   comp_cost cost;
3892
3893   /* The simple case first -- if we need to express value of the preserved
3894      original biv, the cost is 0.  This also prevents us from counting the
3895      cost of increment twice -- once at this use and once in the cost of
3896      the candidate.  */
3897   if (cand->pos == IP_ORIGINAL
3898       && cand->incremented_at == use->stmt)
3899     {
3900       set_use_iv_cost (data, use, cand, zero_cost, NULL, NULL_TREE);
3901       return true;
3902     }
3903
3904   cost = get_computation_cost (data, use, cand, false, &depends_on, NULL);
3905   set_use_iv_cost (data, use, cand, cost, depends_on, NULL_TREE);
3906
3907   return !infinite_cost_p (cost);
3908 }
3909
3910 /* Determines cost of basing replacement of USE on CAND in an address.  */
3911
3912 static bool
3913 determine_use_iv_cost_address (struct ivopts_data *data,
3914                                struct iv_use *use, struct iv_cand *cand)
3915 {
3916   bitmap depends_on;
3917   bool can_autoinc;
3918   comp_cost cost = get_computation_cost (data, use, cand, true, &depends_on,
3919                                          &can_autoinc);
3920
3921   if (cand->ainc_use == use)
3922     {
3923       if (can_autoinc)
3924         cost.cost -= cand->cost_step;
3925       /* If we generated the candidate solely for exploiting autoincrement
3926          opportunities, and it turns out it can't be used, set the cost to
3927          infinity to make sure we ignore it.  */
3928       else if (cand->pos == IP_AFTER_USE || cand->pos == IP_BEFORE_USE)
3929         cost = infinite_cost;
3930     }
3931   set_use_iv_cost (data, use, cand, cost, depends_on, NULL_TREE);
3932
3933   return !infinite_cost_p (cost);
3934 }
3935
3936 /* Computes value of candidate CAND at position AT in iteration NITER, and
3937    stores it to VAL.  */
3938
3939 static void
3940 cand_value_at (struct loop *loop, struct iv_cand *cand, gimple at, tree niter,
3941                aff_tree *val)
3942 {
3943   aff_tree step, delta, nit;
3944   struct iv *iv = cand->iv;
3945   tree type = TREE_TYPE (iv->base);
3946   tree steptype = type;
3947   if (POINTER_TYPE_P (type))
3948     steptype = sizetype;
3949
3950   tree_to_aff_combination (iv->step, steptype, &step);
3951   tree_to_aff_combination (niter, TREE_TYPE (niter), &nit);
3952   aff_combination_convert (&nit, steptype);
3953   aff_combination_mult (&nit, &step, &delta);
3954   if (stmt_after_increment (loop, cand, at))
3955     aff_combination_add (&delta, &step);
3956
3957   tree_to_aff_combination (iv->base, type, val);
3958   aff_combination_add (val, &delta);
3959 }
3960
3961 /* Returns period of induction variable iv.  */
3962
3963 static tree
3964 iv_period (struct iv *iv)
3965 {
3966   tree step = iv->step, period, type;
3967   tree pow2div;
3968
3969   gcc_assert (step && TREE_CODE (step) == INTEGER_CST);
3970
3971   /* Period of the iv is gcd (step, type range).  Since type range is power
3972      of two, it suffices to determine the maximum power of two that divides
3973      step.  */
3974   pow2div = num_ending_zeros (step);
3975   type = unsigned_type_for (TREE_TYPE (step));
3976
3977   period = build_low_bits_mask (type,
3978                                 (TYPE_PRECISION (type)
3979                                  - tree_low_cst (pow2div, 1)));
3980
3981   return period;
3982 }
3983
3984 /* Returns the comparison operator used when eliminating the iv USE.  */
3985
3986 static enum tree_code
3987 iv_elimination_compare (struct ivopts_data *data, struct iv_use *use)
3988 {
3989   struct loop *loop = data->current_loop;
3990   basic_block ex_bb;
3991   edge exit;
3992
3993   ex_bb = gimple_bb (use->stmt);
3994   exit = EDGE_SUCC (ex_bb, 0);
3995   if (flow_bb_inside_loop_p (loop, exit->dest))
3996     exit = EDGE_SUCC (ex_bb, 1);
3997
3998   return (exit->flags & EDGE_TRUE_VALUE ? EQ_EXPR : NE_EXPR);
3999 }
4000
4001 /* Check whether it is possible to express the condition in USE by comparison
4002    of candidate CAND.  If so, store the value compared with to BOUND.  */
4003
4004 static bool
4005 may_eliminate_iv (struct ivopts_data *data,
4006                   struct iv_use *use, struct iv_cand *cand, tree *bound)
4007 {
4008   basic_block ex_bb;
4009   edge exit;
4010   tree nit, period;
4011   struct loop *loop = data->current_loop;
4012   aff_tree bnd;
4013
4014   if (TREE_CODE (cand->iv->step) != INTEGER_CST)
4015     return false;
4016
4017   /* For now works only for exits that dominate the loop latch.
4018      TODO: extend to other conditions inside loop body.  */
4019   ex_bb = gimple_bb (use->stmt);
4020   if (use->stmt != last_stmt (ex_bb)
4021       || gimple_code (use->stmt) != GIMPLE_COND
4022       || !dominated_by_p (CDI_DOMINATORS, loop->latch, ex_bb))
4023     return false;
4024
4025   exit = EDGE_SUCC (ex_bb, 0);
4026   if (flow_bb_inside_loop_p (loop, exit->dest))
4027     exit = EDGE_SUCC (ex_bb, 1);
4028   if (flow_bb_inside_loop_p (loop, exit->dest))
4029     return false;
4030
4031   nit = niter_for_exit (data, exit);
4032   if (!nit)
4033     return false;
4034
4035   /* Determine whether we can use the variable to test the exit condition.
4036      This is the case iff the period of the induction variable is greater
4037      than the number of iterations for which the exit condition is true.  */
4038   period = iv_period (cand->iv);
4039
4040   /* If the number of iterations is constant, compare against it directly.  */
4041   if (TREE_CODE (nit) == INTEGER_CST)
4042     {
4043       if (!tree_int_cst_lt (nit, period))
4044         return false;
4045     }
4046
4047   /* If not, and if this is the only possible exit of the loop, see whether
4048      we can get a conservative estimate on the number of iterations of the
4049      entire loop and compare against that instead.  */
4050   else if (loop_only_exit_p (loop, exit))
4051     {
4052       double_int period_value, max_niter;
4053       if (!estimated_loop_iterations (loop, true, &max_niter))
4054         return false;
4055       period_value = tree_to_double_int (period);
4056       if (double_int_ucmp (max_niter, period_value) >= 0)
4057         return false;
4058     }
4059
4060   /* Otherwise, punt.  */
4061   else
4062     return false;
4063
4064   cand_value_at (loop, cand, use->stmt, nit, &bnd);
4065
4066   *bound = aff_combination_to_tree (&bnd);
4067   /* It is unlikely that computing the number of iterations using division
4068      would be more profitable than keeping the original induction variable.  */
4069   if (expression_expensive_p (*bound))
4070     return false;
4071   return true;
4072 }
4073
4074 /* Determines cost of basing replacement of USE on CAND in a condition.  */
4075
4076 static bool
4077 determine_use_iv_cost_condition (struct ivopts_data *data,
4078                                  struct iv_use *use, struct iv_cand *cand)
4079 {
4080   tree bound = NULL_TREE;
4081   struct iv *cmp_iv;
4082   bitmap depends_on_elim = NULL, depends_on_express = NULL, depends_on;
4083   comp_cost elim_cost, express_cost, cost;
4084   bool ok;
4085
4086   /* Only consider real candidates.  */
4087   if (!cand->iv)
4088     {
4089       set_use_iv_cost (data, use, cand, infinite_cost, NULL, NULL_TREE);
4090       return false;
4091     }
4092
4093   /* Try iv elimination.  */
4094   if (may_eliminate_iv (data, use, cand, &bound))
4095     {
4096       elim_cost = force_var_cost (data, bound, &depends_on_elim);
4097       /* The bound is a loop invariant, so it will be only computed
4098          once.  */
4099       elim_cost.cost /= AVG_LOOP_NITER (data->current_loop);
4100     }
4101   else
4102     elim_cost = infinite_cost;
4103
4104   /* Try expressing the original giv.  If it is compared with an invariant,
4105      note that we cannot get rid of it.  */
4106   ok = extract_cond_operands (data, use->stmt, NULL, NULL, NULL, &cmp_iv);
4107   gcc_assert (ok);
4108
4109   express_cost = get_computation_cost (data, use, cand, false,
4110                                        &depends_on_express, NULL);
4111   fd_ivopts_data = data;
4112   walk_tree (&cmp_iv->base, find_depends, &depends_on_express, NULL);
4113
4114   /* Choose the better approach, preferring the eliminated IV. */
4115   if (compare_costs (elim_cost, express_cost) <= 0)
4116     {
4117       cost = elim_cost;
4118       depends_on = depends_on_elim;
4119       depends_on_elim = NULL;
4120     }
4121   else
4122     {
4123       cost = express_cost;
4124       depends_on = depends_on_express;
4125       depends_on_express = NULL;
4126       bound = NULL_TREE;
4127     }
4128
4129   set_use_iv_cost (data, use, cand, cost, depends_on, bound);
4130
4131   if (depends_on_elim)
4132     BITMAP_FREE (depends_on_elim);
4133   if (depends_on_express)
4134     BITMAP_FREE (depends_on_express);
4135
4136   return !infinite_cost_p (cost);
4137 }
4138
4139 /* Determines cost of basing replacement of USE on CAND.  Returns false
4140    if USE cannot be based on CAND.  */
4141
4142 static bool
4143 determine_use_iv_cost (struct ivopts_data *data,
4144                        struct iv_use *use, struct iv_cand *cand)
4145 {
4146   switch (use->type)
4147     {
4148     case USE_NONLINEAR_EXPR:
4149       return determine_use_iv_cost_generic (data, use, cand);
4150
4151     case USE_ADDRESS:
4152       return determine_use_iv_cost_address (data, use, cand);
4153
4154     case USE_COMPARE:
4155       return determine_use_iv_cost_condition (data, use, cand);
4156
4157     default:
4158       gcc_unreachable ();
4159     }
4160 }
4161
4162 /* Return true if get_computation_cost indicates that autoincrement is
4163    a possibility for the pair of USE and CAND, false otherwise.  */
4164
4165 static bool
4166 autoinc_possible_for_pair (struct ivopts_data *data, struct iv_use *use,
4167                            struct iv_cand *cand)
4168 {
4169   bitmap depends_on;
4170   bool can_autoinc;
4171   comp_cost cost;
4172
4173   if (use->type != USE_ADDRESS)
4174     return false;
4175
4176   cost = get_computation_cost (data, use, cand, true, &depends_on,
4177                                &can_autoinc);
4178
4179   BITMAP_FREE (depends_on);
4180
4181   return !infinite_cost_p (cost) && can_autoinc;
4182 }
4183
4184 /* Examine IP_ORIGINAL candidates to see if they are incremented next to a
4185    use that allows autoincrement, and set their AINC_USE if possible.  */
4186
4187 static void
4188 set_autoinc_for_original_candidates (struct ivopts_data *data)
4189 {
4190   unsigned i, j;
4191
4192   for (i = 0; i < n_iv_cands (data); i++)
4193     {
4194       struct iv_cand *cand = iv_cand (data, i);
4195       struct iv_use *closest = NULL;
4196       if (cand->pos != IP_ORIGINAL)
4197         continue;
4198       for (j = 0; j < n_iv_uses (data); j++)
4199         {
4200           struct iv_use *use = iv_use (data, j);
4201           unsigned uid = gimple_uid (use->stmt);
4202           if (gimple_bb (use->stmt) != gimple_bb (cand->incremented_at)
4203               || uid > gimple_uid (cand->incremented_at))
4204             continue;
4205           if (closest == NULL || uid > gimple_uid (closest->stmt))
4206             closest = use;
4207         }
4208       if (closest == NULL || !autoinc_possible_for_pair (data, closest, cand))
4209         continue;
4210       cand->ainc_use = closest;
4211     }
4212 }
4213
4214 /* Finds the candidates for the induction variables.  */
4215
4216 static void
4217 find_iv_candidates (struct ivopts_data *data)
4218 {
4219   /* Add commonly used ivs.  */
4220   add_standard_iv_candidates (data);
4221
4222   /* Add old induction variables.  */
4223   add_old_ivs_candidates (data);
4224
4225   /* Add induction variables derived from uses.  */
4226   add_derived_ivs_candidates (data);
4227
4228   set_autoinc_for_original_candidates (data);
4229
4230   /* Record the important candidates.  */
4231   record_important_candidates (data);
4232 }
4233
4234 /* Determines costs of basing the use of the iv on an iv candidate.  */
4235
4236 static void
4237 determine_use_iv_costs (struct ivopts_data *data)
4238 {
4239   unsigned i, j;
4240   struct iv_use *use;
4241   struct iv_cand *cand;
4242   bitmap to_clear = BITMAP_ALLOC (NULL);
4243
4244   alloc_use_cost_map (data);
4245
4246   for (i = 0; i < n_iv_uses (data); i++)
4247     {
4248       use = iv_use (data, i);
4249
4250       if (data->consider_all_candidates)
4251         {
4252           for (j = 0; j < n_iv_cands (data); j++)
4253             {
4254               cand = iv_cand (data, j);
4255               determine_use_iv_cost (data, use, cand);
4256             }
4257         }
4258       else
4259         {
4260           bitmap_iterator bi;
4261
4262           EXECUTE_IF_SET_IN_BITMAP (use->related_cands, 0, j, bi)
4263             {
4264               cand = iv_cand (data, j);
4265               if (!determine_use_iv_cost (data, use, cand))
4266                 bitmap_set_bit (to_clear, j);
4267             }
4268
4269           /* Remove the candidates for that the cost is infinite from
4270              the list of related candidates.  */
4271           bitmap_and_compl_into (use->related_cands, to_clear);
4272           bitmap_clear (to_clear);
4273         }
4274     }
4275
4276   BITMAP_FREE (to_clear);
4277
4278   if (dump_file && (dump_flags & TDF_DETAILS))
4279     {
4280       fprintf (dump_file, "Use-candidate costs:\n");
4281
4282       for (i = 0; i < n_iv_uses (data); i++)
4283         {
4284           use = iv_use (data, i);
4285
4286           fprintf (dump_file, "Use %d:\n", i);
4287           fprintf (dump_file, "  cand\tcost\tcompl.\tdepends on\n");
4288           for (j = 0; j < use->n_map_members; j++)
4289             {
4290               if (!use->cost_map[j].cand
4291                   || infinite_cost_p (use->cost_map[j].cost))
4292                 continue;
4293
4294               fprintf (dump_file, "  %d\t%d\t%d\t",
4295                        use->cost_map[j].cand->id,
4296                        use->cost_map[j].cost.cost,
4297                        use->cost_map[j].cost.complexity);
4298               if (use->cost_map[j].depends_on)
4299                 bitmap_print (dump_file,
4300                               use->cost_map[j].depends_on, "","");
4301               fprintf (dump_file, "\n");
4302             }
4303
4304           fprintf (dump_file, "\n");
4305         }
4306       fprintf (dump_file, "\n");
4307     }
4308 }
4309
4310 /* Determines cost of the candidate CAND.  */
4311
4312 static void
4313 determine_iv_cost (struct ivopts_data *data, struct iv_cand *cand)
4314 {
4315   comp_cost cost_base;
4316   unsigned cost, cost_step;
4317   tree base;
4318
4319   if (!cand->iv)
4320     {
4321       cand->cost = 0;
4322       return;
4323     }
4324
4325   /* There are two costs associated with the candidate -- its increment
4326      and its initialization.  The second is almost negligible for any loop
4327      that rolls enough, so we take it just very little into account.  */
4328
4329   base = cand->iv->base;
4330   cost_base = force_var_cost (data, base, NULL);
4331   cost_step = add_cost (TYPE_MODE (TREE_TYPE (base)), data->speed);
4332
4333   cost = cost_step + cost_base.cost / AVG_LOOP_NITER (current_loop);
4334
4335   /* Prefer the original ivs unless we may gain something by replacing it.
4336      The reason is to make debugging simpler; so this is not relevant for
4337      artificial ivs created by other optimization passes.  */
4338   if (cand->pos != IP_ORIGINAL
4339       || DECL_ARTIFICIAL (SSA_NAME_VAR (cand->var_before)))
4340     cost++;
4341   
4342   /* Prefer not to insert statements into latch unless there are some
4343      already (so that we do not create unnecessary jumps).  */
4344   if (cand->pos == IP_END
4345       && empty_block_p (ip_end_pos (data->current_loop)))
4346     cost++;
4347
4348   cand->cost = cost;
4349   cand->cost_step = cost_step;
4350 }
4351
4352 /* Determines costs of computation of the candidates.  */
4353
4354 static void
4355 determine_iv_costs (struct ivopts_data *data)
4356 {
4357   unsigned i;
4358
4359   if (dump_file && (dump_flags & TDF_DETAILS))
4360     {
4361       fprintf (dump_file, "Candidate costs:\n");
4362       fprintf (dump_file, "  cand\tcost\n");
4363     }
4364
4365   for (i = 0; i < n_iv_cands (data); i++)
4366     {
4367       struct iv_cand *cand = iv_cand (data, i);
4368
4369       determine_iv_cost (data, cand);
4370
4371       if (dump_file && (dump_flags & TDF_DETAILS))
4372         fprintf (dump_file, "  %d\t%d\n", i, cand->cost);
4373     }
4374
4375   if (dump_file && (dump_flags & TDF_DETAILS))
4376     fprintf (dump_file, "\n");
4377 }
4378
4379 /* Calculates cost for having SIZE induction variables.  */
4380
4381 static unsigned
4382 ivopts_global_cost_for_size (struct ivopts_data *data, unsigned size)
4383 {
4384   /* We add size to the cost, so that we prefer eliminating ivs
4385      if possible.  */
4386   return size + estimate_reg_pressure_cost (size, data->regs_used, data->speed);
4387 }
4388
4389 /* For each size of the induction variable set determine the penalty.  */
4390
4391 static void
4392 determine_set_costs (struct ivopts_data *data)
4393 {
4394   unsigned j, n;
4395   gimple phi;
4396   gimple_stmt_iterator psi;
4397   tree op;
4398   struct loop *loop = data->current_loop;
4399   bitmap_iterator bi;
4400
4401   /* We use the following model (definitely improvable, especially the
4402      cost function -- TODO):
4403
4404      We estimate the number of registers available (using MD data), name it A.
4405
4406      We estimate the number of registers used by the loop, name it U.  This
4407      number is obtained as the number of loop phi nodes (not counting virtual
4408      registers and bivs) + the number of variables from outside of the loop.
4409
4410      We set a reserve R (free regs that are used for temporary computations,
4411      etc.).  For now the reserve is a constant 3.
4412
4413      Let I be the number of induction variables.
4414      
4415      -- if U + I + R <= A, the cost is I * SMALL_COST (just not to encourage
4416         make a lot of ivs without a reason).
4417      -- if A - R < U + I <= A, the cost is I * PRES_COST
4418      -- if U + I > A, the cost is I * PRES_COST and
4419         number of uses * SPILL_COST * (U + I - A) / (U + I) is added.  */
4420
4421   if (dump_file && (dump_flags & TDF_DETAILS))
4422     {
4423       fprintf (dump_file, "Global costs:\n");
4424       fprintf (dump_file, "  target_avail_regs %d\n", target_avail_regs);
4425       fprintf (dump_file, "  target_reg_cost %d\n", target_reg_cost[data->speed]);
4426       fprintf (dump_file, "  target_spill_cost %d\n", target_spill_cost[data->speed]);
4427     }
4428
4429   n = 0;
4430   for (psi = gsi_start_phis (loop->header); !gsi_end_p (psi); gsi_next (&psi))
4431     {
4432       phi = gsi_stmt (psi);
4433       op = PHI_RESULT (phi);
4434
4435       if (!is_gimple_reg (op))
4436         continue;
4437
4438       if (get_iv (data, op))
4439         continue;
4440
4441       n++;
4442     }
4443
4444   EXECUTE_IF_SET_IN_BITMAP (data->relevant, 0, j, bi)
4445     {
4446       struct version_info *info = ver_info (data, j);
4447
4448       if (info->inv_id && info->has_nonlin_use)
4449         n++;
4450     }
4451
4452   data->regs_used = n;
4453   if (dump_file && (dump_flags & TDF_DETAILS))
4454     fprintf (dump_file, "  regs_used %d\n", n);
4455
4456   if (dump_file && (dump_flags & TDF_DETAILS))
4457     {
4458       fprintf (dump_file, "  cost for size:\n");
4459       fprintf (dump_file, "  ivs\tcost\n");
4460       for (j = 0; j <= 2 * target_avail_regs; j++)
4461         fprintf (dump_file, "  %d\t%d\n", j,
4462                  ivopts_global_cost_for_size (data, j));
4463       fprintf (dump_file, "\n");
4464     }
4465 }
4466
4467 /* Returns true if A is a cheaper cost pair than B.  */
4468
4469 static bool
4470 cheaper_cost_pair (struct cost_pair *a, struct cost_pair *b)
4471 {
4472   int cmp;
4473
4474   if (!a)
4475     return false;
4476
4477   if (!b)
4478     return true;
4479
4480   cmp = compare_costs (a->cost, b->cost);
4481   if (cmp < 0)
4482     return true;
4483
4484   if (cmp > 0)
4485     return false;
4486
4487   /* In case the costs are the same, prefer the cheaper candidate.  */
4488   if (a->cand->cost < b->cand->cost)
4489     return true;
4490
4491   return false;
4492 }
4493
4494 /* Computes the cost field of IVS structure.  */
4495
4496 static void
4497 iv_ca_recount_cost (struct ivopts_data *data, struct iv_ca *ivs)
4498 {
4499   comp_cost cost = ivs->cand_use_cost;
4500   cost.cost += ivs->cand_cost;
4501   cost.cost += ivopts_global_cost_for_size (data, ivs->n_regs);
4502
4503   ivs->cost = cost;
4504 }
4505
4506 /* Remove invariants in set INVS to set IVS.  */
4507
4508 static void
4509 iv_ca_set_remove_invariants (struct iv_ca *ivs, bitmap invs)
4510 {
4511   bitmap_iterator bi;
4512   unsigned iid;
4513
4514   if (!invs)
4515     return;
4516
4517   EXECUTE_IF_SET_IN_BITMAP (invs, 0, iid, bi)
4518     {
4519       ivs->n_invariant_uses[iid]--;
4520       if (ivs->n_invariant_uses[iid] == 0)
4521         ivs->n_regs--;
4522     }
4523 }
4524
4525 /* Set USE not to be expressed by any candidate in IVS.  */
4526
4527 static void
4528 iv_ca_set_no_cp (struct ivopts_data *data, struct iv_ca *ivs,
4529                  struct iv_use *use)
4530 {
4531   unsigned uid = use->id, cid;
4532   struct cost_pair *cp;
4533
4534   cp = ivs->cand_for_use[uid];
4535   if (!cp)
4536     return;
4537   cid = cp->cand->id;
4538
4539   ivs->bad_uses++;
4540   ivs->cand_for_use[uid] = NULL;
4541   ivs->n_cand_uses[cid]--;
4542
4543   if (ivs->n_cand_uses[cid] == 0)
4544     {
4545       bitmap_clear_bit (ivs->cands, cid);
4546       /* Do not count the pseudocandidates.  */
4547       if (cp->cand->iv)
4548         ivs->n_regs--;
4549       ivs->n_cands--;
4550       ivs->cand_cost -= cp->cand->cost;
4551
4552       iv_ca_set_remove_invariants (ivs, cp->cand->depends_on);
4553     }
4554
4555   ivs->cand_use_cost = sub_costs (ivs->cand_use_cost, cp->cost);
4556
4557   iv_ca_set_remove_invariants (ivs, cp->depends_on);
4558   iv_ca_recount_cost (data, ivs);
4559 }
4560
4561 /* Add invariants in set INVS to set IVS.  */
4562
4563 static void
4564 iv_ca_set_add_invariants (struct iv_ca *ivs, bitmap invs)
4565 {
4566   bitmap_iterator bi;
4567   unsigned iid;
4568
4569   if (!invs)
4570     return;
4571
4572   EXECUTE_IF_SET_IN_BITMAP (invs, 0, iid, bi)
4573     {
4574       ivs->n_invariant_uses[iid]++;
4575       if (ivs->n_invariant_uses[iid] == 1)
4576         ivs->n_regs++;
4577     }
4578 }
4579
4580 /* Set cost pair for USE in set IVS to CP.  */
4581
4582 static void
4583 iv_ca_set_cp (struct ivopts_data *data, struct iv_ca *ivs,
4584               struct iv_use *use, struct cost_pair *cp)
4585 {
4586   unsigned uid = use->id, cid;
4587
4588   if (ivs->cand_for_use[uid] == cp)
4589     return;
4590
4591   if (ivs->cand_for_use[uid])
4592     iv_ca_set_no_cp (data, ivs, use);
4593
4594   if (cp)
4595     {
4596       cid = cp->cand->id;
4597
4598       ivs->bad_uses--;
4599       ivs->cand_for_use[uid] = cp;
4600       ivs->n_cand_uses[cid]++;
4601       if (ivs->n_cand_uses[cid] == 1)
4602         {
4603           bitmap_set_bit (ivs->cands, cid);
4604           /* Do not count the pseudocandidates.  */
4605           if (cp->cand->iv)
4606             ivs->n_regs++;
4607           ivs->n_cands++;
4608           ivs->cand_cost += cp->cand->cost;
4609
4610           iv_ca_set_add_invariants (ivs, cp->cand->depends_on);
4611         }
4612
4613       ivs->cand_use_cost = add_costs (ivs->cand_use_cost, cp->cost);
4614       iv_ca_set_add_invariants (ivs, cp->depends_on);
4615       iv_ca_recount_cost (data, ivs);
4616     }
4617 }
4618
4619 /* Extend set IVS by expressing USE by some of the candidates in it
4620    if possible.  */
4621
4622 static void
4623 iv_ca_add_use (struct ivopts_data *data, struct iv_ca *ivs,
4624                struct iv_use *use)
4625 {
4626   struct cost_pair *best_cp = NULL, *cp;
4627   bitmap_iterator bi;
4628   unsigned i;
4629
4630   gcc_assert (ivs->upto >= use->id);
4631
4632   if (ivs->upto == use->id)
4633     {
4634       ivs->upto++;
4635       ivs->bad_uses++;
4636     }
4637
4638   EXECUTE_IF_SET_IN_BITMAP (ivs->cands, 0, i, bi)
4639     {
4640       cp = get_use_iv_cost (data, use, iv_cand (data, i));
4641
4642       if (cheaper_cost_pair (cp, best_cp))
4643         best_cp = cp;
4644     }
4645
4646   iv_ca_set_cp (data, ivs, use, best_cp);
4647 }
4648
4649 /* Get cost for assignment IVS.  */
4650
4651 static comp_cost
4652 iv_ca_cost (struct iv_ca *ivs)
4653 {
4654   /* This was a conditional expression but it triggered a bug in
4655      Sun C 5.5.  */
4656   if (ivs->bad_uses)
4657     return infinite_cost;
4658   else
4659     return ivs->cost;
4660 }
4661
4662 /* Returns true if all dependences of CP are among invariants in IVS.  */
4663
4664 static bool
4665 iv_ca_has_deps (struct iv_ca *ivs, struct cost_pair *cp)
4666 {
4667   unsigned i;
4668   bitmap_iterator bi;
4669
4670   if (!cp->depends_on)
4671     return true;
4672
4673   EXECUTE_IF_SET_IN_BITMAP (cp->depends_on, 0, i, bi)
4674     {
4675       if (ivs->n_invariant_uses[i] == 0)
4676         return false;
4677     }
4678
4679   return true;
4680 }
4681
4682 /* Creates change of expressing USE by NEW_CP instead of OLD_CP and chains
4683    it before NEXT_CHANGE.  */
4684
4685 static struct iv_ca_delta *
4686 iv_ca_delta_add (struct iv_use *use, struct cost_pair *old_cp,
4687                  struct cost_pair *new_cp, struct iv_ca_delta *next_change)
4688 {
4689   struct iv_ca_delta *change = XNEW (struct iv_ca_delta);
4690
4691   change->use = use;
4692   change->old_cp = old_cp;
4693   change->new_cp = new_cp;
4694   change->next_change = next_change;
4695
4696   return change;
4697 }
4698
4699 /* Joins two lists of changes L1 and L2.  Destructive -- old lists
4700    are rewritten.  */
4701
4702 static struct iv_ca_delta *
4703 iv_ca_delta_join (struct iv_ca_delta *l1, struct iv_ca_delta *l2)
4704 {
4705   struct iv_ca_delta *last;
4706
4707   if (!l2)
4708     return l1;
4709
4710   if (!l1)
4711     return l2;
4712
4713   for (last = l1; last->next_change; last = last->next_change)
4714     continue;
4715   last->next_change = l2;
4716
4717   return l1;
4718 }
4719
4720 /* Returns candidate by that USE is expressed in IVS.  */
4721
4722 static struct cost_pair *
4723 iv_ca_cand_for_use (struct iv_ca *ivs, struct iv_use *use)
4724 {
4725   return ivs->cand_for_use[use->id];
4726 }
4727
4728 /* Reverse the list of changes DELTA, forming the inverse to it.  */
4729
4730 static struct iv_ca_delta *
4731 iv_ca_delta_reverse (struct iv_ca_delta *delta)
4732 {
4733   struct iv_ca_delta *act, *next, *prev = NULL;
4734   struct cost_pair *tmp;
4735
4736   for (act = delta; act; act = next)
4737     {
4738       next = act->next_change;
4739       act->next_change = prev;
4740       prev = act;
4741
4742       tmp = act->old_cp;
4743       act->old_cp = act->new_cp;
4744       act->new_cp = tmp;
4745     }
4746
4747   return prev;
4748 }
4749
4750 /* Commit changes in DELTA to IVS.  If FORWARD is false, the changes are
4751    reverted instead.  */
4752
4753 static void
4754 iv_ca_delta_commit (struct ivopts_data *data, struct iv_ca *ivs,
4755                     struct iv_ca_delta *delta, bool forward)
4756 {
4757   struct cost_pair *from, *to;
4758   struct iv_ca_delta *act;
4759
4760   if (!forward)
4761     delta = iv_ca_delta_reverse (delta);
4762
4763   for (act = delta; act; act = act->next_change)
4764     {
4765       from = act->old_cp;
4766       to = act->new_cp;
4767       gcc_assert (iv_ca_cand_for_use (ivs, act->use) == from);
4768       iv_ca_set_cp (data, ivs, act->use, to);
4769     }
4770
4771   if (!forward)
4772     iv_ca_delta_reverse (delta);
4773 }
4774
4775 /* Returns true if CAND is used in IVS.  */
4776
4777 static bool
4778 iv_ca_cand_used_p (struct iv_ca *ivs, struct iv_cand *cand)
4779 {
4780   return ivs->n_cand_uses[cand->id] > 0;
4781 }
4782
4783 /* Returns number of induction variable candidates in the set IVS.  */
4784
4785 static unsigned
4786 iv_ca_n_cands (struct iv_ca *ivs)
4787 {
4788   return ivs->n_cands;
4789 }
4790
4791 /* Free the list of changes DELTA.  */
4792
4793 static void
4794 iv_ca_delta_free (struct iv_ca_delta **delta)
4795 {
4796   struct iv_ca_delta *act, *next;
4797
4798   for (act = *delta; act; act = next)
4799     {
4800       next = act->next_change;
4801       free (act);
4802     }
4803
4804   *delta = NULL;
4805 }
4806
4807 /* Allocates new iv candidates assignment.  */
4808
4809 static struct iv_ca *
4810 iv_ca_new (struct ivopts_data *data)
4811 {
4812   struct iv_ca *nw = XNEW (struct iv_ca);
4813
4814   nw->upto = 0;
4815   nw->bad_uses = 0;
4816   nw->cand_for_use = XCNEWVEC (struct cost_pair *, n_iv_uses (data));
4817   nw->n_cand_uses = XCNEWVEC (unsigned, n_iv_cands (data));
4818   nw->cands = BITMAP_ALLOC (NULL);
4819   nw->n_cands = 0;
4820   nw->n_regs = 0;
4821   nw->cand_use_cost = zero_cost;
4822   nw->cand_cost = 0;
4823   nw->n_invariant_uses = XCNEWVEC (unsigned, data->max_inv_id + 1);
4824   nw->cost = zero_cost;
4825
4826   return nw;
4827 }
4828
4829 /* Free memory occupied by the set IVS.  */
4830
4831 static void
4832 iv_ca_free (struct iv_ca **ivs)
4833 {
4834   free ((*ivs)->cand_for_use);
4835   free ((*ivs)->n_cand_uses);
4836   BITMAP_FREE ((*ivs)->cands);
4837   free ((*ivs)->n_invariant_uses);
4838   free (*ivs);
4839   *ivs = NULL;
4840 }
4841
4842 /* Dumps IVS to FILE.  */
4843
4844 static void
4845 iv_ca_dump (struct ivopts_data *data, FILE *file, struct iv_ca *ivs)
4846 {
4847   const char *pref = "  invariants ";
4848   unsigned i;
4849   comp_cost cost = iv_ca_cost (ivs);
4850
4851   fprintf (file, "  cost %d (complexity %d)\n", cost.cost, cost.complexity);
4852   bitmap_print (file, ivs->cands, "  candidates ","\n");
4853
4854   for (i = 1; i <= data->max_inv_id; i++)
4855     if (ivs->n_invariant_uses[i])
4856       {
4857         fprintf (file, "%s%d", pref, i);
4858         pref = ", ";
4859       }
4860   fprintf (file, "\n");
4861 }
4862
4863 /* Try changing candidate in IVS to CAND for each use.  Return cost of the
4864    new set, and store differences in DELTA.  Number of induction variables
4865    in the new set is stored to N_IVS.  */
4866
4867 static comp_cost
4868 iv_ca_extend (struct ivopts_data *data, struct iv_ca *ivs,
4869               struct iv_cand *cand, struct iv_ca_delta **delta,
4870               unsigned *n_ivs)
4871 {
4872   unsigned i;
4873   comp_cost cost;
4874   struct iv_use *use;
4875   struct cost_pair *old_cp, *new_cp;
4876
4877   *delta = NULL;
4878   for (i = 0; i < ivs->upto; i++)
4879     {
4880       use = iv_use (data, i);
4881       old_cp = iv_ca_cand_for_use (ivs, use);
4882
4883       if (old_cp
4884           && old_cp->cand == cand)
4885         continue;
4886
4887       new_cp = get_use_iv_cost (data, use, cand);
4888       if (!new_cp)
4889         continue;
4890
4891       if (!iv_ca_has_deps (ivs, new_cp))
4892         continue;
4893       
4894       if (!cheaper_cost_pair (new_cp, old_cp))
4895         continue;
4896
4897       *delta = iv_ca_delta_add (use, old_cp, new_cp, *delta);
4898     }
4899
4900   iv_ca_delta_commit (data, ivs, *delta, true);
4901   cost = iv_ca_cost (ivs);
4902   if (n_ivs)
4903     *n_ivs = iv_ca_n_cands (ivs);
4904   iv_ca_delta_commit (data, ivs, *delta, false);
4905
4906   return cost;
4907 }
4908
4909 /* Try narrowing set IVS by removing CAND.  Return the cost of
4910    the new set and store the differences in DELTA.  */
4911
4912 static comp_cost
4913 iv_ca_narrow (struct ivopts_data *data, struct iv_ca *ivs,
4914               struct iv_cand *cand, struct iv_ca_delta **delta)
4915 {
4916   unsigned i, ci;
4917   struct iv_use *use;
4918   struct cost_pair *old_cp, *new_cp, *cp;
4919   bitmap_iterator bi;
4920   struct iv_cand *cnd;
4921   comp_cost cost;
4922
4923   *delta = NULL;
4924   for (i = 0; i < n_iv_uses (data); i++)
4925     {
4926       use = iv_use (data, i);
4927
4928       old_cp = iv_ca_cand_for_use (ivs, use);
4929       if (old_cp->cand != cand)
4930         continue;
4931
4932       new_cp = NULL;
4933
4934       if (data->consider_all_candidates)
4935         {
4936           EXECUTE_IF_SET_IN_BITMAP (ivs->cands, 0, ci, bi)
4937             {
4938               if (ci == cand->id)
4939                 continue;
4940
4941               cnd = iv_cand (data, ci);
4942
4943               cp = get_use_iv_cost (data, use, cnd);
4944               if (!cp)
4945                 continue;
4946               if (!iv_ca_has_deps (ivs, cp))
4947                 continue;
4948       
4949               if (!cheaper_cost_pair (cp, new_cp))
4950                 continue;
4951
4952               new_cp = cp;
4953             }
4954         }
4955       else
4956         {
4957           EXECUTE_IF_AND_IN_BITMAP (use->related_cands, ivs->cands, 0, ci, bi)
4958             {
4959               if (ci == cand->id)
4960                 continue;
4961
4962               cnd = iv_cand (data, ci);
4963
4964               cp = get_use_iv_cost (data, use, cnd);
4965               if (!cp)
4966                 continue;
4967               if (!iv_ca_has_deps (ivs, cp))
4968                 continue;
4969       
4970               if (!cheaper_cost_pair (cp, new_cp))
4971                 continue;
4972
4973               new_cp = cp;
4974             }
4975         }
4976
4977       if (!new_cp)
4978         {
4979           iv_ca_delta_free (delta);
4980           return infinite_cost;
4981         }
4982
4983       *delta = iv_ca_delta_add (use, old_cp, new_cp, *delta);
4984     }
4985
4986   iv_ca_delta_commit (data, ivs, *delta, true);
4987   cost = iv_ca_cost (ivs);
4988   iv_ca_delta_commit (data, ivs, *delta, false);
4989
4990   return cost;
4991 }
4992
4993 /* Try optimizing the set of candidates IVS by removing candidates different
4994    from to EXCEPT_CAND from it.  Return cost of the new set, and store
4995    differences in DELTA.  */
4996
4997 static comp_cost
4998 iv_ca_prune (struct ivopts_data *data, struct iv_ca *ivs,
4999              struct iv_cand *except_cand, struct iv_ca_delta **delta)
5000 {
5001   bitmap_iterator bi;
5002   struct iv_ca_delta *act_delta, *best_delta;
5003   unsigned i;
5004   comp_cost best_cost, acost;
5005   struct iv_cand *cand;
5006
5007   best_delta = NULL;
5008   best_cost = iv_ca_cost (ivs);
5009
5010   EXECUTE_IF_SET_IN_BITMAP (ivs->cands, 0, i, bi)
5011     {
5012       cand = iv_cand (data, i);
5013
5014       if (cand == except_cand)
5015         continue;
5016
5017       acost = iv_ca_narrow (data, ivs, cand, &act_delta);
5018
5019       if (compare_costs (acost, best_cost) < 0)
5020         {
5021           best_cost = acost;
5022           iv_ca_delta_free (&best_delta);
5023           best_delta = act_delta;
5024         }
5025       else
5026         iv_ca_delta_free (&act_delta);
5027     }
5028
5029   if (!best_delta)
5030     {
5031       *delta = NULL;
5032       return best_cost;
5033     }
5034
5035   /* Recurse to possibly remove other unnecessary ivs.  */
5036   iv_ca_delta_commit (data, ivs, best_delta, true);
5037   best_cost = iv_ca_prune (data, ivs, except_cand, delta);
5038   iv_ca_delta_commit (data, ivs, best_delta, false);
5039   *delta = iv_ca_delta_join (best_delta, *delta);
5040   return best_cost;
5041 }
5042
5043 /* Tries to extend the sets IVS in the best possible way in order
5044    to express the USE.  */
5045
5046 static bool
5047 try_add_cand_for (struct ivopts_data *data, struct iv_ca *ivs,
5048                   struct iv_use *use)
5049 {
5050   comp_cost best_cost, act_cost;
5051   unsigned i;
5052   bitmap_iterator bi;
5053   struct iv_cand *cand;
5054   struct iv_ca_delta *best_delta = NULL, *act_delta;
5055   struct cost_pair *cp;
5056
5057   iv_ca_add_use (data, ivs, use);
5058   best_cost = iv_ca_cost (ivs);
5059
5060   cp = iv_ca_cand_for_use (ivs, use);
5061   if (cp)
5062     {
5063       best_delta = iv_ca_delta_add (use, NULL, cp, NULL);
5064       iv_ca_set_no_cp (data, ivs, use);
5065     }
5066
5067   /* First try important candidates not based on any memory object.  Only if
5068      this fails, try the specific ones.  Rationale -- in loops with many
5069      variables the best choice often is to use just one generic biv.  If we
5070      added here many ivs specific to the uses, the optimization algorithm later
5071      would be likely to get stuck in a local minimum, thus causing us to create
5072      too many ivs.  The approach from few ivs to more seems more likely to be
5073      successful -- starting from few ivs, replacing an expensive use by a
5074      specific iv should always be a win.  */
5075   EXECUTE_IF_SET_IN_BITMAP (data->important_candidates, 0, i, bi)
5076     {
5077       cand = iv_cand (data, i);
5078
5079       if (cand->iv->base_object != NULL_TREE)
5080         continue;
5081
5082       if (iv_ca_cand_used_p (ivs, cand))
5083         continue;
5084
5085       cp = get_use_iv_cost (data, use, cand);
5086       if (!cp)
5087         continue;
5088
5089       iv_ca_set_cp (data, ivs, use, cp);
5090       act_cost = iv_ca_extend (data, ivs, cand, &act_delta, NULL);
5091       iv_ca_set_no_cp (data, ivs, use);
5092       act_delta = iv_ca_delta_add (use, NULL, cp, act_delta);
5093
5094       if (compare_costs (act_cost, best_cost) < 0)
5095         {
5096           best_cost = act_cost;
5097
5098           iv_ca_delta_free (&best_delta);
5099           best_delta = act_delta;
5100         }
5101       else
5102         iv_ca_delta_free (&act_delta);
5103     }
5104
5105   if (infinite_cost_p (best_cost))
5106     {
5107       for (i = 0; i < use->n_map_members; i++)
5108         {
5109           cp = use->cost_map + i;
5110           cand = cp->cand;
5111           if (!cand)
5112             continue;
5113
5114           /* Already tried this.  */
5115           if (cand->important && cand->iv->base_object == NULL_TREE)
5116             continue;
5117       
5118           if (iv_ca_cand_used_p (ivs, cand))
5119             continue;
5120
5121           act_delta = NULL;
5122           iv_ca_set_cp (data, ivs, use, cp);
5123           act_cost = iv_ca_extend (data, ivs, cand, &act_delta, NULL);
5124           iv_ca_set_no_cp (data, ivs, use);
5125           act_delta = iv_ca_delta_add (use, iv_ca_cand_for_use (ivs, use),
5126                                        cp, act_delta);
5127
5128           if (compare_costs (act_cost, best_cost) < 0)
5129             {
5130               best_cost = act_cost;
5131
5132               if (best_delta)
5133                 iv_ca_delta_free (&best_delta);
5134               best_delta = act_delta;
5135             }
5136           else
5137             iv_ca_delta_free (&act_delta);
5138         }
5139     }
5140
5141   iv_ca_delta_commit (data, ivs, best_delta, true);
5142   iv_ca_delta_free (&best_delta);
5143
5144   return !infinite_cost_p (best_cost);
5145 }
5146
5147 /* Finds an initial assignment of candidates to uses.  */
5148
5149 static struct iv_ca *
5150 get_initial_solution (struct ivopts_data *data)
5151 {
5152   struct iv_ca *ivs = iv_ca_new (data);
5153   unsigned i;
5154
5155   for (i = 0; i < n_iv_uses (data); i++)
5156     if (!try_add_cand_for (data, ivs, iv_use (data, i)))
5157       {
5158         iv_ca_free (&ivs);
5159         return NULL;
5160       }
5161
5162   return ivs;
5163 }
5164
5165 /* Tries to improve set of induction variables IVS.  */
5166
5167 static bool
5168 try_improve_iv_set (struct ivopts_data *data, struct iv_ca *ivs)
5169 {
5170   unsigned i, n_ivs;
5171   comp_cost acost, best_cost = iv_ca_cost (ivs);
5172   struct iv_ca_delta *best_delta = NULL, *act_delta, *tmp_delta;
5173   struct iv_cand *cand;
5174
5175   /* Try extending the set of induction variables by one.  */
5176   for (i = 0; i < n_iv_cands (data); i++)
5177     {
5178       cand = iv_cand (data, i);
5179       
5180       if (iv_ca_cand_used_p (ivs, cand))
5181         continue;
5182
5183       acost = iv_ca_extend (data, ivs, cand, &act_delta, &n_ivs);
5184       if (!act_delta)
5185         continue;
5186
5187       /* If we successfully added the candidate and the set is small enough,
5188          try optimizing it by removing other candidates.  */
5189       if (n_ivs <= ALWAYS_PRUNE_CAND_SET_BOUND)
5190         {
5191           iv_ca_delta_commit (data, ivs, act_delta, true);
5192           acost = iv_ca_prune (data, ivs, cand, &tmp_delta);
5193           iv_ca_delta_commit (data, ivs, act_delta, false);
5194           act_delta = iv_ca_delta_join (act_delta, tmp_delta);
5195         }
5196
5197       if (compare_costs (acost, best_cost) < 0)
5198         {
5199           best_cost = acost;
5200           iv_ca_delta_free (&best_delta);
5201           best_delta = act_delta;
5202         }
5203       else
5204         iv_ca_delta_free (&act_delta);
5205     }
5206
5207   if (!best_delta)
5208     {
5209       /* Try removing the candidates from the set instead.  */
5210       best_cost = iv_ca_prune (data, ivs, NULL, &best_delta);
5211
5212       /* Nothing more we can do.  */
5213       if (!best_delta)
5214         return false;
5215     }
5216
5217   iv_ca_delta_commit (data, ivs, best_delta, true);
5218   gcc_assert (compare_costs (best_cost, iv_ca_cost (ivs)) == 0);
5219   iv_ca_delta_free (&best_delta);
5220   return true;
5221 }
5222
5223 /* Attempts to find the optimal set of induction variables.  We do simple
5224    greedy heuristic -- we try to replace at most one candidate in the selected
5225    solution and remove the unused ivs while this improves the cost.  */
5226
5227 static struct iv_ca *
5228 find_optimal_iv_set (struct ivopts_data *data)
5229 {
5230   unsigned i;
5231   struct iv_ca *set;
5232   struct iv_use *use;
5233
5234   /* Get the initial solution.  */
5235   set = get_initial_solution (data);
5236   if (!set)
5237     {
5238       if (dump_file && (dump_flags & TDF_DETAILS))
5239         fprintf (dump_file, "Unable to substitute for ivs, failed.\n");
5240       return NULL;
5241     }
5242
5243   if (dump_file && (dump_flags & TDF_DETAILS))
5244     {
5245       fprintf (dump_file, "Initial set of candidates:\n");
5246       iv_ca_dump (data, dump_file, set);
5247     }
5248
5249   while (try_improve_iv_set (data, set))
5250     {
5251       if (dump_file && (dump_flags & TDF_DETAILS))
5252         {
5253           fprintf (dump_file, "Improved to:\n");
5254           iv_ca_dump (data, dump_file, set);
5255         }
5256     }
5257
5258   if (dump_file && (dump_flags & TDF_DETAILS))
5259     {
5260       comp_cost cost = iv_ca_cost (set);
5261       fprintf (dump_file, "Final cost %d (complexity %d)\n\n", cost.cost, cost.complexity);
5262     }
5263
5264   for (i = 0; i < n_iv_uses (data); i++)
5265     {
5266       use = iv_use (data, i);
5267       use->selected = iv_ca_cand_for_use (set, use)->cand;
5268     }
5269
5270   return set;
5271 }
5272
5273 /* Creates a new induction variable corresponding to CAND.  */
5274
5275 static void
5276 create_new_iv (struct ivopts_data *data, struct iv_cand *cand)
5277 {
5278   gimple_stmt_iterator incr_pos;
5279   tree base;
5280   bool after = false;
5281
5282   if (!cand->iv)
5283     return;
5284
5285   switch (cand->pos)
5286     {
5287     case IP_NORMAL:
5288       incr_pos = gsi_last_bb (ip_normal_pos (data->current_loop));
5289       break;
5290
5291     case IP_END:
5292       incr_pos = gsi_last_bb (ip_end_pos (data->current_loop));
5293       after = true;
5294       break;
5295
5296     case IP_AFTER_USE:
5297       after = true;
5298       /* fall through */
5299     case IP_BEFORE_USE:
5300       incr_pos = gsi_for_stmt (cand->incremented_at);
5301       break;
5302
5303     case IP_ORIGINAL:
5304       /* Mark that the iv is preserved.  */
5305       name_info (data, cand->var_before)->preserve_biv = true;
5306       name_info (data, cand->var_after)->preserve_biv = true;
5307
5308       /* Rewrite the increment so that it uses var_before directly.  */
5309       find_interesting_uses_op (data, cand->var_after)->selected = cand;
5310       
5311       return;
5312     }
5313  
5314   gimple_add_tmp_var (cand->var_before);
5315   add_referenced_var (cand->var_before);
5316
5317   base = unshare_expr (cand->iv->base);
5318
5319   create_iv (base, unshare_expr (cand->iv->step),
5320              cand->var_before, data->current_loop,
5321              &incr_pos, after, &cand->var_before, &cand->var_after);
5322 }
5323
5324 /* Creates new induction variables described in SET.  */
5325
5326 static void
5327 create_new_ivs (struct ivopts_data *data, struct iv_ca *set)
5328 {
5329   unsigned i;
5330   struct iv_cand *cand;
5331   bitmap_iterator bi;
5332
5333   EXECUTE_IF_SET_IN_BITMAP (set->cands, 0, i, bi)
5334     {
5335       cand = iv_cand (data, i);
5336       create_new_iv (data, cand);
5337     }
5338 }
5339
5340
5341 /* Rewrites USE (definition of iv used in a nonlinear expression)
5342    using candidate CAND.  */
5343
5344 static void
5345 rewrite_use_nonlinear_expr (struct ivopts_data *data,
5346                             struct iv_use *use, struct iv_cand *cand)
5347 {
5348   tree comp;
5349   tree op, tgt;
5350   gimple ass;
5351   gimple_stmt_iterator bsi;
5352
5353   /* An important special case -- if we are asked to express value of
5354      the original iv by itself, just exit; there is no need to
5355      introduce a new computation (that might also need casting the
5356      variable to unsigned and back).  */
5357   if (cand->pos == IP_ORIGINAL
5358       && cand->incremented_at == use->stmt)
5359     {
5360       tree step, ctype, utype;
5361       enum tree_code incr_code = PLUS_EXPR, old_code;
5362
5363       gcc_assert (is_gimple_assign (use->stmt));
5364       gcc_assert (gimple_assign_lhs (use->stmt) == cand->var_after);
5365
5366       step = cand->iv->step;
5367       ctype = TREE_TYPE (step);
5368       utype = TREE_TYPE (cand->var_after);
5369       if (TREE_CODE (step) == NEGATE_EXPR)
5370         {
5371           incr_code = MINUS_EXPR;
5372           step = TREE_OPERAND (step, 0);
5373         }
5374
5375       /* Check whether we may leave the computation unchanged.
5376          This is the case only if it does not rely on other
5377          computations in the loop -- otherwise, the computation
5378          we rely upon may be removed in remove_unused_ivs,
5379          thus leading to ICE.  */
5380       old_code = gimple_assign_rhs_code (use->stmt);
5381       if (old_code == PLUS_EXPR
5382           || old_code == MINUS_EXPR
5383           || old_code == POINTER_PLUS_EXPR)
5384         {
5385           if (gimple_assign_rhs1 (use->stmt) == cand->var_before)
5386             op = gimple_assign_rhs2 (use->stmt);
5387           else if (old_code != MINUS_EXPR
5388                    && gimple_assign_rhs2 (use->stmt) == cand->var_before)
5389             op = gimple_assign_rhs1 (use->stmt);
5390           else
5391             op = NULL_TREE;
5392         }
5393       else
5394         op = NULL_TREE;
5395
5396       if (op
5397           && (TREE_CODE (op) == INTEGER_CST
5398               || operand_equal_p (op, step, 0)))
5399         return;
5400
5401       /* Otherwise, add the necessary computations to express
5402          the iv.  */
5403       op = fold_convert (ctype, cand->var_before);
5404       comp = fold_convert (utype,
5405                            build2 (incr_code, ctype, op,
5406                                    unshare_expr (step)));
5407     }
5408   else
5409     {
5410       comp = get_computation (data->current_loop, use, cand);
5411       gcc_assert (comp != NULL_TREE);
5412     }
5413
5414   switch (gimple_code (use->stmt))
5415     {
5416     case GIMPLE_PHI:
5417       tgt = PHI_RESULT (use->stmt);
5418
5419       /* If we should keep the biv, do not replace it.  */
5420       if (name_info (data, tgt)->preserve_biv)
5421         return;
5422
5423       bsi = gsi_after_labels (gimple_bb (use->stmt));
5424       break;
5425
5426     case GIMPLE_ASSIGN:
5427       tgt = gimple_assign_lhs (use->stmt);
5428       bsi = gsi_for_stmt (use->stmt);
5429       break;
5430
5431     default:
5432       gcc_unreachable ();
5433     }
5434
5435   op = force_gimple_operand_gsi (&bsi, comp, false, SSA_NAME_VAR (tgt),
5436                                  true, GSI_SAME_STMT);
5437
5438   if (gimple_code (use->stmt) == GIMPLE_PHI)
5439     {
5440       ass = gimple_build_assign (tgt, op);
5441       gsi_insert_before (&bsi, ass, GSI_SAME_STMT);
5442
5443       bsi = gsi_for_stmt (use->stmt);
5444       remove_phi_node (&bsi, false);
5445     }
5446   else
5447     {
5448       gimple_assign_set_rhs_from_tree (&bsi, op);
5449       use->stmt = gsi_stmt (bsi);
5450     }
5451 }
5452
5453 /* Replaces ssa name in index IDX by its basic variable.  Callback for
5454    for_each_index.  */
5455
5456 static bool
5457 idx_remove_ssa_names (tree base, tree *idx,
5458                       void *data ATTRIBUTE_UNUSED)
5459 {
5460   tree *op;
5461
5462   if (TREE_CODE (*idx) == SSA_NAME)
5463     *idx = SSA_NAME_VAR (*idx);
5464
5465   if (TREE_CODE (base) == ARRAY_REF || TREE_CODE (base) == ARRAY_RANGE_REF)
5466     {
5467       op = &TREE_OPERAND (base, 2);
5468       if (*op
5469           && TREE_CODE (*op) == SSA_NAME)
5470         *op = SSA_NAME_VAR (*op);
5471       op = &TREE_OPERAND (base, 3);
5472       if (*op
5473           && TREE_CODE (*op) == SSA_NAME)
5474         *op = SSA_NAME_VAR (*op);
5475     }
5476
5477   return true;
5478 }
5479
5480 /* Unshares REF and replaces ssa names inside it by their basic variables.  */
5481
5482 static tree
5483 unshare_and_remove_ssa_names (tree ref)
5484 {
5485   ref = unshare_expr (ref);
5486   for_each_index (&ref, idx_remove_ssa_names, NULL);
5487
5488   return ref;
5489 }
5490
5491 /* Copies the reference information from OLD_REF to NEW_REF.  */
5492
5493 static void
5494 copy_ref_info (tree new_ref, tree old_ref)
5495 {
5496   if (TREE_CODE (old_ref) == TARGET_MEM_REF)
5497     copy_mem_ref_info (new_ref, old_ref);
5498   else
5499     TMR_ORIGINAL (new_ref) = unshare_and_remove_ssa_names (old_ref);
5500 }
5501
5502 /* Rewrites USE (address that is an iv) using candidate CAND.  */
5503
5504 static void
5505 rewrite_use_address (struct ivopts_data *data,
5506                      struct iv_use *use, struct iv_cand *cand)
5507 {
5508   aff_tree aff;
5509   gimple_stmt_iterator bsi = gsi_for_stmt (use->stmt);
5510   tree ref;
5511   bool ok;
5512
5513   ok = get_computation_aff (data->current_loop, use, cand, use->stmt, &aff);
5514   gcc_assert (ok);
5515   unshare_aff_combination (&aff);
5516
5517   ref = create_mem_ref (&bsi, TREE_TYPE (*use->op_p), &aff, data->speed);
5518   copy_ref_info (ref, *use->op_p);
5519   *use->op_p = ref;
5520 }
5521
5522 /* Rewrites USE (the condition such that one of the arguments is an iv) using
5523    candidate CAND.  */
5524
5525 static void
5526 rewrite_use_compare (struct ivopts_data *data,
5527                      struct iv_use *use, struct iv_cand *cand)
5528 {
5529   tree comp, *var_p, op, bound;
5530   gimple_stmt_iterator bsi = gsi_for_stmt (use->stmt);
5531   enum tree_code compare;
5532   struct cost_pair *cp = get_use_iv_cost (data, use, cand);
5533   bool ok;
5534
5535   bound = cp->value;
5536   if (bound)
5537     {
5538       tree var = var_at_stmt (data->current_loop, cand, use->stmt);
5539       tree var_type = TREE_TYPE (var);
5540       gimple_seq stmts;
5541
5542       compare = iv_elimination_compare (data, use);
5543       bound = unshare_expr (fold_convert (var_type, bound));
5544       op = force_gimple_operand (bound, &stmts, true, NULL_TREE);
5545       if (stmts)
5546         gsi_insert_seq_on_edge_immediate (
5547                 loop_preheader_edge (data->current_loop),
5548                 stmts);
5549
5550       gimple_cond_set_lhs (use->stmt, var);
5551       gimple_cond_set_code (use->stmt, compare);
5552       gimple_cond_set_rhs (use->stmt, op);
5553       return;
5554     }
5555
5556   /* The induction variable elimination failed; just express the original
5557      giv.  */
5558   comp = get_computation (data->current_loop, use, cand);
5559   gcc_assert (comp != NULL_TREE);
5560
5561   ok = extract_cond_operands (data, use->stmt, &var_p, NULL, NULL, NULL);
5562   gcc_assert (ok);
5563
5564   *var_p = force_gimple_operand_gsi (&bsi, comp, true, SSA_NAME_VAR (*var_p),
5565                                      true, GSI_SAME_STMT);
5566 }
5567
5568 /* Rewrites USE using candidate CAND.  */
5569
5570 static void
5571 rewrite_use (struct ivopts_data *data, struct iv_use *use, struct iv_cand *cand)
5572 {
5573   switch (use->type)
5574     {
5575       case USE_NONLINEAR_EXPR:
5576         rewrite_use_nonlinear_expr (data, use, cand);
5577         break;
5578
5579       case USE_ADDRESS:
5580         rewrite_use_address (data, use, cand);
5581         break;
5582
5583       case USE_COMPARE:
5584         rewrite_use_compare (data, use, cand);
5585         break;
5586
5587       default:
5588         gcc_unreachable ();
5589     }
5590   
5591   update_stmt (use->stmt);
5592 }
5593
5594 /* Rewrite the uses using the selected induction variables.  */
5595
5596 static void
5597 rewrite_uses (struct ivopts_data *data)
5598 {
5599   unsigned i;
5600   struct iv_cand *cand;
5601   struct iv_use *use;
5602
5603   for (i = 0; i < n_iv_uses (data); i++)
5604     {
5605       use = iv_use (data, i);
5606       cand = use->selected;
5607       gcc_assert (cand);
5608
5609       rewrite_use (data, use, cand);
5610     }
5611 }
5612
5613 /* Removes the ivs that are not used after rewriting.  */
5614
5615 static void
5616 remove_unused_ivs (struct ivopts_data *data)
5617 {
5618   unsigned j;
5619   bitmap_iterator bi;
5620   bitmap toremove = BITMAP_ALLOC (NULL);
5621
5622   /* Figure out an order in which to release SSA DEFs so that we don't
5623      release something that we'd have to propagate into a debug stmt
5624      afterwards.  */
5625   EXECUTE_IF_SET_IN_BITMAP (data->relevant, 0, j, bi)
5626     {
5627       struct version_info *info;
5628
5629       info = ver_info (data, j);
5630       if (info->iv
5631           && !integer_zerop (info->iv->step)
5632           && !info->inv_id
5633           && !info->iv->have_use_for
5634           && !info->preserve_biv)
5635         bitmap_set_bit (toremove, SSA_NAME_VERSION (info->iv->ssa_name));
5636     }
5637
5638   release_defs_bitset (toremove);
5639
5640   BITMAP_FREE (toremove);
5641 }
5642
5643 /* Frees data allocated by the optimization of a single loop.  */
5644
5645 static void
5646 free_loop_data (struct ivopts_data *data)
5647 {
5648   unsigned i, j;
5649   bitmap_iterator bi;
5650   tree obj;
5651
5652   if (data->niters)
5653     {
5654       pointer_map_destroy (data->niters);
5655       data->niters = NULL;
5656     }
5657
5658   EXECUTE_IF_SET_IN_BITMAP (data->relevant, 0, i, bi)
5659     {
5660       struct version_info *info;
5661
5662       info = ver_info (data, i);
5663       if (info->iv)
5664         free (info->iv);
5665       info->iv = NULL;
5666       info->has_nonlin_use = false;
5667       info->preserve_biv = false;
5668       info->inv_id = 0;
5669     }
5670   bitmap_clear (data->relevant);
5671   bitmap_clear (data->important_candidates);
5672
5673   for (i = 0; i < n_iv_uses (data); i++)
5674     {
5675       struct iv_use *use = iv_use (data, i);
5676
5677       free (use->iv);
5678       BITMAP_FREE (use->related_cands);
5679       for (j = 0; j < use->n_map_members; j++)
5680         if (use->cost_map[j].depends_on)
5681           BITMAP_FREE (use->cost_map[j].depends_on);
5682       free (use->cost_map);
5683       free (use);
5684     }
5685   VEC_truncate (iv_use_p, data->iv_uses, 0);
5686
5687   for (i = 0; i < n_iv_cands (data); i++)
5688     {
5689       struct iv_cand *cand = iv_cand (data, i);
5690
5691       if (cand->iv)
5692         free (cand->iv);
5693       if (cand->depends_on)
5694         BITMAP_FREE (cand->depends_on);
5695       free (cand);
5696     }
5697   VEC_truncate (iv_cand_p, data->iv_candidates, 0);
5698
5699   if (data->version_info_size < num_ssa_names)
5700     {
5701       data->version_info_size = 2 * num_ssa_names;
5702       free (data->version_info);
5703       data->version_info = XCNEWVEC (struct version_info, data->version_info_size);
5704     }
5705
5706   data->max_inv_id = 0;
5707
5708   for (i = 0; VEC_iterate (tree, decl_rtl_to_reset, i, obj); i++)
5709     SET_DECL_RTL (obj, NULL_RTX);
5710
5711   VEC_truncate (tree, decl_rtl_to_reset, 0);
5712 }
5713
5714 /* Finalizes data structures used by the iv optimization pass.  LOOPS is the
5715    loop tree.  */
5716
5717 static void
5718 tree_ssa_iv_optimize_finalize (struct ivopts_data *data)
5719 {
5720   free_loop_data (data);
5721   free (data->version_info);
5722   BITMAP_FREE (data->relevant);
5723   BITMAP_FREE (data->important_candidates);
5724
5725   VEC_free (tree, heap, decl_rtl_to_reset);
5726   VEC_free (iv_use_p, heap, data->iv_uses);
5727   VEC_free (iv_cand_p, heap, data->iv_candidates);
5728 }
5729
5730 /* Optimizes the LOOP.  Returns true if anything changed.  */
5731
5732 static bool
5733 tree_ssa_iv_optimize_loop (struct ivopts_data *data, struct loop *loop)
5734 {
5735   bool changed = false;
5736   struct iv_ca *iv_ca;
5737   edge exit;
5738   basic_block *body;
5739
5740   gcc_assert (!data->niters);
5741   data->current_loop = loop;
5742   data->speed = optimize_loop_for_speed_p (loop);
5743
5744   if (dump_file && (dump_flags & TDF_DETAILS))
5745     {
5746       fprintf (dump_file, "Processing loop %d\n", loop->num);
5747       
5748       exit = single_dom_exit (loop);
5749       if (exit)
5750         {
5751           fprintf (dump_file, "  single exit %d -> %d, exit condition ",
5752                    exit->src->index, exit->dest->index);
5753           print_gimple_stmt (dump_file, last_stmt (exit->src), 0, TDF_SLIM);
5754           fprintf (dump_file, "\n");
5755         }
5756
5757       fprintf (dump_file, "\n");
5758     }
5759
5760   body = get_loop_body (loop);
5761   renumber_gimple_stmt_uids_in_blocks (body, loop->num_nodes);
5762   free (body);
5763
5764   /* For each ssa name determines whether it behaves as an induction variable
5765      in some loop.  */
5766   if (!find_induction_variables (data))
5767     goto finish;
5768
5769   /* Finds interesting uses (item 1).  */
5770   find_interesting_uses (data);
5771   if (n_iv_uses (data) > MAX_CONSIDERED_USES)
5772     goto finish;
5773
5774   /* Finds candidates for the induction variables (item 2).  */
5775   find_iv_candidates (data);
5776
5777   /* Calculates the costs (item 3, part 1).  */
5778   determine_iv_costs (data);
5779   determine_use_iv_costs (data);
5780   determine_set_costs (data);
5781
5782   /* Find the optimal set of induction variables (item 3, part 2).  */
5783   iv_ca = find_optimal_iv_set (data);
5784   if (!iv_ca)
5785     goto finish;
5786   changed = true;
5787
5788   /* Create the new induction variables (item 4, part 1).  */
5789   create_new_ivs (data, iv_ca);
5790   iv_ca_free (&iv_ca);
5791   
5792   /* Rewrite the uses (item 4, part 2).  */
5793   rewrite_uses (data);
5794
5795   /* Remove the ivs that are unused after rewriting.  */
5796   remove_unused_ivs (data);
5797
5798   /* We have changed the structure of induction variables; it might happen
5799      that definitions in the scev database refer to some of them that were
5800      eliminated.  */
5801   scev_reset ();
5802
5803 finish:
5804   free_loop_data (data);
5805
5806   return changed;
5807 }
5808
5809 /* Main entry point.  Optimizes induction variables in loops.  */
5810
5811 void
5812 tree_ssa_iv_optimize (void)
5813 {
5814   struct loop *loop;
5815   struct ivopts_data data;
5816   loop_iterator li;
5817
5818   tree_ssa_iv_optimize_init (&data);
5819
5820   /* Optimize the loops starting with the innermost ones.  */
5821   FOR_EACH_LOOP (li, loop, LI_FROM_INNERMOST)
5822     {
5823       if (dump_file && (dump_flags & TDF_DETAILS))
5824         flow_loop_dump (loop, dump_file, NULL, 1);
5825
5826       tree_ssa_iv_optimize_loop (&data, loop);
5827     }
5828
5829   tree_ssa_iv_optimize_finalize (&data);
5830 }