OSDN Git Service

* gcc.c-torture/execute/multi-ix.c (CHUNK): Be more conservative
[pf3gnuchains/gcc-fork.git] / gcc / tree-vectorizer.c
1 /* Loop Vectorization
2    Copyright (C) 2003, 2004, 2005, 2006, 2007 Free Software Foundation, Inc.
3    Contributed by Dorit Naishlos <dorit@il.ibm.com>
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
20 02110-1301, USA.  */
21
22 /* Loop Vectorization Pass.
23
24    This pass tries to vectorize loops. This first implementation focuses on
25    simple inner-most loops, with no conditional control flow, and a set of
26    simple operations which vector form can be expressed using existing
27    tree codes (PLUS, MULT etc).
28
29    For example, the vectorizer transforms the following simple loop:
30
31         short a[N]; short b[N]; short c[N]; int i;
32
33         for (i=0; i<N; i++){
34           a[i] = b[i] + c[i];
35         }
36
37    as if it was manually vectorized by rewriting the source code into:
38
39         typedef int __attribute__((mode(V8HI))) v8hi;
40         short a[N];  short b[N]; short c[N];   int i;
41         v8hi *pa = (v8hi*)a, *pb = (v8hi*)b, *pc = (v8hi*)c;
42         v8hi va, vb, vc;
43
44         for (i=0; i<N/8; i++){
45           vb = pb[i];
46           vc = pc[i];
47           va = vb + vc;
48           pa[i] = va;
49         }
50
51         The main entry to this pass is vectorize_loops(), in which
52    the vectorizer applies a set of analyses on a given set of loops,
53    followed by the actual vectorization transformation for the loops that
54    had successfully passed the analysis phase.
55
56         Throughout this pass we make a distinction between two types of
57    data: scalars (which are represented by SSA_NAMES), and memory references
58    ("data-refs"). These two types of data require different handling both 
59    during analysis and transformation. The types of data-refs that the 
60    vectorizer currently supports are ARRAY_REFS which base is an array DECL 
61    (not a pointer), and INDIRECT_REFS through pointers; both array and pointer
62    accesses are required to have a  simple (consecutive) access pattern.
63
64    Analysis phase:
65    ===============
66         The driver for the analysis phase is vect_analyze_loop_nest().
67    It applies a set of analyses, some of which rely on the scalar evolution 
68    analyzer (scev) developed by Sebastian Pop.
69
70         During the analysis phase the vectorizer records some information
71    per stmt in a "stmt_vec_info" struct which is attached to each stmt in the 
72    loop, as well as general information about the loop as a whole, which is
73    recorded in a "loop_vec_info" struct attached to each loop.
74
75    Transformation phase:
76    =====================
77         The loop transformation phase scans all the stmts in the loop, and
78    creates a vector stmt (or a sequence of stmts) for each scalar stmt S in
79    the loop that needs to be vectorized. It insert the vector code sequence
80    just before the scalar stmt S, and records a pointer to the vector code
81    in STMT_VINFO_VEC_STMT (stmt_info) (stmt_info is the stmt_vec_info struct 
82    attached to S). This pointer will be used for the vectorization of following
83    stmts which use the def of stmt S. Stmt S is removed if it writes to memory;
84    otherwise, we rely on dead code elimination for removing it.
85
86         For example, say stmt S1 was vectorized into stmt VS1:
87
88    VS1: vb = px[i];
89    S1:  b = x[i];    STMT_VINFO_VEC_STMT (stmt_info (S1)) = VS1
90    S2:  a = b;
91
92    To vectorize stmt S2, the vectorizer first finds the stmt that defines
93    the operand 'b' (S1), and gets the relevant vector def 'vb' from the
94    vector stmt VS1 pointed to by STMT_VINFO_VEC_STMT (stmt_info (S1)). The
95    resulting sequence would be:
96
97    VS1: vb = px[i];
98    S1:  b = x[i];       STMT_VINFO_VEC_STMT (stmt_info (S1)) = VS1
99    VS2: va = vb;
100    S2:  a = b;          STMT_VINFO_VEC_STMT (stmt_info (S2)) = VS2
101
102         Operands that are not SSA_NAMEs, are data-refs that appear in 
103    load/store operations (like 'x[i]' in S1), and are handled differently.
104
105    Target modeling:
106    =================
107         Currently the only target specific information that is used is the
108    size of the vector (in bytes) - "UNITS_PER_SIMD_WORD". Targets that can 
109    support different sizes of vectors, for now will need to specify one value 
110    for "UNITS_PER_SIMD_WORD". More flexibility will be added in the future.
111
112         Since we only vectorize operations which vector form can be
113    expressed using existing tree codes, to verify that an operation is
114    supported, the vectorizer checks the relevant optab at the relevant
115    machine_mode (e.g, add_optab->handlers[(int) V8HImode].insn_code). If
116    the value found is CODE_FOR_nothing, then there's no target support, and
117    we can't vectorize the stmt.
118
119    For additional information on this project see:
120    http://gcc.gnu.org/projects/tree-ssa/vectorization.html
121 */
122
123 #include "config.h"
124 #include "system.h"
125 #include "coretypes.h"
126 #include "tm.h"
127 #include "ggc.h"
128 #include "tree.h"
129 #include "target.h"
130 #include "rtl.h"
131 #include "basic-block.h"
132 #include "diagnostic.h"
133 #include "tree-flow.h"
134 #include "tree-dump.h"
135 #include "timevar.h"
136 #include "cfgloop.h"
137 #include "cfglayout.h"
138 #include "expr.h"
139 #include "recog.h"
140 #include "optabs.h"
141 #include "params.h"
142 #include "toplev.h"
143 #include "tree-chrec.h"
144 #include "tree-data-ref.h"
145 #include "tree-scalar-evolution.h"
146 #include "input.h"
147 #include "tree-vectorizer.h"
148 #include "tree-pass.h"
149
150 /*************************************************************************
151   Simple Loop Peeling Utilities
152  *************************************************************************/
153 static void slpeel_update_phis_for_duplicate_loop 
154   (struct loop *, struct loop *, bool after);
155 static void slpeel_update_phi_nodes_for_guard1 
156   (edge, struct loop *, bool, basic_block *, bitmap *); 
157 static void slpeel_update_phi_nodes_for_guard2 
158   (edge, struct loop *, bool, basic_block *);
159 static edge slpeel_add_loop_guard (basic_block, tree, basic_block, basic_block);
160
161 static void rename_use_op (use_operand_p);
162 static void rename_variables_in_bb (basic_block);
163 static void rename_variables_in_loop (struct loop *);
164
165 /*************************************************************************
166   General Vectorization Utilities
167  *************************************************************************/
168 static void vect_set_dump_settings (void);
169
170 /* vect_dump will be set to stderr or dump_file if exist.  */
171 FILE *vect_dump;
172
173 /* vect_verbosity_level set to an invalid value 
174    to mark that it's uninitialized.  */
175 enum verbosity_levels vect_verbosity_level = MAX_VERBOSITY_LEVEL;
176
177 /* Loop location.  */
178 static LOC vect_loop_location;
179
180 /* Bitmap of virtual variables to be renamed.  */
181 bitmap vect_memsyms_to_rename;
182 \f
183 /*************************************************************************
184   Simple Loop Peeling Utilities
185
186   Utilities to support loop peeling for vectorization purposes.
187  *************************************************************************/
188
189
190 /* Renames the use *OP_P.  */
191
192 static void
193 rename_use_op (use_operand_p op_p)
194 {
195   tree new_name;
196
197   if (TREE_CODE (USE_FROM_PTR (op_p)) != SSA_NAME)
198     return;
199
200   new_name = get_current_def (USE_FROM_PTR (op_p));
201
202   /* Something defined outside of the loop.  */
203   if (!new_name)
204     return;
205
206   /* An ordinary ssa name defined in the loop.  */
207
208   SET_USE (op_p, new_name);
209 }
210
211
212 /* Renames the variables in basic block BB.  */
213
214 static void
215 rename_variables_in_bb (basic_block bb)
216 {
217   tree phi;
218   block_stmt_iterator bsi;
219   tree stmt;
220   use_operand_p use_p;
221   ssa_op_iter iter;
222   edge e;
223   edge_iterator ei;
224   struct loop *loop = bb->loop_father;
225
226   for (bsi = bsi_start (bb); !bsi_end_p (bsi); bsi_next (&bsi))
227     {
228       stmt = bsi_stmt (bsi);
229       FOR_EACH_SSA_USE_OPERAND (use_p, stmt, iter, SSA_OP_ALL_USES)
230         rename_use_op (use_p);
231     }
232
233   FOR_EACH_EDGE (e, ei, bb->succs)
234     {
235       if (!flow_bb_inside_loop_p (loop, e->dest))
236         continue;
237       for (phi = phi_nodes (e->dest); phi; phi = PHI_CHAIN (phi))
238         rename_use_op (PHI_ARG_DEF_PTR_FROM_EDGE (phi, e));
239     }
240 }
241
242
243 /* Renames variables in new generated LOOP.  */
244
245 static void
246 rename_variables_in_loop (struct loop *loop)
247 {
248   unsigned i;
249   basic_block *bbs;
250
251   bbs = get_loop_body (loop);
252
253   for (i = 0; i < loop->num_nodes; i++)
254     rename_variables_in_bb (bbs[i]);
255
256   free (bbs);
257 }
258
259
260 /* Update the PHI nodes of NEW_LOOP.
261
262    NEW_LOOP is a duplicate of ORIG_LOOP.
263    AFTER indicates whether NEW_LOOP executes before or after ORIG_LOOP:
264    AFTER is true if NEW_LOOP executes after ORIG_LOOP, and false if it
265    executes before it.  */
266
267 static void
268 slpeel_update_phis_for_duplicate_loop (struct loop *orig_loop,
269                                        struct loop *new_loop, bool after)
270 {
271   tree new_ssa_name;
272   tree phi_new, phi_orig;
273   tree def;
274   edge orig_loop_latch = loop_latch_edge (orig_loop);
275   edge orig_entry_e = loop_preheader_edge (orig_loop);
276   edge new_loop_exit_e = single_exit (new_loop);
277   edge new_loop_entry_e = loop_preheader_edge (new_loop);
278   edge entry_arg_e = (after ? orig_loop_latch : orig_entry_e);
279
280   /*
281      step 1. For each loop-header-phi:
282              Add the first phi argument for the phi in NEW_LOOP
283             (the one associated with the entry of NEW_LOOP)
284
285      step 2. For each loop-header-phi:
286              Add the second phi argument for the phi in NEW_LOOP
287             (the one associated with the latch of NEW_LOOP)
288
289      step 3. Update the phis in the successor block of NEW_LOOP.
290
291         case 1: NEW_LOOP was placed before ORIG_LOOP:
292                 The successor block of NEW_LOOP is the header of ORIG_LOOP.
293                 Updating the phis in the successor block can therefore be done
294                 along with the scanning of the loop header phis, because the
295                 header blocks of ORIG_LOOP and NEW_LOOP have exactly the same
296                 phi nodes, organized in the same order.
297
298         case 2: NEW_LOOP was placed after ORIG_LOOP:
299                 The successor block of NEW_LOOP is the original exit block of 
300                 ORIG_LOOP - the phis to be updated are the loop-closed-ssa phis.
301                 We postpone updating these phis to a later stage (when
302                 loop guards are added).
303    */
304
305
306   /* Scan the phis in the headers of the old and new loops
307      (they are organized in exactly the same order).  */
308
309   for (phi_new = phi_nodes (new_loop->header),
310        phi_orig = phi_nodes (orig_loop->header);
311        phi_new && phi_orig;
312        phi_new = PHI_CHAIN (phi_new), phi_orig = PHI_CHAIN (phi_orig))
313     {
314       /* step 1.  */
315       def = PHI_ARG_DEF_FROM_EDGE (phi_orig, entry_arg_e);
316       add_phi_arg (phi_new, def, new_loop_entry_e);
317
318       /* step 2.  */
319       def = PHI_ARG_DEF_FROM_EDGE (phi_orig, orig_loop_latch);
320       if (TREE_CODE (def) != SSA_NAME)
321         continue;
322
323       new_ssa_name = get_current_def (def);
324       if (!new_ssa_name)
325         {
326           /* This only happens if there are no definitions
327              inside the loop. use the phi_result in this case.  */
328           new_ssa_name = PHI_RESULT (phi_new);
329         }
330
331       /* An ordinary ssa name defined in the loop.  */
332       add_phi_arg (phi_new, new_ssa_name, loop_latch_edge (new_loop));
333
334       /* step 3 (case 1).  */
335       if (!after)
336         {
337           gcc_assert (new_loop_exit_e == orig_entry_e);
338           SET_PHI_ARG_DEF (phi_orig,
339                            new_loop_exit_e->dest_idx,
340                            new_ssa_name);
341         }
342     }
343 }
344
345
346 /* Update PHI nodes for a guard of the LOOP.
347
348    Input:
349    - LOOP, GUARD_EDGE: LOOP is a loop for which we added guard code that
350         controls whether LOOP is to be executed.  GUARD_EDGE is the edge that
351         originates from the guard-bb, skips LOOP and reaches the (unique) exit
352         bb of LOOP.  This loop-exit-bb is an empty bb with one successor.
353         We denote this bb NEW_MERGE_BB because before the guard code was added
354         it had a single predecessor (the LOOP header), and now it became a merge
355         point of two paths - the path that ends with the LOOP exit-edge, and
356         the path that ends with GUARD_EDGE.
357    - NEW_EXIT_BB: New basic block that is added by this function between LOOP
358         and NEW_MERGE_BB. It is used to place loop-closed-ssa-form exit-phis.
359
360    ===> The CFG before the guard-code was added:
361         LOOP_header_bb:
362           loop_body
363           if (exit_loop) goto update_bb
364           else           goto LOOP_header_bb
365         update_bb:
366
367    ==> The CFG after the guard-code was added:
368         guard_bb:
369           if (LOOP_guard_condition) goto new_merge_bb
370           else                      goto LOOP_header_bb
371         LOOP_header_bb:
372           loop_body
373           if (exit_loop_condition) goto new_merge_bb
374           else                     goto LOOP_header_bb
375         new_merge_bb:
376           goto update_bb
377         update_bb:
378
379    ==> The CFG after this function:
380         guard_bb:
381           if (LOOP_guard_condition) goto new_merge_bb
382           else                      goto LOOP_header_bb
383         LOOP_header_bb:
384           loop_body
385           if (exit_loop_condition) goto new_exit_bb
386           else                     goto LOOP_header_bb
387         new_exit_bb:
388         new_merge_bb:
389           goto update_bb
390         update_bb:
391
392    This function:
393    1. creates and updates the relevant phi nodes to account for the new
394       incoming edge (GUARD_EDGE) into NEW_MERGE_BB. This involves:
395       1.1. Create phi nodes at NEW_MERGE_BB.
396       1.2. Update the phi nodes at the successor of NEW_MERGE_BB (denoted
397            UPDATE_BB).  UPDATE_BB was the exit-bb of LOOP before NEW_MERGE_BB
398    2. preserves loop-closed-ssa-form by creating the required phi nodes
399       at the exit of LOOP (i.e, in NEW_EXIT_BB).
400
401    There are two flavors to this function:
402
403    slpeel_update_phi_nodes_for_guard1:
404      Here the guard controls whether we enter or skip LOOP, where LOOP is a
405      prolog_loop (loop1 below), and the new phis created in NEW_MERGE_BB are
406      for variables that have phis in the loop header.
407
408    slpeel_update_phi_nodes_for_guard2:
409      Here the guard controls whether we enter or skip LOOP, where LOOP is an
410      epilog_loop (loop2 below), and the new phis created in NEW_MERGE_BB are
411      for variables that have phis in the loop exit.
412
413    I.E., the overall structure is:
414
415         loop1_preheader_bb:
416                 guard1 (goto loop1/merg1_bb)
417         loop1
418         loop1_exit_bb:
419                 guard2 (goto merge1_bb/merge2_bb)
420         merge1_bb
421         loop2
422         loop2_exit_bb
423         merge2_bb
424         next_bb
425
426    slpeel_update_phi_nodes_for_guard1 takes care of creating phis in
427    loop1_exit_bb and merge1_bb. These are entry phis (phis for the vars
428    that have phis in loop1->header).
429
430    slpeel_update_phi_nodes_for_guard2 takes care of creating phis in
431    loop2_exit_bb and merge2_bb. These are exit phis (phis for the vars
432    that have phis in next_bb). It also adds some of these phis to
433    loop1_exit_bb.
434
435    slpeel_update_phi_nodes_for_guard1 is always called before
436    slpeel_update_phi_nodes_for_guard2. They are both needed in order
437    to create correct data-flow and loop-closed-ssa-form.
438
439    Generally slpeel_update_phi_nodes_for_guard1 creates phis for variables
440    that change between iterations of a loop (and therefore have a phi-node
441    at the loop entry), whereas slpeel_update_phi_nodes_for_guard2 creates
442    phis for variables that are used out of the loop (and therefore have 
443    loop-closed exit phis). Some variables may be both updated between 
444    iterations and used after the loop. This is why in loop1_exit_bb we
445    may need both entry_phis (created by slpeel_update_phi_nodes_for_guard1)
446    and exit phis (created by slpeel_update_phi_nodes_for_guard2).
447
448    - IS_NEW_LOOP: if IS_NEW_LOOP is true, then LOOP is a newly created copy of
449      an original loop. i.e., we have:
450
451            orig_loop
452            guard_bb (goto LOOP/new_merge)
453            new_loop <-- LOOP
454            new_exit
455            new_merge
456            next_bb
457
458      If IS_NEW_LOOP is false, then LOOP is an original loop, in which case we
459      have:
460
461            new_loop
462            guard_bb (goto LOOP/new_merge)
463            orig_loop <-- LOOP
464            new_exit
465            new_merge
466            next_bb
467
468      The SSA names defined in the original loop have a current
469      reaching definition that that records the corresponding new
470      ssa-name used in the new duplicated loop copy.
471   */
472
473 /* Function slpeel_update_phi_nodes_for_guard1
474    
475    Input:
476    - GUARD_EDGE, LOOP, IS_NEW_LOOP, NEW_EXIT_BB - as explained above.
477    - DEFS - a bitmap of ssa names to mark new names for which we recorded
478             information. 
479    
480    In the context of the overall structure, we have:
481
482         loop1_preheader_bb: 
483                 guard1 (goto loop1/merg1_bb)
484 LOOP->  loop1
485         loop1_exit_bb:
486                 guard2 (goto merge1_bb/merge2_bb)
487         merge1_bb
488         loop2
489         loop2_exit_bb
490         merge2_bb
491         next_bb
492
493    For each name updated between loop iterations (i.e - for each name that has
494    an entry (loop-header) phi in LOOP) we create a new phi in:
495    1. merge1_bb (to account for the edge from guard1)
496    2. loop1_exit_bb (an exit-phi to keep LOOP in loop-closed form)
497 */
498
499 static void
500 slpeel_update_phi_nodes_for_guard1 (edge guard_edge, struct loop *loop,
501                                     bool is_new_loop, basic_block *new_exit_bb,
502                                     bitmap *defs)
503 {
504   tree orig_phi, new_phi;
505   tree update_phi, update_phi2;
506   tree guard_arg, loop_arg;
507   basic_block new_merge_bb = guard_edge->dest;
508   edge e = EDGE_SUCC (new_merge_bb, 0);
509   basic_block update_bb = e->dest;
510   basic_block orig_bb = loop->header;
511   edge new_exit_e;
512   tree current_new_name;
513   tree name;
514
515   /* Create new bb between loop and new_merge_bb.  */
516   *new_exit_bb = split_edge (single_exit (loop));
517
518   new_exit_e = EDGE_SUCC (*new_exit_bb, 0);
519
520   for (orig_phi = phi_nodes (orig_bb), update_phi = phi_nodes (update_bb);
521        orig_phi && update_phi;
522        orig_phi = PHI_CHAIN (orig_phi), update_phi = PHI_CHAIN (update_phi))
523     {
524       /* Virtual phi; Mark it for renaming. We actually want to call
525          mar_sym_for_renaming, but since all ssa renaming datastructures
526          are going to be freed before we get to call ssa_upate, we just
527          record this name for now in a bitmap, and will mark it for
528          renaming later.  */
529       name = PHI_RESULT (orig_phi);
530       if (!is_gimple_reg (SSA_NAME_VAR (name)))
531         bitmap_set_bit (vect_memsyms_to_rename, DECL_UID (SSA_NAME_VAR (name)));
532
533       /** 1. Handle new-merge-point phis  **/
534
535       /* 1.1. Generate new phi node in NEW_MERGE_BB:  */
536       new_phi = create_phi_node (SSA_NAME_VAR (PHI_RESULT (orig_phi)),
537                                  new_merge_bb);
538
539       /* 1.2. NEW_MERGE_BB has two incoming edges: GUARD_EDGE and the exit-edge
540             of LOOP. Set the two phi args in NEW_PHI for these edges:  */
541       loop_arg = PHI_ARG_DEF_FROM_EDGE (orig_phi, EDGE_SUCC (loop->latch, 0));
542       guard_arg = PHI_ARG_DEF_FROM_EDGE (orig_phi, loop_preheader_edge (loop));
543
544       add_phi_arg (new_phi, loop_arg, new_exit_e);
545       add_phi_arg (new_phi, guard_arg, guard_edge);
546
547       /* 1.3. Update phi in successor block.  */
548       gcc_assert (PHI_ARG_DEF_FROM_EDGE (update_phi, e) == loop_arg
549                   || PHI_ARG_DEF_FROM_EDGE (update_phi, e) == guard_arg);
550       SET_PHI_ARG_DEF (update_phi, e->dest_idx, PHI_RESULT (new_phi));
551       update_phi2 = new_phi;
552
553
554       /** 2. Handle loop-closed-ssa-form phis  **/
555
556       if (!is_gimple_reg (PHI_RESULT (orig_phi)))
557         continue;
558
559       /* 2.1. Generate new phi node in NEW_EXIT_BB:  */
560       new_phi = create_phi_node (SSA_NAME_VAR (PHI_RESULT (orig_phi)),
561                                  *new_exit_bb);
562
563       /* 2.2. NEW_EXIT_BB has one incoming edge: the exit-edge of the loop.  */
564       add_phi_arg (new_phi, loop_arg, single_exit (loop));
565
566       /* 2.3. Update phi in successor of NEW_EXIT_BB:  */
567       gcc_assert (PHI_ARG_DEF_FROM_EDGE (update_phi2, new_exit_e) == loop_arg);
568       SET_PHI_ARG_DEF (update_phi2, new_exit_e->dest_idx, PHI_RESULT (new_phi));
569
570       /* 2.4. Record the newly created name with set_current_def.
571          We want to find a name such that
572                 name = get_current_def (orig_loop_name)
573          and to set its current definition as follows:
574                 set_current_def (name, new_phi_name)
575
576          If LOOP is a new loop then loop_arg is already the name we're
577          looking for. If LOOP is the original loop, then loop_arg is
578          the orig_loop_name and the relevant name is recorded in its
579          current reaching definition.  */
580       if (is_new_loop)
581         current_new_name = loop_arg;
582       else
583         {
584           current_new_name = get_current_def (loop_arg);
585           /* current_def is not available only if the variable does not
586              change inside the loop, in which case we also don't care
587              about recording a current_def for it because we won't be
588              trying to create loop-exit-phis for it.  */
589           if (!current_new_name)
590             continue;
591         }
592       gcc_assert (get_current_def (current_new_name) == NULL_TREE);
593
594       set_current_def (current_new_name, PHI_RESULT (new_phi));
595       bitmap_set_bit (*defs, SSA_NAME_VERSION (current_new_name));
596     }
597
598   set_phi_nodes (new_merge_bb, phi_reverse (phi_nodes (new_merge_bb)));
599 }
600
601
602 /* Function slpeel_update_phi_nodes_for_guard2
603
604    Input:
605    - GUARD_EDGE, LOOP, IS_NEW_LOOP, NEW_EXIT_BB - as explained above.
606
607    In the context of the overall structure, we have:
608
609         loop1_preheader_bb: 
610                 guard1 (goto loop1/merg1_bb)
611         loop1
612         loop1_exit_bb: 
613                 guard2 (goto merge1_bb/merge2_bb)
614         merge1_bb
615 LOOP->  loop2
616         loop2_exit_bb
617         merge2_bb
618         next_bb
619
620    For each name used out side the loop (i.e - for each name that has an exit
621    phi in next_bb) we create a new phi in:
622    1. merge2_bb (to account for the edge from guard_bb) 
623    2. loop2_exit_bb (an exit-phi to keep LOOP in loop-closed form)
624    3. guard2 bb (an exit phi to keep the preceding loop in loop-closed form),
625       if needed (if it wasn't handled by slpeel_update_phis_nodes_for_phi1).
626 */
627
628 static void
629 slpeel_update_phi_nodes_for_guard2 (edge guard_edge, struct loop *loop,
630                                     bool is_new_loop, basic_block *new_exit_bb)
631 {
632   tree orig_phi, new_phi;
633   tree update_phi, update_phi2;
634   tree guard_arg, loop_arg;
635   basic_block new_merge_bb = guard_edge->dest;
636   edge e = EDGE_SUCC (new_merge_bb, 0);
637   basic_block update_bb = e->dest;
638   edge new_exit_e;
639   tree orig_def, orig_def_new_name;
640   tree new_name, new_name2;
641   tree arg;
642
643   /* Create new bb between loop and new_merge_bb.  */
644   *new_exit_bb = split_edge (single_exit (loop));
645
646   new_exit_e = EDGE_SUCC (*new_exit_bb, 0);
647
648   for (update_phi = phi_nodes (update_bb); update_phi; 
649        update_phi = PHI_CHAIN (update_phi))
650     {
651       orig_phi = update_phi;
652       orig_def = PHI_ARG_DEF_FROM_EDGE (orig_phi, e);
653       /* This loop-closed-phi actually doesn't represent a use
654          out of the loop - the phi arg is a constant.  */ 
655       if (TREE_CODE (orig_def) != SSA_NAME)
656         continue;
657       orig_def_new_name = get_current_def (orig_def);
658       arg = NULL_TREE;
659
660       /** 1. Handle new-merge-point phis  **/
661
662       /* 1.1. Generate new phi node in NEW_MERGE_BB:  */
663       new_phi = create_phi_node (SSA_NAME_VAR (PHI_RESULT (orig_phi)),
664                                  new_merge_bb);
665
666       /* 1.2. NEW_MERGE_BB has two incoming edges: GUARD_EDGE and the exit-edge
667             of LOOP. Set the two PHI args in NEW_PHI for these edges:  */
668       new_name = orig_def;
669       new_name2 = NULL_TREE;
670       if (orig_def_new_name)
671         {
672           new_name = orig_def_new_name;
673           /* Some variables have both loop-entry-phis and loop-exit-phis.
674              Such variables were given yet newer names by phis placed in
675              guard_bb by slpeel_update_phi_nodes_for_guard1. I.e:
676              new_name2 = get_current_def (get_current_def (orig_name)).  */
677           new_name2 = get_current_def (new_name);
678         }
679   
680       if (is_new_loop)
681         {
682           guard_arg = orig_def;
683           loop_arg = new_name;
684         }
685       else
686         {
687           guard_arg = new_name;
688           loop_arg = orig_def;
689         }
690       if (new_name2)
691         guard_arg = new_name2;
692   
693       add_phi_arg (new_phi, loop_arg, new_exit_e);
694       add_phi_arg (new_phi, guard_arg, guard_edge);
695
696       /* 1.3. Update phi in successor block.  */
697       gcc_assert (PHI_ARG_DEF_FROM_EDGE (update_phi, e) == orig_def);
698       SET_PHI_ARG_DEF (update_phi, e->dest_idx, PHI_RESULT (new_phi));
699       update_phi2 = new_phi;
700
701
702       /** 2. Handle loop-closed-ssa-form phis  **/
703
704       /* 2.1. Generate new phi node in NEW_EXIT_BB:  */
705       new_phi = create_phi_node (SSA_NAME_VAR (PHI_RESULT (orig_phi)),
706                                  *new_exit_bb);
707
708       /* 2.2. NEW_EXIT_BB has one incoming edge: the exit-edge of the loop.  */
709       add_phi_arg (new_phi, loop_arg, single_exit (loop));
710
711       /* 2.3. Update phi in successor of NEW_EXIT_BB:  */
712       gcc_assert (PHI_ARG_DEF_FROM_EDGE (update_phi2, new_exit_e) == loop_arg);
713       SET_PHI_ARG_DEF (update_phi2, new_exit_e->dest_idx, PHI_RESULT (new_phi));
714
715
716       /** 3. Handle loop-closed-ssa-form phis for first loop  **/
717
718       /* 3.1. Find the relevant names that need an exit-phi in
719          GUARD_BB, i.e. names for which
720          slpeel_update_phi_nodes_for_guard1 had not already created a
721          phi node. This is the case for names that are used outside
722          the loop (and therefore need an exit phi) but are not updated
723          across loop iterations (and therefore don't have a
724          loop-header-phi).
725
726          slpeel_update_phi_nodes_for_guard1 is responsible for
727          creating loop-exit phis in GUARD_BB for names that have a
728          loop-header-phi.  When such a phi is created we also record
729          the new name in its current definition.  If this new name
730          exists, then guard_arg was set to this new name (see 1.2
731          above).  Therefore, if guard_arg is not this new name, this
732          is an indication that an exit-phi in GUARD_BB was not yet
733          created, so we take care of it here.  */
734       if (guard_arg == new_name2)
735         continue;
736       arg = guard_arg;
737
738       /* 3.2. Generate new phi node in GUARD_BB:  */
739       new_phi = create_phi_node (SSA_NAME_VAR (PHI_RESULT (orig_phi)),
740                                  guard_edge->src);
741
742       /* 3.3. GUARD_BB has one incoming edge:  */
743       gcc_assert (EDGE_COUNT (guard_edge->src->preds) == 1);
744       add_phi_arg (new_phi, arg, EDGE_PRED (guard_edge->src, 0));
745
746       /* 3.4. Update phi in successor of GUARD_BB:  */
747       gcc_assert (PHI_ARG_DEF_FROM_EDGE (update_phi2, guard_edge)
748                                                                 == guard_arg);
749       SET_PHI_ARG_DEF (update_phi2, guard_edge->dest_idx, PHI_RESULT (new_phi));
750     }
751
752   set_phi_nodes (new_merge_bb, phi_reverse (phi_nodes (new_merge_bb)));
753 }
754
755
756 /* Make the LOOP iterate NITERS times. This is done by adding a new IV
757    that starts at zero, increases by one and its limit is NITERS.
758
759    Assumption: the exit-condition of LOOP is the last stmt in the loop.  */
760
761 void
762 slpeel_make_loop_iterate_ntimes (struct loop *loop, tree niters)
763 {
764   tree indx_before_incr, indx_after_incr, cond_stmt, cond;
765   tree orig_cond;
766   edge exit_edge = single_exit (loop);
767   block_stmt_iterator loop_cond_bsi;
768   block_stmt_iterator incr_bsi;
769   bool insert_after;
770   tree init = build_int_cst (TREE_TYPE (niters), 0);
771   tree step = build_int_cst (TREE_TYPE (niters), 1);
772   LOC loop_loc;
773
774   orig_cond = get_loop_exit_condition (loop);
775   gcc_assert (orig_cond);
776   loop_cond_bsi = bsi_for_stmt (orig_cond);
777
778   standard_iv_increment_position (loop, &incr_bsi, &insert_after);
779   create_iv (init, step, NULL_TREE, loop,
780              &incr_bsi, insert_after, &indx_before_incr, &indx_after_incr);
781
782   if (exit_edge->flags & EDGE_TRUE_VALUE) /* 'then' edge exits the loop.  */
783     cond = build2 (GE_EXPR, boolean_type_node, indx_after_incr, niters);
784   else /* 'then' edge loops back.  */
785     cond = build2 (LT_EXPR, boolean_type_node, indx_after_incr, niters);
786
787   cond_stmt = build3 (COND_EXPR, TREE_TYPE (orig_cond), cond,
788                       NULL_TREE, NULL_TREE);
789   bsi_insert_before (&loop_cond_bsi, cond_stmt, BSI_SAME_STMT);
790
791   /* Remove old loop exit test:  */
792   bsi_remove (&loop_cond_bsi, true);
793
794   loop_loc = find_loop_location (loop);
795   if (dump_file && (dump_flags & TDF_DETAILS))
796     {
797       if (loop_loc != UNKNOWN_LOC)
798         fprintf (dump_file, "\nloop at %s:%d: ",
799                  LOC_FILE (loop_loc), LOC_LINE (loop_loc));
800       print_generic_expr (dump_file, cond_stmt, TDF_SLIM);
801     }
802
803   loop->nb_iterations = niters;
804 }
805
806
807 /* Given LOOP this function generates a new copy of it and puts it 
808    on E which is either the entry or exit of LOOP.  */
809
810 static struct loop *
811 slpeel_tree_duplicate_loop_to_edge_cfg (struct loop *loop, edge e)
812 {
813   struct loop *new_loop;
814   basic_block *new_bbs, *bbs;
815   bool at_exit;
816   bool was_imm_dom;
817   basic_block exit_dest; 
818   tree phi, phi_arg;
819   edge exit, new_exit;
820
821   at_exit = (e == single_exit (loop)); 
822   if (!at_exit && e != loop_preheader_edge (loop))
823     return NULL;
824
825   bbs = get_loop_body (loop);
826
827   /* Check whether duplication is possible.  */
828   if (!can_copy_bbs_p (bbs, loop->num_nodes))
829     {
830       free (bbs);
831       return NULL;
832     }
833
834   /* Generate new loop structure.  */
835   new_loop = duplicate_loop (loop, loop_outer (loop));
836   if (!new_loop)
837     {
838       free (bbs);
839       return NULL;
840     }
841
842   exit_dest = single_exit (loop)->dest;
843   was_imm_dom = (get_immediate_dominator (CDI_DOMINATORS, 
844                                           exit_dest) == loop->header ? 
845                  true : false);
846
847   new_bbs = XNEWVEC (basic_block, loop->num_nodes);
848
849   exit = single_exit (loop);
850   copy_bbs (bbs, loop->num_nodes, new_bbs,
851             &exit, 1, &new_exit, NULL,
852             e->src);
853
854   /* Duplicating phi args at exit bbs as coming 
855      also from exit of duplicated loop.  */
856   for (phi = phi_nodes (exit_dest); phi; phi = PHI_CHAIN (phi))
857     {
858       phi_arg = PHI_ARG_DEF_FROM_EDGE (phi, single_exit (loop));
859       if (phi_arg)
860         {
861           edge new_loop_exit_edge;
862
863           if (EDGE_SUCC (new_loop->header, 0)->dest == new_loop->latch)
864             new_loop_exit_edge = EDGE_SUCC (new_loop->header, 1);
865           else
866             new_loop_exit_edge = EDGE_SUCC (new_loop->header, 0);
867   
868           add_phi_arg (phi, phi_arg, new_loop_exit_edge);       
869         }
870     }    
871    
872   if (at_exit) /* Add the loop copy at exit.  */
873     {
874       redirect_edge_and_branch_force (e, new_loop->header);
875       set_immediate_dominator (CDI_DOMINATORS, new_loop->header, e->src);
876       if (was_imm_dom)
877         set_immediate_dominator (CDI_DOMINATORS, exit_dest, new_loop->header);
878     }
879   else /* Add the copy at entry.  */
880     {
881       edge new_exit_e;
882       edge entry_e = loop_preheader_edge (loop);
883       basic_block preheader = entry_e->src;
884            
885       if (!flow_bb_inside_loop_p (new_loop, 
886                                   EDGE_SUCC (new_loop->header, 0)->dest))
887         new_exit_e = EDGE_SUCC (new_loop->header, 0);
888       else
889         new_exit_e = EDGE_SUCC (new_loop->header, 1); 
890
891       redirect_edge_and_branch_force (new_exit_e, loop->header);
892       set_immediate_dominator (CDI_DOMINATORS, loop->header,
893                                new_exit_e->src);
894
895       /* We have to add phi args to the loop->header here as coming 
896          from new_exit_e edge.  */
897       for (phi = phi_nodes (loop->header); phi; phi = PHI_CHAIN (phi))
898         {
899           phi_arg = PHI_ARG_DEF_FROM_EDGE (phi, entry_e);
900           if (phi_arg)
901             add_phi_arg (phi, phi_arg, new_exit_e);     
902         }    
903
904       redirect_edge_and_branch_force (entry_e, new_loop->header);
905       set_immediate_dominator (CDI_DOMINATORS, new_loop->header, preheader);
906     }
907
908   free (new_bbs);
909   free (bbs);
910
911   return new_loop;
912 }
913
914
915 /* Given the condition statement COND, put it as the last statement
916    of GUARD_BB; EXIT_BB is the basic block to skip the loop;
917    Assumes that this is the single exit of the guarded loop.  
918    Returns the skip edge.  */
919
920 static edge
921 slpeel_add_loop_guard (basic_block guard_bb, tree cond, basic_block exit_bb,
922                         basic_block dom_bb)
923 {
924   block_stmt_iterator bsi;
925   edge new_e, enter_e;
926   tree cond_stmt;
927
928   enter_e = EDGE_SUCC (guard_bb, 0);
929   enter_e->flags &= ~EDGE_FALLTHRU;
930   enter_e->flags |= EDGE_FALSE_VALUE;
931   bsi = bsi_last (guard_bb);
932
933   cond_stmt = build3 (COND_EXPR, void_type_node, cond,
934                       NULL_TREE, NULL_TREE);
935   bsi_insert_after (&bsi, cond_stmt, BSI_NEW_STMT);
936   /* Add new edge to connect guard block to the merge/loop-exit block.  */
937   new_e = make_edge (guard_bb, exit_bb, EDGE_TRUE_VALUE);
938   set_immediate_dominator (CDI_DOMINATORS, exit_bb, dom_bb);
939   return new_e;
940 }
941
942
943 /* This function verifies that the following restrictions apply to LOOP:
944    (1) it is innermost
945    (2) it consists of exactly 2 basic blocks - header, and an empty latch.
946    (3) it is single entry, single exit
947    (4) its exit condition is the last stmt in the header
948    (5) E is the entry/exit edge of LOOP.
949  */
950
951 bool
952 slpeel_can_duplicate_loop_p (struct loop *loop, edge e)
953 {
954   edge exit_e = single_exit (loop);
955   edge entry_e = loop_preheader_edge (loop);
956   tree orig_cond = get_loop_exit_condition (loop);
957   block_stmt_iterator loop_exit_bsi = bsi_last (exit_e->src);
958
959   if (need_ssa_update_p ())
960     return false;
961
962   if (loop->inner
963       /* All loops have an outer scope; the only case loop->outer is NULL is for
964          the function itself.  */
965       || !loop_outer (loop)
966       || loop->num_nodes != 2
967       || !empty_block_p (loop->latch)
968       || !single_exit (loop)
969       /* Verify that new loop exit condition can be trivially modified.  */
970       || (!orig_cond || orig_cond != bsi_stmt (loop_exit_bsi))
971       || (e != exit_e && e != entry_e))
972     return false;
973
974   return true;
975 }
976
977 #ifdef ENABLE_CHECKING
978 void
979 slpeel_verify_cfg_after_peeling (struct loop *first_loop,
980                                  struct loop *second_loop)
981 {
982   basic_block loop1_exit_bb = single_exit (first_loop)->dest;
983   basic_block loop2_entry_bb = loop_preheader_edge (second_loop)->src;
984   basic_block loop1_entry_bb = loop_preheader_edge (first_loop)->src;
985
986   /* A guard that controls whether the second_loop is to be executed or skipped
987      is placed in first_loop->exit.  first_loopt->exit therefore has two
988      successors - one is the preheader of second_loop, and the other is a bb
989      after second_loop.
990    */
991   gcc_assert (EDGE_COUNT (loop1_exit_bb->succs) == 2);
992    
993   /* 1. Verify that one of the successors of first_loopt->exit is the preheader
994         of second_loop.  */
995    
996   /* The preheader of new_loop is expected to have two predecessors:
997      first_loop->exit and the block that precedes first_loop.  */
998
999   gcc_assert (EDGE_COUNT (loop2_entry_bb->preds) == 2 
1000               && ((EDGE_PRED (loop2_entry_bb, 0)->src == loop1_exit_bb
1001                    && EDGE_PRED (loop2_entry_bb, 1)->src == loop1_entry_bb)
1002                || (EDGE_PRED (loop2_entry_bb, 1)->src ==  loop1_exit_bb
1003                    && EDGE_PRED (loop2_entry_bb, 0)->src == loop1_entry_bb)));
1004   
1005   /* Verify that the other successor of first_loopt->exit is after the
1006      second_loop.  */
1007   /* TODO */
1008 }
1009 #endif
1010
1011 /* Function slpeel_tree_peel_loop_to_edge.
1012
1013    Peel the first (last) iterations of LOOP into a new prolog (epilog) loop
1014    that is placed on the entry (exit) edge E of LOOP. After this transformation
1015    we have two loops one after the other - first-loop iterates FIRST_NITERS
1016    times, and second-loop iterates the remainder NITERS - FIRST_NITERS times.
1017
1018    Input:
1019    - LOOP: the loop to be peeled.
1020    - E: the exit or entry edge of LOOP.
1021         If it is the entry edge, we peel the first iterations of LOOP. In this
1022         case first-loop is LOOP, and second-loop is the newly created loop.
1023         If it is the exit edge, we peel the last iterations of LOOP. In this
1024         case, first-loop is the newly created loop, and second-loop is LOOP.
1025    - NITERS: the number of iterations that LOOP iterates.
1026    - FIRST_NITERS: the number of iterations that the first-loop should iterate.
1027    - UPDATE_FIRST_LOOP_COUNT:  specified whether this function is responsible
1028         for updating the loop bound of the first-loop to FIRST_NITERS.  If it
1029         is false, the caller of this function may want to take care of this
1030         (this can be useful if we don't want new stmts added to first-loop).
1031
1032    Output:
1033    The function returns a pointer to the new loop-copy, or NULL if it failed
1034    to perform the transformation.
1035
1036    The function generates two if-then-else guards: one before the first loop,
1037    and the other before the second loop:
1038    The first guard is:
1039      if (FIRST_NITERS == 0) then skip the first loop,
1040      and go directly to the second loop.
1041    The second guard is:
1042      if (FIRST_NITERS == NITERS) then skip the second loop.
1043
1044    FORNOW only simple loops are supported (see slpeel_can_duplicate_loop_p).
1045    FORNOW the resulting code will not be in loop-closed-ssa form.
1046 */
1047
1048 struct loop*
1049 slpeel_tree_peel_loop_to_edge (struct loop *loop, 
1050                                edge e, tree first_niters, 
1051                                tree niters, bool update_first_loop_count,
1052                                unsigned int th)
1053 {
1054   struct loop *new_loop = NULL, *first_loop, *second_loop;
1055   edge skip_e;
1056   tree pre_condition;
1057   bitmap definitions;
1058   basic_block bb_before_second_loop, bb_after_second_loop;
1059   basic_block bb_before_first_loop;
1060   basic_block bb_between_loops;
1061   basic_block new_exit_bb;
1062   edge exit_e = single_exit (loop);
1063   LOC loop_loc;
1064   
1065   if (!slpeel_can_duplicate_loop_p (loop, e))
1066     return NULL;
1067   
1068   /* We have to initialize cfg_hooks. Then, when calling
1069    cfg_hooks->split_edge, the function tree_split_edge 
1070    is actually called and, when calling cfg_hooks->duplicate_block,
1071    the function tree_duplicate_bb is called.  */
1072   tree_register_cfg_hooks ();
1073
1074
1075   /* 1. Generate a copy of LOOP and put it on E (E is the entry/exit of LOOP).
1076         Resulting CFG would be:
1077
1078         first_loop:
1079         do {
1080         } while ...
1081
1082         second_loop:
1083         do {
1084         } while ...
1085
1086         orig_exit_bb:
1087    */
1088   
1089   if (!(new_loop = slpeel_tree_duplicate_loop_to_edge_cfg (loop, e)))
1090     {
1091       loop_loc = find_loop_location (loop);
1092       if (dump_file && (dump_flags & TDF_DETAILS))
1093         {
1094           if (loop_loc != UNKNOWN_LOC)
1095             fprintf (dump_file, "\n%s:%d: note: ",
1096                      LOC_FILE (loop_loc), LOC_LINE (loop_loc));
1097           fprintf (dump_file, "tree_duplicate_loop_to_edge_cfg failed.\n");
1098         }
1099       return NULL;
1100     }
1101   
1102   if (e == exit_e)
1103     {
1104       /* NEW_LOOP was placed after LOOP.  */
1105       first_loop = loop;
1106       second_loop = new_loop;
1107     }
1108   else
1109     {
1110       /* NEW_LOOP was placed before LOOP.  */
1111       first_loop = new_loop;
1112       second_loop = loop;
1113     }
1114
1115   definitions = ssa_names_to_replace ();
1116   slpeel_update_phis_for_duplicate_loop (loop, new_loop, e == exit_e);
1117   rename_variables_in_loop (new_loop);
1118
1119
1120   /* 2. Add the guard that controls whether the first loop is executed.
1121         Resulting CFG would be:
1122
1123         bb_before_first_loop:
1124         if (FIRST_NITERS == 0) GOTO bb_before_second_loop
1125                                GOTO first-loop
1126
1127         first_loop:
1128         do {
1129         } while ...
1130
1131         bb_before_second_loop:
1132
1133         second_loop:
1134         do {
1135         } while ...
1136
1137         orig_exit_bb:
1138    */
1139
1140   bb_before_first_loop = split_edge (loop_preheader_edge (first_loop));
1141   bb_before_second_loop = split_edge (single_exit (first_loop));
1142
1143   pre_condition =
1144     fold_build2 (LE_EXPR, boolean_type_node, first_niters, 
1145         build_int_cst (TREE_TYPE (first_niters), th));
1146
1147   skip_e = slpeel_add_loop_guard (bb_before_first_loop, pre_condition,
1148                                   bb_before_second_loop, bb_before_first_loop);
1149   slpeel_update_phi_nodes_for_guard1 (skip_e, first_loop,
1150                                       first_loop == new_loop,
1151                                       &new_exit_bb, &definitions);
1152
1153
1154   /* 3. Add the guard that controls whether the second loop is executed.
1155         Resulting CFG would be:
1156
1157         bb_before_first_loop:
1158         if (FIRST_NITERS == 0) GOTO bb_before_second_loop (skip first loop)
1159                                GOTO first-loop
1160
1161         first_loop:
1162         do {
1163         } while ...
1164
1165         bb_between_loops:
1166         if (FIRST_NITERS == NITERS) GOTO bb_after_second_loop (skip second loop)
1167                                     GOTO bb_before_second_loop
1168
1169         bb_before_second_loop:
1170
1171         second_loop:
1172         do {
1173         } while ...
1174
1175         bb_after_second_loop:
1176
1177         orig_exit_bb:
1178    */
1179
1180   bb_between_loops = new_exit_bb;
1181   bb_after_second_loop = split_edge (single_exit (second_loop));
1182
1183   pre_condition = 
1184         fold_build2 (EQ_EXPR, boolean_type_node, first_niters, niters);
1185   skip_e = slpeel_add_loop_guard (bb_between_loops, pre_condition,
1186                                   bb_after_second_loop, bb_before_first_loop);
1187   slpeel_update_phi_nodes_for_guard2 (skip_e, second_loop,
1188                                      second_loop == new_loop, &new_exit_bb);
1189
1190   /* 4. Make first-loop iterate FIRST_NITERS times, if requested.
1191    */
1192   if (update_first_loop_count)
1193     slpeel_make_loop_iterate_ntimes (first_loop, first_niters);
1194
1195   BITMAP_FREE (definitions);
1196   delete_update_ssa ();
1197
1198   return new_loop;
1199 }
1200
1201 /* Function vect_get_loop_location.
1202
1203    Extract the location of the loop in the source code.
1204    If the loop is not well formed for vectorization, an estimated
1205    location is calculated.
1206    Return the loop location if succeed and NULL if not.  */
1207
1208 LOC
1209 find_loop_location (struct loop *loop)
1210 {
1211   tree node = NULL_TREE;
1212   basic_block bb;
1213   block_stmt_iterator si;
1214
1215   if (!loop)
1216     return UNKNOWN_LOC;
1217
1218   node = get_loop_exit_condition (loop);
1219
1220   if (node && CAN_HAVE_LOCATION_P (node) && EXPR_HAS_LOCATION (node)
1221       && EXPR_FILENAME (node) && EXPR_LINENO (node))
1222     return EXPR_LOC (node);
1223
1224   /* If we got here the loop is probably not "well formed",
1225      try to estimate the loop location */
1226
1227   if (!loop->header)
1228     return UNKNOWN_LOC;
1229
1230   bb = loop->header;
1231
1232   for (si = bsi_start (bb); !bsi_end_p (si); bsi_next (&si))
1233     {
1234       node = bsi_stmt (si);
1235       if (node && CAN_HAVE_LOCATION_P (node) && EXPR_HAS_LOCATION (node))
1236         return EXPR_LOC (node);
1237     }
1238
1239   return UNKNOWN_LOC;
1240 }
1241
1242
1243 /*************************************************************************
1244   Vectorization Debug Information.
1245  *************************************************************************/
1246
1247 /* Function vect_set_verbosity_level.
1248
1249    Called from toplev.c upon detection of the
1250    -ftree-vectorizer-verbose=N option.  */
1251
1252 void
1253 vect_set_verbosity_level (const char *val)
1254 {
1255    unsigned int vl;
1256
1257    vl = atoi (val);
1258    if (vl < MAX_VERBOSITY_LEVEL)
1259      vect_verbosity_level = vl;
1260    else
1261      vect_verbosity_level = MAX_VERBOSITY_LEVEL - 1;
1262 }
1263
1264
1265 /* Function vect_set_dump_settings.
1266
1267    Fix the verbosity level of the vectorizer if the
1268    requested level was not set explicitly using the flag
1269    -ftree-vectorizer-verbose=N.
1270    Decide where to print the debugging information (dump_file/stderr).
1271    If the user defined the verbosity level, but there is no dump file,
1272    print to stderr, otherwise print to the dump file.  */
1273
1274 static void
1275 vect_set_dump_settings (void)
1276 {
1277   vect_dump = dump_file;
1278
1279   /* Check if the verbosity level was defined by the user:  */
1280   if (vect_verbosity_level != MAX_VERBOSITY_LEVEL)
1281     {
1282       /* If there is no dump file, print to stderr.  */
1283       if (!dump_file)
1284         vect_dump = stderr;
1285       return;
1286     }
1287
1288   /* User didn't specify verbosity level:  */
1289   if (dump_file && (dump_flags & TDF_DETAILS))
1290     vect_verbosity_level = REPORT_DETAILS;
1291   else if (dump_file && (dump_flags & TDF_STATS))
1292     vect_verbosity_level = REPORT_UNVECTORIZED_LOOPS;
1293   else
1294     vect_verbosity_level = REPORT_NONE;
1295
1296   gcc_assert (dump_file || vect_verbosity_level == REPORT_NONE);
1297 }
1298
1299
1300 /* Function debug_loop_details.
1301
1302    For vectorization debug dumps.  */
1303
1304 bool
1305 vect_print_dump_info (enum verbosity_levels vl)
1306 {
1307   if (vl > vect_verbosity_level)
1308     return false;
1309
1310   if (!current_function_decl || !vect_dump)
1311     return false;
1312
1313   if (vect_loop_location == UNKNOWN_LOC)
1314     fprintf (vect_dump, "\n%s:%d: note: ",
1315              DECL_SOURCE_FILE (current_function_decl),
1316              DECL_SOURCE_LINE (current_function_decl));
1317   else
1318     fprintf (vect_dump, "\n%s:%d: note: ", 
1319              LOC_FILE (vect_loop_location), LOC_LINE (vect_loop_location));
1320
1321   return true;
1322 }
1323
1324
1325 /*************************************************************************
1326   Vectorization Utilities.
1327  *************************************************************************/
1328
1329 /* Function new_stmt_vec_info.
1330
1331    Create and initialize a new stmt_vec_info struct for STMT.  */
1332
1333 stmt_vec_info
1334 new_stmt_vec_info (tree stmt, loop_vec_info loop_vinfo)
1335 {
1336   stmt_vec_info res;
1337   res = (stmt_vec_info) xcalloc (1, sizeof (struct _stmt_vec_info));
1338
1339   STMT_VINFO_TYPE (res) = undef_vec_info_type;
1340   STMT_VINFO_STMT (res) = stmt;
1341   STMT_VINFO_LOOP_VINFO (res) = loop_vinfo;
1342   STMT_VINFO_RELEVANT (res) = 0;
1343   STMT_VINFO_LIVE_P (res) = false;
1344   STMT_VINFO_VECTYPE (res) = NULL;
1345   STMT_VINFO_VEC_STMT (res) = NULL;
1346   STMT_VINFO_IN_PATTERN_P (res) = false;
1347   STMT_VINFO_RELATED_STMT (res) = NULL;
1348   STMT_VINFO_DATA_REF (res) = NULL;
1349   if (TREE_CODE (stmt) == PHI_NODE)
1350     STMT_VINFO_DEF_TYPE (res) = vect_unknown_def_type;
1351   else
1352     STMT_VINFO_DEF_TYPE (res) = vect_loop_def;
1353   STMT_VINFO_SAME_ALIGN_REFS (res) = VEC_alloc (dr_p, heap, 5);
1354   STMT_VINFO_INSIDE_OF_LOOP_COST (res) = 0;
1355   STMT_VINFO_OUTSIDE_OF_LOOP_COST (res) = 0;
1356   DR_GROUP_FIRST_DR (res) = NULL_TREE;
1357   DR_GROUP_NEXT_DR (res) = NULL_TREE;
1358   DR_GROUP_SIZE (res) = 0;
1359   DR_GROUP_STORE_COUNT (res) = 0;
1360   DR_GROUP_GAP (res) = 0;
1361   DR_GROUP_SAME_DR_STMT (res) = NULL_TREE;
1362   DR_GROUP_READ_WRITE_DEPENDENCE (res) = false;
1363
1364   return res;
1365 }
1366
1367
1368 /* Function new_loop_vec_info.
1369
1370    Create and initialize a new loop_vec_info struct for LOOP, as well as
1371    stmt_vec_info structs for all the stmts in LOOP.  */
1372
1373 loop_vec_info
1374 new_loop_vec_info (struct loop *loop)
1375 {
1376   loop_vec_info res;
1377   basic_block *bbs;
1378   block_stmt_iterator si;
1379   unsigned int i;
1380
1381   res = (loop_vec_info) xcalloc (1, sizeof (struct _loop_vec_info));
1382
1383   bbs = get_loop_body (loop);
1384
1385   /* Create stmt_info for all stmts in the loop.  */
1386   for (i = 0; i < loop->num_nodes; i++)
1387     {
1388       basic_block bb = bbs[i];
1389       tree phi;
1390
1391       for (phi = phi_nodes (bb); phi; phi = PHI_CHAIN (phi))
1392         {
1393           stmt_ann_t ann = get_stmt_ann (phi);
1394           set_stmt_info (ann, new_stmt_vec_info (phi, res));
1395         }
1396
1397       for (si = bsi_start (bb); !bsi_end_p (si); bsi_next (&si))
1398         {
1399           tree stmt = bsi_stmt (si);
1400           stmt_ann_t ann;
1401
1402           ann = stmt_ann (stmt);
1403           set_stmt_info (ann, new_stmt_vec_info (stmt, res));
1404         }
1405     }
1406
1407   LOOP_VINFO_LOOP (res) = loop;
1408   LOOP_VINFO_BBS (res) = bbs;
1409   LOOP_VINFO_EXIT_COND (res) = NULL;
1410   LOOP_VINFO_NITERS (res) = NULL;
1411   LOOP_VINFO_COST_MODEL_MIN_ITERS (res) = 0;
1412   LOOP_VINFO_VECTORIZABLE_P (res) = 0;
1413   LOOP_PEELING_FOR_ALIGNMENT (res) = 0;
1414   LOOP_VINFO_VECT_FACTOR (res) = 0;
1415   LOOP_VINFO_DATAREFS (res) = VEC_alloc (data_reference_p, heap, 10);
1416   LOOP_VINFO_DDRS (res) = VEC_alloc (ddr_p, heap, 10 * 10);
1417   LOOP_VINFO_UNALIGNED_DR (res) = NULL;
1418   LOOP_VINFO_MAY_MISALIGN_STMTS (res)
1419     = VEC_alloc (tree, heap, PARAM_VALUE (PARAM_VECT_MAX_VERSION_CHECKS));
1420
1421   return res;
1422 }
1423
1424
1425 /* Function destroy_loop_vec_info.
1426  
1427    Free LOOP_VINFO struct, as well as all the stmt_vec_info structs of all the 
1428    stmts in the loop.  */
1429
1430 void
1431 destroy_loop_vec_info (loop_vec_info loop_vinfo)
1432 {
1433   struct loop *loop;
1434   basic_block *bbs;
1435   int nbbs;
1436   block_stmt_iterator si;
1437   int j;
1438
1439   if (!loop_vinfo)
1440     return;
1441
1442   loop = LOOP_VINFO_LOOP (loop_vinfo);
1443
1444   bbs = LOOP_VINFO_BBS (loop_vinfo);
1445   nbbs = loop->num_nodes;
1446
1447   for (j = 0; j < nbbs; j++)
1448     {
1449       basic_block bb = bbs[j];
1450       tree phi;
1451       stmt_vec_info stmt_info;
1452
1453       for (phi = phi_nodes (bb); phi; phi = PHI_CHAIN (phi))
1454         {
1455           stmt_ann_t ann = stmt_ann (phi);
1456
1457           stmt_info = vinfo_for_stmt (phi);
1458           free (stmt_info);
1459           set_stmt_info (ann, NULL);
1460         }
1461
1462       for (si = bsi_start (bb); !bsi_end_p (si); )
1463         {
1464           tree stmt = bsi_stmt (si);
1465           stmt_ann_t ann = stmt_ann (stmt);
1466           stmt_vec_info stmt_info = vinfo_for_stmt (stmt);
1467
1468           if (stmt_info)
1469             {
1470               /* Check if this is a "pattern stmt" (introduced by the 
1471                  vectorizer during the pattern recognition pass).  */
1472               bool remove_stmt_p = false;
1473               tree orig_stmt = STMT_VINFO_RELATED_STMT (stmt_info);
1474               if (orig_stmt)
1475                 {
1476                   stmt_vec_info orig_stmt_info = vinfo_for_stmt (orig_stmt);
1477                   if (orig_stmt_info
1478                       && STMT_VINFO_IN_PATTERN_P (orig_stmt_info))
1479                     remove_stmt_p = true; 
1480                 }
1481                         
1482               /* Free stmt_vec_info.  */
1483               VEC_free (dr_p, heap, STMT_VINFO_SAME_ALIGN_REFS (stmt_info));
1484               free (stmt_info);
1485               set_stmt_info (ann, NULL);
1486
1487               /* Remove dead "pattern stmts".  */
1488               if (remove_stmt_p)
1489                 bsi_remove (&si, true);
1490             }
1491           bsi_next (&si);
1492         }
1493     }
1494
1495   free (LOOP_VINFO_BBS (loop_vinfo));
1496   free_data_refs (LOOP_VINFO_DATAREFS (loop_vinfo));
1497   free_dependence_relations (LOOP_VINFO_DDRS (loop_vinfo));
1498   VEC_free (tree, heap, LOOP_VINFO_MAY_MISALIGN_STMTS (loop_vinfo));
1499
1500   free (loop_vinfo);
1501   loop->aux = NULL;
1502 }
1503
1504
1505 /* Function vect_force_dr_alignment_p.
1506
1507    Returns whether the alignment of a DECL can be forced to be aligned
1508    on ALIGNMENT bit boundary.  */
1509
1510 bool 
1511 vect_can_force_dr_alignment_p (tree decl, unsigned int alignment)
1512 {
1513   if (TREE_CODE (decl) != VAR_DECL)
1514     return false;
1515
1516   if (DECL_EXTERNAL (decl))
1517     return false;
1518
1519   if (TREE_ASM_WRITTEN (decl))
1520     return false;
1521
1522   if (TREE_STATIC (decl))
1523     return (alignment <= MAX_OFILE_ALIGNMENT);
1524   else
1525     /* This is not 100% correct.  The absolute correct stack alignment
1526        is STACK_BOUNDARY.  We're supposed to hope, but not assume, that
1527        PREFERRED_STACK_BOUNDARY is honored by all translation units.
1528        However, until someone implements forced stack alignment, SSE
1529        isn't really usable without this.  */  
1530     return (alignment <= PREFERRED_STACK_BOUNDARY); 
1531 }
1532
1533
1534 /* Function get_vectype_for_scalar_type.
1535
1536    Returns the vector type corresponding to SCALAR_TYPE as supported
1537    by the target.  */
1538
1539 tree
1540 get_vectype_for_scalar_type (tree scalar_type)
1541 {
1542   enum machine_mode inner_mode = TYPE_MODE (scalar_type);
1543   int nbytes = GET_MODE_SIZE (inner_mode);
1544   int nunits;
1545   tree vectype;
1546
1547   if (nbytes == 0 || nbytes >= UNITS_PER_SIMD_WORD)
1548     return NULL_TREE;
1549
1550   /* FORNOW: Only a single vector size per target (UNITS_PER_SIMD_WORD)
1551      is expected.  */
1552   nunits = UNITS_PER_SIMD_WORD / nbytes;
1553
1554   vectype = build_vector_type (scalar_type, nunits);
1555   if (vect_print_dump_info (REPORT_DETAILS))
1556     {
1557       fprintf (vect_dump, "get vectype with %d units of type ", nunits);
1558       print_generic_expr (vect_dump, scalar_type, TDF_SLIM);
1559     }
1560
1561   if (!vectype)
1562     return NULL_TREE;
1563
1564   if (vect_print_dump_info (REPORT_DETAILS))
1565     {
1566       fprintf (vect_dump, "vectype: ");
1567       print_generic_expr (vect_dump, vectype, TDF_SLIM);
1568     }
1569
1570   if (!VECTOR_MODE_P (TYPE_MODE (vectype))
1571       && !INTEGRAL_MODE_P (TYPE_MODE (vectype)))
1572     {
1573       if (vect_print_dump_info (REPORT_DETAILS))
1574         fprintf (vect_dump, "mode not supported by target.");
1575       return NULL_TREE;
1576     }
1577
1578   return vectype;
1579 }
1580
1581
1582 /* Function vect_supportable_dr_alignment
1583
1584    Return whether the data reference DR is supported with respect to its
1585    alignment.  */
1586
1587 enum dr_alignment_support
1588 vect_supportable_dr_alignment (struct data_reference *dr)
1589 {
1590   tree vectype = STMT_VINFO_VECTYPE (vinfo_for_stmt (DR_STMT (dr)));
1591   enum machine_mode mode = (int) TYPE_MODE (vectype);
1592
1593   if (aligned_access_p (dr))
1594     return dr_aligned;
1595
1596   /* Possibly unaligned access.  */
1597   
1598   if (DR_IS_READ (dr))
1599     {
1600       if (vec_realign_load_optab->handlers[mode].insn_code != CODE_FOR_nothing
1601           && (!targetm.vectorize.builtin_mask_for_load
1602               || targetm.vectorize.builtin_mask_for_load ()))
1603         return dr_unaligned_software_pipeline;
1604
1605       if (movmisalign_optab->handlers[mode].insn_code != CODE_FOR_nothing)
1606         /* Can't software pipeline the loads, but can at least do them.  */
1607         return dr_unaligned_supported;
1608     }
1609
1610   /* Unsupported.  */
1611   return dr_unaligned_unsupported;
1612 }
1613
1614
1615 /* Function vect_is_simple_use.
1616
1617    Input:
1618    LOOP - the loop that is being vectorized.
1619    OPERAND - operand of a stmt in LOOP.
1620    DEF - the defining stmt in case OPERAND is an SSA_NAME.
1621
1622    Returns whether a stmt with OPERAND can be vectorized.
1623    Supportable operands are constants, loop invariants, and operands that are
1624    defined by the current iteration of the loop. Unsupportable operands are 
1625    those that are defined by a previous iteration of the loop (as is the case
1626    in reduction/induction computations).  */
1627
1628 bool
1629 vect_is_simple_use (tree operand, loop_vec_info loop_vinfo, tree *def_stmt,
1630                     tree *def, enum vect_def_type *dt)
1631
1632   basic_block bb;
1633   stmt_vec_info stmt_vinfo;
1634   struct loop *loop = LOOP_VINFO_LOOP (loop_vinfo);
1635
1636   *def_stmt = NULL_TREE;
1637   *def = NULL_TREE;
1638   
1639   if (vect_print_dump_info (REPORT_DETAILS))
1640     {
1641       fprintf (vect_dump, "vect_is_simple_use: operand ");
1642       print_generic_expr (vect_dump, operand, TDF_SLIM);
1643     }
1644     
1645   if (TREE_CODE (operand) == INTEGER_CST || TREE_CODE (operand) == REAL_CST)
1646     {
1647       *dt = vect_constant_def;
1648       return true;
1649     }
1650   if (is_gimple_min_invariant (operand))
1651    {
1652       *def = operand;
1653       *dt = vect_invariant_def;
1654       return true;
1655    }
1656     
1657   if (TREE_CODE (operand) != SSA_NAME)
1658     {
1659       if (vect_print_dump_info (REPORT_DETAILS))
1660         fprintf (vect_dump, "not ssa-name.");
1661       return false;
1662     }
1663     
1664   *def_stmt = SSA_NAME_DEF_STMT (operand);
1665   if (*def_stmt == NULL_TREE )
1666     {
1667       if (vect_print_dump_info (REPORT_DETAILS))
1668         fprintf (vect_dump, "no def_stmt.");
1669       return false;
1670     }
1671
1672   if (vect_print_dump_info (REPORT_DETAILS))
1673     {
1674       fprintf (vect_dump, "def_stmt: ");
1675       print_generic_expr (vect_dump, *def_stmt, TDF_SLIM);
1676     }
1677
1678   /* empty stmt is expected only in case of a function argument.
1679      (Otherwise - we expect a phi_node or a GIMPLE_MODIFY_STMT).  */
1680   if (IS_EMPTY_STMT (*def_stmt))
1681     {
1682       tree arg = TREE_OPERAND (*def_stmt, 0);
1683       if (is_gimple_min_invariant (arg))
1684         {
1685           *def = operand;
1686           *dt = vect_invariant_def;
1687           return true;
1688         }
1689
1690       if (vect_print_dump_info (REPORT_DETAILS))
1691         fprintf (vect_dump, "Unexpected empty stmt.");
1692       return false;
1693     }
1694
1695   bb = bb_for_stmt (*def_stmt);
1696   if (!flow_bb_inside_loop_p (loop, bb))
1697     *dt = vect_invariant_def;
1698   else
1699     {
1700       stmt_vinfo = vinfo_for_stmt (*def_stmt);
1701       *dt = STMT_VINFO_DEF_TYPE (stmt_vinfo);
1702     }
1703
1704   if (*dt == vect_unknown_def_type)
1705     {
1706       if (vect_print_dump_info (REPORT_DETAILS))
1707         fprintf (vect_dump, "Unsupported pattern.");
1708       return false;
1709     }
1710
1711   if (vect_print_dump_info (REPORT_DETAILS))
1712     fprintf (vect_dump, "type of def: %d.",*dt);
1713
1714   switch (TREE_CODE (*def_stmt))
1715     {
1716     case PHI_NODE:
1717       *def = PHI_RESULT (*def_stmt);
1718       gcc_assert (*dt == vect_induction_def || *dt == vect_reduction_def
1719                   || *dt == vect_invariant_def);
1720       break;
1721
1722     case GIMPLE_MODIFY_STMT:
1723       *def = GIMPLE_STMT_OPERAND (*def_stmt, 0);
1724       break;
1725
1726     default:
1727       if (vect_print_dump_info (REPORT_DETAILS))
1728         fprintf (vect_dump, "unsupported defining stmt: ");
1729       return false;
1730     }
1731
1732   return true;
1733 }
1734
1735
1736 /* Function supportable_widening_operation
1737
1738    Check whether an operation represented by the code CODE is a 
1739    widening operation that is supported by the target platform in 
1740    vector form (i.e., when operating on arguments of type VECTYPE).
1741     
1742    Widening operations we currently support are NOP (CONVERT), FLOAT
1743    and WIDEN_MULT.  This function checks if these operations are supported
1744    by the target platform either directly (via vector tree-codes), or via
1745    target builtins.
1746
1747    Output:
1748    - CODE1 and CODE2 are codes of vector operations to be used when 
1749    vectorizing the operation, if available. 
1750    - DECL1 and DECL2 are decls of target builtin functions to be used
1751    when vectorizing the operation, if available. In this case,
1752    CODE1 and CODE2 are CALL_EXPR.  */
1753
1754 bool
1755 supportable_widening_operation (enum tree_code code, tree stmt, tree vectype,
1756                                 tree *decl1, tree *decl2,
1757                                 enum tree_code *code1, enum tree_code *code2)
1758 {
1759   stmt_vec_info stmt_info = vinfo_for_stmt (stmt);
1760   bool ordered_p;
1761   enum machine_mode vec_mode;
1762   enum insn_code icode1, icode2;
1763   optab optab1, optab2;
1764   tree expr = GIMPLE_STMT_OPERAND (stmt, 1);
1765   tree type = TREE_TYPE (expr);
1766   tree wide_vectype = get_vectype_for_scalar_type (type);
1767   enum tree_code c1, c2;
1768
1769   /* The result of a vectorized widening operation usually requires two vectors
1770      (because the widened results do not fit int one vector). The generated 
1771      vector results would normally be expected to be generated in the same 
1772      order as in the original scalar computation. i.e. if 8 results are 
1773      generated in each vector iteration, they are to be organized as follows:
1774         vect1: [res1,res2,res3,res4], vect2: [res5,res6,res7,res8]. 
1775
1776      However, in the special case that the result of the widening operation is 
1777      used in a reduction computation only, the order doesn't matter (because
1778      when vectorizing a reduction we change the order of the computation). 
1779      Some targets can take advantage of this and generate more efficient code.
1780      For example, targets like Altivec, that support widen_mult using a sequence
1781      of {mult_even,mult_odd} generate the following vectors:
1782         vect1: [res1,res3,res5,res7], vect2: [res2,res4,res6,res8].  */
1783
1784    if (STMT_VINFO_RELEVANT (stmt_info) == vect_used_by_reduction)
1785      ordered_p = false;
1786    else
1787      ordered_p = true;
1788
1789   if (!ordered_p
1790       && code == WIDEN_MULT_EXPR
1791       && targetm.vectorize.builtin_mul_widen_even
1792       && targetm.vectorize.builtin_mul_widen_even (vectype)
1793       && targetm.vectorize.builtin_mul_widen_odd
1794       && targetm.vectorize.builtin_mul_widen_odd (vectype))
1795     {
1796       if (vect_print_dump_info (REPORT_DETAILS))
1797         fprintf (vect_dump, "Unordered widening operation detected.");
1798
1799       *code1 = *code2 = CALL_EXPR;
1800       *decl1 = targetm.vectorize.builtin_mul_widen_even (vectype);
1801       *decl2 = targetm.vectorize.builtin_mul_widen_odd (vectype);
1802       return true;
1803     }
1804
1805   switch (code)
1806     {
1807     case WIDEN_MULT_EXPR:
1808       if (BYTES_BIG_ENDIAN)
1809         {
1810           c1 = VEC_WIDEN_MULT_HI_EXPR;
1811           c2 = VEC_WIDEN_MULT_LO_EXPR;
1812         }
1813       else
1814         {
1815           c2 = VEC_WIDEN_MULT_HI_EXPR;
1816           c1 = VEC_WIDEN_MULT_LO_EXPR;
1817         }
1818       break;
1819
1820     case NOP_EXPR:
1821     case CONVERT_EXPR:
1822       if (BYTES_BIG_ENDIAN)
1823         {
1824           c1 = VEC_UNPACK_HI_EXPR;
1825           c2 = VEC_UNPACK_LO_EXPR;
1826         }
1827       else
1828         {
1829           c2 = VEC_UNPACK_HI_EXPR;
1830           c1 = VEC_UNPACK_LO_EXPR;
1831         }
1832       break;
1833
1834     case FLOAT_EXPR:
1835       if (BYTES_BIG_ENDIAN)
1836         {
1837           c1 = VEC_UNPACK_FLOAT_HI_EXPR;
1838           c2 = VEC_UNPACK_FLOAT_LO_EXPR;
1839         }
1840       else
1841         {
1842           c2 = VEC_UNPACK_FLOAT_HI_EXPR;
1843           c1 = VEC_UNPACK_FLOAT_LO_EXPR;
1844         }
1845       break;
1846
1847     case FIX_TRUNC_EXPR:
1848       /* ??? Not yet implemented due to missing VEC_UNPACK_FIX_TRUNC_HI_EXPR/
1849          VEC_UNPACK_FIX_TRUNC_LO_EXPR tree codes and optabs used for
1850          computing the operation.  */
1851       return false;
1852
1853     default:
1854       gcc_unreachable ();
1855     }
1856
1857   if (code == FIX_TRUNC_EXPR)
1858     {
1859       /* The signedness is determined from output operand.  */
1860       optab1 = optab_for_tree_code (c1, type);
1861       optab2 = optab_for_tree_code (c2, type);
1862     }
1863   else
1864     {
1865       optab1 = optab_for_tree_code (c1, vectype);
1866       optab2 = optab_for_tree_code (c2, vectype);
1867     }
1868
1869   if (!optab1 || !optab2)
1870     return false;
1871
1872   vec_mode = TYPE_MODE (vectype);
1873   if ((icode1 = optab1->handlers[(int) vec_mode].insn_code) == CODE_FOR_nothing
1874       || insn_data[icode1].operand[0].mode != TYPE_MODE (wide_vectype)
1875       || (icode2 = optab2->handlers[(int) vec_mode].insn_code)
1876                                                         == CODE_FOR_nothing
1877       || insn_data[icode2].operand[0].mode != TYPE_MODE (wide_vectype))
1878     return false;
1879
1880   *code1 = c1;
1881   *code2 = c2;
1882   return true;
1883 }
1884
1885
1886 /* Function supportable_narrowing_operation
1887
1888    Check whether an operation represented by the code CODE is a 
1889    narrowing operation that is supported by the target platform in 
1890    vector form (i.e., when operating on arguments of type VECTYPE).
1891     
1892    Narrowing operations we currently support are NOP (CONVERT) and
1893    FIX_TRUNC. This function checks if these operations are supported by
1894    the target platform directly via vector tree-codes.
1895
1896    Output:
1897    - CODE1 is the code of a vector operation to be used when 
1898    vectorizing the operation, if available.  */
1899
1900 bool
1901 supportable_narrowing_operation (enum tree_code code,
1902                                  tree stmt, tree vectype,
1903                                  enum tree_code *code1)
1904 {
1905   enum machine_mode vec_mode;
1906   enum insn_code icode1;
1907   optab optab1;
1908   tree expr = GIMPLE_STMT_OPERAND (stmt, 1);
1909   tree type = TREE_TYPE (expr);
1910   tree narrow_vectype = get_vectype_for_scalar_type (type);
1911   enum tree_code c1;
1912
1913   switch (code)
1914     {
1915     case NOP_EXPR:
1916     case CONVERT_EXPR:
1917       c1 = VEC_PACK_TRUNC_EXPR;
1918       break;
1919
1920     case FIX_TRUNC_EXPR:
1921       c1 = VEC_PACK_FIX_TRUNC_EXPR;
1922       break;
1923
1924     case FLOAT_EXPR:
1925       /* ??? Not yet implemented due to missing VEC_PACK_FLOAT_EXPR
1926          tree code and optabs used for computing the operation.  */
1927       return false;
1928
1929     default:
1930       gcc_unreachable ();
1931     }
1932
1933   if (code == FIX_TRUNC_EXPR)
1934     /* The signedness is determined from output operand.  */
1935     optab1 = optab_for_tree_code (c1, type);
1936   else
1937     optab1 = optab_for_tree_code (c1, vectype);
1938
1939   if (!optab1)
1940     return false;
1941
1942   vec_mode = TYPE_MODE (vectype);
1943   if ((icode1 = optab1->handlers[(int) vec_mode].insn_code) == CODE_FOR_nothing
1944       || insn_data[icode1].operand[0].mode != TYPE_MODE (narrow_vectype))
1945     return false;
1946
1947   *code1 = c1;
1948   return true;
1949 }
1950
1951
1952 /* Function reduction_code_for_scalar_code
1953
1954    Input:
1955    CODE - tree_code of a reduction operations.
1956
1957    Output:
1958    REDUC_CODE - the corresponding tree-code to be used to reduce the
1959       vector of partial results into a single scalar result (which
1960       will also reside in a vector).
1961
1962    Return TRUE if a corresponding REDUC_CODE was found, FALSE otherwise.  */
1963
1964 bool
1965 reduction_code_for_scalar_code (enum tree_code code,
1966                                 enum tree_code *reduc_code)
1967 {
1968   switch (code)
1969   {
1970   case MAX_EXPR:
1971     *reduc_code = REDUC_MAX_EXPR;
1972     return true;
1973
1974   case MIN_EXPR:
1975     *reduc_code = REDUC_MIN_EXPR;
1976     return true;
1977
1978   case PLUS_EXPR:
1979     *reduc_code = REDUC_PLUS_EXPR;
1980     return true;
1981
1982   default:
1983     return false;
1984   }
1985 }
1986
1987
1988 /* Function vect_is_simple_reduction
1989
1990    Detect a cross-iteration def-use cucle that represents a simple
1991    reduction computation. We look for the following pattern:
1992
1993    loop_header:
1994      a1 = phi < a0, a2 >
1995      a3 = ...
1996      a2 = operation (a3, a1)
1997   
1998    such that:
1999    1. operation is commutative and associative and it is safe to 
2000       change the order of the computation.
2001    2. no uses for a2 in the loop (a2 is used out of the loop)
2002    3. no uses of a1 in the loop besides the reduction operation.
2003
2004    Condition 1 is tested here.
2005    Conditions 2,3 are tested in vect_mark_stmts_to_be_vectorized.  */
2006
2007 tree
2008 vect_is_simple_reduction (struct loop *loop, tree phi)
2009 {
2010   edge latch_e = loop_latch_edge (loop);
2011   tree loop_arg = PHI_ARG_DEF_FROM_EDGE (phi, latch_e);
2012   tree def_stmt, def1, def2;
2013   enum tree_code code;
2014   int op_type;
2015   tree operation, op1, op2;
2016   tree type;
2017   int nloop_uses;
2018   tree name;
2019   imm_use_iterator imm_iter;
2020   use_operand_p use_p;
2021
2022   name = PHI_RESULT (phi);
2023   nloop_uses = 0;
2024   FOR_EACH_IMM_USE_FAST (use_p, imm_iter, name)
2025     {
2026       tree use_stmt = USE_STMT (use_p);
2027       if (flow_bb_inside_loop_p (loop, bb_for_stmt (use_stmt))
2028           && vinfo_for_stmt (use_stmt)
2029           && !is_pattern_stmt_p (vinfo_for_stmt (use_stmt)))
2030         nloop_uses++;
2031       if (nloop_uses > 1)
2032         {
2033           if (vect_print_dump_info (REPORT_DETAILS))
2034             fprintf (vect_dump, "reduction used in loop.");
2035           return NULL_TREE;
2036         }
2037     }
2038
2039   if (TREE_CODE (loop_arg) != SSA_NAME)
2040     {
2041       if (vect_print_dump_info (REPORT_DETAILS))
2042         {
2043           fprintf (vect_dump, "reduction: not ssa_name: ");
2044           print_generic_expr (vect_dump, loop_arg, TDF_SLIM);
2045         }
2046       return NULL_TREE;
2047     }
2048
2049   def_stmt = SSA_NAME_DEF_STMT (loop_arg);
2050   if (!def_stmt)
2051     {
2052       if (vect_print_dump_info (REPORT_DETAILS))
2053         fprintf (vect_dump, "reduction: no def_stmt.");
2054       return NULL_TREE;
2055     }
2056
2057   if (TREE_CODE (def_stmt) != GIMPLE_MODIFY_STMT)
2058     {
2059       if (vect_print_dump_info (REPORT_DETAILS))
2060         print_generic_expr (vect_dump, def_stmt, TDF_SLIM);
2061       return NULL_TREE;
2062     }
2063
2064   name = GIMPLE_STMT_OPERAND (def_stmt, 0);
2065   nloop_uses = 0;
2066   FOR_EACH_IMM_USE_FAST (use_p, imm_iter, name)
2067     {
2068       tree use_stmt = USE_STMT (use_p);
2069       if (flow_bb_inside_loop_p (loop, bb_for_stmt (use_stmt))
2070           && vinfo_for_stmt (use_stmt)
2071           && !is_pattern_stmt_p (vinfo_for_stmt (use_stmt)))
2072         nloop_uses++;
2073       if (nloop_uses > 1)
2074         {
2075           if (vect_print_dump_info (REPORT_DETAILS))
2076             fprintf (vect_dump, "reduction used in loop.");
2077           return NULL_TREE;
2078         }
2079     }
2080
2081   operation = GIMPLE_STMT_OPERAND (def_stmt, 1);
2082   code = TREE_CODE (operation);
2083   if (!commutative_tree_code (code) || !associative_tree_code (code))
2084     {
2085       if (vect_print_dump_info (REPORT_DETAILS))
2086         {
2087           fprintf (vect_dump, "reduction: not commutative/associative: ");
2088           print_generic_expr (vect_dump, operation, TDF_SLIM);
2089         }
2090       return NULL_TREE;
2091     }
2092
2093   op_type = TREE_OPERAND_LENGTH (operation);
2094   if (op_type != binary_op)
2095     {
2096       if (vect_print_dump_info (REPORT_DETAILS))
2097         {
2098           fprintf (vect_dump, "reduction: not binary operation: ");
2099           print_generic_expr (vect_dump, operation, TDF_SLIM);
2100         }
2101       return NULL_TREE;
2102     }
2103
2104   op1 = TREE_OPERAND (operation, 0);
2105   op2 = TREE_OPERAND (operation, 1);
2106   if (TREE_CODE (op1) != SSA_NAME || TREE_CODE (op2) != SSA_NAME)
2107     {
2108       if (vect_print_dump_info (REPORT_DETAILS))
2109         {
2110           fprintf (vect_dump, "reduction: uses not ssa_names: ");
2111           print_generic_expr (vect_dump, operation, TDF_SLIM);
2112         }
2113       return NULL_TREE;
2114     }
2115
2116   /* Check that it's ok to change the order of the computation.  */
2117   type = TREE_TYPE (operation);
2118   if (TYPE_MAIN_VARIANT (type) != TYPE_MAIN_VARIANT (TREE_TYPE (op1))
2119       || TYPE_MAIN_VARIANT (type) != TYPE_MAIN_VARIANT (TREE_TYPE (op2)))
2120     {
2121       if (vect_print_dump_info (REPORT_DETAILS))
2122         {
2123           fprintf (vect_dump, "reduction: multiple types: operation type: ");
2124           print_generic_expr (vect_dump, type, TDF_SLIM);
2125           fprintf (vect_dump, ", operands types: ");
2126           print_generic_expr (vect_dump, TREE_TYPE (op1), TDF_SLIM);
2127           fprintf (vect_dump, ",");
2128           print_generic_expr (vect_dump, TREE_TYPE (op2), TDF_SLIM);
2129         }
2130       return NULL_TREE;
2131     }
2132
2133   /* CHECKME: check for !flag_finite_math_only too?  */
2134   if (SCALAR_FLOAT_TYPE_P (type) && !flag_unsafe_math_optimizations)
2135     {
2136       /* Changing the order of operations changes the semantics.  */
2137       if (vect_print_dump_info (REPORT_DETAILS))
2138         {
2139           fprintf (vect_dump, "reduction: unsafe fp math optimization: ");
2140           print_generic_expr (vect_dump, operation, TDF_SLIM);
2141         }
2142       return NULL_TREE;
2143     }
2144   else if (INTEGRAL_TYPE_P (type) && TYPE_OVERFLOW_TRAPS (type))
2145     {
2146       /* Changing the order of operations changes the semantics.  */
2147       if (vect_print_dump_info (REPORT_DETAILS))
2148         {
2149           fprintf (vect_dump, "reduction: unsafe int math optimization: ");
2150           print_generic_expr (vect_dump, operation, TDF_SLIM);
2151         }
2152       return NULL_TREE;
2153     }
2154
2155   /* reduction is safe. we're dealing with one of the following:
2156      1) integer arithmetic and no trapv
2157      2) floating point arithmetic, and special flags permit this optimization.
2158    */
2159   def1 = SSA_NAME_DEF_STMT (op1);
2160   def2 = SSA_NAME_DEF_STMT (op2);
2161   if (!def1 || !def2 || IS_EMPTY_STMT (def1) || IS_EMPTY_STMT (def2))
2162     {
2163       if (vect_print_dump_info (REPORT_DETAILS))
2164         {
2165           fprintf (vect_dump, "reduction: no defs for operands: ");
2166           print_generic_expr (vect_dump, operation, TDF_SLIM);
2167         }
2168       return NULL_TREE;
2169     }
2170
2171
2172   /* Check that one def is the reduction def, defined by PHI,
2173      the other def is either defined in the loop by a GIMPLE_MODIFY_STMT,
2174      or it's an induction (defined by some phi node).  */
2175
2176   if (def2 == phi
2177       && flow_bb_inside_loop_p (loop, bb_for_stmt (def1))
2178       && (TREE_CODE (def1) == GIMPLE_MODIFY_STMT 
2179           || STMT_VINFO_DEF_TYPE (vinfo_for_stmt (def1)) == vect_induction_def))
2180     {
2181       if (vect_print_dump_info (REPORT_DETAILS))
2182         {
2183           fprintf (vect_dump, "detected reduction:");
2184           print_generic_expr (vect_dump, operation, TDF_SLIM);
2185         }
2186       return def_stmt;
2187     }
2188   else if (def1 == phi
2189            && flow_bb_inside_loop_p (loop, bb_for_stmt (def2))
2190            && (TREE_CODE (def2) == GIMPLE_MODIFY_STMT 
2191                || STMT_VINFO_DEF_TYPE (vinfo_for_stmt (def2)) == vect_induction_def))
2192     {
2193       /* Swap operands (just for simplicity - so that the rest of the code
2194          can assume that the reduction variable is always the last (second)
2195          argument).  */
2196       if (vect_print_dump_info (REPORT_DETAILS))
2197         {
2198           fprintf (vect_dump, "detected reduction: need to swap operands:");
2199           print_generic_expr (vect_dump, operation, TDF_SLIM);
2200         }
2201       swap_tree_operands (def_stmt, &TREE_OPERAND (operation, 0), 
2202                                     &TREE_OPERAND (operation, 1));
2203       return def_stmt;
2204     }
2205   else
2206     {
2207       if (vect_print_dump_info (REPORT_DETAILS))
2208         {
2209           fprintf (vect_dump, "reduction: unknown pattern.");
2210           print_generic_expr (vect_dump, operation, TDF_SLIM);
2211         }
2212       return NULL_TREE;
2213     }
2214 }
2215
2216
2217 /* Function vect_is_simple_iv_evolution.
2218
2219    FORNOW: A simple evolution of an induction variables in the loop is
2220    considered a polynomial evolution with constant step.  */
2221
2222 bool
2223 vect_is_simple_iv_evolution (unsigned loop_nb, tree access_fn, tree * init, 
2224                              tree * step)
2225 {
2226   tree init_expr;
2227   tree step_expr;
2228   tree evolution_part = evolution_part_in_loop_num (access_fn, loop_nb);
2229
2230   /* When there is no evolution in this loop, the evolution function
2231      is not "simple".  */  
2232   if (evolution_part == NULL_TREE)
2233     return false;
2234   
2235   /* When the evolution is a polynomial of degree >= 2
2236      the evolution function is not "simple".  */
2237   if (tree_is_chrec (evolution_part))
2238     return false;
2239   
2240   step_expr = evolution_part;
2241   init_expr = unshare_expr (initial_condition_in_loop_num (access_fn, loop_nb));
2242
2243   if (vect_print_dump_info (REPORT_DETAILS))
2244     {
2245       fprintf (vect_dump, "step: ");
2246       print_generic_expr (vect_dump, step_expr, TDF_SLIM);
2247       fprintf (vect_dump, ",  init: ");
2248       print_generic_expr (vect_dump, init_expr, TDF_SLIM);
2249     }
2250
2251   *init = init_expr;
2252   *step = step_expr;
2253
2254   if (TREE_CODE (step_expr) != INTEGER_CST)
2255     { 
2256       if (vect_print_dump_info (REPORT_DETAILS))
2257         fprintf (vect_dump, "step unknown.");
2258       return false;
2259     }
2260
2261   return true;
2262 }
2263
2264
2265 /* Function vectorize_loops.
2266    
2267    Entry Point to loop vectorization phase.  */
2268
2269 unsigned
2270 vectorize_loops (void)
2271 {
2272   unsigned int i;
2273   unsigned int num_vectorized_loops = 0;
2274   unsigned int vect_loops_num;
2275   loop_iterator li;
2276   struct loop *loop;
2277
2278   vect_loops_num = number_of_loops ();
2279
2280   /* Bail out if there are no loops.  */
2281   if (vect_loops_num <= 1)
2282     return 0;
2283
2284   /* Fix the verbosity level if not defined explicitly by the user.  */
2285   vect_set_dump_settings ();
2286
2287   /* Allocate the bitmap that records which virtual variables that 
2288      need to be renamed.  */
2289   vect_memsyms_to_rename = BITMAP_ALLOC (NULL);
2290
2291   /*  ----------- Analyze loops. -----------  */
2292
2293   /* If some loop was duplicated, it gets bigger number 
2294      than all previously defined loops. This fact allows us to run 
2295      only over initial loops skipping newly generated ones.  */
2296   FOR_EACH_LOOP (li, loop, 0)
2297     {
2298       loop_vec_info loop_vinfo;
2299
2300       vect_loop_location = find_loop_location (loop);
2301       loop_vinfo = vect_analyze_loop (loop);
2302       loop->aux = loop_vinfo;
2303
2304       if (!loop_vinfo || !LOOP_VINFO_VECTORIZABLE_P (loop_vinfo))
2305         continue;
2306
2307       vect_transform_loop (loop_vinfo);
2308       num_vectorized_loops++;
2309     }
2310   vect_loop_location = UNKNOWN_LOC;
2311
2312   if (vect_print_dump_info (REPORT_UNVECTORIZED_LOOPS)
2313       || (vect_print_dump_info (REPORT_VECTORIZED_LOOPS)
2314           && num_vectorized_loops > 0))
2315     fprintf (vect_dump, "vectorized %u loops in function.\n",
2316              num_vectorized_loops);
2317
2318   /*  ----------- Finalize. -----------  */
2319
2320   BITMAP_FREE (vect_memsyms_to_rename);
2321
2322   for (i = 1; i < vect_loops_num; i++)
2323     {
2324       loop_vec_info loop_vinfo;
2325
2326       loop = get_loop (i);
2327       if (!loop)
2328         continue;
2329       loop_vinfo = loop->aux;
2330       destroy_loop_vec_info (loop_vinfo);
2331       loop->aux = NULL;
2332     }
2333
2334   return num_vectorized_loops > 0 ? TODO_cleanup_cfg : 0;
2335 }
2336
2337 /* Increase alignment of global arrays to improve vectorization potential.
2338    TODO:
2339    - Consider also structs that have an array field.
2340    - Use ipa analysis to prune arrays that can't be vectorized?
2341      This should involve global alignment analysis and in the future also
2342      array padding.  */
2343
2344 static unsigned int
2345 increase_alignment (void)
2346 {
2347   struct varpool_node *vnode;
2348
2349   /* Increase the alignment of all global arrays for vectorization.  */
2350   for (vnode = varpool_nodes_queue;
2351        vnode;
2352        vnode = vnode->next_needed)
2353     {
2354       tree vectype, decl = vnode->decl;
2355       unsigned int alignment;
2356
2357       if (TREE_CODE (TREE_TYPE (decl)) != ARRAY_TYPE)
2358         continue;
2359       vectype = get_vectype_for_scalar_type (TREE_TYPE (TREE_TYPE (decl)));
2360       if (!vectype)
2361         continue;
2362       alignment = TYPE_ALIGN (vectype);
2363       if (DECL_ALIGN (decl) >= alignment)
2364         continue;
2365
2366       if (vect_can_force_dr_alignment_p (decl, alignment))
2367         { 
2368           DECL_ALIGN (decl) = TYPE_ALIGN (vectype);
2369           DECL_USER_ALIGN (decl) = 1;
2370           if (dump_file)
2371             { 
2372               fprintf (dump_file, "Increasing alignment of decl: ");
2373               print_generic_expr (dump_file, decl, TDF_SLIM);
2374             }
2375         }
2376     }
2377   return 0;
2378 }
2379
2380 static bool
2381 gate_increase_alignment (void)
2382 {
2383   return flag_section_anchors && flag_tree_vectorize;
2384 }
2385
2386 struct tree_opt_pass pass_ipa_increase_alignment = 
2387 {
2388   "increase_alignment",                 /* name */
2389   gate_increase_alignment,              /* gate */
2390   increase_alignment,                   /* execute */
2391   NULL,                                 /* sub */
2392   NULL,                                 /* next */
2393   0,                                    /* static_pass_number */
2394   0,                                    /* tv_id */
2395   0,                                    /* properties_required */
2396   0,                                    /* properties_provided */
2397   0,                                    /* properties_destroyed */
2398   0,                                    /* todo_flags_start */
2399   0,                                    /* todo_flags_finish */
2400   0                                     /* letter */
2401 };