OSDN Git Service

* gcc.c (do_spec_1): Accept numeric characters in file name
[pf3gnuchains/gcc-fork.git] / gcc / lambda-code.c
index a81af8f..cf995a3 100644 (file)
     
     You should have received a copy of the GNU General Public License
     along with GCC; see the file COPYING.  If not, write to the Free
-    Software Foundation, 59 Temple Place - Suite 330, Boston, MA
-    02111-1307, USA.  */
+    Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
+    02110-1301, USA.  */
 
 #include "config.h"
 #include "system.h"
 #include "coretypes.h"
 #include "tm.h"
-#include "errors.h"
 #include "ggc.h"
 #include "tree.h"
 #include "target.h"
  Fourier-Motzkin elimination is used to compute the bounds of the base space
  of the lattice.  */
 
-DEF_VEC_P(int);
-DEF_VEC_ALLOC_P(int,heap);
+DEF_VEC_I(int);
+DEF_VEC_ALLOC_I(int,heap);
 
 static bool perfect_nestify (struct loops *, 
                             struct loop *, VEC(tree,heap) *, 
@@ -1266,7 +1265,6 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
   int stepint;
   int extra = 0;
   tree lboundvar, uboundvar, uboundresult;
-  use_optype uses;
 
   /* Find out induction var and exit condition.  */
   inductionvar = find_induction_var_from_exit_cond (loop);
@@ -1295,9 +1293,8 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
   phi = SSA_NAME_DEF_STMT (inductionvar);
   if (TREE_CODE (phi) != PHI_NODE)
     {
-      uses = STMT_USE_OPS (phi);
-
-      if (!uses)
+      phi = SINGLE_SSA_TREE_OPERAND (phi, SSA_OP_USE);
+      if (!phi)
        {
 
          if (dump_file && (dump_flags & TDF_DETAILS))
@@ -1307,7 +1304,6 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
          return NULL;
        }
 
-      phi = USE_OP (uses, 0);
       phi = SSA_NAME_DEF_STMT (phi);
       if (TREE_CODE (phi) != PHI_NODE)
        {
@@ -1596,7 +1592,7 @@ lbv_to_gcc_expression (lambda_body_vector lbv,
          /* newname = coefficient * induction_variable */
          coeffmult = build_int_cst (type, LBV_COEFFICIENTS (lbv)[i]);
          stmt = build (MODIFY_EXPR, void_type_node, resvar,
-                       fold (build (MULT_EXPR, type, iv, coeffmult)));
+                       fold_build2 (MULT_EXPR, type, iv, coeffmult));
 
          newname = make_ssa_name (resvar, stmt);
          TREE_OPERAND (stmt, 0) = newname;
@@ -1698,7 +1694,7 @@ lle_to_gcc_expression (lambda_linear_expression lle,
                {
                  coeff = build_int_cst (type,
                                         LLE_COEFFICIENTS (lle)[i]);
-                 mult = fold (build (MULT_EXPR, type, iv, coeff));
+                 mult = fold_build2 (MULT_EXPR, type, iv, coeff);
                }
 
              /* newname = mult */
@@ -1739,7 +1735,7 @@ lle_to_gcc_expression (lambda_linear_expression lle,
              else
                {
                  coeff = build_int_cst (type, invcoeff);
-                 mult = fold (build (MULT_EXPR, type, invar, coeff));
+                 mult = fold_build2 (MULT_EXPR, type, invar, coeff);
                }
 
              /* newname = mult */
@@ -1972,12 +1968,11 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
       tree oldiv_def;
       tree oldiv_stmt = SSA_NAME_DEF_STMT (oldiv);
 
-      gcc_assert (TREE_CODE (oldiv_stmt) == PHI_NODE
-                 || NUM_DEFS (STMT_DEF_OPS (oldiv_stmt)) == 1);
       if (TREE_CODE (oldiv_stmt) == PHI_NODE)
-       oldiv_def = PHI_RESULT (oldiv_stmt);
+        oldiv_def = PHI_RESULT (oldiv_stmt);
       else
-       oldiv_def = DEF_OP (STMT_DEF_OPS (oldiv_stmt), 0);
+       oldiv_def = SINGLE_SSA_TREE_OPERAND (oldiv_stmt, SSA_OP_DEF);
+      gcc_assert (oldiv_def != NULL_TREE);
 
       FOR_EACH_IMM_USE_SAFE (imm_use, imm_iter, oldiv_def)
        {
@@ -2015,27 +2010,6 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
   VEC_free (tree, heap, new_ivs);
 }
 
-/* Returns true when the vector V is lexicographically positive, in
-   other words, when the first nonzero element is positive.  */
-
-static bool
-lambda_vector_lexico_pos (lambda_vector v, 
-                         unsigned n)
-{
-  unsigned i;
-  for (i = 0; i < n; i++)
-    {
-      if (v[i] == 0)
-       continue;
-      if (v[i] < 0)
-       return false;
-      if (v[i] > 0)
-       return true;
-    }
-  return true;
-}
-
-
 /* Return TRUE if this is not interesting statement from the perspective of
    determining if we have a perfect loop nest.  */
 
@@ -2069,16 +2043,11 @@ phi_loop_edge_uses_def (struct loop *loop, tree phi, tree def)
 static bool
 stmt_uses_phi_result (tree stmt, tree phi_result)
 {
-  use_optype uses = STMT_USE_OPS (stmt);
+  tree use = SINGLE_SSA_TREE_OPERAND (stmt, SSA_OP_USE);
   
   /* This is conservatively true, because we only want SIMPLE bumpers
      of the form x +- constant for our pass.  */
-  if (NUM_USES (uses) != 1)
-    return false;
-  if (USE_OP (uses, 0) == phi_result)
-    return true;
-  
-  return false;
+  return (use == phi_result);
 }
 
 /* STMT is a bumper stmt for LOOP if the version it defines is used in the
@@ -2092,13 +2061,13 @@ stmt_is_bumper_for_loop (struct loop *loop, tree stmt)
 {
   tree use;
   tree def;
-  def_optype defs = STMT_DEF_OPS (stmt);
   imm_use_iterator iter;
   use_operand_p use_p;
   
-  if (NUM_DEFS (defs) != 1)
+  def = SINGLE_SSA_TREE_OPERAND (stmt, SSA_OP_DEF);
+  if (!def)
     return false;
-  def = DEF_OP (defs, 0);
+
   FOR_EACH_IMM_USE_FAST (use_p, iter, def)
     {
       use = USE_STMT (use_p);
@@ -2174,17 +2143,31 @@ perfect_nest_p (struct loop *loop)
   return true;
 }
 
-/* Replace the USES of tree X in STMT with tree Y */
+/* Replace the USES of X in STMT, or uses with the same step as X  with Y.  */
 
 static void
-replace_uses_of_x_with_y (tree stmt, tree x, tree y)
+replace_uses_equiv_to_x_with_y (struct loop *loop, tree stmt, tree x, 
+                               int xstep, tree y)
 {
-  use_optype uses = STMT_USE_OPS (stmt);
-  size_t i;
-  for (i = 0; i < NUM_USES (uses); i++)
+  ssa_op_iter iter;
+  use_operand_p use_p;
+
+  FOR_EACH_SSA_USE_OPERAND (use_p, stmt, iter, SSA_OP_USE)
     {
-      if (USE_OP (uses, i) == x)
-       SET_USE_OP (uses, i, y);
+      tree use = USE_FROM_PTR (use_p);
+      tree step = NULL_TREE;
+      tree access_fn = NULL_TREE;
+      
+      
+      access_fn = instantiate_parameters
+       (loop, analyze_scalar_evolution (loop, use));
+      if (access_fn != NULL_TREE && access_fn != chrec_dont_know)
+       step = evolution_part_in_loop_num (access_fn, loop->num);
+      if ((step && step != chrec_dont_know 
+          && TREE_CODE (step) == INTEGER_CST
+          && int_cst_value (step) == xstep)
+         || USE_FROM_PTR (use_p) == x)
+       SET_USE (use_p, y);
     }
 }
 
@@ -2193,16 +2176,67 @@ replace_uses_of_x_with_y (tree stmt, tree x, tree y)
 static bool
 stmt_uses_op (tree stmt, tree op)
 {
-  use_optype uses = STMT_USE_OPS (stmt);
-  size_t i;
-  for (i = 0; i < NUM_USES (uses); i++)
+  ssa_op_iter iter;
+  tree use;
+
+  FOR_EACH_SSA_TREE_OPERAND (use, stmt, iter, SSA_OP_USE)
     {
-      if (USE_OP (uses, i) == op)
+      if (use == op)
        return true;
     }
   return false;
 }
 
+/* Return true if STMT is an exit PHI for LOOP */
+
+static bool
+exit_phi_for_loop_p (struct loop *loop, tree stmt)
+{
+  
+  if (TREE_CODE (stmt) != PHI_NODE
+      || PHI_NUM_ARGS (stmt) != 1
+      || bb_for_stmt (stmt) != loop->single_exit->dest)
+    return false;
+  
+  return true;
+}
+
+/* Return true if STMT can be put back into INNER, a loop by moving it to the 
+   beginning of that loop.  */
+
+static bool
+can_put_in_inner_loop (struct loop *inner, tree stmt)
+{
+  imm_use_iterator imm_iter;
+  use_operand_p use_p;
+  basic_block use_bb = NULL;
+  
+  gcc_assert (TREE_CODE (stmt) == MODIFY_EXPR);
+  if (!ZERO_SSA_OPERANDS (stmt, SSA_OP_ALL_VIRTUALS)
+      || !expr_invariant_in_loop_p (inner, TREE_OPERAND (stmt, 1)))
+    return false;
+  
+  /* We require that the basic block of all uses be the same, or the use be an
+     exit phi.  */
+  FOR_EACH_IMM_USE_FAST (use_p, imm_iter, TREE_OPERAND (stmt, 0))
+    {
+      if (!exit_phi_for_loop_p (inner, USE_STMT (use_p)))
+       {
+         basic_block immbb = bb_for_stmt (USE_STMT (use_p));
+
+         if (!flow_bb_inside_loop_p (inner, immbb))
+           return false;
+         if (use_bb == NULL)
+           use_bb = immbb;
+         else if (immbb != use_bb)
+           return false;
+       }
+    }
+  return true;
+  
+}
+
+
 /* Return TRUE if LOOP is an imperfect nest that we can convert to a perfect
    one.  LOOPIVS is a vector of induction variables, one per loop.  
    ATM, we only handle imperfect nests of depth 2, where all of the statements
@@ -2222,8 +2256,6 @@ can_convert_to_perfect_nest (struct loop *loop,
   if (!loop->inner || loop->inner->inner)
     return false;
   
-  /* We only handle moving the after-inner-body statements right now, so make
-     sure all the statements we need to move are located in that position.  */
   bbs = get_loop_body (loop);
   exit_condition = get_loop_exit_condition (loop);
   for (i = 0; i < loop->num_nodes; i++)
@@ -2245,8 +2277,24 @@ can_convert_to_perfect_nest (struct loop *loop,
                if (stmt_uses_op (stmt, iv))
                  goto fail;
              
-             /* If the bb of a statement we care about isn't dominated by 
-                the header of the inner loop, then we are also screwed.  */
+             /* If this is a simple operation like a cast that is invariant
+                in the inner loop, only used there, and we can place it
+                there, then it's not going to hurt us.
+                This means that we will propagate casts and other cheap
+                invariant operations *back*
+                into the inner loop if we can interchange the loop, on the
+                theory that we are going to gain a lot more by interchanging
+                the loop than we are by leaving some invariant code there for
+                some other pass to clean up.  */
+             if (TREE_CODE (stmt) == MODIFY_EXPR
+                 && is_gimple_cast (TREE_OPERAND (stmt, 1))
+                 && can_put_in_inner_loop (loop->inner, stmt))
+               continue;
+
+             /* Otherwise, if the bb of a statement we care about isn't
+                dominated by the header of the inner loop, then we can't
+                handle this case right now.  This test ensures that the
+                statement comes completely *after* the inner loop.  */
              if (!dominated_by_p (CDI_DOMINATORS,
                                   bb_for_stmt (stmt), 
                                   loop->inner->header))
@@ -2308,6 +2356,7 @@ can_convert_to_perfect_nest (struct loop *loop,
    }
 
    Return FALSE if we can't make this loop into a perfect nest.  */
+
 static bool
 perfect_nestify (struct loops *loops,
                 struct loop *loop,
@@ -2320,7 +2369,7 @@ perfect_nestify (struct loops *loops,
   tree exit_condition;
   tree then_label, else_label, cond_stmt;
   basic_block preheaderbb, headerbb, bodybb, latchbb, olddest;
-  size_t i;
+  int i;
   block_stmt_iterator bsi;
   bool insert_after;
   edge e;
@@ -2401,11 +2450,12 @@ perfect_nestify (struct loops *loops,
   set_immediate_dominator (CDI_DOMINATORS, latchbb, bodybb);
   set_immediate_dominator (CDI_DOMINATORS, olddest, bodybb);
   /* Create the new iv.  */
-  ivvar = create_tmp_var (integer_type_node, "perfectiv");
+  oldivvar = VEC_index (tree, loopivs, 0);
+  ivvar = create_tmp_var (TREE_TYPE (oldivvar), "perfectiv");
   add_referenced_tmp_var (ivvar);
   standard_iv_increment_position (newloop, &bsi, &insert_after);
   create_iv (VEC_index (tree, lbounds, 0),
-            build_int_cst (integer_type_node, VEC_index (int, steps, 0)),
+            build_int_cst (TREE_TYPE (oldivvar), VEC_index (int, steps, 0)),
             ivvar, newloop, &bsi, insert_after, &ivvar, &ivvarinced);       
 
   /* Create the new upper bound.  This may be not just a variable, so we copy
@@ -2423,46 +2473,99 @@ perfect_nestify (struct loops *loops,
     bsi_insert_after (&bsi, stmt, BSI_SAME_STMT);
   else
     bsi_insert_before (&bsi, stmt, BSI_SAME_STMT);
-
+  update_stmt (stmt);
   COND_EXPR_COND (exit_condition) = build (GE_EXPR, 
                                           boolean_type_node,
                                           uboundvar,
                                           ivvarinced);
-
-  bbs = get_loop_body (loop); 
-  /* Now replace the induction variable in the moved statements with the
-     correct loop induction variable.  */
+  update_stmt (exit_condition);
+  bbs = get_loop_body_in_dom_order (loop); 
+  /* Now move the statements, and replace the induction variable in the moved
+     statements with the correct loop induction variable.  */
   oldivvar = VEC_index (tree, loopivs, 0);
-  for (i = 0; i < loop->num_nodes; i++)
+  for (i = loop->num_nodes - 1; i >= 0 ; i--)
     {
       block_stmt_iterator tobsi = bsi_last (bodybb);
       if (bbs[i]->loop_father == loop)
        {
-         /* Note that the bsi only needs to be explicitly incremented
-            when we don't move something, since it is automatically
-            incremented when we do.  */
-         for (bsi = bsi_start (bbs[i]); !bsi_end_p (bsi);)
-           { 
-             ssa_op_iter i;
-             tree n, stmt = bsi_stmt (bsi);
+         /* If this is true, we are *before* the inner loop.
+            If this isn't true, we are *after* it.
 
-             if (stmt == exit_condition
-                 || not_interesting_stmt (stmt)
-                 || stmt_is_bumper_for_loop (loop, stmt))
-               {
-                 bsi_next (&bsi);
-                 continue;
-               }
+            The only time can_convert_to_perfect_nest returns true when we
+            have statements before the inner loop is if they can be moved
+            into the inner loop. 
 
-             replace_uses_of_x_with_y (stmt, oldivvar, ivvar);
-             bsi_move_before (&bsi, &tobsi);
+            The only time can_convert_to_perfect_nest returns true when we
+            have statements after the inner loop is if they can be moved into
+            the new split loop.  */
 
-             /* If the statement has any virtual operands, they may
-                need to be rewired because the original loop may
-                still reference them.  */
-             FOR_EACH_SSA_TREE_OPERAND (n, stmt, i, SSA_OP_ALL_VIRTUALS)
-               mark_sym_for_renaming (SSA_NAME_VAR (n));
+         if (dominated_by_p (CDI_DOMINATORS, loop->inner->header, bbs[i]))
+           {
+             for (bsi = bsi_last (bbs[i]); !bsi_end_p (bsi);)
+               { 
+                 use_operand_p use_p;
+                 imm_use_iterator imm_iter;
+                 tree stmt = bsi_stmt (bsi);
+
+                 if (stmt == exit_condition
+                     || not_interesting_stmt (stmt)
+                     || stmt_is_bumper_for_loop (loop, stmt))
+                   {
+                     if (!bsi_end_p (bsi))
+                       bsi_prev (&bsi);
+                     continue;
+                   }
+                 /* Move this statement back into the inner loop.
+                    This looks a bit confusing, but we are really just
+                    finding the first non-exit phi use and moving the
+                    statement to the beginning of that use's basic
+                    block.  */
+                 FOR_EACH_IMM_USE_SAFE (use_p, imm_iter, 
+                                        TREE_OPERAND (stmt, 0))
+                   {
+                     tree imm_stmt = USE_STMT (use_p);
+                     if (!exit_phi_for_loop_p (loop->inner, imm_stmt))
+                       {
+                         block_stmt_iterator tobsi = bsi_after_labels (bb_for_stmt (imm_stmt));
+                         bsi_move_after (&bsi, &tobsi);
+                         update_stmt (stmt);
+                         BREAK_FROM_SAFE_IMM_USE (imm_iter);
+                       } 
+                   }
+               }
            }
+         else
+           { 
+             /* Note that the bsi only needs to be explicitly incremented
+                when we don't move something, since it is automatically
+                incremented when we do.  */
+             for (bsi = bsi_start (bbs[i]); !bsi_end_p (bsi);)
+               { 
+                 ssa_op_iter i;
+                 tree n, stmt = bsi_stmt (bsi);
+                 
+                 if (stmt == exit_condition
+                     || not_interesting_stmt (stmt)
+                     || stmt_is_bumper_for_loop (loop, stmt))
+                   {
+                     bsi_next (&bsi);
+                     continue;
+                   }
+                 
+                 replace_uses_equiv_to_x_with_y (loop, stmt, 
+                                                 oldivvar,  
+                                                 VEC_index (int, steps, 0),
+                                                 ivvar);
+                 bsi_move_before (&bsi, &tobsi);
+                 
+                 /* If the statement has any virtual operands, they may
+                    need to be rewired because the original loop may
+                    still reference them.  */
+                 FOR_EACH_SSA_TREE_OPERAND (n, stmt, i, SSA_OP_ALL_VIRTUALS)
+                   mark_sym_for_renaming (SSA_NAME_VAR (n));
+               }
+           }
+         
        }
     }