OSDN Git Service

* c-pretty-print.c (pp_c_specifier_qualifier_list) [VECTOR_TYPE]:
[pf3gnuchains/gcc-fork.git] / gcc / lambda-code.c
index 40c6175..50f7d47 100644 (file)
@@ -1,23 +1,23 @@
 /*  Loop transformation code generation
-    Copyright (C) 2003, 2004, 2005, 2006, 2007 Free Software Foundation, Inc.
+    Copyright (C) 2003, 2004, 2005, 2006, 2007, 2008, 2009
+    Free Software Foundation, Inc.
     Contributed by Daniel Berlin <dberlin@dberlin.org>
 
     This file is part of GCC.
-    
+
     GCC is free software; you can redistribute it and/or modify it under
     the terms of the GNU General Public License as published by the Free
-    Software Foundation; either version 2, or (at your option) any later
+    Software Foundation; either version 3, or (at your option) any later
     version.
-    
+
     GCC is distributed in the hope that it will be useful, but WITHOUT ANY
     WARRANTY; without even the implied warranty of MERCHANTABILITY or
     FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
     for more details.
-    
+
     You should have received a copy of the GNU General Public License
-    along with GCC; see the file COPYING.  If not, write to the Free
-    Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
-    02110-1301, USA.  */
+    along with GCC; see the file COPYING3.  If not see
+    <http://www.gnu.org/licenses/>.  */
 
 #include "config.h"
 #include "system.h"
@@ -29,6 +29,7 @@
 #include "rtl.h"
 #include "basic-block.h"
 #include "diagnostic.h"
+#include "obstack.h"
 #include "tree-flow.h"
 #include "tree-dump.h"
 #include "timevar.h"
 #include "vec.h"
 #include "lambda.h"
 #include "vecprim.h"
+#include "pointer-set.h"
 
 /* This loop nest code generation is based on non-singular matrix
    math.
+
  A little terminology and a general sketch of the algorithm.  See "A singular
  loop transformation framework based on non-singular matrices" by Wei Li and
  Keshav Pingali for formal proofs that the various statements below are
- correct. 
+ correct.
 
  A loop iteration space represents the points traversed by the loop.  A point in the
  iteration space can be represented by a vector of size <loop depth>.  You can
  therefore represent the iteration space as an integral combinations of a set
- of basis vectors. 
+ of basis vectors.
 
  A loop iteration space is dense if every integer point between the loop
  bounds is a point in the iteration space.  Every loop with a step of 1
  therefore has a dense iteration space.
 
  for i = 1 to 3, step 1 is a dense iteration space.
-   
+
  A loop iteration space is sparse if it is not dense.  That is, the iteration
- space skips integer points that are within the loop bounds.  
+ space skips integer points that are within the loop bounds.
 
  for i = 1 to 3, step 2 is a sparse iteration space, because the integer point
  2 is skipped.
  space using min/max and floor/ceil.
 
  For a dense source space, we take the transformation matrix, decompose it
- into a lower triangular part (H) and a unimodular part (U). 
+ into a lower triangular part (H) and a unimodular part (U).
  We then compute the auxiliary space from the unimodular part (source loop
  nest . U = auxiliary space) , which has two important properties:
   1. It traverses the iterations in the same lexicographic order as the source
   space.
   2. It is a dense space when the source is a dense space (even if the target
   space is going to be sparse).
+
  Given the auxiliary space, we use the lower triangular part to compute the
  bounds in the target space by simple matrix multiplication.
  The gaps in the target space (IE the new loop step sizes) will be the
  are closed under composition, this is okay).  We can then use the base space
  (which is dense) plus the composed transformation matrix, to compute the rest
  of the transform using the dense space algorithm above.
+
  In other words, our sparse source space (B) is decomposed into a dense base
  space (A), and a matrix (L) that transforms A into B, such that A.L = B.
  We then compute the composition of L and the user transformation matrix (T),
  so that T is now a transform from A to the result, instead of from B to the
- result. 
+ result.
  IE A.(LT) = result instead of B.T = result
  Since A is now a dense source space, we can use the dense source space
  algorithm above to compute the result of applying transform (LT) to A.
  Fourier-Motzkin elimination is used to compute the bounds of the base space
  of the lattice.  */
 
-static bool perfect_nestify (struct loop *, VEC(tree,heap) *, 
+static bool perfect_nestify (struct loop *, VEC(tree,heap) *,
                             VEC(tree,heap) *, VEC(int,heap) *,
                             VEC(tree,heap) *);
 /* Lattice stuff that is internal to the code generation algorithm.  */
@@ -142,20 +144,20 @@ typedef struct lambda_lattice_s
 
 static bool lle_equal (lambda_linear_expression, lambda_linear_expression,
                       int, int);
-static lambda_lattice lambda_lattice_new (int, int);
-static lambda_lattice lambda_lattice_compute_base (lambda_loopnest);
+static lambda_lattice lambda_lattice_new (int, int, struct obstack *);
+static lambda_lattice lambda_lattice_compute_base (lambda_loopnest,
+                                                   struct obstack *);
 
-static tree find_induction_var_from_exit_cond (struct loop *);
 static bool can_convert_to_perfect_nest (struct loop *);
 
 /* Create a new lambda body vector.  */
 
 lambda_body_vector
-lambda_body_vector_new (int size)
+lambda_body_vector_new (int size, struct obstack * lambda_obstack)
 {
   lambda_body_vector ret;
 
-  ret = GGC_NEW (struct lambda_body_vector_s);
+  ret = (lambda_body_vector)obstack_alloc (lambda_obstack, sizeof (*ret));
   LBV_COEFFICIENTS (ret) = lambda_vector_new (size);
   LBV_SIZE (ret) = size;
   LBV_DENOMINATOR (ret) = 1;
@@ -167,7 +169,8 @@ lambda_body_vector_new (int size)
 
 lambda_body_vector
 lambda_body_vector_compute_new (lambda_trans_matrix transform,
-                               lambda_body_vector vect)
+                                lambda_body_vector vect,
+                                struct obstack * lambda_obstack)
 {
   lambda_body_vector temp;
   int depth;
@@ -177,7 +180,7 @@ lambda_body_vector_compute_new (lambda_trans_matrix transform,
 
   depth = LTM_ROWSIZE (transform);
 
-  temp = lambda_body_vector_new (depth);
+  temp = lambda_body_vector_new (depth, lambda_obstack);
   LBV_DENOMINATOR (temp) =
     LBV_DENOMINATOR (vect) * LTM_DENOMINATOR (transform);
   lambda_vector_matrix_mult (LBV_COEFFICIENTS (vect), depth,
@@ -223,12 +226,13 @@ lle_equal (lambda_linear_expression lle1, lambda_linear_expression lle2,
    of invariants INVARIANTS.  */
 
 lambda_linear_expression
-lambda_linear_expression_new (int dim, int invariants)
+lambda_linear_expression_new (int dim, int invariants,
+                              struct obstack * lambda_obstack)
 {
   lambda_linear_expression ret;
 
-  ret = GGC_CNEW (struct lambda_linear_expression_s);
-
+  ret = (lambda_linear_expression)obstack_alloc (lambda_obstack,
+                                                 sizeof (*ret));
   LLE_COEFFICIENTS (ret) = lambda_vector_new (dim);
   LLE_CONSTANT (ret) = 0;
   LLE_INVARIANT_COEFFICIENTS (ret) = lambda_vector_new (invariants);
@@ -289,7 +293,7 @@ print_lambda_linear_expression (FILE * outfile,
 }
 
 /* Print a lambda loop structure LOOP to OUTFILE.  The depth/number of
-   coefficients is given by DEPTH, the number of invariants is 
+   coefficients is given by DEPTH, the number of invariants is
    given by INVARIANTS, and the character to start variable names with is given
    by START.  */
 
@@ -325,12 +329,14 @@ print_lambda_loop (FILE * outfile, lambda_loop loop, int depth,
    number of invariants.  */
 
 lambda_loopnest
-lambda_loopnest_new (int depth, int invariants)
+lambda_loopnest_new (int depth, int invariants,
+                     struct obstack * lambda_obstack)
 {
   lambda_loopnest ret;
-  ret = GGC_NEW (struct lambda_loopnest_s);
+  ret = (lambda_loopnest)obstack_alloc (lambda_obstack, sizeof (*ret));
 
-  LN_LOOPS (ret) = GGC_CNEWVEC (lambda_loop, depth);
+  LN_LOOPS (ret) = (lambda_loop *)
+      obstack_alloc (lambda_obstack, depth * sizeof(LN_LOOPS(ret)));
   LN_DEPTH (ret) = depth;
   LN_INVARIANTS (ret) = invariants;
 
@@ -357,10 +363,10 @@ print_lambda_loopnest (FILE * outfile, lambda_loopnest nest, char start)
    of invariants.  */
 
 static lambda_lattice
-lambda_lattice_new (int depth, int invariants)
+lambda_lattice_new (int depth, int invariants, struct obstack * lambda_obstack)
 {
-  lambda_lattice ret;
-  ret = GGC_NEW (struct lambda_lattice_s);
+  lambda_lattice ret
+      = (lambda_lattice)obstack_alloc (lambda_obstack, sizeof (*ret));
   LATTICE_BASE (ret) = lambda_matrix_new (depth, depth);
   LATTICE_ORIGIN (ret) = lambda_vector_new (depth);
   LATTICE_ORIGIN_INVARIANTS (ret) = lambda_matrix_new (depth, invariants);
@@ -377,7 +383,8 @@ lambda_lattice_new (int depth, int invariants)
    identity matrix) if NEST is a sparse space.  */
 
 static lambda_lattice
-lambda_lattice_compute_base (lambda_loopnest nest)
+lambda_lattice_compute_base (lambda_loopnest nest,
+                             struct obstack * lambda_obstack)
 {
   lambda_lattice ret;
   int depth, invariants;
@@ -390,7 +397,7 @@ lambda_lattice_compute_base (lambda_loopnest nest)
   depth = LN_DEPTH (nest);
   invariants = LN_INVARIANTS (nest);
 
-  ret = lambda_lattice_new (depth, invariants);
+  ret = lambda_lattice_new (depth, invariants, lambda_obstack);
   base = LATTICE_BASE (ret);
   for (i = 0; i < depth; i++)
     {
@@ -413,7 +420,7 @@ lambda_lattice_compute_base (lambda_loopnest nest)
          /* Otherwise, we need the lower bound expression (which must
             be an affine function)  to determine the base.  */
          expression = LL_LOWER_BOUND (loop);
-         gcc_assert (expression && !LLE_NEXT (expression) 
+         gcc_assert (expression && !LLE_NEXT (expression)
                      && LLE_DENOMINATOR (expression) == 1);
 
          /* The lower triangular portion of the base is going to be the
@@ -460,27 +467,28 @@ least_common_multiple (int a, int b)
    rewriting these as a <= b, x >= constant, and delete the x variable.
    You can then repeat this for any remaining x variables, and then we have
    an easy to use variable <= constant (or no variables at all) form that we
-   can construct our bounds from. 
-   
+   can construct our bounds from.
+
    In our case, each time we eliminate, we construct part of the bound from
-   the ith variable, then delete the ith variable. 
-   
+   the ith variable, then delete the ith variable.
+
    Remember the constant are in our vector a, our coefficient matrix is A,
    and our invariant coefficient matrix is B.
-   
+
    SIZE is the size of the matrices being passed.
    DEPTH is the loop nest depth.
    INVARIANTS is the number of loop invariants.
    A, B, and a are the coefficient matrix, invariant coefficient, and a
    vector of constants, respectively.  */
 
-static lambda_loopnest 
+static lambda_loopnest
 compute_nest_using_fourier_motzkin (int size,
-                                   int depth, 
+                                   int depth,
                                    int invariants,
                                    lambda_matrix A,
                                    lambda_matrix B,
-                                   lambda_vector a)
+                                    lambda_vector a,
+                                    struct obstack * lambda_obstack)
 {
 
   int multiple, f1, f2;
@@ -496,7 +504,7 @@ compute_nest_using_fourier_motzkin (int size,
   B1 = lambda_matrix_new (128, invariants);
   a1 = lambda_vector_new (128);
 
-  auxillary_nest = lambda_loopnest_new (depth, invariants);
+  auxillary_nest = lambda_loopnest_new (depth, invariants, lambda_obstack);
 
   for (i = depth - 1; i >= 0; i--)
     {
@@ -509,8 +517,9 @@ compute_nest_using_fourier_motzkin (int size,
          if (A[j][i] < 0)
            {
              /* Any linear expression in the matrix with a coefficient less
-                than 0 becomes part of the new lower bound.  */ 
-             expression = lambda_linear_expression_new (depth, invariants);
+                than 0 becomes part of the new lower bound.  */
+              expression = lambda_linear_expression_new (depth, invariants,
+                                                         lambda_obstack);
 
              for (k = 0; k < i; k++)
                LLE_COEFFICIENTS (expression)[k] = A[j][k];
@@ -533,8 +542,9 @@ compute_nest_using_fourier_motzkin (int size,
          else if (A[j][i] > 0)
            {
              /* Any linear expression with a coefficient greater than 0
-                becomes part of the new upper bound.  */ 
-             expression = lambda_linear_expression_new (depth, invariants);
+                becomes part of the new upper bound.  */
+              expression = lambda_linear_expression_new (depth, invariants,
+                                                         lambda_obstack);
              for (k = 0; k < i; k++)
                LLE_COEFFICIENTS (expression)[k] = -1 * A[j][k];
 
@@ -610,14 +620,14 @@ compute_nest_using_fourier_motzkin (int size,
 }
 
 /* Compute the loop bounds for the auxiliary space NEST.
-   Input system used is Ax <= b.  TRANS is the unimodular transformation.  
-   Given the original nest, this function will 
+   Input system used is Ax <= b.  TRANS is the unimodular transformation.
+   Given the original nest, this function will
    1. Convert the nest into matrix form, which consists of a matrix for the
-   coefficients, a matrix for the 
-   invariant coefficients, and a vector for the constants.  
+   coefficients, a matrix for the
+   invariant coefficients, and a vector for the constants.
    2. Use the matrix form to calculate the lattice base for the nest (which is
-   a dense space) 
-   3. Compose the dense space transform with the user specified transform, to 
+   a dense space)
+   3. Compose the dense space transform with the user specified transform, to
    get a transform we can easily calculate transformed bounds for.
    4. Multiply the composed transformation matrix times the matrix form of the
    loop.
@@ -626,7 +636,8 @@ compute_nest_using_fourier_motzkin (int size,
 
 static lambda_loopnest
 lambda_compute_auxillary_space (lambda_loopnest nest,
-                               lambda_trans_matrix trans)
+                                lambda_trans_matrix trans,
+                                struct obstack * lambda_obstack)
 {
   lambda_matrix A, B, A1, B1;
   lambda_vector a, a1;
@@ -689,7 +700,7 @@ lambda_compute_auxillary_space (lambda_loopnest nest,
          size++;
          /* Need to increase matrix sizes above.  */
          gcc_assert (size <= 127);
-         
+
        }
 
       /* Then do the exact same thing for the upper bounds.  */
@@ -724,7 +735,7 @@ lambda_compute_auxillary_space (lambda_loopnest nest,
 
   /* Compute the lattice base x = base * y + origin, where y is the
      base space.  */
-  lattice = lambda_lattice_compute_base (nest);
+  lattice = lambda_lattice_compute_base (nest, lambda_obstack);
 
   /* Ax <= a + B then becomes ALy <= a+B - A*origin.  L is the lattice base  */
 
@@ -753,11 +764,11 @@ lambda_compute_auxillary_space (lambda_loopnest nest,
   lambda_matrix_mult (A1, invertedtrans, A, size, depth, depth);
 
   return compute_nest_using_fourier_motzkin (size, depth, invariants,
-                                            A, B1, a1);
+                                             A, B1, a1, lambda_obstack);
 }
 
 /* Compute the loop bounds for the target space, using the bounds of
-   the auxiliary nest AUXILLARY_NEST, and the triangular matrix H.  
+   the auxiliary nest AUXILLARY_NEST, and the triangular matrix H.
    The target space loop bounds are computed by multiplying the triangular
    matrix H by the auxiliary nest, to get the new loop bounds.  The sign of
    the loop steps (positive or negative) is then used to swap the bounds if
@@ -766,7 +777,8 @@ lambda_compute_auxillary_space (lambda_loopnest nest,
 
 static lambda_loopnest
 lambda_compute_target_space (lambda_loopnest auxillary_nest,
-                            lambda_trans_matrix H, lambda_vector stepsigns)
+                             lambda_trans_matrix H, lambda_vector stepsigns,
+                             struct obstack * lambda_obstack)
 {
   lambda_matrix inverse, H1;
   int determinant, i, j;
@@ -797,7 +809,7 @@ lambda_compute_target_space (lambda_loopnest auxillary_nest,
   target = lambda_matrix_new (depth, depth);
   lambda_matrix_mult (H1, inverse, target, depth, depth, depth);
 
-  target_nest = lambda_loopnest_new (depth, invariants);
+  target_nest = lambda_loopnest_new (depth, invariants, lambda_obstack);
 
   for (i = 0; i < depth; i++)
     {
@@ -816,7 +828,8 @@ lambda_compute_target_space (lambda_loopnest auxillary_nest,
       for (j = 0; j < i; j++)
        target[i][j] = target[i][j] / gcd1;
 
-      expression = lambda_linear_expression_new (depth, invariants);
+      expression = lambda_linear_expression_new (depth, invariants,
+                                                 lambda_obstack);
       lambda_vector_copy (target[i], LLE_COEFFICIENTS (expression), depth);
       LLE_DENOMINATOR (expression) = determinant / gcd1;
       LLE_CONSTANT (expression) = 0;
@@ -839,7 +852,8 @@ lambda_compute_target_space (lambda_loopnest auxillary_nest,
       for (; auxillary_expr != NULL;
           auxillary_expr = LLE_NEXT (auxillary_expr))
        {
-         target_expr = lambda_linear_expression_new (depth, invariants);
+          target_expr = lambda_linear_expression_new (depth, invariants,
+                                                      lambda_obstack);
          lambda_vector_matrix_mult (LLE_COEFFICIENTS (auxillary_expr),
                                     depth, inverse, depth,
                                     LLE_COEFFICIENTS (target_expr));
@@ -896,7 +910,8 @@ lambda_compute_target_space (lambda_loopnest auxillary_nest,
       for (; auxillary_expr != NULL;
           auxillary_expr = LLE_NEXT (auxillary_expr))
        {
-         target_expr = lambda_linear_expression_new (depth, invariants);
+          target_expr = lambda_linear_expression_new (depth, invariants,
+                                                      lambda_obstack);
          lambda_vector_matrix_mult (LLE_COEFFICIENTS (auxillary_expr),
                                     depth, inverse, depth,
                                     LLE_COEFFICIENTS (target_expr));
@@ -1015,13 +1030,14 @@ lambda_compute_step_signs (lambda_trans_matrix trans, lambda_vector stepsigns)
    1. Computing a lattice base for the transformation
    2. Composing the dense base with the specified transformation (TRANS)
    3. Decomposing the combined transformation into a lower triangular portion,
-   and a unimodular portion. 
+   and a unimodular portion.
    4. Computing the auxiliary nest using the unimodular portion.
    5. Computing the target nest using the auxiliary nest and the lower
-   triangular portion.  */ 
+   triangular portion.  */
 
 lambda_loopnest
-lambda_loopnest_transform (lambda_loopnest nest, lambda_trans_matrix trans)
+lambda_loopnest_transform (lambda_loopnest nest, lambda_trans_matrix trans,
+                           struct obstack * lambda_obstack)
 {
   lambda_loopnest auxillary_nest, target_nest;
 
@@ -1050,7 +1066,7 @@ lambda_loopnest_transform (lambda_loopnest nest, lambda_trans_matrix trans)
     }
 
   /* Compute the lattice base.  */
-  lattice = lambda_lattice_compute_base (nest);
+  lattice = lambda_lattice_compute_base (nest, lambda_obstack);
   trans1 = lambda_trans_matrix_new (depth, depth);
 
   /* Multiply the transformation matrix by the lattice base.  */
@@ -1066,7 +1082,7 @@ lambda_loopnest_transform (lambda_loopnest nest, lambda_trans_matrix trans)
 
   /* Compute the auxiliary loop nest's space from the unimodular
      portion.  */
-  auxillary_nest = lambda_compute_auxillary_space (nest, U);
+  auxillary_nest = lambda_compute_auxillary_space (nest, U, lambda_obstack);
 
   /* Compute the loop step signs from the old step signs and the
      transformation matrix.  */
@@ -1074,7 +1090,8 @@ lambda_loopnest_transform (lambda_loopnest nest, lambda_trans_matrix trans)
 
   /* Compute the target loop nest space from the auxiliary nest and
      the lower triangular matrix H.  */
-  target_nest = lambda_compute_target_space (auxillary_nest, H, stepsigns);
+  target_nest = lambda_compute_target_space (auxillary_nest, H, stepsigns,
+                                             lambda_obstack);
   origin = lambda_vector_new (depth);
   origin_invariants = lambda_matrix_new (depth, invariants);
   lambda_matrix_vector_mult (LTM_MATRIX (trans), depth, depth,
@@ -1112,14 +1129,15 @@ lambda_loopnest_transform (lambda_loopnest nest, lambda_trans_matrix trans)
 static lambda_linear_expression
 gcc_tree_to_linear_expression (int depth, tree expr,
                               VEC(tree,heap) *outerinductionvars,
-                              VEC(tree,heap) *invariants, int extra)
+                               VEC(tree,heap) *invariants, int extra,
+                               struct obstack * lambda_obstack)
 {
   lambda_linear_expression lle = NULL;
   switch (TREE_CODE (expr))
     {
     case INTEGER_CST:
       {
-       lle = lambda_linear_expression_new (depth, 2 * depth);
+        lle = lambda_linear_expression_new (depth, 2 * depth, lambda_obstack);
        LLE_CONSTANT (lle) = TREE_INT_CST_LOW (expr);
        if (extra != 0)
          LLE_CONSTANT (lle) += extra;
@@ -1136,7 +1154,8 @@ gcc_tree_to_linear_expression (int depth, tree expr,
            {
              if (SSA_NAME_VAR (iv) == SSA_NAME_VAR (expr))
                {
-                 lle = lambda_linear_expression_new (depth, 2 * depth);
+                  lle = lambda_linear_expression_new (depth, 2 * depth,
+                                                      lambda_obstack);
                  LLE_COEFFICIENTS (lle)[i] = 1;
                  if (extra != 0)
                    LLE_CONSTANT (lle) = extra;
@@ -1149,7 +1168,8 @@ gcc_tree_to_linear_expression (int depth, tree expr,
            {
              if (SSA_NAME_VAR (invar) == SSA_NAME_VAR (expr))
                {
-                 lle = lambda_linear_expression_new (depth, 2 * depth);
+                  lle = lambda_linear_expression_new (depth, 2 * depth,
+                                                      lambda_obstack);
                  LLE_INVARIANT_COEFFICIENTS (lle)[i] = 1;
                  if (extra != 0)
                    LLE_CONSTANT (lle) = extra;
@@ -1167,7 +1187,7 @@ gcc_tree_to_linear_expression (int depth, tree expr,
 
 /* Return the depth of the loopnest NEST */
 
-static int 
+static int
 depth_of_nest (struct loop *nest)
 {
   size_t depth = 0;
@@ -1211,15 +1231,16 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
                         VEC(tree,heap) * outerinductionvars,
                         VEC(tree,heap) ** lboundvars,
                         VEC(tree,heap) ** uboundvars,
-                        VEC(int,heap) ** steps)
+                        VEC(int,heap) ** steps,
+                         struct obstack * lambda_obstack)
 {
-  tree phi;
-  tree exit_cond;
+  gimple phi;
+  gimple exit_cond;
   tree access_fn, inductionvar;
   tree step;
   lambda_loop lloop = NULL;
   lambda_linear_expression lbound, ubound;
-  tree test;
+  tree test_lhs, test_rhs;
   int stepint;
   int extra = 0;
   tree lboundvar, uboundvar, uboundresult;
@@ -1236,9 +1257,7 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
       return NULL;
     }
 
-  test = TREE_OPERAND (exit_cond, 0);
-
-  if (SSA_NAME_DEF_STMT (inductionvar) == NULL_TREE)
+  if (SSA_NAME_DEF_STMT (inductionvar) == NULL)
     {
 
       if (dump_file && (dump_flags & TDF_DETAILS))
@@ -1249,10 +1268,10 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
     }
 
   phi = SSA_NAME_DEF_STMT (inductionvar);
-  if (TREE_CODE (phi) != PHI_NODE)
+  if (gimple_code (phi) != GIMPLE_PHI)
     {
-      phi = SINGLE_SSA_TREE_OPERAND (phi, SSA_OP_USE);
-      if (!phi)
+      tree op = SINGLE_SSA_TREE_OPERAND (phi, SSA_OP_USE);
+      if (!op)
        {
 
          if (dump_file && (dump_flags & TDF_DETAILS))
@@ -1262,16 +1281,14 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
          return NULL;
        }
 
-      phi = SSA_NAME_DEF_STMT (phi);
-      if (TREE_CODE (phi) != PHI_NODE)
+      phi = SSA_NAME_DEF_STMT (op);
+      if (gimple_code (phi) != GIMPLE_PHI)
        {
-
          if (dump_file && (dump_flags & TDF_DETAILS))
            fprintf (dump_file,
                     "Unable to convert loop: Cannot find PHI node for induction variable\n");
          return NULL;
        }
-
     }
 
   /* The induction variable name/version we want to put in the array is the
@@ -1310,7 +1327,7 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
 
   /* Only want phis for induction vars, which will have two
      arguments.  */
-  if (PHI_NUM_ARGS (phi) != 2)
+  if (gimple_phi_num_args (phi) != 2)
     {
       if (dump_file && (dump_flags & TDF_DETAILS))
        fprintf (dump_file,
@@ -1320,8 +1337,8 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
 
   /* Another induction variable check. One argument's source should be
      in the loop, one outside the loop.  */
-  if (flow_bb_inside_loop_p (loop, PHI_ARG_EDGE (phi, 0)->src)
-      && flow_bb_inside_loop_p (loop, PHI_ARG_EDGE (phi, 1)->src))
+  if (flow_bb_inside_loop_p (loop, gimple_phi_arg_edge (phi, 0)->src)
+      && flow_bb_inside_loop_p (loop, gimple_phi_arg_edge (phi, 1)->src))
     {
 
       if (dump_file && (dump_flags & TDF_DETAILS))
@@ -1331,21 +1348,21 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
       return NULL;
     }
 
-  if (flow_bb_inside_loop_p (loop, PHI_ARG_EDGE (phi, 0)->src))
+  if (flow_bb_inside_loop_p (loop, gimple_phi_arg_edge (phi, 0)->src))
     {
       lboundvar = PHI_ARG_DEF (phi, 1);
       lbound = gcc_tree_to_linear_expression (depth, lboundvar,
                                              outerinductionvars, *invariants,
-                                             0);
+                                              0, lambda_obstack);
     }
   else
     {
       lboundvar = PHI_ARG_DEF (phi, 0);
       lbound = gcc_tree_to_linear_expression (depth, lboundvar,
                                              outerinductionvars, *invariants,
-                                             0);
+                                              0, lambda_obstack);
     }
-  
+
   if (!lbound)
     {
 
@@ -1357,41 +1374,43 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
     }
   /* One part of the test may be a loop invariant tree.  */
   VEC_reserve (tree, heap, *invariants, 1);
-  if (TREE_CODE (TREE_OPERAND (test, 1)) == SSA_NAME
-      && invariant_in_loop_and_outer_loops (loop, TREE_OPERAND (test, 1)))
-    VEC_quick_push (tree, *invariants, TREE_OPERAND (test, 1));
-  else if (TREE_CODE (TREE_OPERAND (test, 0)) == SSA_NAME
-          && invariant_in_loop_and_outer_loops (loop, TREE_OPERAND (test, 0)))
-    VEC_quick_push (tree, *invariants, TREE_OPERAND (test, 0));
-  
+  test_lhs = gimple_cond_lhs (exit_cond);
+  test_rhs = gimple_cond_rhs (exit_cond);
+
+  if (TREE_CODE (test_rhs) == SSA_NAME
+      && invariant_in_loop_and_outer_loops (loop, test_rhs))
+    VEC_quick_push (tree, *invariants, test_rhs);
+  else if (TREE_CODE (test_lhs) == SSA_NAME
+          && invariant_in_loop_and_outer_loops (loop, test_lhs))
+    VEC_quick_push (tree, *invariants, test_lhs);
+
   /* The non-induction variable part of the test is the upper bound variable.
    */
-  if (TREE_OPERAND (test, 0) == inductionvar)
-    uboundvar = TREE_OPERAND (test, 1);
+  if (test_lhs == inductionvar)
+    uboundvar = test_rhs;
   else
-    uboundvar = TREE_OPERAND (test, 0);
-    
+    uboundvar = test_lhs;
 
   /* We only size the vectors assuming we have, at max, 2 times as many
      invariants as we do loops (one for each bound).
      This is just an arbitrary number, but it has to be matched against the
      code below.  */
   gcc_assert (VEC_length (tree, *invariants) <= (unsigned int) (2 * depth));
-  
+
 
   /* We might have some leftover.  */
-  if (TREE_CODE (test) == LT_EXPR)
+  if (gimple_cond_code (exit_cond) == LT_EXPR)
     extra = -1 * stepint;
-  else if (TREE_CODE (test) == NE_EXPR)
+  else if (gimple_cond_code (exit_cond) == NE_EXPR)
     extra = -1 * stepint;
-  else if (TREE_CODE (test) == GT_EXPR)
+  else if (gimple_cond_code (exit_cond) == GT_EXPR)
     extra = -1 * stepint;
-  else if (TREE_CODE (test) == EQ_EXPR)
+  else if (gimple_cond_code (exit_cond) == EQ_EXPR)
     extra = 1 * stepint;
-  
+
   ubound = gcc_tree_to_linear_expression (depth, uboundvar,
                                          outerinductionvars,
-                                         *invariants, extra);
+                                          *invariants, extra, lambda_obstack);
   uboundresult = build2 (PLUS_EXPR, TREE_TYPE (uboundvar), uboundvar,
                         build_int_cst (TREE_TYPE (uboundvar), extra));
   VEC_safe_push (tree, heap, *uboundvars, uboundresult);
@@ -1415,27 +1434,26 @@ gcc_loop_to_lambda_loop (struct loop *loop, int depth,
 /* Given a LOOP, find the induction variable it is testing against in the exit
    condition.  Return the induction variable if found, NULL otherwise.  */
 
-static tree
+tree
 find_induction_var_from_exit_cond (struct loop *loop)
 {
-  tree expr = get_loop_exit_condition (loop);
+  gimple expr = get_loop_exit_condition (loop);
   tree ivarop;
-  tree test;
-  if (expr == NULL_TREE)
+  tree test_lhs, test_rhs;
+  if (expr == NULL)
     return NULL_TREE;
-  if (TREE_CODE (expr) != COND_EXPR)
-    return NULL_TREE;
-  test = TREE_OPERAND (expr, 0);
-  if (!COMPARISON_CLASS_P (test))
+  if (gimple_code (expr) != GIMPLE_COND)
     return NULL_TREE;
+  test_lhs = gimple_cond_lhs (expr);
+  test_rhs = gimple_cond_rhs (expr);
 
   /* Find the side that is invariant in this loop. The ivar must be the other
      side.  */
-  
-  if (expr_invariant_in_loop_p (loop, TREE_OPERAND (test, 0)))
-      ivarop = TREE_OPERAND (test, 1);
-  else if (expr_invariant_in_loop_p (loop, TREE_OPERAND (test, 1)))
-      ivarop = TREE_OPERAND (test, 0);
+
+  if (expr_invariant_in_loop_p (loop, test_lhs))
+      ivarop = test_rhs;
+  else if (expr_invariant_in_loop_p (loop, test_rhs))
+      ivarop = test_lhs;
   else
     return NULL_TREE;
 
@@ -1448,7 +1466,7 @@ DEF_VEC_P(lambda_loop);
 DEF_VEC_ALLOC_P(lambda_loop,heap);
 
 /* Generate a lambda loopnest from a gcc loopnest LOOP_NEST.
-   Return the new loop nest.  
+   Return the new loop nest.
    INDUCTIONVARS is a pointer to an array of induction variables for the
    loopnest that will be filled in during this process.
    INVARIANTS is a pointer to an array of invariants that will be filled in
@@ -1457,7 +1475,8 @@ DEF_VEC_ALLOC_P(lambda_loop,heap);
 lambda_loopnest
 gcc_loopnest_to_lambda_loopnest (struct loop *loop_nest,
                                 VEC(tree,heap) **inductionvars,
-                                VEC(tree,heap) **invariants)
+                                 VEC(tree,heap) **invariants,
+                                 struct obstack * lambda_obstack)
 {
   lambda_loopnest ret = NULL;
   struct loop *temp = loop_nest;
@@ -1479,7 +1498,7 @@ gcc_loopnest_to_lambda_loopnest (struct loop *loop_nest,
       newloop = gcc_loop_to_lambda_loop (temp, depth, invariants,
                                         &inductionvar, *inductionvars,
                                         &lboundvars, &uboundvars,
-                                        &steps);
+                                         &steps, lambda_obstack);
       if (!newloop)
        goto fail;
 
@@ -1495,7 +1514,7 @@ gcc_loopnest_to_lambda_loopnest (struct loop *loop_nest,
        {
          if (dump_file)
            fprintf (dump_file,
-                    "Not a perfect loop nest and couldn't convert to one.\n");    
+                    "Not a perfect loop nest and couldn't convert to one.\n");
          goto fail;
        }
       else if (dump_file)
@@ -1503,7 +1522,7 @@ gcc_loopnest_to_lambda_loopnest (struct loop *loop_nest,
                 "Successfully converted loop nest to perfect loop nest.\n");
     }
 
-  ret = lambda_loopnest_new (depth, 2 * depth);
+  ret = lambda_loopnest_new (depth, 2 * depth, lambda_obstack);
 
   for (i = 0; VEC_iterate (lambda_loop, loops, i, newloop); i++)
     LN_LOOPS (ret)[i] = newloop;
@@ -1513,20 +1532,20 @@ gcc_loopnest_to_lambda_loopnest (struct loop *loop_nest,
   VEC_free (tree, heap, uboundvars);
   VEC_free (tree, heap, lboundvars);
   VEC_free (int, heap, steps);
-  
+
   return ret;
 }
 
-/* Convert a lambda body vector LBV to a gcc tree, and return the new tree. 
+/* Convert a lambda body vector LBV to a gcc tree, and return the new tree.
    STMTS_TO_INSERT is a pointer to a tree where the statements we need to be
    inserted for us are stored.  INDUCTION_VARS is the array of induction
    variables for the loop this LBV is from.  TYPE is the tree type to use for
    the variables and trees involved.  */
 
 static tree
-lbv_to_gcc_expression (lambda_body_vector lbv, 
-                      tree type, VEC(tree,heap) *induction_vars, 
-                      tree *stmts_to_insert)
+lbv_to_gcc_expression (lambda_body_vector lbv,
+                      tree type, VEC(tree,heap) *induction_vars,
+                      gimple_seq *stmts_to_insert)
 {
   int k;
   tree resvar;
@@ -1547,7 +1566,7 @@ lbv_to_gcc_expression (lambda_body_vector lbv,
    Return the tree that represents the final value of the expression.
    LLE is the linear expression to convert.
    OFFSET is the linear offset to apply to the expression.
-   TYPE is the tree type to use for the variables and math. 
+   TYPE is the tree type to use for the variables and math.
    INDUCTION_VARS is a vector of induction variables for the loops.
    INVARIANTS is a vector of the loop nest invariants.
    WRAP specifies what tree code to wrap the results in, if there is more than
@@ -1561,7 +1580,7 @@ lle_to_gcc_expression (lambda_linear_expression lle,
                       tree type,
                       VEC(tree,heap) *induction_vars,
                       VEC(tree,heap) *invariants,
-                      enum tree_code wrap, tree *stmts_to_insert)
+                      enum tree_code wrap, gimple_seq *stmts_to_insert)
 {
   int k;
   tree resvar;
@@ -1575,7 +1594,7 @@ lle_to_gcc_expression (lambda_linear_expression lle,
     {
       expr = build_linear_expr (type, LLE_COEFFICIENTS (lle), induction_vars);
       expr = fold_build2 (PLUS_EXPR, type, expr,
-                         build_linear_expr (type, 
+                         build_linear_expr (type,
                                             LLE_INVARIANT_COEFFICIENTS (lle),
                                             invariants));
 
@@ -1618,73 +1637,75 @@ lle_to_gcc_expression (lambda_linear_expression lle,
 
 /* Remove the induction variable defined at IV_STMT.  */
 
-static void
-remove_iv (tree iv_stmt)
+void
+remove_iv (gimple iv_stmt)
 {
-  if (TREE_CODE (iv_stmt) == PHI_NODE)
+  gimple_stmt_iterator si = gsi_for_stmt (iv_stmt);
+
+  if (gimple_code (iv_stmt) == GIMPLE_PHI)
     {
-      int i;
+      unsigned i;
 
-      for (i = 0; i < PHI_NUM_ARGS (iv_stmt); i++)
+      for (i = 0; i < gimple_phi_num_args (iv_stmt); i++)
        {
-         tree stmt;
+         gimple stmt;
          imm_use_iterator imm_iter;
-         tree arg = PHI_ARG_DEF (iv_stmt, i);
+         tree arg = gimple_phi_arg_def (iv_stmt, i);
          bool used = false;
 
          if (TREE_CODE (arg) != SSA_NAME)
            continue;
 
          FOR_EACH_IMM_USE_STMT (stmt, imm_iter, arg)
-           if (stmt != iv_stmt)
+           if (stmt != iv_stmt && !is_gimple_debug (stmt))
              used = true;
 
          if (!used)
            remove_iv (SSA_NAME_DEF_STMT (arg));
        }
 
-      remove_phi_node (iv_stmt, NULL_TREE, true);
+      remove_phi_node (&si, true);
     }
   else
     {
-      block_stmt_iterator bsi = bsi_for_stmt (iv_stmt);
-
-      bsi_remove (&bsi, true);
-      release_defs (iv_stmt); 
+      gsi_remove (&si, true);
+      release_defs (iv_stmt);
     }
 }
 
-
 /* Transform a lambda loopnest NEW_LOOPNEST, which had TRANSFORM applied to
    it, back into gcc code.  This changes the
    loops, their induction variables, and their bodies, so that they
-   match the transformed loopnest.  
+   match the transformed loopnest.
    OLD_LOOPNEST is the loopnest before we've replaced it with the new
    loopnest.
    OLD_IVS is a vector of induction variables from the old loopnest.
    INVARIANTS is a vector of loop invariants from the old loopnest.
    NEW_LOOPNEST is the new lambda loopnest to replace OLD_LOOPNEST with.
-   TRANSFORM is the matrix transform that was applied to OLD_LOOPNEST to get 
+   TRANSFORM is the matrix transform that was applied to OLD_LOOPNEST to get
    NEW_LOOPNEST.  */
 
 void
 lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
                                 VEC(tree,heap) *old_ivs,
                                 VEC(tree,heap) *invariants,
+                                VEC(gimple,heap) **remove_ivs,
                                 lambda_loopnest new_loopnest,
-                                lambda_trans_matrix transform)
+                                 lambda_trans_matrix transform,
+                                 struct obstack * lambda_obstack)
 {
   struct loop *temp;
   size_t i = 0;
+  unsigned j;
   size_t depth = 0;
   VEC(tree,heap) *new_ivs = NULL;
   tree oldiv;
-  
-  block_stmt_iterator bsi;
+  gimple_stmt_iterator bsi;
+
+  transform = lambda_trans_matrix_inverse (transform);
 
   if (dump_file)
     {
-      transform = lambda_trans_matrix_inverse (transform);
       fprintf (dump_file, "Inverse of transformation matrix:\n");
       print_lambda_trans_matrix (dump_file, transform);
     }
@@ -1696,13 +1717,15 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
       lambda_loop newloop;
       basic_block bb;
       edge exit;
-      tree ivvar, ivvarinced, exitcond, stmts;
+      tree ivvar, ivvarinced;
+      gimple exitcond;
+      gimple_seq stmts;
       enum tree_code testtype;
       tree newupperbound, newlowerbound;
       lambda_linear_expression offset;
       tree type;
       bool insert_after;
-      tree inc_stmt;
+      gimple inc_stmt;
 
       oldiv = VEC_index (tree, old_ivs, i);
       type = TREE_TYPE (oldiv);
@@ -1719,12 +1742,13 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
       /* Linear offset is a bit tricky to handle.  Punt on the unhandled
          cases for now.  */
       offset = LL_LINEAR_OFFSET (newloop);
-      
+
       gcc_assert (LLE_DENOMINATOR (offset) == 1 &&
                  lambda_vector_zerop (LLE_COEFFICIENTS (offset), depth));
-           
+
       /* Now build the  new lower bounds, and insert the statements
          necessary to generate it on the loop preheader.  */
+      stmts = NULL;
       newlowerbound = lle_to_gcc_expression (LL_LOWER_BOUND (newloop),
                                             LL_LINEAR_OFFSET (newloop),
                                             type,
@@ -1733,11 +1757,12 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
 
       if (stmts)
        {
-         bsi_insert_on_edge (loop_preheader_edge (temp), stmts);
-         bsi_commit_edge_inserts ();
+         gsi_insert_seq_on_edge (loop_preheader_edge (temp), stmts);
+         gsi_commit_edge_inserts ();
        }
       /* Build the new upper bound and insert its statements in the
          basic block of the exit condition */
+      stmts = NULL;
       newupperbound = lle_to_gcc_expression (LL_UPPER_BOUND (newloop),
                                             LL_LINEAR_OFFSET (newloop),
                                             type,
@@ -1745,10 +1770,10 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
                                             invariants, MIN_EXPR, &stmts);
       exit = single_exit (temp);
       exitcond = get_loop_exit_condition (temp);
-      bb = bb_for_stmt (exitcond);
-      bsi = bsi_after_labels (bb);
+      bb = gimple_bb (exitcond);
+      bsi = gsi_after_labels (bb);
       if (stmts)
-       bsi_insert_before (&bsi, stmts, BSI_NEW_STMT);
+       gsi_insert_seq_before (&bsi, stmts, GSI_NEW_STMT);
 
       /* Create the new iv.  */
 
@@ -1762,19 +1787,20 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
         dominate the block containing the exit condition.
         So we simply create our own incremented iv to use in the new exit
         test,  and let redundancy elimination sort it out.  */
-      inc_stmt = build2 (PLUS_EXPR, type, 
-                        ivvar, build_int_cst (type, LL_STEP (newloop)));
-      inc_stmt = build_gimple_modify_stmt (SSA_NAME_VAR (ivvar), inc_stmt);
+      inc_stmt = gimple_build_assign_with_ops (PLUS_EXPR, SSA_NAME_VAR (ivvar),
+                                              ivvar,
+                                              build_int_cst (type, LL_STEP (newloop)));
+
       ivvarinced = make_ssa_name (SSA_NAME_VAR (ivvar), inc_stmt);
-      GIMPLE_STMT_OPERAND (inc_stmt, 0) = ivvarinced;
-      bsi = bsi_for_stmt (exitcond);
-      bsi_insert_before (&bsi, inc_stmt, BSI_SAME_STMT);
+      gimple_assign_set_lhs (inc_stmt, ivvarinced);
+      bsi = gsi_for_stmt (exitcond);
+      gsi_insert_before (&bsi, inc_stmt, GSI_SAME_STMT);
 
       /* Replace the exit condition with the new upper bound
          comparison.  */
-      
+
       testtype = LL_STEP (newloop) >= 0 ? LE_EXPR : GE_EXPR;
-      
+
       /* We want to build a conditional where true means exit the loop, and
         false means continue the loop.
         So swap the testtype if this isn't the way things are.*/
@@ -1782,9 +1808,7 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
       if (exit->flags & EDGE_FALSE_VALUE)
        testtype = swap_tree_comparison (testtype);
 
-      COND_EXPR_COND (exitcond) = build2 (testtype,
-                                         boolean_type_node,
-                                         newupperbound, ivvarinced);
+      gimple_cond_set_condition (exitcond, testtype, newupperbound, ivvarinced);
       update_stmt (exitcond);
       VEC_replace (tree, new_ivs, i, ivvar);
 
@@ -1800,10 +1824,10 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
       imm_use_iterator imm_iter;
       use_operand_p use_p;
       tree oldiv_def;
-      tree oldiv_stmt = SSA_NAME_DEF_STMT (oldiv);
-      tree stmt;
+      gimple oldiv_stmt = SSA_NAME_DEF_STMT (oldiv);
+      gimple stmt;
 
-      if (TREE_CODE (oldiv_stmt) == PHI_NODE)
+      if (gimple_code (oldiv_stmt) == GIMPLE_PHI)
         oldiv_def = PHI_RESULT (oldiv_stmt);
       else
        oldiv_def = SINGLE_SSA_TREE_OPERAND (oldiv_stmt, SSA_OP_DEF);
@@ -1811,34 +1835,45 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
 
       FOR_EACH_IMM_USE_STMT (stmt, imm_iter, oldiv_def)
         {
-         tree newiv, stmts;
+         tree newiv;
+         gimple_seq stmts;
          lambda_body_vector lbv, newlbv;
 
-         gcc_assert (TREE_CODE (stmt) != PHI_NODE);
+         if (is_gimple_debug (stmt))
+           continue;
 
          /* Compute the new expression for the induction
             variable.  */
          depth = VEC_length (tree, new_ivs);
-         lbv = lambda_body_vector_new (depth);
+          lbv = lambda_body_vector_new (depth, lambda_obstack);
          LBV_COEFFICIENTS (lbv)[i] = 1;
-         
-         newlbv = lambda_body_vector_compute_new (transform, lbv);
 
+          newlbv = lambda_body_vector_compute_new (transform, lbv,
+                                                   lambda_obstack);
+
+         stmts = NULL;
          newiv = lbv_to_gcc_expression (newlbv, TREE_TYPE (oldiv),
                                         new_ivs, &stmts);
-         if (stmts)
+
+         if (stmts && gimple_code (stmt) != GIMPLE_PHI)
            {
-             bsi = bsi_for_stmt (stmt);
-             bsi_insert_before (&bsi, stmts, BSI_SAME_STMT);
+             bsi = gsi_for_stmt (stmt);
+             gsi_insert_seq_before (&bsi, stmts, GSI_SAME_STMT);
            }
 
          FOR_EACH_IMM_USE_ON_STMT (use_p, imm_iter)
            propagate_value (use_p, newiv);
+
+         if (stmts && gimple_code (stmt) == GIMPLE_PHI)
+           for (j = 0; j < gimple_phi_num_args (stmt); j++)
+             if (gimple_phi_arg_def (stmt, j) == newiv)
+               gsi_insert_seq_on_edge (gimple_phi_arg_edge (stmt, j), stmts);
+
          update_stmt (stmt);
        }
 
       /* Remove the now unused induction variable.  */
-      remove_iv (oldiv_stmt);
+      VEC_safe_push (gimple, heap, *remove_ivs, oldiv_stmt);
     }
   VEC_free (tree, heap, new_ivs);
 }
@@ -1847,13 +1882,14 @@ lambda_loopnest_to_gcc_loopnest (struct loop *old_loopnest,
    determining if we have a perfect loop nest.  */
 
 static bool
-not_interesting_stmt (tree stmt)
+not_interesting_stmt (gimple stmt)
 {
   /* Note that COND_EXPR's aren't interesting because if they were exiting the
      loop, we would have already failed the number of exits tests.  */
-  if (TREE_CODE (stmt) == LABEL_EXPR
-      || TREE_CODE (stmt) == GOTO_EXPR
-      || TREE_CODE (stmt) == COND_EXPR)
+  if (gimple_code (stmt) == GIMPLE_LABEL
+      || gimple_code (stmt) == GIMPLE_GOTO
+      || gimple_code (stmt) == GIMPLE_COND
+      || is_gimple_debug (stmt))
     return true;
   return false;
 }
@@ -1861,11 +1897,11 @@ not_interesting_stmt (tree stmt)
 /* Return TRUE if PHI uses DEF for it's in-the-loop edge for LOOP.  */
 
 static bool
-phi_loop_edge_uses_def (struct loop *loop, tree phi, tree def)
+phi_loop_edge_uses_def (struct loop *loop, gimple phi, tree def)
 {
-  int i;
-  for (i = 0; i < PHI_NUM_ARGS (phi); i++)
-    if (flow_bb_inside_loop_p (loop, PHI_ARG_EDGE (phi, i)->src))
+  unsigned i;
+  for (i = 0; i < gimple_phi_num_args (phi); i++)
+    if (flow_bb_inside_loop_p (loop, gimple_phi_arg_edge (phi, i)->src))
       if (PHI_ARG_DEF (phi, i) == def)
        return true;
   return false;
@@ -1874,10 +1910,10 @@ phi_loop_edge_uses_def (struct loop *loop, tree phi, tree def)
 /* Return TRUE if STMT is a use of PHI_RESULT.  */
 
 static bool
-stmt_uses_phi_result (tree stmt, tree phi_result)
+stmt_uses_phi_result (gimple stmt, tree phi_result)
 {
   tree use = SINGLE_SSA_TREE_OPERAND (stmt, SSA_OP_USE);
-  
+
   /* This is conservatively true, because we only want SIMPLE bumpers
      of the form x +- constant for our pass.  */
   return (use == phi_result);
@@ -1885,18 +1921,18 @@ stmt_uses_phi_result (tree stmt, tree phi_result)
 
 /* STMT is a bumper stmt for LOOP if the version it defines is used in the
    in-loop-edge in a phi node, and the operand it uses is the result of that
-   phi node. 
+   phi node.
    I.E. i_29 = i_3 + 1
         i_3 = PHI (0, i_29);  */
 
 static bool
-stmt_is_bumper_for_loop (struct loop *loop, tree stmt)
+stmt_is_bumper_for_loop (struct loop *loop, gimple stmt)
 {
-  tree use;
+  gimple use;
   tree def;
   imm_use_iterator iter;
   use_operand_p use_p;
-  
+
   def = SINGLE_SSA_TREE_OPERAND (stmt, SSA_OP_DEF);
   if (!def)
     return false;
@@ -1904,12 +1940,12 @@ stmt_is_bumper_for_loop (struct loop *loop, tree stmt)
   FOR_EACH_IMM_USE_FAST (use_p, iter, def)
     {
       use = USE_STMT (use_p);
-      if (TREE_CODE (use) == PHI_NODE)
+      if (gimple_code (use) == GIMPLE_PHI)
        {
          if (phi_loop_edge_uses_def (loop, use, def))
            if (stmt_uses_phi_result (stmt, PHI_RESULT (use)))
              return true;
-       } 
+       }
     }
   return false;
 }
@@ -1920,7 +1956,7 @@ stmt_is_bumper_for_loop (struct loop *loop, tree stmt)
    innermost loop body.
    If S is a program statement, then
 
-   i.e. 
+   i.e.
    DO I = 1, 20
        S1
        DO J = 1, 20
@@ -1928,14 +1964,14 @@ stmt_is_bumper_for_loop (struct loop *loop, tree stmt)
        END DO
    END DO
    is not a perfect loop nest because of S1.
-   
+
    DO I = 1, 20
       DO J = 1, 20
         S1
        ...
       END DO
-   END DO 
-   is a perfect loop nest.  
+   END DO
+   is a perfect loop nest.
 
    Since we don't have high level loops anymore, we basically have to walk our
    statements and ignore those that are there because the loop needs them (IE
@@ -1946,34 +1982,44 @@ perfect_nest_p (struct loop *loop)
 {
   basic_block *bbs;
   size_t i;
-  tree exit_cond;
+  gimple exit_cond;
 
+  /* Loops at depth 0 are perfect nests.  */
   if (!loop->inner)
     return true;
+
   bbs = get_loop_body (loop);
   exit_cond = get_loop_exit_condition (loop);
+
   for (i = 0; i < loop->num_nodes; i++)
     {
       if (bbs[i]->loop_father == loop)
        {
-         block_stmt_iterator bsi;
-         for (bsi = bsi_start (bbs[i]); !bsi_end_p (bsi); bsi_next (&bsi))
+         gimple_stmt_iterator bsi;
+
+         for (bsi = gsi_start_bb (bbs[i]); !gsi_end_p (bsi); gsi_next (&bsi))
            {
-             tree stmt = bsi_stmt (bsi);
+             gimple stmt = gsi_stmt (bsi);
+
+             if (gimple_code (stmt) == GIMPLE_COND
+                 && exit_cond != stmt)
+               goto non_perfectly_nested;
+
              if (stmt == exit_cond
                  || not_interesting_stmt (stmt)
                  || stmt_is_bumper_for_loop (loop, stmt))
                continue;
+
+           non_perfectly_nested:
              free (bbs);
              return false;
            }
        }
     }
+
   free (bbs);
-  /* See if the inner loops are perfectly nested as well.  */
-  if (loop->inner)    
-    return perfect_nest_p (loop->inner);
-  return true;
+
+  return perfect_nest_p (loop->inner);
 }
 
 /* Replace the USES of X in STMT, or uses with the same step as X with Y.
@@ -1983,10 +2029,10 @@ perfect_nest_p (struct loop *loop)
    of body basic block.  */
 
 static void
-replace_uses_equiv_to_x_with_y (struct loop *loop, tree stmt, tree x, 
+replace_uses_equiv_to_x_with_y (struct loop *loop, gimple stmt, tree x,
                                int xstep, tree y, tree yinit,
                                htab_t replacements,
-                               block_stmt_iterator *firstbsi)
+                               gimple_stmt_iterator *firstbsi)
 {
   ssa_op_iter iter;
   use_operand_p use_p;
@@ -1995,7 +2041,8 @@ replace_uses_equiv_to_x_with_y (struct loop *loop, tree stmt, tree x,
     {
       tree use = USE_FROM_PTR (use_p);
       tree step = NULL_TREE;
-      tree scev, init, val, var, setstmt;
+      tree scev, init, val, var;
+      gimple setstmt;
       struct tree_map *h, in;
       void **loc;
 
@@ -2058,12 +2105,12 @@ replace_uses_equiv_to_x_with_y (struct loop *loop, tree stmt, tree x,
         which sets Y.  */
       var = create_tmp_var (TREE_TYPE (use), "perfecttmp");
       add_referenced_var (var);
-      val = force_gimple_operand_bsi (firstbsi, val, false, NULL,
-                                     true, BSI_SAME_STMT);
-      setstmt = build_gimple_modify_stmt (var, val);
+      val = force_gimple_operand_gsi (firstbsi, val, false, NULL,
+                                     true, GSI_SAME_STMT);
+      setstmt = gimple_build_assign (var, val);
       var = make_ssa_name (var, setstmt);
-      GIMPLE_STMT_OPERAND (setstmt, 0) = var;
-      bsi_insert_before (firstbsi, setstmt, BSI_SAME_STMT);
+      gimple_assign_set_lhs (setstmt, var);
+      gsi_insert_before (firstbsi, setstmt, GSI_SAME_STMT);
       update_stmt (setstmt);
       SET_USE (use_p, var);
       h = GGC_NEW (struct tree_map);
@@ -2079,14 +2126,13 @@ replace_uses_equiv_to_x_with_y (struct loop *loop, tree stmt, tree x,
 /* Return true if STMT is an exit PHI for LOOP */
 
 static bool
-exit_phi_for_loop_p (struct loop *loop, tree stmt)
+exit_phi_for_loop_p (struct loop *loop, gimple stmt)
 {
-  
-  if (TREE_CODE (stmt) != PHI_NODE
-      || PHI_NUM_ARGS (stmt) != 1
-      || bb_for_stmt (stmt) != single_exit (loop)->dest)
+  if (gimple_code (stmt) != GIMPLE_PHI
+      || gimple_phi_num_args (stmt) != 1
+      || gimple_bb (stmt) != single_exit (loop)->dest)
     return false;
-  
+
   return true;
 }
 
@@ -2094,45 +2140,46 @@ exit_phi_for_loop_p (struct loop *loop, tree stmt)
    copying it to the beginning of that loop and changing the uses.  */
 
 static bool
-can_put_in_inner_loop (struct loop *inner, tree stmt)
+can_put_in_inner_loop (struct loop *inner, gimple stmt)
 {
   imm_use_iterator imm_iter;
   use_operand_p use_p;
-  
-  gcc_assert (TREE_CODE (stmt) == GIMPLE_MODIFY_STMT);
-  if (!ZERO_SSA_OPERANDS (stmt, SSA_OP_ALL_VIRTUALS)
-      || !expr_invariant_in_loop_p (inner, GIMPLE_STMT_OPERAND (stmt, 1)))
+
+  gcc_assert (is_gimple_assign (stmt));
+  if (gimple_vuse (stmt)
+      || !stmt_invariant_in_loop_p (inner, stmt))
     return false;
-  
-  FOR_EACH_IMM_USE_FAST (use_p, imm_iter, GIMPLE_STMT_OPERAND (stmt, 0))
+
+  FOR_EACH_IMM_USE_FAST (use_p, imm_iter, gimple_assign_lhs (stmt))
     {
       if (!exit_phi_for_loop_p (inner, USE_STMT (use_p)))
        {
-         basic_block immbb = bb_for_stmt (USE_STMT (use_p));
+         basic_block immbb = gimple_bb (USE_STMT (use_p));
 
          if (!flow_bb_inside_loop_p (inner, immbb))
            return false;
        }
     }
-  return true;  
+  return true;
 }
 
 /* Return true if STMT can be put *after* the inner loop of LOOP.  */
+
 static bool
-can_put_after_inner_loop (struct loop *loop, tree stmt)
+can_put_after_inner_loop (struct loop *loop, gimple stmt)
 {
   imm_use_iterator imm_iter;
   use_operand_p use_p;
 
-  if (!ZERO_SSA_OPERANDS (stmt, SSA_OP_ALL_VIRTUALS))
+  if (gimple_vuse (stmt))
     return false;
-  
-  FOR_EACH_IMM_USE_FAST (use_p, imm_iter, GIMPLE_STMT_OPERAND (stmt, 0))
+
+  FOR_EACH_IMM_USE_FAST (use_p, imm_iter, gimple_assign_lhs (stmt))
     {
       if (!exit_phi_for_loop_p (loop, USE_STMT (use_p)))
        {
-         basic_block immbb = bb_for_stmt (USE_STMT (use_p));
-         
+         basic_block immbb = gimple_bb (USE_STMT (use_p));
+
          if (!dominated_by_p (CDI_DOMINATORS,
                               immbb,
                               loop->inner->header)
@@ -2143,6 +2190,124 @@ can_put_after_inner_loop (struct loop *loop, tree stmt)
   return true;
 }
 
+/* Return true when the induction variable IV is simple enough to be
+   re-synthesized.  */
+
+static bool
+can_duplicate_iv (tree iv, struct loop *loop)
+{
+  tree scev = instantiate_parameters
+    (loop, analyze_scalar_evolution (loop, iv));
+
+  if (!automatically_generated_chrec_p (scev))
+    {
+      tree step = evolution_part_in_loop_num (scev, loop->num);
+
+      if (step && step != chrec_dont_know && TREE_CODE (step) == INTEGER_CST)
+       return true;
+    }
+
+  return false;
+}
+
+/* If this is a scalar operation that can be put back into the inner
+   loop, or after the inner loop, through copying, then do so. This
+   works on the theory that any amount of scalar code we have to
+   reduplicate into or after the loops is less expensive that the win
+   we get from rearranging the memory walk the loop is doing so that
+   it has better cache behavior.  */
+
+static bool
+cannot_convert_modify_to_perfect_nest (gimple stmt, struct loop *loop)
+{
+  use_operand_p use_a, use_b;
+  imm_use_iterator imm_iter;
+  ssa_op_iter op_iter, op_iter1;
+  tree op0 = gimple_assign_lhs (stmt);
+
+  /* The statement should not define a variable used in the inner
+     loop.  */
+  if (TREE_CODE (op0) == SSA_NAME
+      && !can_duplicate_iv (op0, loop))
+    FOR_EACH_IMM_USE_FAST (use_a, imm_iter, op0)
+      if (gimple_bb (USE_STMT (use_a))->loop_father == loop->inner)
+       return true;
+
+  FOR_EACH_SSA_USE_OPERAND (use_a, stmt, op_iter, SSA_OP_USE)
+    {
+      gimple node;
+      tree op = USE_FROM_PTR (use_a);
+
+      /* The variables should not be used in both loops.  */
+      if (!can_duplicate_iv (op, loop))
+       FOR_EACH_IMM_USE_FAST (use_b, imm_iter, op)
+         if (gimple_bb (USE_STMT (use_b))->loop_father == loop->inner)
+           return true;
+
+      /* The statement should not use the value of a scalar that was
+        modified in the loop.  */
+      node = SSA_NAME_DEF_STMT (op);
+      if (gimple_code (node) == GIMPLE_PHI)
+       FOR_EACH_PHI_ARG (use_b, node, op_iter1, SSA_OP_USE)
+         {
+           tree arg = USE_FROM_PTR (use_b);
+
+           if (TREE_CODE (arg) == SSA_NAME)
+             {
+               gimple arg_stmt = SSA_NAME_DEF_STMT (arg);
+
+               if (gimple_bb (arg_stmt)
+                   && (gimple_bb (arg_stmt)->loop_father == loop->inner))
+                 return true;
+             }
+         }
+    }
+
+  return false;
+}
+/* Return true when BB contains statements that can harm the transform
+   to a perfect loop nest.  */
+
+static bool
+cannot_convert_bb_to_perfect_nest (basic_block bb, struct loop *loop)
+{
+  gimple_stmt_iterator bsi;
+  gimple exit_condition = get_loop_exit_condition (loop);
+
+  for (bsi = gsi_start_bb (bb); !gsi_end_p (bsi); gsi_next (&bsi))
+    {
+      gimple stmt = gsi_stmt (bsi);
+
+      if (stmt == exit_condition
+         || not_interesting_stmt (stmt)
+         || stmt_is_bumper_for_loop (loop, stmt))
+       continue;
+
+      if (is_gimple_assign (stmt))
+       {
+         if (cannot_convert_modify_to_perfect_nest (stmt, loop))
+           return true;
+
+         if (can_duplicate_iv (gimple_assign_lhs (stmt), loop))
+           continue;
+
+         if (can_put_in_inner_loop (loop->inner, stmt)
+             || can_put_after_inner_loop (loop, stmt))
+           continue;
+       }
+
+      /* If the bb of a statement we care about isn't dominated by the
+        header of the inner loop, then we can't handle this case
+        right now.  This test ensures that the statement comes
+        completely *after* the inner loop.  */
+      if (!dominated_by_p (CDI_DOMINATORS,
+                          gimple_bb (stmt),
+                          loop->inner->header))
+       return true;
+    }
+
+  return false;
+}
 
 
 /* Return TRUE if LOOP is an imperfect nest that we can convert to a
@@ -2153,135 +2318,46 @@ static bool
 can_convert_to_perfect_nest (struct loop *loop)
 {
   basic_block *bbs;
-  tree exit_condition, phi;
   size_t i;
-  block_stmt_iterator bsi;
-  basic_block exitdest;
+  gimple_stmt_iterator si;
 
   /* Can't handle triply nested+ loops yet.  */
   if (!loop->inner || loop->inner->inner)
     return false;
-  
+
   bbs = get_loop_body (loop);
-  exit_condition = get_loop_exit_condition (loop);
   for (i = 0; i < loop->num_nodes; i++)
-    {
-      if (bbs[i]->loop_father == loop)
-       {
-         for (bsi = bsi_start (bbs[i]); !bsi_end_p (bsi); bsi_next (&bsi))
-           { 
-             tree stmt = bsi_stmt (bsi);
-
-             if (stmt == exit_condition
-                 || not_interesting_stmt (stmt)
-                 || stmt_is_bumper_for_loop (loop, stmt))
-               continue;
-
-             /* If this is a scalar operation that can be put back
-                into the inner loop, or after the inner loop, through
-                copying, then do so. This works on the theory that
-                any amount of scalar code we have to reduplicate
-                into or after the loops is less expensive that the
-                win we get from rearranging the memory walk
-                the loop is doing so that it has better
-                cache behavior.  */
-             if (TREE_CODE (stmt) == GIMPLE_MODIFY_STMT)
-               {
-                 use_operand_p use_a, use_b;
-                 imm_use_iterator imm_iter;
-                 ssa_op_iter op_iter, op_iter1;
-                 tree op0 = GIMPLE_STMT_OPERAND (stmt, 0);
-                 tree scev = instantiate_parameters
-                   (loop, analyze_scalar_evolution (loop, op0));
-
-                 /* If the IV is simple, it can be duplicated.  */
-                 if (!automatically_generated_chrec_p (scev))
-                   {
-                     tree step = evolution_part_in_loop_num (scev, loop->num);
-                     if (step && step != chrec_dont_know 
-                         && TREE_CODE (step) == INTEGER_CST)
-                       continue;
-                   }
-
-                 /* The statement should not define a variable used
-                    in the inner loop.  */
-                 if (TREE_CODE (op0) == SSA_NAME)
-                   FOR_EACH_IMM_USE_FAST (use_a, imm_iter, op0)
-                     if (bb_for_stmt (USE_STMT (use_a))->loop_father
-                         == loop->inner)
-                       goto fail;
-
-                 FOR_EACH_SSA_USE_OPERAND (use_a, stmt, op_iter, SSA_OP_USE)
-                   {
-                     tree node, op = USE_FROM_PTR (use_a);
-
-                     /* The variables should not be used in both loops.  */
-                     FOR_EACH_IMM_USE_FAST (use_b, imm_iter, op)
-                     if (bb_for_stmt (USE_STMT (use_b))->loop_father
-                         == loop->inner)
-                       goto fail;
-
-                     /* The statement should not use the value of a
-                        scalar that was modified in the loop.  */
-                     node = SSA_NAME_DEF_STMT (op);
-                     if (TREE_CODE (node) == PHI_NODE)
-                       FOR_EACH_PHI_ARG (use_b, node, op_iter1, SSA_OP_USE)
-                         {
-                           tree arg = USE_FROM_PTR (use_b);
-
-                           if (TREE_CODE (arg) == SSA_NAME)
-                             {
-                               tree arg_stmt = SSA_NAME_DEF_STMT (arg);
-
-                               if (bb_for_stmt (arg_stmt)
-                                   && (bb_for_stmt (arg_stmt)->loop_father
-                                       == loop->inner))
-                                 goto fail;
-                             }
-                         }
-                   }
-
-                 if (can_put_in_inner_loop (loop->inner, stmt)
-                     || can_put_after_inner_loop (loop, stmt))
-                   continue;
-               }
-
-             /* Otherwise, if the bb of a statement we care about isn't
-                dominated by the header of the inner loop, then we can't
-                handle this case right now.  This test ensures that the
-                statement comes completely *after* the inner loop.  */
-             if (!dominated_by_p (CDI_DOMINATORS,
-                                  bb_for_stmt (stmt), 
-                                  loop->inner->header))
-               goto fail;
-           }
-       }
-    }
+    if (bbs[i]->loop_father == loop
+       && cannot_convert_bb_to_perfect_nest (bbs[i], loop))
+      goto fail;
 
   /* We also need to make sure the loop exit only has simple copy phis in it,
-     otherwise we don't know how to transform it into a perfect nest right
-     now.  */
-  exitdest = single_exit (loop)->dest;
-  
-  for (phi = phi_nodes (exitdest); phi; phi = PHI_CHAIN (phi))
-    if (PHI_NUM_ARGS (phi) != 1)
+     otherwise we don't know how to transform it into a perfect nest.  */
+  for (si = gsi_start_phis (single_exit (loop)->dest);
+       !gsi_end_p (si);
+       gsi_next (&si))
+    if (gimple_phi_num_args (gsi_stmt (si)) != 1)
       goto fail;
-  
+
   free (bbs);
   return true;
-  
+
  fail:
   free (bbs);
   return false;
 }
 
+
+DEF_VEC_I(source_location);
+DEF_VEC_ALLOC_I(source_location,heap);
+
 /* Transform the loop nest into a perfect nest, if possible.
    LOOP is the loop nest to transform into a perfect nest
    LBOUNDS are the lower bounds for the loops to transform
    UBOUNDS are the upper bounds for the loops to transform
    STEPS is the STEPS for the loops to transform.
    LOOPIVS is the induction variables for the loops to transform.
-   
+
    Basically, for the case of
 
    FOR (i = 0; i < 50; i++)
@@ -2303,7 +2379,7 @@ can_convert_to_perfect_nest (struct loop *loop)
          <whatever>
      }
    }
-   
+
    FOR (i = 0; i < 50; i ++)
    {
     <some code>
@@ -2319,68 +2395,72 @@ perfect_nestify (struct loop *loop,
                 VEC(tree,heap) *loopivs)
 {
   basic_block *bbs;
-  tree exit_condition;
-  tree cond_stmt;
+  gimple exit_condition;
+  gimple cond_stmt;
   basic_block preheaderbb, headerbb, bodybb, latchbb, olddest;
   int i;
-  block_stmt_iterator bsi, firstbsi;
+  gimple_stmt_iterator bsi, firstbsi;
   bool insert_after;
   edge e;
   struct loop *newloop;
-  tree phi;
+  gimple phi;
   tree uboundvar;
-  tree stmt;
+  gimple stmt;
   tree oldivvar, ivvar, ivvarinced;
   VEC(tree,heap) *phis = NULL;
+  VEC(source_location,heap) *locations = NULL;
   htab_t replacements = NULL;
 
   /* Create the new loop.  */
   olddest = single_exit (loop)->dest;
   preheaderbb = split_edge (single_exit (loop));
   headerbb = create_empty_bb (EXIT_BLOCK_PTR->prev_bb);
-  
+
   /* Push the exit phi nodes that we are moving.  */
-  for (phi = phi_nodes (olddest); phi; phi = PHI_CHAIN (phi))
+  for (bsi = gsi_start_phis (olddest); !gsi_end_p (bsi); gsi_next (&bsi))
     {
+      phi = gsi_stmt (bsi);
       VEC_reserve (tree, heap, phis, 2);
+      VEC_reserve (source_location, heap, locations, 1);
       VEC_quick_push (tree, phis, PHI_RESULT (phi));
       VEC_quick_push (tree, phis, PHI_ARG_DEF (phi, 0));
+      VEC_quick_push (source_location, locations,
+                     gimple_phi_arg_location (phi, 0));
     }
   e = redirect_edge_and_branch (single_succ_edge (preheaderbb), headerbb);
 
   /* Remove the exit phis from the old basic block.  */
-  while (phi_nodes (olddest) != NULL)
-    remove_phi_node (phi_nodes (olddest), NULL, false);
+  for (bsi = gsi_start_phis (olddest); !gsi_end_p (bsi); )
+    remove_phi_node (&bsi, false);
 
   /* and add them back to the new basic block.  */
   while (VEC_length (tree, phis) != 0)
     {
       tree def;
       tree phiname;
+      source_location locus;
       def = VEC_pop (tree, phis);
-      phiname = VEC_pop (tree, phis);      
+      phiname = VEC_pop (tree, phis);
+      locus = VEC_pop (source_location, locations);
       phi = create_phi_node (phiname, preheaderbb);
-      add_phi_arg (phi, def, single_pred_edge (preheaderbb));
+      add_phi_arg (phi, def, single_pred_edge (preheaderbb), locus);
     }
   flush_pending_stmts (e);
   VEC_free (tree, heap, phis);
 
   bodybb = create_empty_bb (EXIT_BLOCK_PTR->prev_bb);
   latchbb = create_empty_bb (EXIT_BLOCK_PTR->prev_bb);
-  make_edge (headerbb, bodybb, EDGE_FALLTHRU); 
-  cond_stmt = build3 (COND_EXPR, void_type_node,
-                     build2 (NE_EXPR, boolean_type_node, 
-                             integer_one_node, 
-                             integer_zero_node), 
-                     NULL_TREE, NULL_TREE);
-  bsi = bsi_start (bodybb);
-  bsi_insert_after (&bsi, cond_stmt, BSI_NEW_STMT);
+  make_edge (headerbb, bodybb, EDGE_FALLTHRU);
+  cond_stmt = gimple_build_cond (NE_EXPR, integer_one_node, integer_zero_node,
+                                NULL_TREE, NULL_TREE);
+  bsi = gsi_start_bb (bodybb);
+  gsi_insert_after (&bsi, cond_stmt, GSI_NEW_STMT);
   e = make_edge (bodybb, olddest, EDGE_FALSE_VALUE);
   make_edge (bodybb, latchbb, EDGE_TRUE_VALUE);
   make_edge (latchbb, headerbb, EDGE_FALLTHRU);
 
   /* Update the loop structures.  */
-  newloop = duplicate_loop (loop, olddest->loop_father);  
+  newloop = duplicate_loop (loop, olddest->loop_father);
   newloop->header = headerbb;
   newloop->latch = latchbb;
   add_bb_to_loop (latchbb, newloop);
@@ -2388,7 +2468,7 @@ perfect_nestify (struct loop *loop,
   add_bb_to_loop (headerbb, newloop);
   set_immediate_dominator (CDI_DOMINATORS, bodybb, headerbb);
   set_immediate_dominator (CDI_DOMINATORS, headerbb, preheaderbb);
-  set_immediate_dominator (CDI_DOMINATORS, preheaderbb, 
+  set_immediate_dominator (CDI_DOMINATORS, preheaderbb,
                           single_exit (loop)->src);
   set_immediate_dominator (CDI_DOMINATORS, latchbb, bodybb);
   set_immediate_dominator (CDI_DOMINATORS, olddest,
@@ -2400,38 +2480,36 @@ perfect_nestify (struct loop *loop,
   standard_iv_increment_position (newloop, &bsi, &insert_after);
   create_iv (VEC_index (tree, lbounds, 0),
             build_int_cst (TREE_TYPE (oldivvar), VEC_index (int, steps, 0)),
-            ivvar, newloop, &bsi, insert_after, &ivvar, &ivvarinced);       
+            ivvar, newloop, &bsi, insert_after, &ivvar, &ivvarinced);
 
   /* Create the new upper bound.  This may be not just a variable, so we copy
      it to one just in case.  */
 
   exit_condition = get_loop_exit_condition (newloop);
-  uboundvar = create_tmp_var (integer_type_node, "uboundvar");
+  uboundvar = create_tmp_var (TREE_TYPE (VEC_index (tree, ubounds, 0)),
+                             "uboundvar");
   add_referenced_var (uboundvar);
-  stmt = build_gimple_modify_stmt (uboundvar, VEC_index (tree, ubounds, 0));
+  stmt = gimple_build_assign (uboundvar, VEC_index (tree, ubounds, 0));
   uboundvar = make_ssa_name (uboundvar, stmt);
-  GIMPLE_STMT_OPERAND (stmt, 0) = uboundvar;
+  gimple_assign_set_lhs (stmt, uboundvar);
 
   if (insert_after)
-    bsi_insert_after (&bsi, stmt, BSI_SAME_STMT);
+    gsi_insert_after (&bsi, stmt, GSI_SAME_STMT);
   else
-    bsi_insert_before (&bsi, stmt, BSI_SAME_STMT);
+    gsi_insert_before (&bsi, stmt, GSI_SAME_STMT);
   update_stmt (stmt);
-  COND_EXPR_COND (exit_condition) = build2 (GE_EXPR, 
-                                           boolean_type_node,
-                                           uboundvar,
-                                           ivvarinced);
+  gimple_cond_set_condition (exit_condition, GE_EXPR, uboundvar, ivvarinced);
   update_stmt (exit_condition);
   replacements = htab_create_ggc (20, tree_map_hash,
                                  tree_map_eq, NULL);
-  bbs = get_loop_body_in_dom_order (loop); 
+  bbs = get_loop_body_in_dom_order (loop);
   /* Now move the statements, and replace the induction variable in the moved
      statements with the correct loop induction variable.  */
   oldivvar = VEC_index (tree, loopivs, 0);
-  firstbsi = bsi_start (bodybb);
+  firstbsi = gsi_start_bb (bodybb);
   for (i = loop->num_nodes - 1; i >= 0 ; i--)
     {
-      block_stmt_iterator tobsi = bsi_last (bodybb);
+      gimple_stmt_iterator tobsi = gsi_last_bb (bodybb);
       if (bbs[i]->loop_father == loop)
        {
          /* If this is true, we are *before* the inner loop.
@@ -2439,7 +2517,7 @@ perfect_nestify (struct loop *loop,
 
             The only time can_convert_to_perfect_nest returns true when we
             have statements before the inner loop is if they can be moved
-            into the inner loop. 
+            into the inner loop.
 
             The only time can_convert_to_perfect_nest returns true when we
             have statements after the inner loop is if they can be moved into
@@ -2447,56 +2525,55 @@ perfect_nestify (struct loop *loop,
 
          if (dominated_by_p (CDI_DOMINATORS, loop->inner->header, bbs[i]))
            {
-             block_stmt_iterator header_bsi 
-               = bsi_after_labels (loop->inner->header);
+             gimple_stmt_iterator header_bsi
+               = gsi_after_labels (loop->inner->header);
 
-             for (bsi = bsi_start (bbs[i]); !bsi_end_p (bsi);)
-               { 
-                 tree stmt = bsi_stmt (bsi);
+             for (bsi = gsi_start_bb (bbs[i]); !gsi_end_p (bsi);)
+               {
+                 gimple stmt = gsi_stmt (bsi);
 
                  if (stmt == exit_condition
                      || not_interesting_stmt (stmt)
                      || stmt_is_bumper_for_loop (loop, stmt))
                    {
-                     bsi_next (&bsi);
+                     gsi_next (&bsi);
                      continue;
                    }
 
-                 bsi_move_before (&bsi, &header_bsi);
+                 gsi_move_before (&bsi, &header_bsi);
                }
            }
          else
-           { 
+           {
              /* Note that the bsi only needs to be explicitly incremented
                 when we don't move something, since it is automatically
                 incremented when we do.  */
-             for (bsi = bsi_start (bbs[i]); !bsi_end_p (bsi);)
-               { 
-                 ssa_op_iter i;
-                 tree n, stmt = bsi_stmt (bsi);
-                 
+             for (bsi = gsi_start_bb (bbs[i]); !gsi_end_p (bsi);)
+               {
+                 gimple stmt = gsi_stmt (bsi);
+
                  if (stmt == exit_condition
                      || not_interesting_stmt (stmt)
                      || stmt_is_bumper_for_loop (loop, stmt))
                    {
-                     bsi_next (&bsi);
+                     gsi_next (&bsi);
                      continue;
                    }
-                 
-                 replace_uses_equiv_to_x_with_y 
+
+                 replace_uses_equiv_to_x_with_y
                    (loop, stmt, oldivvar, VEC_index (int, steps, 0), ivvar,
                     VEC_index (tree, lbounds, 0), replacements, &firstbsi);
 
-                 bsi_move_before (&bsi, &tobsi);
-                 
+                 gsi_move_before (&bsi, &tobsi);
+
                  /* If the statement has any virtual operands, they may
                     need to be rewired because the original loop may
                     still reference them.  */
-                 FOR_EACH_SSA_TREE_OPERAND (n, stmt, i, SSA_OP_ALL_VIRTUALS)
-                   mark_sym_for_renaming (SSA_NAME_VAR (n));
+                 if (gimple_vuse (stmt))
+                   mark_sym_for_renaming (gimple_vop (cfun));
                }
            }
-         
+
        }
     }
 
@@ -2519,7 +2596,7 @@ perfect_nestify (struct loop *loop,
    the zero vector." S.Muchnick.  */
 
 bool
-lambda_transform_legal_p (lambda_trans_matrix trans, 
+lambda_transform_legal_p (lambda_trans_matrix trans,
                          int nb_loops,
                          VEC (ddr_p, heap) *dependence_relations)
 {
@@ -2530,11 +2607,16 @@ lambda_transform_legal_p (lambda_trans_matrix trans,
   gcc_assert (LTM_COLSIZE (trans) == nb_loops
              && LTM_ROWSIZE (trans) == nb_loops);
 
-  /* When there is an unknown relation in the dependence_relations, we
-     know that it is no worth looking at this loop nest: give up.  */
+  /* When there are no dependences, the transformation is correct.  */
+  if (VEC_length (ddr_p, dependence_relations) == 0)
+    return true;
+
   ddr = VEC_index (ddr_p, dependence_relations, 0);
   if (ddr == NULL)
     return true;
+
+  /* When there is an unknown relation in the dependence_relations, we
+     know that it is no worth looking at this loop nest: give up.  */
   if (DDR_ARE_DEPENDENT (ddr) == chrec_dont_know)
     return false;
 
@@ -2553,7 +2635,7 @@ lambda_transform_legal_p (lambda_trans_matrix trans,
       /* Conservatively answer: "this transformation is not valid".  */
       if (DDR_ARE_DEPENDENT (ddr) == chrec_dont_know)
        return false;
-         
+
       /* If the dependence could not be captured by a distance vector,
         conservatively answer that the transform is not valid.  */
       if (DDR_NUM_DIST_VECTS (ddr) == 0)
@@ -2562,7 +2644,7 @@ lambda_transform_legal_p (lambda_trans_matrix trans,
       /* Compute trans.dist_vect */
       for (j = 0; j < DDR_NUM_DIST_VECTS (ddr); j++)
        {
-         lambda_matrix_vector_mult (LTM_MATRIX (trans), nb_loops, nb_loops, 
+         lambda_matrix_vector_mult (LTM_MATRIX (trans), nb_loops, nb_loops,
                                     DDR_DIST_VECT (ddr, j), distres);
 
          if (!lambda_vector_lexico_pos (distres, nb_loops))
@@ -2571,3 +2653,196 @@ lambda_transform_legal_p (lambda_trans_matrix trans,
     }
   return true;
 }
+
+
+/* Collects parameters from affine function ACCESS_FUNCTION, and push
+   them in PARAMETERS.  */
+
+static void
+lambda_collect_parameters_from_af (tree access_function,
+                                  struct pointer_set_t *param_set,
+                                  VEC (tree, heap) **parameters)
+{
+  if (access_function == NULL)
+    return;
+
+  if (TREE_CODE (access_function) == SSA_NAME
+      && pointer_set_contains (param_set, access_function) == 0)
+    {
+      pointer_set_insert (param_set, access_function);
+      VEC_safe_push (tree, heap, *parameters, access_function);
+    }
+  else
+    {
+      int i, num_operands = tree_operand_length (access_function);
+
+      for (i = 0; i < num_operands; i++)
+       lambda_collect_parameters_from_af (TREE_OPERAND (access_function, i),
+                                          param_set, parameters);
+    }
+}
+
+/* Collects parameters from DATAREFS, and push them in PARAMETERS.  */
+
+void
+lambda_collect_parameters (VEC (data_reference_p, heap) *datarefs,
+                          VEC (tree, heap) **parameters)
+{
+  unsigned i, j;
+  struct pointer_set_t *parameter_set = pointer_set_create ();
+  data_reference_p data_reference;
+
+  for (i = 0; VEC_iterate (data_reference_p, datarefs, i, data_reference); i++)
+    for (j = 0; j < DR_NUM_DIMENSIONS (data_reference); j++)
+      lambda_collect_parameters_from_af (DR_ACCESS_FN (data_reference, j),
+                                        parameter_set, parameters);
+  pointer_set_destroy (parameter_set);
+}
+
+/* Translates BASE_EXPR to vector CY.  AM is needed for inferring
+   indexing positions in the data access vector.  CST is the analyzed
+   integer constant.  */
+
+static bool
+av_for_af_base (tree base_expr, lambda_vector cy, struct access_matrix *am,
+               int cst)
+{
+  bool result = true;
+
+  switch (TREE_CODE (base_expr))
+    {
+    case INTEGER_CST:
+      /* Constant part.  */
+      cy[AM_CONST_COLUMN_INDEX (am)] += int_cst_value (base_expr) * cst;
+      return true;
+
+    case SSA_NAME:
+      {
+       int param_index =
+         access_matrix_get_index_for_parameter (base_expr, am);
+
+       if (param_index >= 0)
+         {
+           cy[param_index] = cst + cy[param_index];
+           return true;
+         }
+
+       return false;
+      }
+
+    case PLUS_EXPR:
+      return av_for_af_base (TREE_OPERAND (base_expr, 0), cy, am, cst)
+       && av_for_af_base (TREE_OPERAND (base_expr, 1), cy, am, cst);
+
+    case MINUS_EXPR:
+      return av_for_af_base (TREE_OPERAND (base_expr, 0), cy, am, cst)
+       && av_for_af_base (TREE_OPERAND (base_expr, 1), cy, am, -1 * cst);
+
+    case MULT_EXPR:
+      if (TREE_CODE (TREE_OPERAND (base_expr, 0)) == INTEGER_CST)
+       result = av_for_af_base (TREE_OPERAND (base_expr, 1),
+                                cy, am, cst *
+                                int_cst_value (TREE_OPERAND (base_expr, 0)));
+      else if (TREE_CODE (TREE_OPERAND (base_expr, 1)) == INTEGER_CST)
+       result = av_for_af_base (TREE_OPERAND (base_expr, 0),
+                                cy, am, cst *
+                                int_cst_value (TREE_OPERAND (base_expr, 1)));
+      else
+       result = false;
+
+      return result;
+
+    case NEGATE_EXPR:
+      return av_for_af_base (TREE_OPERAND (base_expr, 0), cy, am, -1 * cst);
+
+    default:
+      return false;
+    }
+
+  return result;
+}
+
+/* Translates ACCESS_FUN to vector CY.  AM is needed for inferring
+   indexing positions in the data access vector.  */
+
+static bool
+av_for_af (tree access_fun, lambda_vector cy, struct access_matrix *am)
+{
+  switch (TREE_CODE (access_fun))
+    {
+    case POLYNOMIAL_CHREC:
+      {
+       tree left = CHREC_LEFT (access_fun);
+       tree right = CHREC_RIGHT (access_fun);
+       unsigned var;
+
+       if (TREE_CODE (right) != INTEGER_CST)
+         return false;
+
+       var = am_vector_index_for_loop (am, CHREC_VARIABLE (access_fun));
+       cy[var] = int_cst_value (right);
+
+       if (TREE_CODE (left) == POLYNOMIAL_CHREC)
+         return av_for_af (left, cy, am);
+       else
+         return av_for_af_base (left, cy, am, 1);
+      }
+
+    case INTEGER_CST:
+      /* Constant part.  */
+      return av_for_af_base (access_fun, cy, am, 1);
+
+    default:
+      return false;
+    }
+}
+
+/* Initializes the access matrix for DATA_REFERENCE.  */
+
+static bool
+build_access_matrix (data_reference_p data_reference,
+                    VEC (tree, heap) *parameters, VEC (loop_p, heap) *nest)
+{
+  struct access_matrix *am = GGC_NEW (struct access_matrix);
+  unsigned i, ndim = DR_NUM_DIMENSIONS (data_reference);
+  unsigned nivs = VEC_length (loop_p, nest);
+  unsigned lambda_nb_columns;
+
+  AM_LOOP_NEST (am) = nest;
+  AM_NB_INDUCTION_VARS (am) = nivs;
+  AM_PARAMETERS (am) = parameters;
+
+  lambda_nb_columns = AM_NB_COLUMNS (am);
+  AM_MATRIX (am) = VEC_alloc (lambda_vector, gc, ndim);
+
+  for (i = 0; i < ndim; i++)
+    {
+      lambda_vector access_vector = lambda_vector_new (lambda_nb_columns);
+      tree access_function = DR_ACCESS_FN (data_reference, i);
+
+      if (!av_for_af (access_function, access_vector, am))
+       return false;
+
+      VEC_quick_push (lambda_vector, AM_MATRIX (am), access_vector);
+    }
+
+  DR_ACCESS_MATRIX (data_reference) = am;
+  return true;
+}
+
+/* Returns false when one of the access matrices cannot be built.  */
+
+bool
+lambda_compute_access_matrices (VEC (data_reference_p, heap) *datarefs,
+                               VEC (tree, heap) *parameters,
+                               VEC (loop_p, heap) *nest)
+{
+  data_reference_p dataref;
+  unsigned ix;
+
+  for (ix = 0; VEC_iterate (data_reference_p, datarefs, ix, dataref); ix++)
+    if (!build_access_matrix (dataref, parameters, nest))
+      return false;
+
+  return true;
+}