OSDN Git Service

Daily bump.
[pf3gnuchains/gcc-fork.git] / gcc / tree-ssa-dce.c
index 91fb5ab..4e3499a 100644 (file)
@@ -1,22 +1,22 @@
 /* Dead code elimination pass for the GNU compiler.
-   Copyright (C) 2002, 2003, 2004, 2005, 2006, 2007
+   Copyright (C) 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009
    Free Software Foundation, Inc.
    Contributed by Ben Elliston <bje@redhat.com>
    and Andrew MacLeod <amacleod@redhat.com>
    Adapted to use control dependence by Steven Bosscher, SUSE Labs.
+
 This file is part of GCC.
-   
+
 GCC is free software; you can redistribute it and/or modify it
 under the terms of the GNU General Public License as published by the
 Free Software Foundation; either version 3, or (at your option) any
 later version.
-   
+
 GCC is distributed in the hope that it will be useful, but WITHOUT
 ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
 for more details.
-   
+
 You should have received a copy of the GNU General Public License
 along with GCC; see the file COPYING3.  If not see
 <http://www.gnu.org/licenses/>.  */
@@ -48,8 +48,7 @@ along with GCC; see the file COPYING3.  If not see
 #include "coretypes.h"
 #include "tm.h"
 #include "ggc.h"
-#include "diagnostic.h"
-#include "toplev.h"
+
 /* These RTL headers are needed for basic-block.h.  */
 #include "rtl.h"
 #include "tm_p.h"
@@ -60,14 +59,14 @@ along with GCC; see the file COPYING3.  If not see
 #include "tree.h"
 #include "diagnostic.h"
 #include "tree-flow.h"
-#include "tree-gimple.h"
+#include "gimple.h"
 #include "tree-dump.h"
 #include "tree-pass.h"
 #include "timevar.h"
 #include "flags.h"
 #include "cfgloop.h"
 #include "tree-scalar-evolution.h"
-\f
+
 static struct stmt_stats
 {
   int total;
@@ -76,9 +75,9 @@ static struct stmt_stats
   int removed_phis;
 } stats;
 
+#define STMT_NECESSARY GF_PLF_1
 
-static VEC (tree, heap) *worklist;
-static VEC (tree, heap) *cond_dead_built_in_calls;
+static VEC(gimple,heap) *worklist;
 
 /* Vector indicating an SSA name has already been processed and marked
    as necessary.  */
@@ -88,6 +87,9 @@ static sbitmap processed;
    marked as necessary.  */
 static sbitmap last_stmt_necessary;
 
+/* Vector indicating that BB contains statements that are live.  */
+static sbitmap bb_contains_live_stmts;
+
 /* Before we can determine whether a control branch is dead, we need to
    compute which blocks are control dependent on which edges.
 
@@ -199,217 +201,28 @@ find_all_control_dependences (struct edge_list *el)
     find_control_dependence (el, i);
 }
 
-
-#define NECESSARY(stmt)                stmt->base.asm_written_flag
-
-/*  Conditional dead call elimination 
-
-   Some builtin functions can set errno on error conditions, but they
-   are otherwise pure. If the result of a call to such a function is 
-   not used, the compiler can still not eliminate the call without 
-   powerful interprocedural analysis to prove that the errno is not
-   checked. However, if the conditions under which the error occurs
-   are known, compiler can conditionally dead code eliminate the calls
-   by shrink-wrapping the semi-dead calls into the error condition:
-      
-        built_in_call(args) 
-          ==>
-        if (error_cond(args))
-             built_in_call(args)
-
-    An actual simple exampl is :
-         log (x);   // Mostly dead call
-     ==>
-         if (x < 0)
-             log(x);
-     With this change, call to log(x) is effectively eliminated, as
-     in majority of the cases, log won't be called with x out of 
-     range. The branch is totally predicatible, so the branch cost
-     is low.  Such optimization improves the performance of  
-     an important application in a big search company. 
-   
-   Note that library functions are not supposed to clear errno to zero without
-   error.
-   
-   In this implementation, only 'pow' and 'log' are handled. ('sin' and 'cos' 
-   seem to be wrongly handled by gcc -- they are treated as not touching errno
-   which is not correct.)
-   
-   The condition wrapping the builtin call is conservatively set to avoid too
-   aggressive (wrong) shrink wrapping. The optimization is called conditional
-   dead call elimination because the call is eliminated under the condition 
-   that the input arguments would not lead to domain or range error (for 
-   instance when x <= 0 for a log(x) call), however the chances that the error
-   condition is hit is very low (those builtin calls which are conditionally 
-   dead are usually part of the C++ abstraction penalty exposed after 
-   inlining).  */
-
-
-/* A helper method to help select calls to pow that are suitable for
-   conditional DCE transformation. Returns true if the pow call is 
-   a candidate.*/
-
-static bool
-check_pow (tree pow_call)
-{
-  tree base, expn;
-  enum tree_code bc, ec;
-
-  gcc_assert (TREE_CODE (pow_call) == CALL_EXPR);
-  if (call_expr_nargs (pow_call) != 2)
-    return false;
-
-  base = CALL_EXPR_ARG (pow_call, 0);
-  expn = CALL_EXPR_ARG (pow_call, 1);
-
-  bc = TREE_CODE (base);
-  ec = TREE_CODE (expn);
-  gcc_assert (TREE_CODE_CLASS (bc) != tcc_constant 
-             || bc == REAL_CST);
-  gcc_assert (TREE_CODE_CLASS (ec) != tcc_constant 
-             || ec == REAL_CST);
-
-  /* Folding candidates are not interesting.  */
-  if (ec == REAL_CST && bc == REAL_CST)
-    return false;
-
-  if (bc == REAL_CST)
-   {
-     /* Only handle a fixed range of constant.  */
-     REAL_VALUE_TYPE mv;
-     REAL_VALUE_TYPE bcv = TREE_REAL_CST (base);
-     if (REAL_VALUES_EQUAL (bcv, dconst1))
-       return false;
-     if (REAL_VALUES_LESS (bcv, dconst1))
-       return false;
-     real_from_integer (&mv, VOIDmode,256,0,1);
-     if (REAL_VALUES_LESS (mv, bcv))
-       return false;
-     return true;
-   }
-  else if (bc == SSA_NAME)
-   {
-     tree def, nm, rhs, rhs0, var, typ;
-     int sz;
-
-     def = SSA_NAME_DEF_STMT (base);
-     if (TREE_CODE (def) != GIMPLE_MODIFY_STMT)
-       return false;
-
-     nm = GIMPLE_STMT_OPERAND (def,0);
-     gcc_assert (TREE_CODE (nm) == SSA_NAME);
-     if (nm != base) 
-       return false;
-
-     rhs = GIMPLE_STMT_OPERAND (def,1);
-     
-     if (TREE_CODE (rhs) != FLOAT_EXPR)
-       return false;
-     rhs0 = TREE_OPERAND (rhs,0);
-
-     if (TREE_CODE (rhs0) != SSA_NAME)
-       return false;
-
-     var = SSA_NAME_VAR (rhs0);
-     if (TREE_CODE (var) != VAR_DECL &&
-         TREE_CODE (var) != PARM_DECL)
-       return false;
-
-     typ = TREE_TYPE (var);
-     if (TREE_CODE (typ) != INTEGER_TYPE)
-       return false;
-     sz = int_size_in_bytes (typ);
-     if (sz == -1 || sz > INT_TYPE_SIZE) 
-       return false;
-
-     return true;
-   }
-  else
-    return false;
-}
-
-/* A helper function to help select candidate calls to log that are 
-   suitable for conditional DCE. Returns true if the log call is a
-    candidate. */
-
-static bool
-check_log (tree log_call)
-{
-  tree arg_typ;
-  gcc_assert (TREE_CODE (log_call) == CALL_EXPR);
-  if (call_expr_nargs (log_call) != 1)
-    return false;
-
-  arg_typ = TREE_TYPE (CALL_EXPR_ARG (log_call, 0));
-  if (!is_gimple_reg_type (arg_typ))
-    return false;
-  return true;
-}
-
-
-/* A helper function to determine if a builtin function call is a 
-   candidate for conditional DCE. Returns true if the builtin call
-   is a candidate. */
-
-static bool
-is_unnecessary_except_errno_call (tree call)
-{
-  tree fn;
-  bool is_unnecessary_except_errno = false;
-  enum built_in_function fnc;
-
-  if (!flag_tree_builtin_dce) 
-    return false;
-
-  gcc_assert (call && TREE_CODE (call) == CALL_EXPR);
-
-  fn = get_callee_fndecl (call);
-  if (!fn || !DECL_BUILT_IN (fn)) 
-    return false;
-
-  fnc = DECL_FUNCTION_CODE (fn);
-  switch (fnc)
-    {
-    CASE_FLT_FN (BUILT_IN_POW): 
-      if (check_pow (call))
-        is_unnecessary_except_errno = true;
-      break;
-
-    CASE_FLT_FN (BUILT_IN_LOG):
-      if (check_log (call))
-        is_unnecessary_except_errno = true;
-      break;
-    default : 
-      is_unnecessary_except_errno = false;
-      break;
-   }
-
-  return is_unnecessary_except_errno;
-}
-
-
 /* If STMT is not already marked necessary, mark it, and add it to the
    worklist if ADD_TO_WORKLIST is true.  */
 static inline void
-mark_stmt_necessary (tree stmt, bool add_to_worklist)
+mark_stmt_necessary (gimple stmt, bool add_to_worklist)
 {
   gcc_assert (stmt);
-  gcc_assert (!DECL_P (stmt));
 
-  if (NECESSARY (stmt))
+  if (gimple_plf (stmt, STMT_NECESSARY))
     return;
 
   if (dump_file && (dump_flags & TDF_DETAILS))
     {
       fprintf (dump_file, "Marking useful stmt: ");
-      print_generic_stmt (dump_file, stmt, TDF_SLIM);
+      print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
       fprintf (dump_file, "\n");
     }
 
-  NECESSARY (stmt) = 1;
+  gimple_set_plf (stmt, STMT_NECESSARY, true);
   if (add_to_worklist)
-    VEC_safe_push (tree, heap, worklist, stmt);
+    VEC_safe_push (gimple, heap, worklist, stmt);
+  if (bb_contains_live_stmts && !is_gimple_debug (stmt))
+    SET_BIT (bb_contains_live_stmts, gimple_bb (stmt)->index);
 }
 
 
@@ -418,31 +231,39 @@ mark_stmt_necessary (tree stmt, bool add_to_worklist)
 static inline void
 mark_operand_necessary (tree op)
 {
-  tree stmt;
+  gimple stmt;
   int ver;
 
   gcc_assert (op);
 
   ver = SSA_NAME_VERSION (op);
   if (TEST_BIT (processed, ver))
-    return;
+    {
+      stmt = SSA_NAME_DEF_STMT (op);
+      gcc_assert (gimple_nop_p (stmt)
+                 || gimple_plf (stmt, STMT_NECESSARY));
+      return;
+    }
   SET_BIT (processed, ver);
 
   stmt = SSA_NAME_DEF_STMT (op);
   gcc_assert (stmt);
 
-  if (NECESSARY (stmt) || IS_EMPTY_STMT (stmt))
+  if (gimple_plf (stmt, STMT_NECESSARY) || gimple_nop_p (stmt))
     return;
 
   if (dump_file && (dump_flags & TDF_DETAILS))
-   {
-     fprintf (dump_file, " Marked as necessary: ");
-     print_generic_stmt (dump_file, stmt, TDF_SLIM);
-     fprintf (dump_file, "\n");
-   }
-
-  NECESSARY (stmt) = 1;
-  VEC_safe_push (tree, heap, worklist, stmt);
+    {
+      fprintf (dump_file, "marking necessary through ");
+      print_generic_expr (dump_file, op, 0);
+      fprintf (dump_file, " stmt ");
+      print_gimple_stmt (dump_file, stmt, 0, 0);
+    }
+
+  gimple_set_plf (stmt, STMT_NECESSARY, true);
+  if (bb_contains_live_stmts)
+    SET_BIT (bb_contains_live_stmts, gimple_bb (stmt)->index);
+  VEC_safe_push (gimple, heap, worklist, stmt);
 }
 
 
@@ -453,78 +274,76 @@ mark_operand_necessary (tree op)
    necessary.  */
 
 static void
-mark_stmt_if_obviously_necessary (tree stmt, bool aggressive)
+mark_stmt_if_obviously_necessary (gimple stmt, bool aggressive)
 {
-  stmt_ann_t ann;
-  tree op;
-
+  tree lhs = NULL_TREE;
   /* With non-call exceptions, we have to assume that all statements could
      throw.  If a statement may throw, it is inherently necessary.  */
   if (flag_non_call_exceptions
-      && tree_could_throw_p (stmt))
+      && stmt_could_throw_p (stmt))
     {
       mark_stmt_necessary (stmt, true);
       return;
     }
 
-  /* Statements that are implicitly live.  Most function calls, asm and return
-     statements are required.  Labels and BIND_EXPR nodes are kept because
-     they are control flow, and we have no way of knowing whether they can be
-     removed.  DCE can eliminate all the other statements in a block, and CFG
-     can then remove the block and labels.  */
-  switch (TREE_CODE (stmt))
+  /* Statements that are implicitly live.  Most function calls, asm
+     and return statements are required.  Labels and GIMPLE_BIND nodes
+     are kept because they are control flow, and we have no way of
+     knowing whether they can be removed.  DCE can eliminate all the
+     other statements in a block, and CFG can then remove the block
+     and labels.  */
+  switch (gimple_code (stmt))
     {
-    case PREDICT_EXPR:
-    case LABEL_EXPR:
-    case CASE_LABEL_EXPR:
+    case GIMPLE_PREDICT:
+    case GIMPLE_LABEL:
       mark_stmt_necessary (stmt, false);
       return;
 
-    case ASM_EXPR:
-    case RESX_EXPR:
-    case RETURN_EXPR:
-    case CHANGE_DYNAMIC_TYPE_EXPR:
+    case GIMPLE_ASM:
+    case GIMPLE_RESX:
+    case GIMPLE_RETURN:
       mark_stmt_necessary (stmt, true);
       return;
 
-    case CALL_EXPR:
+    case GIMPLE_CALL:
       /* Most, but not all function calls are required.  Function calls that
         produce no result and have no side effects (i.e. const pure
         functions) are unnecessary.  */
-      if (TREE_SIDE_EFFECTS (stmt)) 
-        mark_stmt_necessary (stmt, true);
-      
-      return;
-
-    case GIMPLE_MODIFY_STMT:
-      op = get_call_expr_in (stmt);
-      if (op && TREE_SIDE_EFFECTS (op))
-       {
-          mark_stmt_necessary (stmt, true);
-         return;
-       }
-
-      /* These values are mildly magic bits of the EH runtime.  We can't
-        see the entire lifetime of these values until landing pads are
-        generated.  */
-      if (TREE_CODE (GIMPLE_STMT_OPERAND (stmt, 0)) == EXC_PTR_EXPR
-         || TREE_CODE (GIMPLE_STMT_OPERAND (stmt, 0)) == FILTER_EXPR)
+      if (gimple_has_side_effects (stmt))
        {
          mark_stmt_necessary (stmt, true);
          return;
        }
+      if (!gimple_call_lhs (stmt))
+        return;
+      lhs = gimple_call_lhs (stmt);
+      /* Fall through */
+
+    case GIMPLE_ASSIGN:
+      if (!lhs)
+        lhs = gimple_assign_lhs (stmt);
       break;
 
-    case GOTO_EXPR:
+    case GIMPLE_DEBUG:
+      /* Debug temps without a value are not useful.  ??? If we could
+        easily locate the debug temp bind stmt for a use thereof,
+        would could refrain from marking all debug temps here, and
+        mark them only if they're used.  */
+      if (gimple_debug_bind_has_value_p (stmt)
+         || TREE_CODE (gimple_debug_bind_get_var (stmt)) != DEBUG_EXPR_DECL)
+       mark_stmt_necessary (stmt, false);
+      return;
+
+    case GIMPLE_GOTO:
       gcc_assert (!simple_goto_p (stmt));
       mark_stmt_necessary (stmt, true);
       return;
 
-    case COND_EXPR:
-      gcc_assert (EDGE_COUNT (bb_for_stmt (stmt)->succs) == 2);
+    case GIMPLE_COND:
+      gcc_assert (EDGE_COUNT (gimple_bb (stmt)->succs) == 2);
       /* Fall through.  */
 
-    case SWITCH_EXPR:
+    case GIMPLE_SWITCH:
       if (! aggressive)
        mark_stmt_necessary (stmt, true);
       break;
@@ -533,12 +352,10 @@ mark_stmt_if_obviously_necessary (tree stmt, bool aggressive)
       break;
     }
 
-  ann = stmt_ann (stmt);
-
   /* If the statement has volatile operands, it needs to be preserved.
      Same for statements that can alter control flow in unpredictable
      ways.  */
-  if (ann->has_volatile_ops || is_ctrl_altering_stmt (stmt))
+  if (gimple_has_volatile_ops (stmt) || is_ctrl_altering_stmt (stmt))
     {
       mark_stmt_necessary (stmt, true);
       return;
@@ -570,16 +387,17 @@ mark_control_dependent_edges_necessary (basic_block bb, struct edge_list *el)
 
   EXECUTE_IF_CONTROL_DEPENDENT (bi, bb->index, edge_number)
     {
-      tree t;
+      gimple stmt;
       basic_block cd_bb = INDEX_EDGE_PRED_BB (el, edge_number);
 
       if (TEST_BIT (last_stmt_necessary, cd_bb->index))
        continue;
       SET_BIT (last_stmt_necessary, cd_bb->index);
+      SET_BIT (bb_contains_live_stmts, cd_bb->index);
 
-      t = last_stmt (cd_bb);
-      if (t && is_ctrl_stmt (t))
-       mark_stmt_necessary (t, true);
+      stmt = last_stmt (cd_bb);
+      if (stmt && is_ctrl_stmt (stmt))
+       mark_stmt_necessary (stmt, true);
     }
 }
 
@@ -595,66 +413,235 @@ static void
 find_obviously_necessary_stmts (struct edge_list *el)
 {
   basic_block bb;
-  block_stmt_iterator i;
+  gimple_stmt_iterator gsi;
   edge e;
+  gimple phi, stmt;
 
   FOR_EACH_BB (bb)
     {
-      tree phi;
-
       /* PHI nodes are never inherently necessary.  */
-      for (phi = phi_nodes (bb); phi; phi = PHI_CHAIN (phi))
-       NECESSARY (phi) = 0;
+      for (gsi = gsi_start_phis (bb); !gsi_end_p (gsi); gsi_next (&gsi))
+       {
+         phi = gsi_stmt (gsi);
+         gimple_set_plf (phi, STMT_NECESSARY, false);
+       }
 
       /* Check all statements in the block.  */
-      for (i = bsi_start (bb); ! bsi_end_p (i); bsi_next (&i))
+      for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
        {
-         tree stmt = bsi_stmt (i);
-         NECESSARY (stmt) = 0;
+         stmt = gsi_stmt (gsi);
+         gimple_set_plf (stmt, STMT_NECESSARY, false);
          mark_stmt_if_obviously_necessary (stmt, el != NULL);
        }
     }
 
+  /* Pure and const functions are finite and thus have no infinite loops in
+     them.  */
+  if ((TREE_READONLY (current_function_decl)
+       || DECL_PURE_P (current_function_decl))
+      && !DECL_LOOPING_CONST_OR_PURE_P (current_function_decl))
+    return;
+
+  /* Prevent the empty possibly infinite loops from being removed.  */
   if (el)
     {
-      /* Prevent the loops from being removed.  We must keep the infinite loops,
-        and we currently do not have a means to recognize the finite ones.  */
-      FOR_EACH_BB (bb)
+      loop_iterator li;
+      struct loop *loop;
+      scev_initialize ();
+      if (mark_irreducible_loops ())
+       FOR_EACH_BB (bb)
+         {
+           edge_iterator ei;
+           FOR_EACH_EDGE (e, ei, bb->succs)
+             if ((e->flags & EDGE_DFS_BACK)
+                 && (e->flags & EDGE_IRREDUCIBLE_LOOP))
+               {
+                 if (dump_file)
+                   fprintf (dump_file, "Marking back edge of irreducible loop %i->%i\n",
+                            e->src->index, e->dest->index);
+                 mark_control_dependent_edges_necessary (e->dest, el);
+               }
+         }
+
+      FOR_EACH_LOOP (li, loop, 0)
+       if (!finite_loop_p (loop))
+         {
+           if (dump_file)
+             fprintf (dump_file, "can not prove finiteness of loop %i\n", loop->num);
+           mark_control_dependent_edges_necessary (loop->latch, el);
+         }
+      scev_finalize ();
+    }
+}
+
+
+/* Return true if REF is based on an aliased base, otherwise false.  */
+
+static bool
+ref_may_be_aliased (tree ref)
+{
+  while (handled_component_p (ref))
+    ref = TREE_OPERAND (ref, 0);
+  return !(DECL_P (ref)
+          && !may_be_aliased (ref));
+}
+
+static bitmap visited = NULL;
+static unsigned int longest_chain = 0;
+static unsigned int total_chain = 0;
+static unsigned int nr_walks = 0;
+static bool chain_ovfl = false;
+
+/* Worker for the walker that marks reaching definitions of REF,
+   which is based on a non-aliased decl, necessary.  It returns
+   true whenever the defining statement of the current VDEF is
+   a kill for REF, as no dominating may-defs are necessary for REF
+   anymore.  DATA points to the basic-block that contains the
+   stmt that refers to REF.  */
+
+static bool
+mark_aliased_reaching_defs_necessary_1 (ao_ref *ref, tree vdef, void *data)
+{
+  gimple def_stmt = SSA_NAME_DEF_STMT (vdef);
+
+  /* All stmts we visit are necessary.  */
+  mark_operand_necessary (vdef);
+
+  /* If the stmt lhs kills ref, then we can stop walking.  */
+  if (gimple_has_lhs (def_stmt)
+      && TREE_CODE (gimple_get_lhs (def_stmt)) != SSA_NAME)
+    {
+      tree base, lhs = gimple_get_lhs (def_stmt);
+      HOST_WIDE_INT size, offset, max_size;
+      ao_ref_base (ref);
+      base = get_ref_base_and_extent (lhs, &offset, &size, &max_size);
+      /* We can get MEM[symbol: sZ, index: D.8862_1] here,
+        so base == refd->base does not always hold.  */
+      if (base == ref->base)
        {
-         edge_iterator ei;
-         FOR_EACH_EDGE (e, ei, bb->succs)
-           if (e->flags & EDGE_DFS_BACK)
-             mark_control_dependent_edges_necessary (e->dest, el);
+         /* For a must-alias check we need to be able to constrain
+            the accesses properly.  */
+         if (size != -1 && size == max_size
+             && ref->max_size != -1)
+           {
+             if (offset <= ref->offset
+                 && offset + size >= ref->offset + ref->max_size)
+               return true;
+           }
+         /* Or they need to be exactly the same.  */
+         else if (ref->ref
+                  /* Make sure there is no induction variable involved
+                     in the references (gcc.c-torture/execute/pr42142.c).
+                     The simplest way is to check if the kill dominates
+                     the use.  */
+                  && dominated_by_p (CDI_DOMINATORS, (basic_block) data,
+                                     gimple_bb (def_stmt))
+                  && operand_equal_p (ref->ref, lhs, 0))
+           return true;
        }
     }
+
+  /* Otherwise keep walking.  */
+  return false;
+}
+
+static void
+mark_aliased_reaching_defs_necessary (gimple stmt, tree ref)
+{
+  unsigned int chain;
+  ao_ref refd;
+  gcc_assert (!chain_ovfl);
+  ao_ref_init (&refd, ref);
+  chain = walk_aliased_vdefs (&refd, gimple_vuse (stmt),
+                             mark_aliased_reaching_defs_necessary_1,
+                             gimple_bb (stmt), NULL);
+  if (chain > longest_chain)
+    longest_chain = chain;
+  total_chain += chain;
+  nr_walks++;
+}
+
+/* Worker for the walker that marks reaching definitions of REF, which
+   is not based on a non-aliased decl.  For simplicity we need to end
+   up marking all may-defs necessary that are not based on a non-aliased
+   decl.  The only job of this walker is to skip may-defs based on
+   a non-aliased decl.  */
+
+static bool
+mark_all_reaching_defs_necessary_1 (ao_ref *ref ATTRIBUTE_UNUSED,
+                                   tree vdef, void *data ATTRIBUTE_UNUSED)
+{
+  gimple def_stmt = SSA_NAME_DEF_STMT (vdef);
+
+  /* We have to skip already visited (and thus necessary) statements
+     to make the chaining work after we dropped back to simple mode.  */
+  if (chain_ovfl
+      && TEST_BIT (processed, SSA_NAME_VERSION (vdef)))
+    {
+      gcc_assert (gimple_nop_p (def_stmt)
+                 || gimple_plf (def_stmt, STMT_NECESSARY));
+      return false;
+    }
+
+  /* We want to skip stores to non-aliased variables.  */
+  if (!chain_ovfl
+      && gimple_assign_single_p (def_stmt))
+    {
+      tree lhs = gimple_assign_lhs (def_stmt);
+      if (!ref_may_be_aliased (lhs))
+       return false;
+    }
+
+  mark_operand_necessary (vdef);
+
+  return false;
+}
+
+static void
+mark_all_reaching_defs_necessary (gimple stmt)
+{
+  walk_aliased_vdefs (NULL, gimple_vuse (stmt),
+                     mark_all_reaching_defs_necessary_1, NULL, &visited);
 }
 
+/* Return true for PHI nodes with one or identical arguments
+   can be removed.  */
+static bool
+degenerate_phi_p (gimple phi)
+{
+  unsigned int i;
+  tree op = gimple_phi_arg_def (phi, 0);
+  for (i = 1; i < gimple_phi_num_args (phi); i++)
+    if (gimple_phi_arg_def (phi, i) != op)
+      return false;
+  return true;
+}
 
 /* Propagate necessity using the operands of necessary statements.
    Process the uses on each statement in the worklist, and add all
    feeding statements which contribute to the calculation of this
-   value to the worklist. 
+   value to the worklist.
 
    In conservative mode, EL is NULL.  */
 
 static void
 propagate_necessity (struct edge_list *el)
 {
-  tree stmt;
-  bool aggressive = (el ? true : false); 
+  gimple stmt;
+  bool aggressive = (el ? true : false);
 
   if (dump_file && (dump_flags & TDF_DETAILS))
     fprintf (dump_file, "\nProcessing worklist:\n");
 
-  while (VEC_length (tree, worklist) > 0)
+  while (VEC_length (gimple, worklist) > 0)
     {
       /* Take STMT from worklist.  */
-      stmt = VEC_pop (tree, worklist);
+      stmt = VEC_pop (gimple, worklist);
 
       if (dump_file && (dump_flags & TDF_DETAILS))
        {
          fprintf (dump_file, "processing: ");
-         print_generic_stmt (dump_file, stmt, TDF_SLIM);
+         print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
          fprintf (dump_file, "\n");
        }
 
@@ -663,7 +650,7 @@ propagate_necessity (struct edge_list *el)
          /* Mark the last statements of the basic blocks that the block
             containing STMT is control dependent on, but only if we haven't
             already done so.  */
-         basic_block bb = bb_for_stmt (stmt);
+         basic_block bb = gimple_bb (stmt);
          if (bb != ENTRY_BLOCK_PTR
              && ! TEST_BIT (visited_control_parents, bb->index))
            {
@@ -672,7 +659,10 @@ propagate_necessity (struct edge_list *el)
            }
        }
 
-      if (TREE_CODE (stmt) == PHI_NODE)
+      if (gimple_code (stmt) == GIMPLE_PHI
+         /* We do not process virtual PHI nodes nor do we track their
+            necessity.  */
+         && is_gimple_reg (gimple_phi_result (stmt)))
        {
          /* PHI nodes are somewhat special in that each PHI alternative has
             data and control dependencies.  All the statements feeding the
@@ -680,20 +670,20 @@ propagate_necessity (struct edge_list *el)
             we also consider the control dependent edges leading to the
             predecessor block associated with each PHI alternative as
             necessary.  */
-         int k;
+         size_t k;
 
-         for (k = 0; k < PHI_NUM_ARGS (stmt); k++)
+         for (k = 0; k < gimple_phi_num_args (stmt); k++)
             {
              tree arg = PHI_ARG_DEF (stmt, k);
              if (TREE_CODE (arg) == SSA_NAME)
                mark_operand_necessary (arg);
            }
 
-         if (aggressive)
+         if (aggressive && !degenerate_phi_p (stmt))
            {
-             for (k = 0; k < PHI_NUM_ARGS (stmt); k++)
+             for (k = 0; k < gimple_phi_num_args (stmt); k++)
                {
-                 basic_block arg_bb = PHI_ARG_EDGE (stmt, k)->src;
+                 basic_block arg_bb = gimple_phi_arg_edge (stmt, k)->src;
                  if (arg_bb != ENTRY_BLOCK_PTR
                      && ! TEST_BIT (visited_control_parents, arg_bb->index))
                    {
@@ -706,436 +696,164 @@ propagate_necessity (struct edge_list *el)
       else
        {
          /* Propagate through the operands.  Examine all the USE, VUSE and
-            VDEF operands in this statement.  Mark all the statements 
-            which feed this statement's uses as necessary.  The
-            operands of VDEF expressions are also needed as they
-            represent potential definitions that may reach this
-            statement (VDEF operands allow us to follow def-def
-            links).  */
+            VDEF operands in this statement.  Mark all the statements
+            which feed this statement's uses as necessary.  */
          ssa_op_iter iter;
          tree use;
 
-         FOR_EACH_SSA_TREE_OPERAND (use, stmt, iter, SSA_OP_ALL_USES)
+         FOR_EACH_SSA_TREE_OPERAND (use, stmt, iter, SSA_OP_USE)
            mark_operand_necessary (use);
-       }
-    }
-}
 
-/* Method to generate conditional statements for guarding condionally
-   dead calls to pow. One or more statements can be generated for 
-   each logical condition. Statement groups of different conditions
-   are separated by a NULL tree and they are stored in the VEC 
-   conds. The number of logical conditions are stored in *nconds. */
-static void
-gen_conditions_for_pow (tree pow_call, enum built_in_function fnc, 
-                        VEC (tree, heap)* conds, unsigned * nconds)
-{
-  tree base, expn;
-  enum tree_code bc, ec;
-  gcc_assert (TREE_CODE (pow_call) == CALL_EXPR);
-  gcc_assert (call_expr_nargs (pow_call) == 2);
-  gcc_assert (fnc == BUILT_IN_POW);
-
-  *nconds = 0;
-
-  base = CALL_EXPR_ARG (pow_call, 0);
-  expn = CALL_EXPR_ARG (pow_call, 1);
-
-  bc = TREE_CODE (base);
-  ec = TREE_CODE (expn);
-  
-  gcc_assert (TREE_CODE_CLASS (bc) != tcc_constant ||
-             bc == REAL_CST);
-  gcc_assert (TREE_CODE_CLASS (ec) != tcc_constant ||
-             ec == REAL_CST);
-
-  if (bc == REAL_CST)
-   {
-     tree float_typ, max_exp_real_cst;
-     tree temp, tempn, tempc, tempcn, stmt1, stmt2, stmt3;
-     REAL_VALUE_TYPE mv;
-
-     /* See candidate selection in check_pow. 
-        Since the candidates have a given range
-        of base values, the guard code generated
-        for such calls: pow(const,y) are simple:
-           if ( y > max_y )
-               pow(const, y);
-        max_y can be computed separately for each
-        const base, but in this implemetation, we
-        choose to compute it using the max base
-        in the allowed range.  */
-
-     REAL_VALUE_TYPE bcv = TREE_REAL_CST (base);
-     gcc_assert (!REAL_VALUES_EQUAL (bcv, dconst1));
-     gcc_assert (!REAL_VALUES_LESS (bcv, dconst1));
-     real_from_integer (&mv, VOIDmode,256,0,1),
-     gcc_assert (!REAL_VALUES_LESS (mv, bcv));
-     float_typ = TREE_TYPE (expn); 
-
-     max_exp_real_cst = build_real (float_typ, mv);
-     temp = create_tmp_var (float_typ, "DCE_COND");
-     stmt1 = build_gimple_modify_stmt (temp, expn);
-     tempn = make_ssa_name (temp, stmt1);
-     GIMPLE_STMT_OPERAND (stmt1, 0) = tempn;
-
-     tempc = create_tmp_var (boolean_type_node, "DCE_COND_TEST");
-     stmt2 = build_gimple_modify_stmt (tempc, 
-                                       build2 (GT_EXPR, 
-                                               boolean_type_node, 
-                                               tempn, max_exp_real_cst));
-     tempcn = make_ssa_name (tempc, stmt2);
-     GIMPLE_STMT_OPERAND (stmt2, 0) = tempcn;
-
-     stmt3 = build3 (COND_EXPR, void_type_node,
-                     tempcn, NULL_TREE, NULL_TREE);
-     VEC_safe_push (tree, heap, conds, stmt1);
-     VEC_safe_push (tree, heap, conds, stmt2);
-     VEC_safe_push (tree, heap, conds, stmt3);
-     (*nconds)++;
-
-   }
-  else if (bc == SSA_NAME)
-   {
-     tree def, nm, rhs, rhs0, var, int_typ, float_typ;
-     tree max_exp_cst, max_exp_real_cst;
-     tree temp1, temp1n, temp2, temp2n, temp2c, temp2cn; 
-     tree cst0, stmt1, stmt2, stmt3;
-     int sz, max_exp;
-
-     /* Generate error condition code for pow calls with
-        non constant base value. The candidates selected
-        have their base argument value converted from
-        integer (see check_pow) value (1,2,4 bytes), and
-        the max exp value is computed based on the size
-        of the integer type.  The code below first does
-        sanity check and then does code generation.  */
-
-     def = SSA_NAME_DEF_STMT (base);
-     gcc_assert (TREE_CODE (def) == GIMPLE_MODIFY_STMT);
-
-     nm = GIMPLE_STMT_OPERAND (def,0);
-     gcc_assert (TREE_CODE (nm) == SSA_NAME);
-     gcc_assert (nm == base); 
-
-     rhs = GIMPLE_STMT_OPERAND (def,1);
-     
-     gcc_assert (TREE_CODE (rhs) == FLOAT_EXPR);
-     rhs0 = TREE_OPERAND (rhs,0);
-     gcc_assert (TREE_CODE (rhs0) == SSA_NAME);
-
-     var = SSA_NAME_VAR (rhs0);
-     gcc_assert (TREE_CODE (var) == VAR_DECL 
-                 || TREE_CODE (var) == PARM_DECL);
-     
-     int_typ = TREE_TYPE (var);
-     gcc_assert (TREE_CODE (int_typ) == INTEGER_TYPE);
-
-     sz = int_size_in_bytes (int_typ);
-     gcc_assert (sz > 0 && sz <= INT_TYPE_SIZE) ;
-
-
-     float_typ = TREE_TYPE (SSA_NAME_VAR (expn)); 
-     if (sz == 1)
-       max_exp = 128;
-     else if (sz == 2)
-       max_exp = 64;
-     else 
-      {
-        gcc_assert (sz == 4);
-        max_exp = 32;
-      }
-     max_exp_cst = build_int_cst (integer_type_node, max_exp);
-     max_exp_real_cst = build_real_from_int_cst (float_typ, max_exp_cst);
-     
-     /* For pow ((dobule)x,y), generate the following conditions:
-      cond 1:
-        temp1 = x;
-        if (temp1 <= 0)
-
-      cond 2:
-        temp2 = y;
-        if (temp2 > max_exp_real_cst)  */
-
-     temp2 = create_tmp_var (float_typ, "DCE_COND2");
-     stmt1 = build_gimple_modify_stmt (temp2, expn);
-     temp2n = make_ssa_name (temp2, stmt1);
-     GIMPLE_STMT_OPERAND (stmt1,0) = temp2n;
-
-     temp2c = create_tmp_var (boolean_type_node, "DCE_COND2_TEST");
-     stmt2 = build_gimple_modify_stmt (temp2c, 
-                                       build2 (GT_EXPR, 
-                                               boolean_type_node, 
-                                               temp2n, max_exp_real_cst));
-     temp2cn = make_ssa_name (temp2c, stmt2);
-     GIMPLE_STMT_OPERAND (stmt2, 0) = temp2cn;
-
-     stmt3 = build3 (COND_EXPR, void_type_node,
-                     temp2cn, NULL_TREE, NULL_TREE);
-     VEC_safe_push (tree, heap, conds, stmt1);
-     VEC_safe_push (tree, heap, conds, stmt2);
-     VEC_safe_push (tree, heap, conds, stmt3);
-     (*nconds)++;
-
-     /* Now a seperator*/
-     VEC_safe_push (tree, heap, conds, NULL);
-
-     temp1 = create_tmp_var (int_typ, "DCE_COND1");
-     cst0 = build_int_cst (int_typ, 0);
-     stmt1 = build_gimple_modify_stmt (temp1, rhs0);
-     temp1n = make_ssa_name (temp1, stmt1);
-     GIMPLE_STMT_OPERAND (stmt1,0) = temp1n;
-     stmt2 = build3 (COND_EXPR, void_type_node,
-                     build2 (LE_EXPR, boolean_type_node, temp1n, cst0),
-                     NULL_TREE, NULL_TREE);
-
-     VEC_safe_push (tree, heap, conds, stmt1);
-     VEC_safe_push (tree, heap, conds, stmt2);
-     (*nconds)++;
-
-   }
-  else
-    gcc_unreachable ();
-}
+         use = gimple_vuse (stmt);
+         if (!use)
+           continue;
 
-/* The method to generate error condition guard code for log(x)
-   calls. */
-static void
-gen_conditions_for_log (tree call, enum built_in_function fnc, 
-                        VEC (tree, heap)* conds, unsigned * nconds)
-{
-  tree arg, cst0, temp, tempn, tempc, tempcn, stmt1, stmt2, stmt3;
-  gcc_assert (TREE_CODE (call) == CALL_EXPR);
-  gcc_assert (fnc == BUILT_IN_LOG || fnc == BUILT_IN_LOGF || fnc == BUILT_IN_LOGL);
-
-  *nconds = 0;
-
-  /* for log(x), 
-   Generate condition
-
-   temp = x
-   if (x <= 0)
-  */
-  arg = CALL_EXPR_ARG (call, 0);
-  cst0 = build_real (TREE_TYPE (arg), dconst0);
-  temp = create_tmp_var (TREE_TYPE (arg), "DCE_COND");
-  stmt1 = build_gimple_modify_stmt (temp, arg);
-  tempn = make_ssa_name (temp, stmt1);
-  GIMPLE_STMT_OPERAND (stmt1,0) = tempn;
-
-  tempc = create_tmp_var (boolean_type_node, "DCE_COND_TEST");
-  stmt2 = build_gimple_modify_stmt (tempc, 
-                                    build2 (LE_EXPR, 
-                                            boolean_type_node, 
-                                            tempn, cst0));
-  tempcn = make_ssa_name (tempc, stmt2);
-  GIMPLE_STMT_OPERAND (stmt2, 0) = tempcn;
-
-  stmt3 = build3 (COND_EXPR, void_type_node, tempcn,
-                       NULL_TREE, NULL_TREE);
-
-  VEC_safe_push (tree, heap, conds, stmt1);
-  VEC_safe_push (tree, heap, conds, stmt2);
-  VEC_safe_push (tree, heap, conds, stmt3);
-  (*nconds)++;
+         /* If we dropped to simple mode make all immediately
+            reachable definitions necessary.  */
+         if (chain_ovfl)
+           {
+             mark_all_reaching_defs_necessary (stmt);
+             continue;
+           }
 
+         /* For statements that may load from memory (have a VUSE) we
+            have to mark all reaching (may-)definitions as necessary.
+            We partition this task into two cases:
+             1) explicit loads based on decls that are not aliased
+             2) implicit loads (like calls) and explicit loads not
+                based on decls that are not aliased (like indirect
+                references or loads from globals)
+            For 1) we mark all reaching may-defs as necessary, stopping
+            at dominating kills.  For 2) we want to mark all dominating
+            references necessary, but non-aliased ones which we handle
+            in 1).  By keeping a global visited bitmap for references
+            we walk for 2) we avoid quadratic behavior for those.  */
+
+         if (is_gimple_call (stmt))
+           {
+             tree callee = gimple_call_fndecl (stmt);
+             unsigned i;
+
+             /* Calls to functions that are merely acting as barriers
+                or that only store to memory do not make any previous
+                stores necessary.  */
+             if (callee != NULL_TREE
+                 && DECL_BUILT_IN_CLASS (callee) == BUILT_IN_NORMAL
+                 && (DECL_FUNCTION_CODE (callee) == BUILT_IN_MEMSET
+                     || DECL_FUNCTION_CODE (callee) == BUILT_IN_MALLOC
+                     || DECL_FUNCTION_CODE (callee) == BUILT_IN_FREE))
+               continue;
+
+             /* Calls implicitly load from memory, their arguments
+                in addition may explicitly perform memory loads.  */
+             mark_all_reaching_defs_necessary (stmt);
+             for (i = 0; i < gimple_call_num_args (stmt); ++i)
+               {
+                 tree arg = gimple_call_arg (stmt, i);
+                 if (TREE_CODE (arg) == SSA_NAME
+                     || is_gimple_min_invariant (arg))
+                   continue;
+                 if (!ref_may_be_aliased (arg))
+                   mark_aliased_reaching_defs_necessary (stmt, arg);
+               }
+           }
+         else if (gimple_assign_single_p (stmt))
+           {
+             tree rhs;
+             bool rhs_aliased = false;
+             /* If this is a load mark things necessary.  */
+             rhs = gimple_assign_rhs1 (stmt);
+             if (TREE_CODE (rhs) != SSA_NAME
+                 && !is_gimple_min_invariant (rhs))
+               {
+                 if (!ref_may_be_aliased (rhs))
+                   mark_aliased_reaching_defs_necessary (stmt, rhs);
+                 else
+                   rhs_aliased = true;
+               }
+             if (rhs_aliased)
+               mark_all_reaching_defs_necessary (stmt);
+           }
+         else if (gimple_code (stmt) == GIMPLE_RETURN)
+           {
+             tree rhs = gimple_return_retval (stmt);
+             /* A return statement may perform a load.  */
+             if (TREE_CODE (rhs) != SSA_NAME
+                 && !is_gimple_min_invariant (rhs))
+               {
+                 if (!ref_may_be_aliased (rhs))
+                   mark_aliased_reaching_defs_necessary (stmt, rhs);
+                 else
+                   mark_all_reaching_defs_necessary (stmt);
+               }
+           }
+         else if (gimple_code (stmt) == GIMPLE_ASM)
+           {
+             unsigned i;
+             mark_all_reaching_defs_necessary (stmt);
+             /* Inputs may perform loads.  */
+             for (i = 0; i < gimple_asm_ninputs (stmt); ++i)
+               {
+                 tree op = TREE_VALUE (gimple_asm_input_op (stmt, i));
+                 if (TREE_CODE (op) != SSA_NAME
+                     && !is_gimple_min_invariant (op)
+                     && !ref_may_be_aliased (op))
+                   mark_aliased_reaching_defs_necessary (stmt, op);
+               }
+           }
+         else
+           gcc_unreachable ();
+
+         /* If we over-used our alias oracle budget drop to simple
+            mode.  The cost metric allows quadratic behavior
+            (number of uses times number of may-defs queries) up to
+            a constant maximal number of queries and after that falls back to
+            super-linear complexity.  */
+         if (/* Constant but quadratic for small functions.  */
+             total_chain > 128 * 128
+             /* Linear in the number of may-defs.  */
+             && total_chain > 32 * longest_chain
+             /* Linear in the number of uses.  */
+             && total_chain > nr_walks * 32)
+           {
+             chain_ovfl = true;
+             if (visited)
+               bitmap_clear (visited);
+           }
+       }
+    }
 }
 
+/* Replace all uses of result of PHI by underlying variable and mark it
+   for renaming.  */
 
-/*  The method to generate shrink wrap conditions for partially 
-    a dead builtin call whose return value is not used anywhere,
-    but has to be kept live due to potential error condition.  
-
-    BI_CALL:  the builtin call
-    CONDS  :  the vector of statements for condition code
-    NCODES :  the pointer to the number of logical conditions, 
-              which may be different from the length of CONDS
-              vector. Statements belonging to different logical
-              condition are separated by NULL tree in the vector
-*/
-
-static void
-gen_shrink_wrap_conditions (tree bi_call, VEC (tree, heap)* conds, unsigned int * nconds)
+void
+mark_virtual_phi_result_for_renaming (gimple phi)
 {
-  tree call, fn;
-  enum built_in_function fnc; 
-  gcc_assert (nconds && conds);
-  gcc_assert (VEC_length(tree, conds) == 0);
-  gcc_assert (TREE_CODE (bi_call) == GIMPLE_MODIFY_STMT 
-              || TREE_CODE (bi_call) == CALL_EXPR);
-
-  call = bi_call;
-  if (TREE_CODE (call) == GIMPLE_MODIFY_STMT)
-    call = get_call_expr_in (bi_call);
-
-  fn = get_callee_fndecl (call);
-  gcc_assert (fn && DECL_BUILT_IN (fn)); 
-  fnc = DECL_FUNCTION_CODE (fn);
-  *nconds = 0;
-
-  switch (fnc)
-    {
-     case BUILT_IN_POW:
-       gen_conditions_for_pow (call, fnc, conds, nconds);
-       break;
-     case BUILT_IN_LOG:
-     case BUILT_IN_LOGF:
-     case BUILT_IN_LOGL:
-       gen_conditions_for_log (call, fnc, conds, nconds);
-       break;
-     default : 
-       gcc_unreachable();
-     break;
-   }
-
-  gcc_assert (*nconds);
-  return;
-}
-
+  bool used = false;
+  imm_use_iterator iter;
+  use_operand_p use_p;
+  gimple stmt;
+  tree result_ssa, result_var;
 
-/* Propability of the branch (to the call) is taken. */
-#define ERR_PROB 0.01
-
-/*  The method to shrink wrap a partially  dead builtin call 
-    whose return value is not used anywhere, but has to be kept 
-    live due to potential error condition.  */
-static void
-shrink_wrap_one_built_in_call (tree bi_call)
-{
-  block_stmt_iterator bi_call_bsi, join_tgt_bsi;
-  basic_block bi_call_bb, join_tgt_bb, guard_bb, guard_bb0;
-  edge join_tgt_in_edge_from_call, join_tgt_in_edge_fall_thru;
-  tree join_tgt_label_decl, join_tgt_label;
-  edge bi_call_in_edge0, guard_bb_in_edge;
-  VEC (tree, heap) *conds;
-  unsigned tn_cond_stmts, nconds;
-  unsigned ci;
-  tree cond_expr = NULL;
-  tree cond_expr_start;
-  tree bi_call_label_decl;
-  tree bi_call_label;
-
-  conds = VEC_alloc (tree, heap, 10);
-  gen_shrink_wrap_conditions (bi_call, conds, &nconds);
-
-  gcc_assert (nconds > 0);
-  /* Make sure no reallocation happens. */
-  gcc_assert (VEC_length (tree, conds) <= 10);
-  gcc_assert (VEC_length (tree, conds) >= nconds);
-  bi_call_bb = bb_for_stmt (bi_call);
-
-  /* Now find the join target bb -- split 
-     bi_call_bb if needed */
-  bi_call_bsi = bsi_for_stmt (bi_call);
-
-  gcc_assert (!bsi_end_p (bi_call_bsi));
-  join_tgt_in_edge_from_call = split_block (bi_call_bb, bi_call);
-  bi_call_bsi = bsi_for_stmt (bi_call);
-
-  join_tgt_bb = join_tgt_in_edge_from_call->dest;
-  join_tgt_label_decl = create_artificial_label ();
-  join_tgt_label = build1 (LABEL_EXPR, void_type_node, join_tgt_label_decl);
-  join_tgt_bsi = bsi_start (join_tgt_bb);
-  bsi_insert_before (&join_tgt_bsi, join_tgt_label, BSI_SAME_STMT);
-
-  /* Now it is time to insert the first condtional expression 
-     into bi_call_bb and split this bb so that bi_call is 
-     shrink-wrapped*/
-  tn_cond_stmts = VEC_length (tree, conds);
-  cond_expr = NULL;
-  cond_expr_start = VEC_index (tree, conds,0);
-  for (ci = 0; ci < tn_cond_stmts; ci++)
-   {
-     tree c = VEC_index (tree, conds, ci);
-     gcc_assert ( c || ci != 0 );
-     if (!c) 
-       break;
-     bsi_insert_before (&bi_call_bsi, c, BSI_SAME_STMT);
-     cond_expr = c;
-   }
-  nconds --;
-  ci ++;
-  gcc_assert (cond_expr && TREE_CODE (cond_expr) == COND_EXPR);
-
-  /* Now the label*/
-  bi_call_label_decl = create_artificial_label ();
-  bi_call_label = build1 (LABEL_EXPR, void_type_node, bi_call_label_decl);
-  bsi_insert_before (&bi_call_bsi, bi_call_label, BSI_SAME_STMT);
-
-  bi_call_in_edge0 = split_block (bi_call_bb, cond_expr);
-  bi_call_in_edge0->flags &= ~EDGE_FALLTHRU;
-  bi_call_in_edge0->flags |= EDGE_TRUE_VALUE;
-  guard_bb0 = bi_call_bb;
-  bi_call_bb = bi_call_in_edge0->dest;
-  join_tgt_in_edge_fall_thru = make_edge (guard_bb0, join_tgt_bb, EDGE_FALSE_VALUE);
-
-  bi_call_in_edge0->probability = REG_BR_PROB_BASE*ERR_PROB;
-  join_tgt_in_edge_fall_thru->probability = 
-      REG_BR_PROB_BASE - bi_call_in_edge0->probability;
-
-  /* Code generation for the rest of the conditions */
-  guard_bb = guard_bb0;
-  for (; nconds > 0; )
-   {
-     unsigned ci0;
-     edge bi_call_in_edge; 
-     block_stmt_iterator guard_bsi = bsi_for_stmt (cond_expr_start);
-     ci0 = ci;
-     cond_expr_start = VEC_index (tree, conds, ci0);
-     for (; ci < tn_cond_stmts; ci++)
-      {
-        tree c = VEC_index (tree, conds, ci);
-        gcc_assert ( c || ci != ci0 );
-        if (!c) 
-          break;
-        bsi_insert_before (&guard_bsi, c, BSI_SAME_STMT);
-        cond_expr = c;
-      }
-     nconds --;
-     ci ++;
-     gcc_assert (cond_expr && TREE_CODE (cond_expr) == COND_EXPR);
-     guard_bb_in_edge = split_block (guard_bb, cond_expr);
-     guard_bb_in_edge->flags &= ~EDGE_FALLTHRU;
-     guard_bb_in_edge->flags |= EDGE_FALSE_VALUE;
-
-     bi_call_in_edge = make_edge (guard_bb, bi_call_bb, EDGE_TRUE_VALUE);
-
-     bi_call_in_edge->probability = REG_BR_PROB_BASE * ERR_PROB;
-     guard_bb_in_edge->probability = 
-         REG_BR_PROB_BASE - bi_call_in_edge->probability;
-
-   }
-
-  VEC_free (tree, heap, conds);
   if (dump_file && (dump_flags & TDF_DETAILS))
-   {
-     location_t loc;
-     loc = EXPR_LOCATION (bi_call);
-     inform (
-         "%Hfunction call is shrink-wrapped into error conditions.",
-         &loc);
-   }
-}
-
-/*  The top level method for conditional dead code shrink 
-    wrapping transformation.  */
-
-static bool
-shrink_wrap_conditional_dead_built_in_calls (void)
-{
-  unsigned i = 0;
-  unsigned n = VEC_length (tree, cond_dead_built_in_calls);
-  if (n == 0) return false;
-
-  for (; i < n ; i++)
-   {
-     tree bi_call = VEC_index (tree,  cond_dead_built_in_calls, i);
-     shrink_wrap_one_built_in_call (bi_call);
-   }
-
-  cfg_altered = true;
+    {
+      fprintf (dump_file, "Marking result for renaming : ");
+      print_gimple_stmt (dump_file, phi, 0, TDF_SLIM);
+      fprintf (dump_file, "\n");
+    }
 
-  return true;
+  result_ssa = gimple_phi_result (phi);
+  result_var = SSA_NAME_VAR (result_ssa);
+  FOR_EACH_IMM_USE_STMT (stmt, iter, result_ssa)
+    {
+      FOR_EACH_IMM_USE_ON_STMT (use_p, iter)
+        SET_USE (use_p, result_var);
+      update_stmt (stmt);
+      used = true;
+    }
+  if (used)
+    mark_sym_for_renaming (result_var);
 }
 
 /* Remove dead PHI nodes from block BB.  */
@@ -1143,53 +861,134 @@ shrink_wrap_conditional_dead_built_in_calls (void)
 static bool
 remove_dead_phis (basic_block bb)
 {
-  tree prev, phi;
   bool something_changed = false;
+  gimple_seq phis;
+  gimple phi;
+  gimple_stmt_iterator gsi;
+  phis = phi_nodes (bb);
 
-  prev = NULL_TREE;
-  phi = phi_nodes (bb);
-  while (phi)
+  for (gsi = gsi_start (phis); !gsi_end_p (gsi);)
     {
       stats.total_phis++;
+      phi = gsi_stmt (gsi);
 
-      if (! NECESSARY (phi))
+      /* We do not track necessity of virtual PHI nodes.  Instead do
+         very simple dead PHI removal here.  */
+      if (!is_gimple_reg (gimple_phi_result (phi)))
        {
-         tree next = PHI_CHAIN (phi);
+         /* Virtual PHI nodes with one or identical arguments
+            can be removed.  */
+         if (degenerate_phi_p (phi))
+           {
+             tree vdef = gimple_phi_result (phi);
+             tree vuse = gimple_phi_arg_def (phi, 0);
+
+             use_operand_p use_p;
+             imm_use_iterator iter;
+             gimple use_stmt;
+             FOR_EACH_IMM_USE_STMT (use_stmt, iter, vdef)
+               FOR_EACH_IMM_USE_ON_STMT (use_p, iter)
+                 SET_USE (use_p, vuse);
+             if (SSA_NAME_OCCURS_IN_ABNORMAL_PHI (vdef)
+                 && TREE_CODE (vuse) == SSA_NAME)
+               SSA_NAME_OCCURS_IN_ABNORMAL_PHI (vuse) = 1;
+           }
+         else
+           gimple_set_plf (phi, STMT_NECESSARY, true);
+       }
 
+      if (!gimple_plf (phi, STMT_NECESSARY))
+       {
          something_changed = true;
          if (dump_file && (dump_flags & TDF_DETAILS))
            {
              fprintf (dump_file, "Deleting : ");
-             print_generic_stmt (dump_file, phi, TDF_SLIM);
+             print_gimple_stmt (dump_file, phi, 0, TDF_SLIM);
              fprintf (dump_file, "\n");
            }
 
-         remove_phi_node (phi, prev, true);
+         remove_phi_node (&gsi, true);
          stats.removed_phis++;
-         phi = next;
-       }
-      else
-       {
-         prev = phi;
-         phi = PHI_CHAIN (phi);
+         continue;
        }
+
+      gsi_next (&gsi);
     }
   return something_changed;
 }
 
+/* Forward edge E to respective POST_DOM_BB and update PHIs.  */
+
+static edge
+forward_edge_to_pdom (edge e, basic_block post_dom_bb)
+{
+  gimple_stmt_iterator gsi;
+  edge e2 = NULL;
+  edge_iterator ei;
+
+  if (dump_file && (dump_flags & TDF_DETAILS))
+    fprintf (dump_file, "Redirecting edge %i->%i to %i\n", e->src->index,
+            e->dest->index, post_dom_bb->index);
+
+  e2 = redirect_edge_and_branch (e, post_dom_bb);
+  cfg_altered = true;
+
+  /* If edge was already around, no updating is neccesary.  */
+  if (e2 != e)
+    return e2;
+
+  if (!gimple_seq_empty_p (phi_nodes (post_dom_bb)))
+    {
+      /* We are sure that for every live PHI we are seeing control dependent BB.
+         This means that we can pick any edge to duplicate PHI args from.  */
+      FOR_EACH_EDGE (e2, ei, post_dom_bb->preds)
+       if (e2 != e)
+         break;
+      for (gsi = gsi_start_phis (post_dom_bb); !gsi_end_p (gsi);)
+       {
+         gimple phi = gsi_stmt (gsi);
+         tree op;
+         source_location locus;
+
+         /* PHIs for virtuals have no control dependency relation on them.
+            We are lost here and must force renaming of the symbol.  */
+         if (!is_gimple_reg (gimple_phi_result (phi)))
+           {
+             mark_virtual_phi_result_for_renaming (phi);
+             remove_phi_node (&gsi, true);
+             continue;
+           }
+
+         /* Dead PHI do not imply control dependency.  */
+          if (!gimple_plf (phi, STMT_NECESSARY))
+           {
+             gsi_next (&gsi);
+             continue;
+           }
+
+         op = gimple_phi_arg_def (phi, e2->dest_idx);
+         locus = gimple_phi_arg_location (phi, e2->dest_idx);
+         add_phi_arg (phi, op, e, locus);
+         /* The resulting PHI if not dead can only be degenerate.  */
+         gcc_assert (degenerate_phi_p (phi));
+         gsi_next (&gsi);
+       }
+    }
+  return e;
+}
 
 /* Remove dead statement pointed to by iterator I.  Receives the basic block BB
    containing I so that we don't have to look it up.  */
 
 static void
-remove_dead_stmt (block_stmt_iterator *i, basic_block bb)
+remove_dead_stmt (gimple_stmt_iterator *i, basic_block bb)
 {
-  tree t = bsi_stmt (*i);
+  gimple stmt = gsi_stmt (*i);
 
   if (dump_file && (dump_flags & TDF_DETAILS))
     {
       fprintf (dump_file, "Deleting : ");
-      print_generic_stmt (dump_file, t, TDF_SLIM);
+      print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
       fprintf (dump_file, "\n");
     }
 
@@ -1201,72 +1000,52 @@ remove_dead_stmt (block_stmt_iterator *i, basic_block bb)
      immediate post-dominator.  The blocks we are circumventing will be
      removed by cleanup_tree_cfg if this change in the flow graph makes them
      unreachable.  */
-  if (is_ctrl_stmt (t))
+  if (is_ctrl_stmt (stmt))
     {
       basic_block post_dom_bb;
+      edge e, e2;
+      edge_iterator ei;
 
-      /* The post dominance info has to be up-to-date.  */
-      gcc_assert (dom_info_state (CDI_POST_DOMINATORS) == DOM_OK);
-      /* Get the immediate post dominator of bb.  */
       post_dom_bb = get_immediate_dominator (CDI_POST_DOMINATORS, bb);
 
-      /* There are three particularly problematical cases.
+      e = find_edge (bb, post_dom_bb);
 
-        1. Blocks that do not have an immediate post dominator.  This
-           can happen with infinite loops.
-
-        2. Blocks that are only post dominated by the exit block.  These
-           can also happen for infinite loops as we create fake edges
-           in the dominator tree.
-
-        3. If the post dominator has PHI nodes we may be able to compute
-           the right PHI args for them.
-
-        In each of these cases we must remove the control statement
-        as it may reference SSA_NAMEs which are going to be removed and
-        we remove all but one outgoing edge from the block.  */
-      if (! post_dom_bb
-         || post_dom_bb == EXIT_BLOCK_PTR
-         || phi_nodes (post_dom_bb))
-       ;
+      /* If edge is already there, try to use it.  This avoids need to update
+         PHI nodes.  Also watch for cases where post dominator does not exists
+        or is exit block.  These can happen for infinite loops as we create
+        fake edges in the dominator tree.  */
+      if (e)
+        ;
+      else if (! post_dom_bb || post_dom_bb == EXIT_BLOCK_PTR)
+       e = EDGE_SUCC (bb, 0);
       else
-       {
-         /* Redirect the first edge out of BB to reach POST_DOM_BB.  */
-         redirect_edge_and_branch (EDGE_SUCC (bb, 0), post_dom_bb);
-         PENDING_STMT (EDGE_SUCC (bb, 0)) = NULL;
-
-         /* It is not sufficient to set cfg_altered below during edge
-            removal, in case BB has two successors and one of them
-            is POST_DOM_BB.  */
-         cfg_altered = true;
-       }
-      EDGE_SUCC (bb, 0)->probability = REG_BR_PROB_BASE;
-      EDGE_SUCC (bb, 0)->count = bb->count;
+        e = forward_edge_to_pdom (EDGE_SUCC (bb, 0), post_dom_bb);
+      gcc_assert (e);
+      e->probability = REG_BR_PROB_BASE;
+      e->count = bb->count;
 
       /* The edge is no longer associated with a conditional, so it does
         not have TRUE/FALSE flags.  */
-      EDGE_SUCC (bb, 0)->flags &= ~(EDGE_TRUE_VALUE | EDGE_FALSE_VALUE);
+      e->flags &= ~(EDGE_TRUE_VALUE | EDGE_FALSE_VALUE);
 
       /* The lone outgoing edge from BB will be a fallthru edge.  */
-      EDGE_SUCC (bb, 0)->flags |= EDGE_FALLTHRU;
-
-      /* Remove the remaining the outgoing edges.  */
-      while (!single_succ_p (bb))
-       {
-         /* FIXME.  When we remove the edge, we modify the CFG, which
-            in turn modifies the dominator and post-dominator tree.
-            Is it safe to postpone recomputing the dominator and
-            post-dominator tree until the end of this pass given that
-            the post-dominators are used above?  */
-         cfg_altered = true;
-          remove_edge (EDGE_SUCC (bb, 1));
-       }
+      e->flags |= EDGE_FALLTHRU;
+
+      /* Remove the remaining outgoing edges.  */
+      for (ei = ei_start (bb->succs); (e2 = ei_safe_edge (ei)); )
+       if (e != e2)
+         {
+           cfg_altered = true;
+            remove_edge (e2);
+         }
+       else
+         ei_next (&ei);
     }
-  
-  bsi_remove (i, true);  
-  release_defs (t); 
-}
 
+  unlink_stmt_vdef (stmt);
+  gsi_remove (i, true);
+  release_defs (stmt);
+}
 
 /* Eliminate unnecessary statements. Any instruction not marked as necessary
    contributes nothing to the program, and can be deleted.  */
@@ -1276,86 +1055,171 @@ eliminate_unnecessary_stmts (void)
 {
   bool something_changed = false;
   basic_block bb;
-  block_stmt_iterator i;
+  gimple_stmt_iterator gsi, psi;
+  gimple stmt;
+  tree call;
+  VEC (basic_block, heap) *h;
 
   if (dump_file && (dump_flags & TDF_DETAILS))
     fprintf (dump_file, "\nEliminating unnecessary statements:\n");
 
   clear_special_calls ();
-  FOR_EACH_BB (bb)
-    {
-      /* Remove dead PHI nodes.  */
-      something_changed |= remove_dead_phis (bb);
-    }
 
-  FOR_EACH_BB (bb)
+  /* Walking basic blocks and statements in reverse order avoids
+     releasing SSA names before any other DEFs that refer to them are
+     released.  This helps avoid loss of debug information, as we get
+     a chance to propagate all RHSs of removed SSAs into debug uses,
+     rather than only the latest ones.  E.g., consider:
+
+     x_3 = y_1 + z_2;
+     a_5 = x_3 - b_4;
+     # DEBUG a => a_5
+
+     If we were to release x_3 before a_5, when we reached a_5 and
+     tried to substitute it into the debug stmt, we'd see x_3 there,
+     but x_3's DEF, type, etc would have already been disconnected.
+     By going backwards, the debug stmt first changes to:
+
+     # DEBUG a => x_3 - b_4
+
+     and then to:
+
+     # DEBUG a => y_1 + z_2 - b_4
+
+     as desired.  */
+  gcc_assert (dom_info_available_p (CDI_DOMINATORS));
+  h = get_all_dominated_blocks (CDI_DOMINATORS, single_succ (ENTRY_BLOCK_PTR));
+
+  while (VEC_length (basic_block, h))
     {
+      bb = VEC_pop (basic_block, h);
+
       /* Remove dead statements.  */
-      for (i = bsi_start (bb); ! bsi_end_p (i) ; )
+      for (gsi = gsi_last_bb (bb); !gsi_end_p (gsi); gsi = psi)
        {
-         tree t = bsi_stmt (i);
+         stmt = gsi_stmt (gsi);
+
+         psi = gsi;
+         gsi_prev (&psi);
 
          stats.total++;
 
-         /* If `i' is not necessary then remove it.  */
-         if (! NECESSARY (t))
+         /* If GSI is not necessary then remove it.  */
+         if (!gimple_plf (stmt, STMT_NECESSARY))
            {
-             remove_dead_stmt (&i, bb);
-             something_changed = true;
+             if (!is_gimple_debug (stmt))
+               something_changed = true;
+             remove_dead_stmt (&gsi, bb);
            }
-         else
+         else if (is_gimple_call (stmt))
            {
-             tree call = get_call_expr_in (t);
+             call = gimple_call_fndecl (stmt);
              if (call)
                {
                  tree name;
 
                  /* When LHS of var = call (); is dead, simplify it into
                     call (); saving one operand.  */
-                 if (TREE_CODE (t) == GIMPLE_MODIFY_STMT
-                     && (TREE_CODE ((name = GIMPLE_STMT_OPERAND (t, 0)))
-                         == SSA_NAME)
-                     && !TEST_BIT (processed, SSA_NAME_VERSION (name)))
+                 name = gimple_call_lhs (stmt);
+                 if (name && TREE_CODE (name) == SSA_NAME
+                          && !TEST_BIT (processed, SSA_NAME_VERSION (name)))
                    {
-                     tree oldlhs = GIMPLE_STMT_OPERAND (t, 0);
                      something_changed = true;
                      if (dump_file && (dump_flags & TDF_DETAILS))
                        {
                          fprintf (dump_file, "Deleting LHS of call: ");
-                         print_generic_stmt (dump_file, t, TDF_SLIM);
+                         print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
                          fprintf (dump_file, "\n");
                        }
 
-                      if (is_unnecessary_except_errno_call (call))
-                       {
-                         if (dump_file && (dump_flags & TDF_DETAILS))
+                     gimple_call_set_lhs (stmt, NULL_TREE);
+                     maybe_clean_or_replace_eh_stmt (stmt, stmt);
+                     update_stmt (stmt);
+                     release_ssa_name (name);
+                   }
+                 notice_special_calls (stmt);
+               }
+           }
+       }
+    }
+
+  VEC_free (basic_block, heap, h);
+
+  /* Since we don't track liveness of virtual PHI nodes, it is possible that we
+     rendered some PHI nodes unreachable while they are still in use.
+     Mark them for renaming.  */
+  if (cfg_altered)
+    {
+      basic_block prev_bb;
+
+      find_unreachable_blocks ();
+
+      /* Delete all unreachable basic blocks in reverse dominator order.  */
+      for (bb = EXIT_BLOCK_PTR->prev_bb; bb != ENTRY_BLOCK_PTR; bb = prev_bb)
+       {
+         prev_bb = bb->prev_bb;
+
+         if (!TEST_BIT (bb_contains_live_stmts, bb->index)
+             || !(bb->flags & BB_REACHABLE))
+           {
+             for (gsi = gsi_start_phis (bb); !gsi_end_p (gsi); gsi_next (&gsi))
+               if (!is_gimple_reg (gimple_phi_result (gsi_stmt (gsi))))
+                 {
+                   bool found = false;
+                   imm_use_iterator iter;
+
+                   FOR_EACH_IMM_USE_STMT (stmt, iter, gimple_phi_result (gsi_stmt (gsi)))
+                     {
+                       if (!(gimple_bb (stmt)->flags & BB_REACHABLE))
+                         continue;
+                       if (gimple_code (stmt) == GIMPLE_PHI
+                           || gimple_plf (stmt, STMT_NECESSARY))
                          {
-                            fprintf (dump_file, "Found conditional dead call: ");
-                            print_generic_stmt (dump_file, t, TDF_SLIM);
-                            fprintf (dump_file, "\n");
-                          }
-                         VEC_safe_push (tree, heap, cond_dead_built_in_calls, call);
-                       }
-
-                     push_stmt_changes (bsi_stmt_ptr (i));
-                     TREE_BLOCK (call) = TREE_BLOCK (t);
-                     bsi_replace (&i, call, false);
-                     maybe_clean_or_replace_eh_stmt (t, call);
-                     mark_symbols_for_renaming (call);
-                     pop_stmt_changes (bsi_stmt_ptr (i));
-                     release_ssa_name (oldlhs);
+                           found = true;
+                           BREAK_FROM_IMM_USE_STMT (iter);
+                         }
+                     }
+                   if (found)
+                     mark_virtual_phi_result_for_renaming (gsi_stmt (gsi));
+                 }
+
+             if (!(bb->flags & BB_REACHABLE))
+               {
+                 /* Speed up the removal of blocks that don't
+                    dominate others.  Walking backwards, this should
+                    be the common case.  ??? Do we need to recompute
+                    dominators because of cfg_altered?  */
+                 if (!MAY_HAVE_DEBUG_STMTS
+                     || !first_dom_son (CDI_DOMINATORS, bb))
+                   delete_basic_block (bb);
+                 else
+                   {
+                     h = get_all_dominated_blocks (CDI_DOMINATORS, bb);
 
+                     while (VEC_length (basic_block, h))
+                       {
+                         bb = VEC_pop (basic_block, h);
+                         prev_bb = bb->prev_bb;
+                         /* Rearrangements to the CFG may have failed
+                            to update the dominators tree, so that
+                            formerly-dominated blocks are now
+                            otherwise reachable.  */
+                         if (!!(bb->flags & BB_REACHABLE))
+                           continue;
+                         delete_basic_block (bb);
+                       }
 
+                     VEC_free (basic_block, heap, h);
                    }
-                 notice_special_calls (call);
                }
-             bsi_next (&i);
            }
        }
     }
-
-  something_changed |= 
-      shrink_wrap_conditional_dead_built_in_calls ();
+  FOR_EACH_BB (bb)
+    {
+      /* Remove dead PHI nodes.  */
+      something_changed |= remove_dead_phis (bb);
+    }
 
   return something_changed;
 }
@@ -1366,24 +1230,21 @@ eliminate_unnecessary_stmts (void)
 static void
 print_stats (void)
 {
-  if (dump_file && (dump_flags & (TDF_STATS|TDF_DETAILS)))
-    {
-      float percg;
+  float percg;
 
-      percg = ((float) stats.removed / (float) stats.total) * 100;
-      fprintf (dump_file, "Removed %d of %d statements (%d%%)\n",
-              stats.removed, stats.total, (int) percg);
+  percg = ((float) stats.removed / (float) stats.total) * 100;
+  fprintf (dump_file, "Removed %d of %d statements (%d%%)\n",
+          stats.removed, stats.total, (int) percg);
 
-      if (stats.total_phis == 0)
-       percg = 0;
-      else
-       percg = ((float) stats.removed_phis / (float) stats.total_phis) * 100;
+  if (stats.total_phis == 0)
+    percg = 0;
+  else
+    percg = ((float) stats.removed_phis / (float) stats.total_phis) * 100;
 
-      fprintf (dump_file, "Removed %d of %d PHI nodes (%d%%)\n",
-              stats.removed_phis, stats.total_phis, (int) percg);
-    }
+  fprintf (dump_file, "Removed %d of %d PHI nodes (%d%%)\n",
+          stats.removed_phis, stats.total_phis, (int) percg);
 }
-\f
+
 /* Initialization for this pass.  Set up the used data structures.  */
 
 static void
@@ -1401,15 +1262,15 @@ tree_dce_init (bool aggressive)
 
       last_stmt_necessary = sbitmap_alloc (last_basic_block);
       sbitmap_zero (last_stmt_necessary);
+      bb_contains_live_stmts = sbitmap_alloc (last_basic_block);
+      sbitmap_zero (bb_contains_live_stmts);
     }
 
   processed = sbitmap_alloc (num_ssa_names + 1);
   sbitmap_zero (processed);
 
-  worklist = VEC_alloc (tree, heap, 64);
-  cond_dead_built_in_calls = VEC_alloc (tree, heap,64);
+  worklist = VEC_alloc (gimple, heap, 64);
   cfg_altered = false;
-  
 }
 
 /* Cleanup after this pass.  */
@@ -1427,15 +1288,15 @@ tree_dce_done (bool aggressive)
 
       sbitmap_free (visited_control_parents);
       sbitmap_free (last_stmt_necessary);
+      sbitmap_free (bb_contains_live_stmts);
+      bb_contains_live_stmts = NULL;
     }
 
   sbitmap_free (processed);
 
-  VEC_free (tree, heap, worklist);
-  VEC_free (tree, heap, cond_dead_built_in_calls);
+  VEC_free (gimple, heap, worklist);
 }
 
-\f
 /* Main routine to eliminate dead code.
 
    AGGRESSIVE controls the aggressiveness of the algorithm.
@@ -1456,6 +1317,13 @@ perform_tree_ssa_dce (bool aggressive)
   struct edge_list *el = NULL;
   bool something_changed = 0;
 
+  /* Preheaders are needed for SCEV to work.
+     Simple lateches and recorded exits improve chances that loop will
+     proved to be finite in testcases such as in loop-15.c and loop-24.c  */
+  if (aggressive)
+    loop_optimizer_init (LOOPS_NORMAL
+                        | LOOPS_HAVE_RECORDED_EXITS);
+
   tree_dce_init (aggressive);
 
   if (aggressive)
@@ -1475,8 +1343,17 @@ perform_tree_ssa_dce (bool aggressive)
 
   find_obviously_necessary_stmts (el);
 
+  if (aggressive)
+    loop_optimizer_finalize ();
+
+  longest_chain = 0;
+  total_chain = 0;
+  nr_walks = 0;
+  chain_ovfl = false;
+  visited = BITMAP_ALLOC (NULL);
   propagate_necessity (el);
-  
+  BITMAP_FREE (visited);
+
   something_changed |= eliminate_unnecessary_stmts ();
   something_changed |= cfg_altered;
 
@@ -1489,8 +1366,11 @@ perform_tree_ssa_dce (bool aggressive)
   if (cfg_altered)
     free_dominance_info (CDI_DOMINATORS);
 
+  statistics_counter_event (cfun, "Statements deleted", stats.removed);
+  statistics_counter_event (cfun, "PHI nodes deleted", stats.removed_phis);
+
   /* Debugging dumps.  */
-  if (dump_file)
+  if (dump_file && (dump_flags & (TDF_STATS|TDF_DETAILS)))
     print_stats ();
 
   tree_dce_done (aggressive);
@@ -1498,7 +1378,7 @@ perform_tree_ssa_dce (bool aggressive)
   free_edge_list (el);
 
   if (something_changed)
-    return (TODO_update_ssa | TODO_cleanup_cfg | TODO_ggc_collect 
+    return (TODO_update_ssa | TODO_cleanup_cfg | TODO_ggc_collect
            | TODO_remove_unused_locals);
   else
     return 0;