OSDN Git Service

2008-01-15 Sebastian Pop <sebastian.pop@amd.com>
[pf3gnuchains/gcc-fork.git] / gcc / tree-ssa-dse.c
index 23487f2..3e0f04b 100644 (file)
@@ -1,11 +1,11 @@
 /* Dead store elimination
-   Copyright (C) 2004 Free Software Foundation, Inc.
+   Copyright (C) 2004, 2005, 2006, 2007 Free Software Foundation, Inc.
 
 This file is part of GCC.
 
 GCC is free software; you can redistribute it and/or modify
 it under the terms of the GNU General Public License as published by
-the Free Software Foundation; either version 2, or (at your option)
+the Free Software Foundation; either version 3, or (at your option)
 any later version.
 
 GCC is distributed in the hope that it will be useful,
@@ -14,15 +14,13 @@ MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 GNU General Public License for more details.
 
 You should have received a copy of the GNU General Public License
-along with GCC; see the file COPYING.  If not, write to
-the Free Software Foundation, 59 Temple Place - Suite 330,
-Boston, MA 02111-1307, USA.  */
+along with GCC; see the file COPYING3.  If not see
+<http://www.gnu.org/licenses/>.  */
 
 #include "config.h"
 #include "system.h"
 #include "coretypes.h"
 #include "tm.h"
-#include "errors.h"
 #include "ggc.h"
 #include "tree.h"
 #include "rtl.h"
@@ -84,8 +82,15 @@ struct dse_block_local_data
   bitmap stores;
 };
 
+/* Basic blocks of the potentially dead store and the following
+   store, for memory_address_same.  */
+struct address_walk_data
+{
+  basic_block store1_bb, store2_bb;
+};
+
 static bool gate_dse (void);
-static void tree_ssa_dse (void);
+static unsigned int tree_ssa_dse (void);
 static void dse_initialize_block_local_data (struct dom_walk_data *,
                                             basic_block,
                                             bool);
@@ -94,8 +99,6 @@ static void dse_optimize_stmt (struct dom_walk_data *,
                               block_stmt_iterator);
 static void dse_record_phis (struct dom_walk_data *, basic_block);
 static void dse_finalize_block (struct dom_walk_data *, basic_block);
-static void fix_phi_uses (tree, tree);
-static void fix_stmt_v_may_defs (tree, tree);
 static void record_voperand_set (bitmap, bitmap *, unsigned int);
 
 static unsigned max_stmt_uid;  /* Maximal uid of a statement.  Uids to phi
@@ -113,85 +116,8 @@ get_stmt_uid (tree stmt)
   return stmt_ann (stmt)->uid;
 }
 
-/* Function indicating whether we ought to include information for 'var'
-   when calculating immediate uses.  For this pass we only want use
-   information for virtual variables.  */
-
-static bool
-need_imm_uses_for (tree var)
-{
-  return !is_gimple_reg (var);
-}
-
-
-/* Replace uses in PHI which match V_MAY_DEF_RESULTs in STMT with the 
-   corresponding V_MAY_DEF_OP in STMT.  */
-
-static void
-fix_phi_uses (tree phi, tree stmt)
-{
-  stmt_ann_t ann = stmt_ann (stmt);
-  v_may_def_optype v_may_defs;
-  unsigned int i;
-  int j;
-
-  get_stmt_operands (stmt);
-  v_may_defs = V_MAY_DEF_OPS (ann);
-
-  /* Walk each V_MAY_DEF in STMT.  */
-  for (i = 0; i < NUM_V_MAY_DEFS (v_may_defs); i++)
-    {
-      tree v_may_def = V_MAY_DEF_RESULT (v_may_defs, i);
-
-      /* Find any uses in the PHI which match V_MAY_DEF and replace
-        them with the appropriate V_MAY_DEF_OP.  */
-      for (j = 0; j < PHI_NUM_ARGS (phi); j++)
-       if (v_may_def == PHI_ARG_DEF (phi, j))
-         SET_PHI_ARG_DEF (phi, j, V_MAY_DEF_OP (v_may_defs, i));
-    }
-}
-
-/* Replace the V_MAY_DEF_OPs in STMT1 which match V_MAY_DEF_RESULTs 
-   in STMT2 with the appropriate V_MAY_DEF_OPs from STMT2.  */
-
-static void
-fix_stmt_v_may_defs (tree stmt1, tree stmt2)
-{
-  stmt_ann_t ann1 = stmt_ann (stmt1);
-  stmt_ann_t ann2 = stmt_ann (stmt2);
-  v_may_def_optype v_may_defs1;
-  v_may_def_optype v_may_defs2;
-  unsigned int i, j;
-
-  get_stmt_operands (stmt1);
-  get_stmt_operands (stmt2);
-  v_may_defs1 = V_MAY_DEF_OPS (ann1);
-  v_may_defs2 = V_MAY_DEF_OPS (ann2);
-
-  /* Walk each V_MAY_DEF_OP in stmt1.  */
-  for (i = 0; i < NUM_V_MAY_DEFS (v_may_defs1); i++)
-    {
-      tree v_may_def1 = V_MAY_DEF_OP (v_may_defs1, i);
-
-      /* Find the appropriate V_MAY_DEF_RESULT in STMT2.  */
-      for (j = 0; j < NUM_V_MAY_DEFS (v_may_defs2); j++)
-       {
-         if (v_may_def1 == V_MAY_DEF_RESULT (v_may_defs2, j))
-           {
-             /* Update.  */
-             SET_V_MAY_DEF_OP (v_may_defs1, i, V_MAY_DEF_OP (v_may_defs2, j));
-             break;
-           }
-       }
-
-      /* If we did not find a corresponding V_MAY_DEF_RESULT, then something
-        has gone terribly wrong.  */
-      gcc_assert (j != NUM_V_MAY_DEFS (v_may_defs2));
-    }
-}
-
-
 /* Set bit UID in bitmaps GLOBAL and *LOCAL, creating *LOCAL as needed.  */
+
 static void
 record_voperand_set (bitmap global, bitmap *local, unsigned int uid)
 {
@@ -205,6 +131,7 @@ record_voperand_set (bitmap global, bitmap *local, unsigned int uid)
   bitmap_set_bit (*local, uid);
   bitmap_set_bit (global, uid);
 }
+
 /* Initialize block local data structures.  */
 
 static void
@@ -213,7 +140,8 @@ dse_initialize_block_local_data (struct dom_walk_data *walk_data,
                                 bool recycled)
 {
   struct dse_block_local_data *bd
-    = VARRAY_TOP_GENERIC_PTR (walk_data->block_data_stack);
+    = (struct dse_block_local_data *)
+       VEC_last (void_p, walk_data->block_data_stack);
 
   /* If we are given a recycled block local data structure, ensure any
      bitmap associated with the block is cleared.  */
@@ -224,6 +152,241 @@ dse_initialize_block_local_data (struct dom_walk_data *walk_data,
     }
 }
 
+/* Helper function for memory_address_same via walk_tree.  Returns
+   non-NULL if it finds an SSA_NAME which is part of the address,
+   such that the definition of the SSA_NAME post-dominates the store
+   we want to delete but not the store that we believe makes it
+   redundant.  This indicates that the address may change between
+   the two stores.  */
+
+static tree
+memory_ssa_name_same (tree *expr_p, int *walk_subtrees ATTRIBUTE_UNUSED,
+                     void *data)
+{
+  struct address_walk_data *walk_data = (struct address_walk_data *) data;
+  tree expr = *expr_p;
+  tree def_stmt;
+  basic_block def_bb;
+
+  if (TREE_CODE (expr) != SSA_NAME)
+    return NULL_TREE;
+
+  /* If we've found a default definition, then there's no problem.  Both
+     stores will post-dominate it.  And def_bb will be NULL.  */
+  if (SSA_NAME_IS_DEFAULT_DEF (expr))
+    return NULL_TREE;
+
+  def_stmt = SSA_NAME_DEF_STMT (expr);
+  def_bb = bb_for_stmt (def_stmt);
+
+  /* DEF_STMT must dominate both stores.  So if it is in the same
+     basic block as one, it does not post-dominate that store.  */
+  if (walk_data->store1_bb != def_bb
+      && dominated_by_p (CDI_POST_DOMINATORS, walk_data->store1_bb, def_bb))
+    {
+      if (walk_data->store2_bb == def_bb
+         || !dominated_by_p (CDI_POST_DOMINATORS, walk_data->store2_bb,
+                             def_bb))
+       /* Return non-NULL to stop the walk.  */
+       return def_stmt;
+    }
+
+  return NULL_TREE;
+}
+
+/* Return TRUE if the destination memory address in STORE1 and STORE2
+   might be modified after STORE1, before control reaches STORE2.  */
+
+static bool
+memory_address_same (tree store1, tree store2)
+{
+  struct address_walk_data walk_data;
+
+  walk_data.store1_bb = bb_for_stmt (store1);
+  walk_data.store2_bb = bb_for_stmt (store2);
+
+  return (walk_tree (&GIMPLE_STMT_OPERAND (store1, 0), memory_ssa_name_same,
+                    &walk_data, NULL)
+         == NULL);
+}
+
+/* Return true if there is a stmt that kills the lhs of STMT and is in the
+   virtual def-use chain of STMT without a use inbetween the kill and STMT.
+   Returns false if no such stmt is found.
+   *FIRST_USE_P is set to the first use of the single virtual def of
+   STMT.  *USE_P is set to the vop killed by *USE_STMT.  */
+
+static bool
+get_kill_of_stmt_lhs (tree stmt,
+                     use_operand_p * first_use_p,
+                     use_operand_p * use_p, tree * use_stmt)
+{
+  tree lhs;
+
+  gcc_assert (TREE_CODE (stmt) == GIMPLE_MODIFY_STMT);
+
+  lhs = GIMPLE_STMT_OPERAND (stmt, 0);
+
+  /* We now walk the chain of single uses of the single VDEFs.
+     We succeeded finding a kill if the lhs of the use stmt is
+     equal to the original lhs.  We can keep walking to the next
+     use if there are no possible uses of the original lhs in
+     the stmt.  */
+  do
+    {
+      tree use_lhs, use_rhs;
+      def_operand_p def_p;
+
+      /* The stmt must have a single VDEF.  */
+      def_p = SINGLE_SSA_DEF_OPERAND (stmt, SSA_OP_VDEF);
+      if (def_p == NULL_DEF_OPERAND_P)
+       return false;
+
+      /* Get the single immediate use of the def.  */
+      if (!single_imm_use (DEF_FROM_PTR (def_p), first_use_p, &stmt))
+       return false;
+      first_use_p = use_p;
+
+      /* If there are possible hidden uses, give up.  */
+      if (TREE_CODE (stmt) != GIMPLE_MODIFY_STMT)
+       return false;
+      use_rhs = GIMPLE_STMT_OPERAND (stmt, 1);
+      if (TREE_CODE (use_rhs) == CALL_EXPR
+         || (!is_gimple_min_invariant (use_rhs)
+             && TREE_CODE (use_rhs) != SSA_NAME))
+       return false;
+
+      /* If the use stmts lhs matches the original lhs we have
+        found the kill, otherwise continue walking.  */
+      use_lhs = GIMPLE_STMT_OPERAND (stmt, 0);
+      if (operand_equal_p (use_lhs, lhs, 0))
+       {
+         *use_stmt = stmt;
+         return true;
+       }
+    }
+  while (1);
+}
+
+/* A helper of dse_optimize_stmt.
+   Given a GIMPLE_MODIFY_STMT in STMT, check that each VDEF has one
+   use, and that one use is another VDEF clobbering the first one.
+
+   Return TRUE if the above conditions are met, otherwise FALSE.  */
+
+static bool
+dse_possible_dead_store_p (tree stmt,
+                          use_operand_p *first_use_p,
+                          use_operand_p *use_p,
+                          tree *use_stmt,
+                          struct dse_global_data *dse_gd,
+                          struct dse_block_local_data *bd)
+{
+  ssa_op_iter op_iter;
+  bool fail = false;
+  def_operand_p var1;
+  vuse_vec_p vv;
+  tree defvar = NULL_TREE, temp;
+  tree prev_defvar = NULL_TREE;
+  stmt_ann_t ann = stmt_ann (stmt);
+
+  /* We want to verify that each virtual definition in STMT has
+     precisely one use and that all the virtual definitions are
+     used by the same single statement.  When complete, we
+     want USE_STMT to refer to the one statement which uses
+     all of the virtual definitions from STMT.  */
+  *use_stmt = NULL;
+  FOR_EACH_SSA_VDEF_OPERAND (var1, vv, stmt, op_iter)
+    {
+      defvar = DEF_FROM_PTR (var1);
+
+      /* If this virtual def does not have precisely one use, then
+        we will not be able to eliminate STMT.  */
+      if (!has_single_use (defvar))
+       {
+         fail = true;
+         break;
+       }
+
+      /* Get the one and only immediate use of DEFVAR.  */
+      single_imm_use (defvar, use_p, &temp);
+      gcc_assert (*use_p != NULL_USE_OPERAND_P);
+      *first_use_p = *use_p;
+
+      /* In the case of memory partitions, we may get:
+
+          # MPT.764_162 = VDEF <MPT.764_161(D)>
+          x = {};
+          # MPT.764_167 = VDEF <MPT.764_162>
+          y = {};
+
+          So we must make sure we're talking about the same LHS.
+      */
+      if (TREE_CODE (temp) == GIMPLE_MODIFY_STMT)
+       {
+         tree base1 = get_base_address (GIMPLE_STMT_OPERAND (stmt, 0));
+         tree base2 =  get_base_address (GIMPLE_STMT_OPERAND (temp, 0));
+
+         while (base1 && INDIRECT_REF_P (base1))
+           base1 = TREE_OPERAND (base1, 0);
+         while (base2 && INDIRECT_REF_P (base2))
+           base2 = TREE_OPERAND (base2, 0);
+
+         if (base1 != base2)
+           {
+             fail = true;
+             break;
+           }
+       }
+
+      /* If the immediate use of DEF_VAR is not the same as the
+        previously find immediate uses, then we will not be able
+        to eliminate STMT.  */
+      if (*use_stmt == NULL)
+       {
+         *use_stmt = temp;
+         prev_defvar = defvar;
+       }
+      else if (temp != *use_stmt)
+       {
+         fail = true;
+         break;
+       }
+    }
+
+  if (fail)
+    {
+      record_voperand_set (dse_gd->stores, &bd->stores, ann->uid);
+      return false;
+    }
+
+  /* Skip through any PHI nodes we have already seen if the PHI
+     represents the only use of this store.
+
+     Note this does not handle the case where the store has
+     multiple VDEFs which all reach a set of PHI nodes in the same block.  */
+  while (*use_p != NULL_USE_OPERAND_P
+        && TREE_CODE (*use_stmt) == PHI_NODE
+        && bitmap_bit_p (dse_gd->stores, get_stmt_uid (*use_stmt)))
+    {
+      /* A PHI node can both define and use the same SSA_NAME if
+        the PHI is at the top of a loop and the PHI_RESULT is
+        a loop invariant and copies have not been fully propagated.
+
+        The safe thing to do is exit assuming no optimization is
+        possible.  */
+      if (SSA_NAME_DEF_STMT (PHI_RESULT (*use_stmt)) == *use_stmt)
+       return false;
+
+      /* Skip past this PHI and loop again in case we had a PHI
+        chain.  */
+      single_imm_use (PHI_RESULT (*use_stmt), use_p, use_stmt);
+    }
+
+  return true;
+}
+
+
 /* Attempt to eliminate dead stores in the statement referenced by BSI.
 
    A dead store is a store into a memory location which will later be
@@ -241,78 +404,91 @@ dse_optimize_stmt (struct dom_walk_data *walk_data,
                   block_stmt_iterator bsi)
 {
   struct dse_block_local_data *bd
-    = VARRAY_TOP_GENERIC_PTR (walk_data->block_data_stack);
-  struct dse_global_data *dse_gd = walk_data->global_data;
+    = (struct dse_block_local_data *)
+       VEC_last (void_p, walk_data->block_data_stack);
+  struct dse_global_data *dse_gd
+    = (struct dse_global_data *) walk_data->global_data;
   tree stmt = bsi_stmt (bsi);
   stmt_ann_t ann = stmt_ann (stmt);
-  v_may_def_optype v_may_defs;
 
-  get_stmt_operands (stmt);
-  v_may_defs = V_MAY_DEF_OPS (ann);
-
-  /* If this statement has no virtual uses, then there is nothing
+  /* If this statement has no virtual defs, then there is nothing
      to do.  */
-  if (NUM_V_MAY_DEFS (v_may_defs) == 0)
+  if (ZERO_SSA_OPERANDS (stmt, SSA_OP_VDEF))
     return;
 
-  /* We know we have virtual definitions.  If this is a MODIFY_EXPR that's
-     not also a function call, then record it into our table.  */
+  /* We know we have virtual definitions.  If this is a GIMPLE_MODIFY_STMT
+     that's not also a function call, then record it into our table.  */
   if (get_call_expr_in (stmt))
     return;
-  if (TREE_CODE (stmt) == MODIFY_EXPR)
-    {
-      dataflow_t df = get_immediate_uses (stmt);
-      unsigned int num_uses = num_immediate_uses (df);
-      tree use;
-      tree skipped_phi;
 
+  if (ann->has_volatile_ops)
+    return;
 
-      /* If there are no uses then there is nothing left to do.  */
-      if (num_uses == 0)
-       {
-         record_voperand_set (dse_gd->stores, &bd->stores, ann->uid);
-         return;
-       }
-
-      use = immediate_use (df, 0);
-      skipped_phi = NULL;
-
-      /* Skip through any PHI nodes we have already seen if the PHI
-        represents the only use of this store.
+  if (TREE_CODE (stmt) == GIMPLE_MODIFY_STMT)
+    {
+      use_operand_p first_use_p = NULL_USE_OPERAND_P;
+      use_operand_p use_p = NULL;
+      tree use_stmt;
 
-        Note this does not handle the case where the store has
-        multiple V_MAY_DEFs which all reach a set of PHI nodes in the
-        same block.  */
-      while (num_uses == 1
-            && TREE_CODE (use) == PHI_NODE
-            && bitmap_bit_p (dse_gd->stores, get_stmt_uid (use)))
-       {
-         /* Record the first PHI we skip so that we can fix its
-            uses if we find that STMT is a dead store.  */
-         if (!skipped_phi)
-           skipped_phi = use;
-
-         /* Skip past this PHI and loop again in case we had a PHI
-            chain.  */
-         df = get_immediate_uses (use);
-         num_uses = num_immediate_uses (df);
-         use = immediate_use (df, 0);
-       }
+      if (!dse_possible_dead_store_p (stmt, &first_use_p, &use_p, &use_stmt,
+                                     dse_gd, bd))
+       return;
 
       /* If we have precisely one immediate use at this point, then we may
-        have found redundant store.  */
-      if (num_uses == 1
-         && bitmap_bit_p (dse_gd->stores, get_stmt_uid (use))
-         && operand_equal_p (TREE_OPERAND (stmt, 0),
-                             TREE_OPERAND (use, 0), 0))
+        have found redundant store.  Make sure that the stores are to
+        the same memory location.  This includes checking that any
+        SSA-form variables in the address will have the same values.  */
+      if (use_p != NULL_USE_OPERAND_P
+          && bitmap_bit_p (dse_gd->stores, get_stmt_uid (use_stmt))
+          && !operand_equal_p (GIMPLE_STMT_OPERAND (stmt, 0),
+                               GIMPLE_STMT_OPERAND (use_stmt, 0), 0)
+          && memory_address_same (stmt, use_stmt))
+        {
+          /* If we have precisely one immediate use at this point, but
+             the stores are not to the same memory location then walk the
+             virtual def-use chain to get the stmt which stores to that same
+             memory location.  */
+          if (!get_kill_of_stmt_lhs (stmt, &first_use_p, &use_p, &use_stmt))
+            {
+              record_voperand_set (dse_gd->stores, &bd->stores, ann->uid);
+              return;
+            }
+        }
+
+      /* If we have precisely one immediate use at this point and the
+        stores are to the same memory location or there is a chain of
+        virtual uses from stmt and the stmt which stores to that same
+        memory location, then we may have found redundant store.  */
+      if (use_p != NULL_USE_OPERAND_P
+         && bitmap_bit_p (dse_gd->stores, get_stmt_uid (use_stmt))
+         && operand_equal_p (GIMPLE_STMT_OPERAND (stmt, 0),
+                             GIMPLE_STMT_OPERAND (use_stmt, 0), 0)
+         && memory_address_same (stmt, use_stmt))
        {
-         /* We need to fix the operands if either the first PHI we
-            skipped, or the store which we are not deleting if we did
-            not skip any PHIs.  */
-         if (skipped_phi)
-           fix_phi_uses (skipped_phi, stmt);
-         else
-           fix_stmt_v_may_defs (use, stmt);
+         ssa_op_iter op_iter;
+         def_operand_p var1;
+         vuse_vec_p vv;
+         tree stmt_lhs;
+
+         if (LOADED_SYMS (use_stmt))
+           {
+             tree use_base
+               = get_base_address (GIMPLE_STMT_OPERAND (use_stmt, 0));
+             /* If use_stmt is or might be a nop assignment, e.g. for
+                struct { ... } S a, b, *p; ...
+                b = a; b = b;
+                or
+                b = a; b = *p; where p might be &b, then USE_STMT
+                acts as a use as well as definition, so store in STMT
+                is not dead.  */
+             if (TREE_CODE (use_base) == VAR_DECL
+                 && bitmap_bit_p (LOADED_SYMS (use_stmt),
+                                  DECL_UID (use_base)))
+               {
+                 record_voperand_set (dse_gd->stores, &bd->stores, ann->uid);
+                 return;
+               }
+           }
 
          if (dump_file && (dump_flags & TDF_DETAILS))
             {
@@ -321,21 +497,28 @@ dse_optimize_stmt (struct dom_walk_data *walk_data,
               fprintf (dump_file, "'\n");
             }
 
-         /* Any immediate uses which reference STMT need to instead
-            reference the new consumer, either SKIPPED_PHI or USE.  
-            This allows us to cascade dead stores.  */
-         redirect_immediate_uses (stmt, skipped_phi ? skipped_phi : use);
+         /* Then we need to fix the operand of the consuming stmt.  */
+         stmt_lhs = USE_FROM_PTR (first_use_p);
+         FOR_EACH_SSA_VDEF_OPERAND (var1, vv, stmt, op_iter)
+           {
+             tree usevar, temp;
 
-         /* Be sure to remove any dataflow information attached to
-            this statement.  */
-         free_df_for_stmt (stmt);
+             single_imm_use (DEF_FROM_PTR (var1), &use_p, &temp);
+             gcc_assert (VUSE_VECT_NUM_ELEM (*vv) == 1);
+             usevar = VUSE_ELEMENT_VAR (*vv, 0);
+             SET_USE (use_p, usevar);
+
+             /* Make sure we propagate the ABNORMAL bit setting.  */
+             if (SSA_NAME_OCCURS_IN_ABNORMAL_PHI (stmt_lhs))
+               SSA_NAME_OCCURS_IN_ABNORMAL_PHI (usevar) = 1;
+           }
+
+         /* Remove the dead store.  */
+         bsi_remove (&bsi, true);
 
          /* And release any SSA_NAMEs set in this statement back to the
             SSA_NAME manager.  */
          release_defs (stmt);
-
-         /* Finally remove the dead store.  */
-         bsi_remove (&bsi);
        }
 
       record_voperand_set (dse_gd->stores, &bd->stores, ann->uid);
@@ -348,12 +531,14 @@ static void
 dse_record_phis (struct dom_walk_data *walk_data, basic_block bb)
 {
   struct dse_block_local_data *bd
-    = VARRAY_TOP_GENERIC_PTR (walk_data->block_data_stack);
-  struct dse_global_data *dse_gd = walk_data->global_data;
+    = (struct dse_block_local_data *)
+       VEC_last (void_p, walk_data->block_data_stack);
+  struct dse_global_data *dse_gd
+    = (struct dse_global_data *) walk_data->global_data;
   tree phi;
 
   for (phi = phi_nodes (bb); phi; phi = PHI_CHAIN (phi))
-    if (need_imm_uses_for (PHI_RESULT (phi)))
+    if (!is_gimple_reg (PHI_RESULT (phi)))
       record_voperand_set (dse_gd->stores,
                           &bd->stores,
                           get_stmt_uid (phi));
@@ -364,17 +549,25 @@ dse_finalize_block (struct dom_walk_data *walk_data,
                    basic_block bb ATTRIBUTE_UNUSED)
 {
   struct dse_block_local_data *bd
-    = VARRAY_TOP_GENERIC_PTR (walk_data->block_data_stack);
-  struct dse_global_data *dse_gd = walk_data->global_data;
+    = (struct dse_block_local_data *)
+       VEC_last (void_p, walk_data->block_data_stack);
+  struct dse_global_data *dse_gd
+    = (struct dse_global_data *) walk_data->global_data;
   bitmap stores = dse_gd->stores;
   unsigned int i;
+  bitmap_iterator bi;
 
   /* Unwind the stores noted in this basic block.  */
   if (bd->stores)
-    EXECUTE_IF_SET_IN_BITMAP (bd->stores, 0, i, bitmap_clear_bit (stores, i););
+    EXECUTE_IF_SET_IN_BITMAP (bd->stores, 0, i, bi)
+      {
+       bitmap_clear_bit (stores, i);
+      }
 }
 
-static void
+/* Main entry point.  */
+
+static unsigned int
 tree_ssa_dse (void)
 {
   struct dom_walk_data walk_data;
@@ -398,9 +591,6 @@ tree_ssa_dse (void)
      dominators.  */
   calculate_dominance_info (CDI_POST_DOMINATORS);
 
-  /* We also need immediate use information for virtual operands.  */
-  compute_immediate_uses (TDFA_USE_VOPS, need_imm_uses_for);
-
   /* Dead store elimination is fundamentally a walk of the post-dominator
      tree and a backwards walk of statements within each block.  */
   walk_data.walk_stmts_backward = true;
@@ -412,11 +602,12 @@ tree_ssa_dse (void)
   walk_data.after_dom_children_before_stmts = NULL;
   walk_data.after_dom_children_walk_stmts = NULL;
   walk_data.after_dom_children_after_stmts = dse_finalize_block;
+  walk_data.interesting_blocks = NULL;
 
   walk_data.block_local_data_size = sizeof (struct dse_block_local_data);
 
   /* This is the main hash table for the dead store elimination pass.  */
-  dse_gd.stores = BITMAP_XMALLOC ();
+  dse_gd.stores = BITMAP_ALLOC (NULL);
   walk_data.global_data = &dse_gd;
 
   /* Initialize the dominator walker.  */
@@ -429,13 +620,11 @@ tree_ssa_dse (void)
   fini_walk_dominator_tree (&walk_data);
 
   /* Release the main bitmap.  */
-  BITMAP_XFREE (dse_gd.stores);
-
-  /* Free dataflow information.  It's probably out of date now anyway.  */
-  free_df ();
+  BITMAP_FREE (dse_gd.stores);
 
   /* For now, just wipe the post-dominator information.  */
   free_dominance_info (CDI_POST_DOMINATORS);
+  return 0;
 }
 
 static bool
@@ -452,12 +641,148 @@ struct tree_opt_pass pass_dse = {
   NULL,                                /* next */
   0,                           /* static_pass_number */
   TV_TREE_DSE,                 /* tv_id */
-  PROP_cfg | PROP_ssa
+  PROP_cfg
+    | PROP_ssa
     | PROP_alias,              /* properties_required */
   0,                           /* properties_provided */
   0,                           /* properties_destroyed */
   0,                           /* todo_flags_start */
-  TODO_dump_func | TODO_ggc_collect    /* todo_flags_finish */
-  | TODO_verify_ssa,
-  0                                    /* letter */
+  TODO_dump_func
+    | TODO_ggc_collect
+    | TODO_verify_ssa,         /* todo_flags_finish */
+  0                            /* letter */
+};
+
+/* A very simple dead store pass eliminating write only local variables.
+   The pass does not require alias information and thus can be run before
+   inlining to quickly eliminate artifacts of some common C++ constructs.  */
+
+static unsigned int
+execute_simple_dse (void)
+{
+  block_stmt_iterator bsi;
+  basic_block bb;
+  bitmap variables_loaded = BITMAP_ALLOC (NULL);
+  unsigned int todo = 0;
+
+  /* Collect into VARIABLES LOADED all variables that are read in function
+     body.  */
+  FOR_EACH_BB (bb)
+    for (bsi = bsi_start (bb); !bsi_end_p (bsi); bsi_next (&bsi))
+      if (LOADED_SYMS (bsi_stmt (bsi)))
+       bitmap_ior_into (variables_loaded,
+                        LOADED_SYMS (bsi_stmt (bsi)));
+
+  /* Look for statements writing into the write only variables.
+     And try to remove them.  */
+
+  FOR_EACH_BB (bb)
+    for (bsi = bsi_start (bb); !bsi_end_p (bsi);)
+      {
+       tree stmt = bsi_stmt (bsi), op;
+       bool removed = false;
+        ssa_op_iter iter;
+
+       if (STORED_SYMS (stmt) && TREE_CODE (stmt) == GIMPLE_MODIFY_STMT
+           && TREE_CODE (stmt) != RETURN_EXPR
+           && !bitmap_intersect_p (STORED_SYMS (stmt), variables_loaded))
+         {
+           unsigned int i;
+           bitmap_iterator bi;
+           bool dead = true;
+
+
+
+           /* See if STMT only stores to write-only variables and
+              verify that there are no volatile operands.  tree-ssa-operands
+              sets has_volatile_ops flag for all statements involving
+              reads and writes when aliases are not built to prevent passes
+              from removing them as dead.  The flag thus has no use for us
+              and we need to look into all operands.  */
+             
+           EXECUTE_IF_SET_IN_BITMAP (STORED_SYMS (stmt), 0, i, bi)
+             {
+               tree var = referenced_var_lookup (i);
+               if (TREE_ADDRESSABLE (var)
+                   || is_global_var (var)
+                   || TREE_THIS_VOLATILE (var))
+                 dead = false;
+             }
+
+           if (dead && LOADED_SYMS (stmt))
+             EXECUTE_IF_SET_IN_BITMAP (LOADED_SYMS (stmt), 0, i, bi)
+               if (TREE_THIS_VOLATILE (referenced_var_lookup (i)))
+                 dead = false;
+
+           if (dead)
+             FOR_EACH_SSA_TREE_OPERAND (op, stmt, iter, SSA_OP_ALL_OPERANDS)
+               if (TREE_THIS_VOLATILE (op))
+                 dead = false;
+
+           /* Look for possible occurence var = indirect_ref (...) where
+              indirect_ref itself is volatile.  */
+
+           if (dead && TREE_THIS_VOLATILE (GIMPLE_STMT_OPERAND (stmt, 1)))
+             dead = false;
+
+           if (dead)
+             {
+               tree call = get_call_expr_in (stmt);
+
+               /* When LHS of var = call (); is dead, simplify it into
+                  call (); saving one operand.  */
+               if (TREE_CODE (stmt) == GIMPLE_MODIFY_STMT
+                   && call
+                   && TREE_SIDE_EFFECTS (call))
+                 {
+                   if (dump_file && (dump_flags & TDF_DETAILS))
+                     {
+                       fprintf (dump_file, "Deleted LHS of call: ");
+                       print_generic_stmt (dump_file, stmt, TDF_SLIM);
+                       fprintf (dump_file, "\n");
+                     }
+                   push_stmt_changes (bsi_stmt_ptr (bsi));
+                   TREE_BLOCK (call) = TREE_BLOCK (stmt);
+                   bsi_replace (&bsi, call, false);
+                   maybe_clean_or_replace_eh_stmt (stmt, call);
+                   mark_symbols_for_renaming (call);
+                   pop_stmt_changes (bsi_stmt_ptr (bsi));
+                 }
+               else
+                 {
+                   if (dump_file && (dump_flags & TDF_DETAILS))
+                     {
+                       fprintf (dump_file, "  Deleted dead store '");
+                       print_generic_expr (dump_file, stmt, dump_flags);
+                       fprintf (dump_file, "'\n");
+                     }
+                   removed = true;
+                   bsi_remove (&bsi, true);
+                   todo |= TODO_cleanup_cfg;
+                 }
+               todo |= TODO_remove_unused_locals | TODO_ggc_collect;
+             }
+         }
+       if (!removed)
+         bsi_next (&bsi);
+      }
+  BITMAP_FREE (variables_loaded);
+  return todo;
+}
+
+struct tree_opt_pass pass_simple_dse =
+{
+  "sdse",                              /* name */
+  NULL,                                        /* gate */
+  execute_simple_dse,                  /* execute */
+  NULL,                                        /* sub */
+  NULL,                                        /* next */
+  0,                                   /* static_pass_number */
+  0,                                   /* tv_id */
+  PROP_ssa,                            /* properties_required */
+  0,                                   /* properties_provided */
+  0,                                   /* properties_destroyed */
+  0,                                   /* todo_flags_start */
+  TODO_dump_func,                      /* todo_flags_finish */
+  0                                    /* letter */
 };