OSDN Git Service

Fix 4 execute/va-arg-26.c gcc testsuite failures.
[pf3gnuchains/gcc-fork.git] / gcc / tree-mudflap.c
index ba589f9..f59732f 100644 (file)
@@ -378,6 +378,11 @@ mudflap_init (void)
                                          unsigned_char_type_node);
   mf_cache_mask_decl = mf_make_builtin (VAR_DECL, "__mf_lc_mask",
                                         mf_uintptr_type);
+  /* Don't process these in mudflap_enqueue_decl, should they come by
+     there for some reason.  */
+  mf_mark (mf_cache_array_decl);
+  mf_mark (mf_cache_shift_decl);
+  mf_mark (mf_cache_mask_decl);
   mf_check_fndecl = mf_make_builtin (FUNCTION_DECL, "__mf_check",
                                      mf_check_register_fntype);
   mf_register_fndecl = mf_make_builtin (FUNCTION_DECL, "__mf_register",
@@ -407,7 +412,10 @@ mudflap_init (void)
 static void
 execute_mudflap_function_ops (void)
 {
-  if (mf_marked_p (current_function_decl))
+  /* Don't instrument functions such as the synthetic constructor
+     built during mudflap_finish_file.  */
+  if (mf_marked_p (current_function_decl) ||
+      DECL_ARTIFICIAL (current_function_decl))
     return;
 
   push_gimplify_context ();
@@ -481,19 +489,18 @@ mf_decl_clear_locals (void)
 }
 
 static void
-mf_build_check_statement_for (tree addr, tree size,
+mf_build_check_statement_for (tree base, tree limit,
                               block_stmt_iterator *instr_bsi,
                               location_t *locus, tree dirflag)
 {
   tree_stmt_iterator head, tsi;
-  tree ptrtype = TREE_TYPE (addr);
   block_stmt_iterator bsi;
   basic_block cond_bb, then_bb, join_bb;
   edge e;
   tree cond, t, u, v, l1, l2;
-  tree mf_value;
   tree mf_base;
   tree mf_elem;
+  tree mf_limit;
 
   /* We first need to split the current basic block, and start altering
      the CFG.  This allows us to insert the statements we're about to
@@ -508,48 +515,67 @@ mf_build_check_statement_for (tree addr, tree size,
   bsi_prev (&bsi);
   if (! bsi_end_p (bsi))
     {
+      /* We're processing a statement in the middle of the block, so
+         we need to split the block.  This creates a new block and a new
+         fallthrough edge.  */
       e = split_block (cond_bb, bsi_stmt (bsi));
       cond_bb = e->src;
       join_bb = e->dest;
     }
   else
     {
+      /* We're processing the first statement in the block, so we need
+         to split the incoming edge.  This also creates a new block
+         and a new fallthrough edge.  */
       join_bb = cond_bb;
-      cond_bb = create_empty_bb (join_bb->prev_bb);
-      e = make_edge (cond_bb, join_bb, 0);
+      cond_bb = split_edge (find_edge (join_bb->prev_bb, join_bb));
     }
-  e->flags = EDGE_FALSE_VALUE;
+  
+  /* A recap at this point: join_bb is the basic block at whose head
+     is the gimple statement for which this check expression is being
+     built.  cond_bb is the (possibly new, synthetic) basic block the
+     end of which will contain the cache-lookup code, and a
+     conditional that jumps to the cache-miss code or, much more
+     likely, over to join_bb.  */
+
+  /* Create the bb that contains the cache-miss fallback block (mf_check).  */
   then_bb = create_empty_bb (cond_bb);
   make_edge (cond_bb, then_bb, EDGE_TRUE_VALUE);
-  make_edge (then_bb, join_bb, EDGE_FALLTHRU);
+  make_single_succ_edge (then_bb, join_bb, EDGE_FALLTHRU);
 
   /* We expect that the conditional jump we will construct will not
      be taken very often as it basically is an exception condition.  */
-  predict_edge_def (then_bb->pred, PRED_MUDFLAP, NOT_TAKEN);
+  predict_edge_def (EDGE_PRED (then_bb, 0), PRED_MUDFLAP, NOT_TAKEN);
+
+  /* Mark the pseudo-fallthrough edge from cond_bb to join_bb.  */
+  e = find_edge (cond_bb, join_bb);
+  e->flags = EDGE_FALSE_VALUE;
+  predict_edge_def (e, PRED_MUDFLAP, TAKEN);
 
   /* Update dominance info.  Note that bb_join's data was
      updated by split_block.  */
-  if (dom_computed[CDI_DOMINATORS] >= DOM_CONS_OK)
+  if (dom_info_available_p (CDI_DOMINATORS))
     {
       set_immediate_dominator (CDI_DOMINATORS, then_bb, cond_bb);
       set_immediate_dominator (CDI_DOMINATORS, join_bb, cond_bb);
     }
 
   /* Build our local variables.  */
-  mf_value = create_tmp_var (ptrtype, "__mf_value");
   mf_elem = create_tmp_var (mf_cache_structptr_type, "__mf_elem");
   mf_base = create_tmp_var (mf_uintptr_type, "__mf_base");
+  mf_limit = create_tmp_var (mf_uintptr_type, "__mf_limit");
 
-  /* Build: __mf_value = <address expression>.  */
-  t = build (MODIFY_EXPR, void_type_node, mf_value, unshare_expr (addr));
+  /* Build: __mf_base = (uintptr_t) <base address expression>.  */
+  t = build (MODIFY_EXPR, void_type_node, mf_base,
+             convert (mf_uintptr_type, unshare_expr (base)));
   SET_EXPR_LOCUS (t, locus);
   gimplify_to_stmt_list (&t);
   head = tsi_start (t);
   tsi = tsi_last (t);
 
-  /* Build: __mf_base = (uintptr_t)__mf_value.  */
-  t = build (MODIFY_EXPR, void_type_node, mf_base,
-             build1 (NOP_EXPR, mf_uintptr_type, mf_value));
+  /* Build: __mf_limit = (uintptr_t) <limit address expression>.  */
+  t = build (MODIFY_EXPR, void_type_node, mf_limit,
+             convert (mf_uintptr_type, unshare_expr (limit)));
   SET_EXPR_LOCUS (t, locus);
   gimplify_to_stmt_list (&t);
   tsi_link_after (&tsi, t, TSI_CONTINUE_LINKING);
@@ -572,7 +598,7 @@ mf_build_check_statement_for (tree addr, tree size,
   /* Quick validity check.
 
      if (__mf_elem->low > __mf_base
-         || (__mf_elem_high < __mf_base + sizeof(T) - 1))
+         || (__mf_elem_high < __mf_limit))
         {
           __mf_check ();
           ... and only if single-threaded:
@@ -589,22 +615,19 @@ mf_build_check_statement_for (tree addr, tree size,
              TYPE_FIELDS (mf_cache_struct_type), NULL_TREE);
   t = build (GT_EXPR, boolean_type_node, t, mf_base);
 
-  /* Construct '__mf_elem->high < __mf_base + sizeof(T) - 1'.
+  /* Construct '__mf_elem->high < __mf_limit'.
 
      First build:
         1) u <--  '__mf_elem->high'
-        2) v <--  '__mf_base + sizeof (T) - 1'.
+        2) v <--  '__mf_limit'.
 
      Then build 'u <-- (u < v).  */
 
-
   u = build (COMPONENT_REF, mf_uintptr_type,
              build1 (INDIRECT_REF, mf_cache_struct_type, mf_elem),
              TREE_CHAIN (TYPE_FIELDS (mf_cache_struct_type)), NULL_TREE);
 
-  v = convert (mf_uintptr_type,
-               size_binop (MINUS_EXPR, size, size_one_node));
-  v = fold (build (PLUS_EXPR, mf_uintptr_type, mf_base, v));
+  v = mf_limit;
 
   u = build (LT_EXPR, boolean_type_node, u, v);
 
@@ -629,12 +652,12 @@ mf_build_check_statement_for (tree addr, tree size,
      the conditional jump,
 
      if (__mf_elem->low > __mf_base
-         || (__mf_elem_high < __mf_base + sizeof(T) - 1))
+         || (__mf_elem_high < __mf_limit))
 
      The lowered GIMPLE tree representing this code is in the statement
      list starting at 'head'.
 
-     We can insert this now in the current basic block, ie. the one that
+     We can insert this now in the current basic block, i.e. the one that
      the statement we're instrumenting was originally in.  */
   bsi = bsi_last (cond_bb);
   for (tsi = head; ! tsi_end_p (tsi); tsi_next (&tsi))
@@ -652,8 +675,13 @@ mf_build_check_statement_for (tree addr, tree size,
                                              : *locus),
                  NULL_TREE);
   u = tree_cons (NULL_TREE, dirflag, u);
-  u = tree_cons (NULL_TREE, size, u);
-  u = tree_cons (NULL_TREE, mf_value, u);
+  /* NB: we pass the overall [base..limit] range to mf_check.  */
+  u = tree_cons (NULL_TREE, 
+                 fold (build (PLUS_EXPR, integer_type_node,
+                              fold (build (MINUS_EXPR, mf_uintptr_type, mf_limit, mf_base)),
+                              integer_one_node)),
+                 u);
+  u = tree_cons (NULL_TREE, mf_base, u);
   t = build_function_call_expr (mf_check_fndecl, u);
   gimplify_to_stmt_list (&t);
   head = tsi_start (t);
@@ -679,11 +707,33 @@ mf_build_check_statement_for (tree addr, tree size,
   bsi_next (instr_bsi);
 }
 
+
+/* Check whether the given decl, generally a VAR_DECL or PARM_DECL, is
+   eligible for instrumentation.  For the mudflap1 pass, this implies
+   that it should be registered with the libmudflap runtime.  For the
+   mudflap2 pass this means instrumenting an indirection operation with
+   respect to the object.
+*/
+static int
+mf_decl_eligible_p (tree decl)
+{
+  return ((TREE_CODE (decl) == VAR_DECL || TREE_CODE (decl) == PARM_DECL)
+          /* The decl must have its address taken.  In the case of
+             arrays, this flag is also set if the indexes are not
+             compile-time known valid constants.  */
+          && TREE_ADDRESSABLE (decl)
+          /* The type of the variable must be complete.  */
+          && COMPLETE_OR_VOID_TYPE_P (TREE_TYPE (decl))
+         /* The decl hasn't been decomposed somehow.  */
+         && DECL_VALUE_EXPR (decl) == NULL);
+}
+
+
 static void
 mf_xform_derefs_1 (block_stmt_iterator *iter, tree *tp,
                    location_t *locus, tree dirflag)
 {
-  tree type, ptr_type, addr, size, t;
+  tree type, ptr_type, base, limit, addr, size, t;
 
   /* Don't instrument read operations.  */
   if (dirflag == integer_zero_node && flag_mudflap_ignore_reads)
@@ -700,90 +750,109 @@ mf_xform_derefs_1 (block_stmt_iterator *iter, tree *tp,
   switch (TREE_CODE (t))
     {
     case ARRAY_REF:
+    case COMPONENT_REF:
       {
-        /* Omit checking if we can statically determine that the access is
-           valid.  For non-addressable local arrays this is not optional,
-           since we won't have called __mf_register for the object.  */
-        tree op0, op1;
-
-        op0 = TREE_OPERAND (t, 0);
-        op1 = TREE_OPERAND (t, 1);
-        while (TREE_CODE (op1) == INTEGER_CST)
+        /* This is trickier than it may first appear.  The reason is
+           that we are looking at expressions from the "inside out" at
+           this point.  We may have a complex nested aggregate/array
+           expression (e.g. "a.b[i].c"), maybe with an indirection as
+           the leftmost operator ("p->a.b.d"), where instrumentation
+           is necessary.  Or we may have an innocent "a.b.c"
+           expression that must not be instrumented.  We need to
+           recurse all the way down the nesting structure to figure it
+           out: looking just at the outer node is not enough.  */          
+        tree var;
+        int component_ref_only = TREE_CODE (t) == COMPONENT_REF;
+
+        /* Iterate to the top of the ARRAY_REF/COMPONENT_REF
+           containment hierarchy to find the outermost VAR_DECL.  */
+        var = TREE_OPERAND (t, 0);
+        while (1)
           {
-            tree dom = TYPE_DOMAIN (TREE_TYPE (op0));
-
-            /* Test for index in range.  Break if not.  */
-            if (!dom
-                || (! TYPE_MIN_VALUE (dom)
-                    || ! really_constant_p (TYPE_MIN_VALUE (dom)))
-                || (! TYPE_MAX_VALUE (dom)
-                    || ! really_constant_p (TYPE_MAX_VALUE (dom)))
-                || (tree_int_cst_lt (op1, TYPE_MIN_VALUE (dom))
-                    || tree_int_cst_lt (TYPE_MAX_VALUE (dom), op1)))
-              break;
-
-            /* If we're looking at a non-external VAR_DECL, then the 
-               access must be ok.  */
-            if (TREE_CODE (op0) == VAR_DECL && !DECL_EXTERNAL (op0))
-              return;
-
-            /* Only continue if we're still looking at an array.  */
-            if (TREE_CODE (op0) != ARRAY_REF)
-              break;
-
-            op1 = TREE_OPERAND (op0, 1);
-            op0 = TREE_OPERAND (op0, 0);
+            if (TREE_CODE (var) == ARRAY_REF)
+              {
+                component_ref_only = 0;
+                var = TREE_OPERAND (var, 0);
+              }
+            else if (TREE_CODE (var) == COMPONENT_REF)
+              var = TREE_OPERAND (var, 0);
+            else if (INDIRECT_REF_P (var))
+              {
+                component_ref_only = 0;
+                break;
+              }
+            else 
+              {
+                gcc_assert (TREE_CODE (var) == VAR_DECL 
+                            || TREE_CODE (var) == PARM_DECL);
+                /* Don't instrument this access if the underlying
+                   variable is not "eligible".  This test matches
+                   those arrays that have only known-valid indexes,
+                   and thus are not labeled TREE_ADDRESSABLE.  */
+                if (! mf_decl_eligible_p (var))
+                  return;
+                else
+                  break;
+              }
           }
-      
-        /* If we got here, we couldn't statically the check.  */
-        ptr_type = build_pointer_type (type);
-        addr = build1 (ADDR_EXPR, ptr_type, t);
-      }
-      break;
 
-    case INDIRECT_REF:
-      addr = TREE_OPERAND (t, 0);
-      ptr_type = TREE_TYPE (addr);
-      break;
-
-    case ARRAY_RANGE_REF:
-      warning ("mudflap checking not yet implemented for ARRAY_RANGE_REF");
-      return;
-
-    case COMPONENT_REF:
-      {
-        tree field;
-
-        /* If we're not dereferencing something, then the access
-           must be ok.  */
-        if (TREE_CODE (TREE_OPERAND (t, 0)) != INDIRECT_REF)
+        /* Handle the case of ordinary non-indirection structure
+           accesses.  These have only nested COMPONENT_REF nodes (no
+           INDIRECT_REF), but pass through the above filter loop.
+           Note that it's possible for such a struct variable to match
+           the eligible_p test because someone else might take its
+           address sometime.  */
+        if (component_ref_only)
           return;
 
-        field = TREE_OPERAND (t, 1);
+        ptr_type = build_pointer_type (type);
 
-        /* If we're looking at a bit field, then we can't take its address
-           with ADDR_EXPR -- lang_hooks.mark_addressable will error.  Do
-           things the hard way with PLUS.  */
-        if (DECL_BIT_FIELD_TYPE (field))
+        /* We need special processing for bitfield components, because
+           their addresses cannot be taken.  */
+        if (TREE_CODE (t) == COMPONENT_REF
+            && DECL_BIT_FIELD_TYPE (TREE_OPERAND (t, 1)))
           {
+            tree field = TREE_OPERAND (t, 1);
+
             if (TREE_CODE (DECL_SIZE_UNIT (field)) == INTEGER_CST)
               size = DECL_SIZE_UNIT (field);
-
+            
             addr = TREE_OPERAND (TREE_OPERAND (t, 0), 0);
             addr = fold_convert (ptr_type_node, addr);
             addr = fold (build (PLUS_EXPR, ptr_type_node,
                                 addr, fold_convert (ptr_type_node,
-                                                    byte_position (field))));
+                                                    byte_position (field))));           
           }
         else
-          {
-            ptr_type = build_pointer_type (type);
-            addr = build1 (ADDR_EXPR, ptr_type, t);
-          }
+          addr = build1 (ADDR_EXPR, build_pointer_type (type), t);
+
+        if (INDIRECT_REF_P (var))
+          base = TREE_OPERAND (var, 0);
+        else
+          base = build1 (ADDR_EXPR, build_pointer_type (TREE_TYPE (var)), var);
+        limit = fold (build (MINUS_EXPR, mf_uintptr_type,
+                             fold (build2 (PLUS_EXPR, mf_uintptr_type, 
+                                           convert (mf_uintptr_type, addr), 
+                                           size)),
+                             integer_one_node));
       }
       break;
 
+    case INDIRECT_REF:
+      addr = TREE_OPERAND (t, 0);
+      ptr_type = TREE_TYPE (addr);
+      base = addr;
+      limit = fold (build (MINUS_EXPR, ptr_type_node,
+                           fold (build (PLUS_EXPR, ptr_type_node, base, size)),
+                           integer_one_node));
+      break;
+
+    case ARRAY_RANGE_REF:
+      warning ("mudflap checking not yet implemented for ARRAY_RANGE_REF");
+      return;
+
     case BIT_FIELD_REF:
+      /* ??? merge with COMPONENT_REF code above? */
       {
         tree ofs, rem, bpu;
 
@@ -805,6 +874,11 @@ mf_xform_derefs_1 (block_stmt_iterator *iter, tree *tp,
         addr = TREE_OPERAND (TREE_OPERAND (t, 0), 0);
         addr = convert (ptr_type_node, addr);
         addr = fold (build (PLUS_EXPR, ptr_type_node, addr, ofs));
+
+        base = addr;
+        limit = fold (build (MINUS_EXPR, ptr_type_node,
+                             fold (build (PLUS_EXPR, ptr_type_node, base, size)),
+                             integer_one_node));
       }
       break;
 
@@ -812,7 +886,7 @@ mf_xform_derefs_1 (block_stmt_iterator *iter, tree *tp,
       return;
     }
 
-  mf_build_check_statement_for (addr, size, iter, locus, dirflag);
+  mf_build_check_statement_for (base, limit, iter, locus, dirflag);
 }
 
 static void
@@ -873,7 +947,10 @@ mf_xform_derefs (void)
 static void
 execute_mudflap_function_decls (void)
 {
-  if (mf_marked_p (current_function_decl))
+  /* Don't instrument functions such as the synthetic constructor
+     built during mudflap_finish_file.  */
+  if (mf_marked_p (current_function_decl) ||
+      DECL_ARTIFICIAL (current_function_decl))
     return;
 
   push_gimplify_context ();
@@ -904,19 +981,12 @@ mx_register_decls (tree decl, tree *stmt_list)
 
   while (decl != NULL_TREE)
     {
-      /* Eligible decl?  */
-      if ((TREE_CODE (decl) == VAR_DECL || TREE_CODE (decl) == PARM_DECL)
-          /* It must be a non-external, automatic variable.  */
+      if (mf_decl_eligible_p (decl) 
+          /* Not already processed.  */
+          && ! mf_marked_p (decl)
+          /* Automatic variable.  */
           && ! DECL_EXTERNAL (decl)
-          && ! TREE_STATIC (decl)
-          /* The decl must have its address taken.  */
-          && TREE_ADDRESSABLE (decl)
-          /* The type of the variable must be complete.  */
-          && COMPLETE_OR_VOID_TYPE_P (TREE_TYPE (decl))
-         /* The decl hasn't been decomposed somehow.  */
-         && DECL_VALUE_EXPR (decl) == NULL
-          /* Don't process the same decl twice.  */
-          && ! mf_marked_p (decl))
+          && ! TREE_STATIC (decl))
         {
           tree size = NULL_TREE, variable_name;
           tree unregister_fncall, unregister_fncall_params;
@@ -1125,50 +1195,13 @@ mudflap_enqueue_decl (tree obj)
   if (DECL_P (obj) && DECL_EXTERNAL (obj) && DECL_ARTIFICIAL (obj))
     return;
 
-  if (COMPLETE_TYPE_P (TREE_TYPE (obj)))
-    {
-      tree object_size;
-
-      mf_mark (obj);
-
-      object_size = size_in_bytes (TREE_TYPE (obj));
+  if (! deferred_static_decls)
+    VARRAY_TREE_INIT (deferred_static_decls, 10, "deferred static list");
 
-      if (dump_file)
-        {
-          fprintf (dump_file, "enqueue_decl obj=`");
-          print_generic_expr (dump_file, obj, dump_flags);
-          fprintf (dump_file, "' size=");
-          print_generic_expr (dump_file, object_size, dump_flags);
-          fprintf (dump_file, "\n");
-        }
-
-      /* NB: the above condition doesn't require TREE_USED or
-         TREE_ADDRESSABLE.  That's because this object may be a global
-         only used from other compilation units.  XXX: Maybe static
-         objects could require those attributes being set.  */
-
-      mudflap_register_call (obj, object_size, mf_varname_tree (obj));
-    }
-  else
-    {
-      size_t i;
-
-      if (! deferred_static_decls)
-        VARRAY_TREE_INIT (deferred_static_decls, 10, "deferred static list");
-
-      /* Ugh, linear search... */
-      for (i = 0; i < VARRAY_ACTIVE_SIZE (deferred_static_decls); i++)
-        if (VARRAY_TREE (deferred_static_decls, i) == obj)
-          {
-            warning ("mudflap cannot track lifetime of `%s'",
-                     IDENTIFIER_POINTER (DECL_NAME (obj)));
-            return;
-          }
-
-      VARRAY_PUSH_TREE (deferred_static_decls, obj);
-    }
+  VARRAY_PUSH_TREE (deferred_static_decls, obj);
 }
 
+
 void
 mudflap_enqueue_constant (tree obj)
 {
@@ -1182,15 +1215,6 @@ mudflap_enqueue_constant (tree obj)
   else
     object_size = size_in_bytes (TREE_TYPE (obj));
 
-  if (dump_file)
-    {
-      fprintf (dump_file, "enqueue_constant obj=`");
-      print_generic_expr (dump_file, obj, dump_flags);
-      fprintf (dump_file, "' size=");
-      print_generic_expr (dump_file, object_size, dump_flags);
-      fprintf (dump_file, "\n");
-    }
-
   if (TREE_CODE (obj) == STRING_CST)
     varname = mf_build_string ("string literal");
   else
@@ -1206,24 +1230,6 @@ mudflap_finish_file (void)
 {
   tree ctor_statements = NULL_TREE;
 
-  /* Try to give the deferred objects one final try.  */
-  if (deferred_static_decls)
-    {
-      size_t i;
-
-      for (i = 0; i < VARRAY_ACTIVE_SIZE (deferred_static_decls); i++)
-        {
-          tree obj = VARRAY_TREE (deferred_static_decls, i);
-
-          /* Call enqueue_decl again on the same object it has previously
-             put into the table.  (It won't modify the table this time, so
-             infinite iteration is not a problem.)  */
-          mudflap_enqueue_decl (obj);
-        }
-
-      VARRAY_CLEAR (deferred_static_decls);
-    }
-
   /* Insert a call to __mf_init.  */
   {
     tree call2_stmt = build_function_call_expr (mf_init_fndecl, NULL_TREE);
@@ -1239,6 +1245,41 @@ mudflap_finish_file (void)
       append_to_statement_list (call_stmt, &ctor_statements);
     }
 
+  /* Process all enqueued object decls.  */
+  if (deferred_static_decls)
+    {
+      size_t i;
+      for (i = 0; i < VARRAY_ACTIVE_SIZE (deferred_static_decls); i++)
+        {
+          tree obj = VARRAY_TREE (deferred_static_decls, i);
+
+          gcc_assert (DECL_P (obj));
+
+          if (mf_marked_p (obj))
+            continue;
+
+          /* Omit registration for static unaddressed objects.  NB:
+             Perform registration for non-static objects regardless of
+             TREE_USED or TREE_ADDRESSABLE, because they may be used
+             from other compilation units.  */
+          if (TREE_STATIC (obj) && ! TREE_ADDRESSABLE (obj))
+            continue;
+
+          if (! COMPLETE_TYPE_P (TREE_TYPE (obj)))
+            {
+              warning ("mudflap cannot track unknown size extern %qs",
+                       IDENTIFIER_POINTER (DECL_NAME (obj)));
+              continue;
+            }
+          
+          mudflap_register_call (obj, 
+                                 size_in_bytes (TREE_TYPE (obj)),
+                                 mf_varname_tree (obj));
+        }
+
+      VARRAY_CLEAR (deferred_static_decls);
+    }
+
   /* Append all the enqueued registration calls.  */
   if (enqueued_call_stmt_chain)
     {