OSDN Git Service

Fix mips-elf gp relocation overflow errors.
[pf3gnuchains/gcc-fork.git] / libmudflap / mf-runtime.c
index 8b1cc74..72d1a57 100644 (file)
@@ -1,7 +1,9 @@
 /* Mudflap: narrow-pointer bounds-checking by tree rewriting.
-   Copyright (C) 2002, 2003, 2004 Free Software Foundation, Inc.
+   Copyright (C) 2002, 2003, 2004, 2005 Free Software Foundation, Inc.
    Contributed by Frank Ch. Eigler <fche@redhat.com>
    and Graydon Hoare <graydon@redhat.com>
+   Splay Tree code originally by Mark Mitchell <mark@markmitchell.com>,
+   adapted from libiberty.
 
 This file is part of GCC.
 
@@ -26,17 +28,17 @@ for more details.
 
 You should have received a copy of the GNU General Public License
 along with GCC; see the file COPYING.  If not, write to the Free
-Software Foundation, 59 Temple Place - Suite 330, Boston, MA
-02111-1307, USA.  */
+Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
+02110-1301, USA.  */
 
 #include "config.h"
 
 /* These attempt to coax various unix flavours to declare all our
    needed tidbits in the system headers.  */
-#if !defined(__FreeBSD__)
+#if !defined(__FreeBSD__) && !defined(__APPLE__)
 #define _POSIX_SOURCE
 #endif /* Some BSDs break <sys/socket.h> if this is defined. */
-#define _GNU_SOURCE 
+#define _GNU_SOURCE
 #define _XOPEN_SOURCE
 #define _BSD_TYPES
 #define __EXTENSIONS__
@@ -67,10 +69,63 @@ Software Foundation, 59 Temple Place - Suite 330, Boston, MA
 
 #include "mf-runtime.h"
 #include "mf-impl.h"
-#include "splay-tree.h"
 
 
 /* ------------------------------------------------------------------------ */
+/* Splay-tree implementation.  */
+
+typedef uintptr_t mfsplay_tree_key;
+typedef void *mfsplay_tree_value;
+
+/* Forward declaration for a node in the tree.  */
+typedef struct mfsplay_tree_node_s *mfsplay_tree_node;
+
+/* The type of a function used to iterate over the tree.  */
+typedef int (*mfsplay_tree_foreach_fn) (mfsplay_tree_node, void *);
+
+/* The nodes in the splay tree.  */
+struct mfsplay_tree_node_s
+{
+  /* Data.  */
+  mfsplay_tree_key key;
+  mfsplay_tree_value value;
+  /* Children.  */
+  mfsplay_tree_node left;
+  mfsplay_tree_node right;
+  /* XXX: The addition of a parent pointer may eliminate some recursion.  */
+};
+
+/* The splay tree itself.  */
+struct mfsplay_tree_s
+{
+  /* The root of the tree.  */
+  mfsplay_tree_node root;
+
+  /* The last key value for which the tree has been splayed, but not
+     since modified.  */
+  mfsplay_tree_key last_splayed_key;
+  int last_splayed_key_p;
+
+  /* Statistics.  */
+  unsigned num_keys;
+
+  /* Traversal recursion control flags.  */
+  unsigned max_depth;
+  unsigned depth;
+  unsigned rebalance_p;
+};
+typedef struct mfsplay_tree_s *mfsplay_tree;
+
+static mfsplay_tree mfsplay_tree_new (void);
+static mfsplay_tree_node mfsplay_tree_insert (mfsplay_tree, mfsplay_tree_key, mfsplay_tree_value);
+static void mfsplay_tree_remove (mfsplay_tree, mfsplay_tree_key);
+static mfsplay_tree_node mfsplay_tree_lookup (mfsplay_tree, mfsplay_tree_key);
+static mfsplay_tree_node mfsplay_tree_predecessor (mfsplay_tree, mfsplay_tree_key);
+static mfsplay_tree_node mfsplay_tree_successor (mfsplay_tree, mfsplay_tree_key);
+static int mfsplay_tree_foreach (mfsplay_tree, mfsplay_tree_foreach_fn, void *);
+static void mfsplay_tree_rebalance (mfsplay_tree sp);
+
+/* ------------------------------------------------------------------------ */
 /* Utility macros */
 
 #define CTOR  __attribute__ ((constructor))
@@ -86,26 +141,31 @@ Software Foundation, 59 Temple Place - Suite 330, Boston, MA
 #define __MF_VIOL_WATCH 5
 
 /* Protect against recursive calls. */
-#define BEGIN_RECURSION_PROTECT() do { \
-  if (UNLIKELY (__mf_state == reentrant)) { \
-    write (2, "mf: erroneous reentrancy detected in `", 38); \
-    write (2, __PRETTY_FUNCTION__, strlen(__PRETTY_FUNCTION__)); \
-    write (2, "'\n", 2); \
-    abort (); } \
-  __mf_state = reentrant;  \
-  } while (0)
 
-#define END_RECURSION_PROTECT() do { \
-  __mf_state = active; \
-  } while (0)
+static void
+begin_recursion_protect1 (const char *pf)
+{
+  if (__mf_get_state () == reentrant)
+    {
+      write (2, "mf: erroneous reentrancy detected in `", 38);
+      write (2, pf, strlen(pf));
+      write (2, "'\n", 2); \
+      abort ();
+    }
+  __mf_set_state (reentrant);
+}
 
+#define BEGIN_RECURSION_PROTECT() \
+  begin_recursion_protect1 (__PRETTY_FUNCTION__)
 
+#define END_RECURSION_PROTECT() \
+  __mf_set_state (active)
 
 /* ------------------------------------------------------------------------ */
 /* Required globals.  */
 
 #define LOOKUP_CACHE_MASK_DFL 1023
-#define LOOKUP_CACHE_SIZE_MAX 4096 /* Allows max CACHE_MASK 0x0FFF */
+#define LOOKUP_CACHE_SIZE_MAX 65536 /* Allows max CACHE_MASK 0xFFFF */
 #define LOOKUP_CACHE_SHIFT_DFL 2
 
 struct __mf_cache __mf_lookup_cache [LOOKUP_CACHE_SIZE_MAX];
@@ -114,15 +174,16 @@ unsigned char __mf_lc_shift = LOOKUP_CACHE_SHIFT_DFL;
 #define LOOKUP_CACHE_SIZE (__mf_lc_mask + 1)
 
 struct __mf_options __mf_opts;
-
 int __mf_starting_p = 1;
-#ifndef LIBMUDFLAPTH
-enum __mf_state_enum __mf_state = active;
+
+#ifdef LIBMUDFLAPTH
+#ifdef HAVE_TLS
+__thread enum __mf_state_enum __mf_state_1 = reentrant;
+#endif
 #else
-/* See __mf_state_perthread() in mf-hooks.c. */
+enum __mf_state_enum __mf_state_1 = reentrant;
 #endif
 
-
 #ifdef LIBMUDFLAPTH
 pthread_mutex_t __mf_biglock =
 #ifdef PTHREAD_ERRORCHECK_MUTEX_INITIALIZER_NP
@@ -136,8 +197,11 @@ pthread_mutex_t __mf_biglock =
    the libmudflap.la (no threading support) can diagnose whether
    the application is linked with -lpthread.  See __mf_usage() below.  */
 #if HAVE_PTHREAD_H
+#ifdef _POSIX_THREADS
 #pragma weak pthread_join
-const void *threads_active_p = (void *) pthread_join;
+#else
+#define pthread_join NULL
+#endif
 #endif
 
 
@@ -202,18 +266,18 @@ static __mf_object_t *__mf_object_cemetary[__MF_TYPE_MAX_CEM+1][__MF_PERSIST_MAX
 /* ------------------------------------------------------------------------ */
 /* Forward function declarations */
 
-static void __mf_init () CTOR;
+void __mf_init () CTOR;
 static void __mf_sigusr1_respond ();
-static unsigned __mf_find_objects (uintptr_t ptr_low, uintptr_t ptr_high, 
+static unsigned __mf_find_objects (uintptr_t ptr_low, uintptr_t ptr_high,
                                    __mf_object_t **objs, unsigned max_objs);
-static unsigned __mf_find_objects2 (uintptr_t ptr_low, uintptr_t ptr_high, 
+static unsigned __mf_find_objects2 (uintptr_t ptr_low, uintptr_t ptr_high,
                                     __mf_object_t **objs, unsigned max_objs, int type);
-static unsigned __mf_find_dead_objects (uintptr_t ptr_low, uintptr_t ptr_high, 
+static unsigned __mf_find_dead_objects (uintptr_t ptr_low, uintptr_t ptr_high,
                                         __mf_object_t **objs, unsigned max_objs);
 static void __mf_adapt_cache ();
 static void __mf_describe_object (__mf_object_t *obj);
 static unsigned __mf_watch_or_not (void *ptr, size_t sz, char flag);
-static splay_tree __mf_object_tree (int type);
+static mfsplay_tree __mf_object_tree (int type);
 static void __mf_link_object (__mf_object_t *node);
 static void __mf_unlink_object (__mf_object_t *node);
 
@@ -233,6 +297,7 @@ __mf_set_default_options ()
   __mf_opts.persistent_count = 100;
   __mf_opts.crumple_zone = 32;
   __mf_opts.backtrace = 4;
+  __mf_opts.timestamps = 1;
   __mf_opts.mudflap_mode = mode_check;
   __mf_opts.violation_mode = viol_nop;
   __mf_opts.heur_std_data = 1;
@@ -250,43 +315,43 @@ static struct option
       set_option,
       read_integer_option,
     } type;
-  int value;
-  int *target;
-} 
+  unsigned value;
+  unsigned *target;
+}
 options [] =
   {
-    {"mode-nop", 
-     "mudflaps do nothing", 
-     set_option, (int)mode_nop, (int *)&__mf_opts.mudflap_mode},    
-    {"mode-populate", 
-     "mudflaps populate object tree", 
-     set_option, (int)mode_populate, (int *)&__mf_opts.mudflap_mode},    
-    {"mode-check", 
+    {"mode-nop",
+     "mudflaps do nothing",
+     set_option, (unsigned)mode_nop, (unsigned *)&__mf_opts.mudflap_mode},
+    {"mode-populate",
+     "mudflaps populate object tree",
+     set_option, (unsigned)mode_populate, (unsigned *)&__mf_opts.mudflap_mode},
+    {"mode-check",
      "mudflaps check for memory violations",
-     set_option, (int)mode_check, (int *)&__mf_opts.mudflap_mode},
-    {"mode-violate", 
+     set_option, (unsigned)mode_check, (unsigned *)&__mf_opts.mudflap_mode},
+    {"mode-violate",
      "mudflaps always cause violations (diagnostic)",
-     set_option, (int)mode_violate, (int *)&__mf_opts.mudflap_mode},
-   
-    {"viol-nop", 
+     set_option, (unsigned)mode_violate, (unsigned *)&__mf_opts.mudflap_mode},
+
+    {"viol-nop",
      "violations do not change program execution",
-     set_option, (int)viol_nop, (int *)&__mf_opts.violation_mode},
-    {"viol-abort", 
+     set_option, (unsigned)viol_nop, (unsigned *)&__mf_opts.violation_mode},
+    {"viol-abort",
      "violations cause a call to abort()",
-     set_option, (int)viol_abort, (int *)&__mf_opts.violation_mode},
-    {"viol-segv", 
+     set_option, (unsigned)viol_abort, (unsigned *)&__mf_opts.violation_mode},
+    {"viol-segv",
      "violations are promoted to SIGSEGV signals",
-     set_option, (int)viol_segv, (int *)&__mf_opts.violation_mode},
-    {"viol-gdb", 
+     set_option, (unsigned)viol_segv, (unsigned *)&__mf_opts.violation_mode},
+    {"viol-gdb",
      "violations fork a gdb process attached to current program",
-     set_option, (int)viol_gdb, (int *)&__mf_opts.violation_mode},
-    {"trace-calls", 
+     set_option, (unsigned)viol_gdb, (unsigned *)&__mf_opts.violation_mode},
+    {"trace-calls",
      "trace calls to mudflap runtime library",
      set_option, 1, &__mf_opts.trace_mf_calls},
-    {"verbose-trace", 
+    {"verbose-trace",
      "trace internal events within mudflap runtime library",
      set_option, 1, &__mf_opts.verbose_trace},
-    {"collect-stats", 
+    {"collect-stats",
      "collect statistics on mudflap's operation",
      set_option, 1, &__mf_opts.collect_stats},
 #ifdef SIGUSR1
@@ -294,64 +359,70 @@ options [] =
      "print report upon SIGUSR1",
      set_option, 1, &__mf_opts.sigusr1_report},
 #endif
-    {"internal-checking", 
+    {"internal-checking",
      "perform more expensive internal checking",
      set_option, 1, &__mf_opts.internal_checking},
-    {"print-leaks", 
+    {"print-leaks",
      "print any memory leaks at program shutdown",
      set_option, 1, &__mf_opts.print_leaks},
-    {"check-initialization", 
+    {"check-initialization",
      "detect uninitialized object reads",
      set_option, 1, &__mf_opts.check_initialization},
-    {"verbose-violations", 
+    {"verbose-violations",
      "print verbose messages when memory violations occur",
      set_option, 1, &__mf_opts.verbose_violations},
-    {"abbreviate", 
+    {"abbreviate",
      "abbreviate repetitive listings",
      set_option, 1, &__mf_opts.abbreviate},
+    {"timestamps",
+     "track object lifetime timestamps",
+     set_option, 1, &__mf_opts.timestamps},
+    {"ignore-reads",
+     "ignore read accesses - assume okay",
+     set_option, 1, &__mf_opts.ignore_reads},
     {"wipe-stack",
      "wipe stack objects at unwind",
      set_option, 1, &__mf_opts.wipe_stack},
     {"wipe-heap",
      "wipe heap objects at free",
      set_option, 1, &__mf_opts.wipe_heap},
-    {"heur-proc-map", 
+    {"heur-proc-map",
      "support /proc/self/map heuristics",
      set_option, 1, &__mf_opts.heur_proc_map},
     {"heur-stack-bound",
      "enable a simple upper stack bound heuristic",
      set_option, 1, &__mf_opts.heur_stack_bound},
-    {"heur-start-end", 
+    {"heur-start-end",
      "support _start.._end heuristics",
      set_option, 1, &__mf_opts.heur_start_end},
-    {"heur-stdlib", 
+    {"heur-stdlib",
      "register standard library data (argv, errno, stdin, ...)",
      set_option, 1, &__mf_opts.heur_std_data},
-    {"free-queue-length", 
+    {"free-queue-length",
      "queue N deferred free() calls before performing them",
      read_integer_option, 0, &__mf_opts.free_queue_length},
-    {"persistent-count", 
+    {"persistent-count",
      "keep a history of N unregistered regions",
      read_integer_option, 0, &__mf_opts.persistent_count},
-    {"crumple-zone", 
+    {"crumple-zone",
      "surround allocations with crumple zones of N bytes",
      read_integer_option, 0, &__mf_opts.crumple_zone},
     /* XXX: not type-safe.
-    {"lc-mask", 
+    {"lc-mask",
      "set lookup cache size mask to N (2**M - 1)",
      read_integer_option, 0, (int *)(&__mf_lc_mask)},
-    {"lc-shift", 
+    {"lc-shift",
      "set lookup cache pointer shift",
      read_integer_option, 0, (int *)(&__mf_lc_shift)},
     */
-    {"lc-adapt", 
+    {"lc-adapt",
      "adapt mask/shift parameters after N cache misses",
      read_integer_option, 1, &__mf_opts.adapt_cache},
-    {"backtrace", 
+    {"backtrace",
      "keep an N-level stack trace of each call context",
      read_integer_option, 0, &__mf_opts.backtrace},
 #ifdef LIBMUDFLAPTH
-    {"thread-stack", 
+    {"thread-stack",
      "override thread stacks allocation: N kB",
      read_integer_option, 0, &__mf_opts.thread_stack},
 #endif
@@ -363,9 +434,9 @@ __mf_usage ()
 {
   struct option *opt;
 
-  fprintf (stderr, 
+  fprintf (stderr,
            "This is a %s%sGCC \"mudflap\" memory-checked binary.\n"
-           "Mudflap is Copyright (C) 2002-2003 Free Software Foundation, Inc.\n"
+           "Mudflap is Copyright (C) 2002-2004 Free Software Foundation, Inc.\n"
            "\n"
            "The mudflap code can be controlled by an environment variable:\n"
            "\n"
@@ -376,7 +447,7 @@ __mf_usage ()
            "any of the following options.  Use `-no-OPTION' to disable options.\n"
            "\n",
 #if HAVE_PTHREAD_H
-           (threads_active_p ? "multi-threaded " : "single-threaded "),
+           (pthread_join ? "multi-threaded " : "single-threaded "),
 #else
            "",
 #endif
@@ -407,7 +478,7 @@ __mf_usage ()
           strncpy (buf + strlen (opt->name), "=N", 2);
           fprintf (stderr, "-%-23.23s %s", buf, opt->description);
           fprintf (stderr, " [%d]\n", * opt->target);
-          break;          
+          break;
         default: abort();
         }
     }
@@ -416,7 +487,7 @@ __mf_usage ()
 }
 
 
-int 
+int
 __mf_set_options (const char *optstr)
 {
   int rc;
@@ -424,7 +495,7 @@ __mf_set_options (const char *optstr)
   BEGIN_RECURSION_PROTECT ();
   rc = __mfu_set_options (optstr);
   /* XXX: It's not really that easy.  A change to a bunch of parameters
-     can require updating auxiliary state or risk crashing: 
+     can require updating auxiliary state or risk crashing:
      free_queue_length, crumple_zone ... */
   END_RECURSION_PROTECT ();
   UNLOCKTH ();
@@ -432,7 +503,7 @@ __mf_set_options (const char *optstr)
 }
 
 
-int 
+int
 __mfu_set_options (const char *optstr)
 {
   struct option *opts = 0;
@@ -454,30 +525,30 @@ __mfu_set_options (const char *optstr)
 
       case '-':
         if (*optstr+1)
-          {         
+          {
             int negate = 0;
             optstr++;
 
-            if (*optstr == '?' || 
+            if (*optstr == '?' ||
                 strncmp (optstr, "help", 4) == 0)
               {
                 /* Caller will print help and exit.  */
                 return -1;
               }
-            
+
             if (strncmp (optstr, "no-", 3) == 0)
               {
                 negate = 1;
                 optstr = & optstr[3];
               }
-            
+
             for (opts = options; opts->name; opts++)
               {
                 if (strncmp (optstr, opts->name, strlen (opts->name)) == 0)
                   {
                     optstr += strlen (opts->name);
                     assert (opts->target);
-                    switch (opts->type) 
+                    switch (opts->type)
                       {
                       case set_option:
                         if (negate)
@@ -492,7 +563,7 @@ __mfu_set_options (const char *optstr)
                             tmp = strtol (optstr, &nxt, 10);
                             if ((optstr != nxt) && (tmp != LONG_MAX))
                               {
-                                optstr = nxt;                           
+                                optstr = nxt;
                                 *(opts->target) = (int)tmp;
                               }
                           }
@@ -504,9 +575,9 @@ __mfu_set_options (const char *optstr)
               }
           }
         break;
-        
+
       default:
-        fprintf (stderr, 
+        fprintf (stderr,
                  "warning: unrecognized string '%s' in mudflap options\n",
                  optstr);
         optstr += strlen (optstr);
@@ -536,7 +607,7 @@ __mfu_set_options (const char *optstr)
 
 #ifdef PIC
 
-void 
+void
 __mf_resolve_single_dynamic (struct __mf_dynamic_entry *e)
 {
   char *err;
@@ -550,7 +621,7 @@ __mf_resolve_single_dynamic (struct __mf_dynamic_entry *e)
   else
 #endif
     e->pointer = dlsym (RTLD_NEXT, e->name);
-  
+
   err = dlerror ();
 
   if (err)
@@ -558,7 +629,7 @@ __mf_resolve_single_dynamic (struct __mf_dynamic_entry *e)
       fprintf (stderr, "mf: error in dlsym(\"%s\"): %s\n",
                e->name, err);
       abort ();
-    }  
+    }
   if (! e->pointer)
     {
       fprintf (stderr, "mf: dlsym(\"%s\") = NULL\n", e->name);
@@ -567,8 +638,8 @@ __mf_resolve_single_dynamic (struct __mf_dynamic_entry *e)
 }
 
 
-static void 
-__mf_resolve_dynamics () 
+static void
+__mf_resolve_dynamics ()
 {
   int i;
   for (i = 0; i < dyn_INITRESOLVE; i++)
@@ -600,28 +671,34 @@ struct __mf_dynamic_entry __mf_dynamic [] =
 /* ------------------------------------------------------------------------ */
 
 /* Lookup & manage automatic initialization of the five or so splay trees.  */
-static splay_tree
+static mfsplay_tree
 __mf_object_tree (int type)
 {
-  static splay_tree trees [__MF_TYPE_MAX+1];
+  static mfsplay_tree trees [__MF_TYPE_MAX+1];
   assert (type >= 0 && type <= __MF_TYPE_MAX);
   if (UNLIKELY (trees[type] == NULL))
-    trees[type] = splay_tree_new (splay_tree_compare_pointers, NULL, NULL);
+    trees[type] = mfsplay_tree_new ();
   return trees[type];
 }
 
 
-void
+/* not static */void
 __mf_init ()
 {
   char *ov = 0;
 
+  /* Return if initialization has already been done. */
+  if (LIKELY (__mf_starting_p == 0))
+    return;
+
   /* This initial bootstrap phase requires that __mf_starting_p = 1. */
 #ifdef PIC
   __mf_resolve_dynamics ();
 #endif
   __mf_starting_p = 0;
 
+  __mf_set_state (active);
+
   __mf_set_default_options ();
 
   ov = getenv ("MUDFLAP_OPTIONS");
@@ -658,6 +735,7 @@ __wrap_main (int argc, char* argv[])
 {
   extern char **environ;
   extern int main ();
+  extern int __real_main ();
   static int been_here = 0;
 
   if (__mf_opts.heur_std_data && ! been_here)
@@ -708,6 +786,12 @@ void __mf_fini ()
 {
   TRACE ("__mf_fini\n");
   __mfu_report ();
+
+#ifndef PIC
+/* Since we didn't populate the tree for allocations in constructors
+   before __mf_init, we cannot check destructors after __mf_fini.  */
+  __mf_opts.mudflap_mode = mode_nop;
+#endif
 }
 
 
@@ -736,16 +820,23 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
 
   if (UNLIKELY (__mf_opts.sigusr1_report))
     __mf_sigusr1_respond ();
+  if (UNLIKELY (__mf_opts.ignore_reads && type == 0))
+    return;
 
   TRACE ("check ptr=%p b=%u size=%lu %s location=`%s'\n",
          ptr, entry_idx, (unsigned long)sz,
          (type == 0 ? "read" : "write"), location);
-  
+
   switch (__mf_opts.mudflap_mode)
     {
     case mode_nop:
-      entry->low = MINPTR;
-      entry->high = MAXPTR;
+      /* It is tempting to poison the cache here similarly to
+         mode_populate.  However that eliminates a valuable
+         distinction between these two modes.  mode_nop is useful to
+         let a user count & trace every single check / registration
+         call.  mode_populate is useful to let a program run fast
+         while unchecked.
+      */
       judgement = 1;
       break;
 
@@ -758,7 +849,7 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
     case mode_check:
       {
         unsigned heuristics = 0;
-        
+
         /* Advance aging/adaptation counters.  */
         static unsigned adapt_count;
         adapt_count ++;
@@ -768,7 +859,7 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
             adapt_count = 0;
             __mf_adapt_cache ();
           }
-        
+
         /* Looping only occurs if heuristics were triggered.  */
         while (judgement == 0)
           {
@@ -793,7 +884,7 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
                 assert (n == obj_count);
                 dealloc_me = all_ovr_obj;
               }
-            else 
+            else
               {
                 all_ovr_obj = ovr_obj;
                 dealloc_me = NULL;
@@ -810,7 +901,7 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
                   obj->write_count ++;
                 obj->liveness ++;
               }
-            
+
             /* Iterate over the various objects.  There are a number of special cases.  */
             for (i = 0; i < obj_count; i++)
               {
@@ -823,7 +914,7 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
                 /* Any object with a watch flag is bad.  */
                 if (UNLIKELY (obj->watching_p))
                   judgement = -2; /* trigger VIOL_WATCH */
-            
+
                 /* A read from an uninitialized object is bad. */
                 if (UNLIKELY (__mf_opts.check_initialization
                               /* reading */
@@ -835,12 +926,12 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
                   judgement = -1;
               }
 
-            /* We now know that the access spans one or more valid objects.  */
+            /* We now know that the access spans no invalid objects.  */
             if (LIKELY (judgement >= 0))
               for (i = 0; i < obj_count; i++)
                 {
                   __mf_object_t *obj = all_ovr_obj[i];
-                  
+
                   /* Is this access entirely contained within this object?  */
                   if (LIKELY (ptr_low >= obj->low && ptr_high <= obj->high))
                     {
@@ -849,12 +940,58 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
                       entry->high = obj->high;
                       judgement = 1;
                     }
+                }
+
+            /* This access runs off the end of one valid object.  That
+                could be okay, if other valid objects fill in all the
+                holes.  We allow this only for HEAP and GUESS type
+                objects.  Accesses to STATIC and STACK variables
+                should not be allowed to span.  */
+            if (UNLIKELY ((judgement == 0) && (obj_count > 1)))
+              {
+                unsigned uncovered = 0;
+                for (i = 0; i < obj_count; i++)
+                  {
+                    __mf_object_t *obj = all_ovr_obj[i];
+                    int j, uncovered_low_p, uncovered_high_p;
+                    uintptr_t ptr_lower, ptr_higher;
+
+                    uncovered_low_p = ptr_low < obj->low;
+                    ptr_lower = CLAMPSUB (obj->low, 1);
+                    uncovered_high_p = ptr_high > obj->high;
+                    ptr_higher = CLAMPADD (obj->high, 1);
+
+                    for (j = 0; j < obj_count; j++)
+                      {
+                        __mf_object_t *obj2 = all_ovr_obj[j];
+
+                        if (i == j) continue;
+
+                        /* Filter out objects that cannot be spanned across.  */
+                        if (obj2->type == __MF_TYPE_STACK
+                            || obj2->type == __MF_TYPE_STATIC)
+                          continue;
+
+                          /* Consider a side "covered" if obj2 includes
+                             the next byte on that side.  */
+                          if (uncovered_low_p
+                              && (ptr_lower >= obj2->low && ptr_lower <= obj2->high))
+                            uncovered_low_p = 0;
+                          if (uncovered_high_p
+                              && (ptr_high >= obj2->low && ptr_higher <= obj2->high))
+                            uncovered_high_p = 0;
+                      }
+
+                    if (uncovered_low_p || uncovered_high_p)
+                      uncovered ++;
+                  }
 
-                  /* XXX: Access runs off left or right side of this
-                          object.  That could be okay, if there are
-                          other objects that fill in all the holes. */
+                /* Success if no overlapping objects are uncovered.  */
+                if (uncovered == 0)
+                  judgement = 1;
                 }
 
+
             if (dealloc_me != NULL)
               CALL_REAL (free, dealloc_me);
 
@@ -880,23 +1017,23 @@ void __mfu_check (void *ptr, size_t sz, int type, const char *location)
   if (__mf_opts.collect_stats)
     {
       __mf_count_check ++;
-      
+
       if (LIKELY (old_entry.low != entry->low || old_entry.high != entry->high))
         /* && (old_entry.low != 0) && (old_entry.high != 0)) */
-        __mf_lookup_cache_reusecount [entry_idx] ++;    
+        __mf_lookup_cache_reusecount [entry_idx] ++;
     }
-  
+
   if (UNLIKELY (judgement < 0))
     __mf_violation (ptr, sz,
                     (uintptr_t) __builtin_return_address (0), location,
-                    ((judgement == -1) ? 
+                    ((judgement == -1) ?
                      (type == __MF_CHECK_READ ? __MF_VIOL_READ : __MF_VIOL_WRITE) :
                      __MF_VIOL_WATCH));
 }
 
 
 static __mf_object_t *
-__mf_insert_new_object (uintptr_t low, uintptr_t high, int type, 
+__mf_insert_new_object (uintptr_t low, uintptr_t high, int type,
                         const char *name, uintptr_t pc)
 {
   DECLARE (void *, calloc, size_t c, size_t n);
@@ -909,41 +1046,42 @@ __mf_insert_new_object (uintptr_t low, uintptr_t high, int type,
   new_obj->name = name;
   new_obj->alloc_pc = pc;
 #if HAVE_GETTIMEOFDAY
-  gettimeofday (& new_obj->alloc_time, NULL);
+  if (__mf_opts.timestamps)
+    gettimeofday (& new_obj->alloc_time, NULL);
 #endif
 #if LIBMUDFLAPTH
   new_obj->alloc_thread = pthread_self ();
 #endif
 
   if (__mf_opts.backtrace > 0 && (type == __MF_TYPE_HEAP || type == __MF_TYPE_HEAP_I))
-    new_obj->alloc_backtrace_size = 
+    new_obj->alloc_backtrace_size =
       __mf_backtrace (& new_obj->alloc_backtrace,
                       (void *) pc, 2);
-  
+
   __mf_link_object (new_obj);
   return new_obj;
 }
 
 
-static void 
+static void
 __mf_uncache_object (__mf_object_t *old_obj)
 {
   /* Remove any low/high pointers for this object from the lookup cache.  */
-  
+
   /* Can it possibly exist in the cache?  */
   if (LIKELY (old_obj->read_count + old_obj->write_count))
     {
+      /* As reported by Herman ten Brugge, we need to scan the entire
+         cache for entries that may hit this object. */
       uintptr_t low = old_obj->low;
       uintptr_t high = old_obj->high;
-      unsigned idx_low = __MF_CACHE_INDEX (low);
-      unsigned idx_high = __MF_CACHE_INDEX (high);
+      struct __mf_cache *entry = & __mf_lookup_cache [0];
       unsigned i;
-      for (i = idx_low; i <= idx_high; i++)
+      for (i = 0; i <= __mf_lc_mask; i++, entry++)
         {
-          struct __mf_cache *entry = & __mf_lookup_cache [i];
           /* NB: the "||" in the following test permits this code to
              tolerate the situation introduced by __mf_check over
-             contiguous objects, where a cache entry spans several 
+             contiguous objects, where a cache entry spans several
              objects.  */
           if (entry->low == low || entry->high == high)
             {
@@ -969,14 +1107,14 @@ __mf_register (void *ptr, size_t sz, int type, const char *name)
 void
 __mfu_register (void *ptr, size_t sz, int type, const char *name)
 {
-  TRACE ("register ptr=%p size=%lu type=%x name='%s'\n", 
+  TRACE ("register ptr=%p size=%lu type=%x name='%s'\n",
          ptr, (unsigned long) sz, type, name ? name : "");
 
   if (__mf_opts.collect_stats)
     {
       __mf_count_register ++;
       __mf_total_register_size [(type < 0) ? 0 :
-                                (type > __MF_TYPE_MAX) ? 0 : 
+                                (type > __MF_TYPE_MAX) ? 0 :
                                 type] += sz;
     }
 
@@ -987,7 +1125,7 @@ __mfu_register (void *ptr, size_t sz, int type, const char *name)
     {
     case mode_nop:
       break;
-      
+
     case mode_violate:
       __mf_violation (ptr, sz, (uintptr_t) __builtin_return_address (0), NULL,
                       __MF_VIOL_REGISTER);
@@ -1009,7 +1147,7 @@ __mfu_register (void *ptr, size_t sz, int type, const char *name)
         uintptr_t low = (uintptr_t) ptr;
         uintptr_t high = CLAMPSZ (ptr, sz);
         uintptr_t pc = (uintptr_t) __builtin_return_address (0);
-        
+
         /* Treat unknown size indication as 1.  */
         if (UNLIKELY (sz == 0)) sz = 1;
 
@@ -1022,7 +1160,7 @@ __mfu_register (void *ptr, size_t sz, int type, const char *name)
         if (UNLIKELY (num_overlapping_objs > 0))
           {
             __mf_object_t *ovr_obj = ovr_objs[0];
-            
+
             /* Accept certain specific duplication pairs.  */
             if (((type == __MF_TYPE_STATIC) || (type == __MF_TYPE_GUESS))
                 && ovr_obj->low == low
@@ -1031,8 +1169,8 @@ __mfu_register (void *ptr, size_t sz, int type, const char *name)
               {
                 /* Duplicate registration for static objects may come
                    from distinct compilation units.  */
-                VERBOSE_TRACE ("harmless duplicate reg %p-%p `%s'\n", 
-                               (void *) low, (void *) high, 
+                VERBOSE_TRACE ("harmless duplicate reg %p-%p `%s'\n",
+                               (void *) low, (void *) high,
                                (ovr_obj->name ? ovr_obj->name : ""));
                 break;
               }
@@ -1048,7 +1186,7 @@ __mfu_register (void *ptr, size_t sz, int type, const char *name)
           }
         else /* No overlapping objects: AOK.  */
           __mf_insert_new_object (low, high, type, name, pc);
-        
+
         /* We could conceivably call __mf_check() here to prime the cache,
            but then the read_count/write_count field is not reliable.  */
         break;
@@ -1079,7 +1217,7 @@ __mfu_unregister (void *ptr, size_t sz, int type)
   TRACE ("unregister ptr=%p size=%lu type=%x\n", ptr, (unsigned long) sz, type);
 
   switch (__mf_opts.mudflap_mode)
-    { 
+    {
     case mode_nop:
       break;
 
@@ -1133,30 +1271,30 @@ __mfu_unregister (void *ptr, size_t sz, int type)
 
         /* Wipe buffer contents if desired.  */
         if ((__mf_opts.wipe_stack && old_obj->type == __MF_TYPE_STACK)
-            || (__mf_opts.wipe_heap && (old_obj->type == __MF_TYPE_HEAP 
+            || (__mf_opts.wipe_heap && (old_obj->type == __MF_TYPE_HEAP
                                         || old_obj->type == __MF_TYPE_HEAP_I)))
           {
             memset ((void *) old_obj->low,
                     0,
                     (size_t) (old_obj->high - old_obj->low + 1));
           }
-        
+
         /* Manage the object cemetary.  */
-        if (__mf_opts.persistent_count > 0 && 
-            old_obj->type >= 0 && 
-            old_obj->type <= __MF_TYPE_MAX_CEM)
+        if (__mf_opts.persistent_count > 0
+           && (unsigned) old_obj->type <= __MF_TYPE_MAX_CEM)
           {
             old_obj->deallocated_p = 1;
             old_obj->dealloc_pc = (uintptr_t) __builtin_return_address (0);
 #if HAVE_GETTIMEOFDAY
-            gettimeofday (& old_obj->dealloc_time, NULL);
+            if (__mf_opts.timestamps)
+              gettimeofday (& old_obj->dealloc_time, NULL);
 #endif
 #ifdef LIBMUDFLAPTH
             old_obj->dealloc_thread = pthread_self ();
 #endif
 
             if (__mf_opts.backtrace > 0 && old_obj->type == __MF_TYPE_HEAP)
-              old_obj->dealloc_backtrace_size = 
+              old_obj->dealloc_backtrace_size =
                 __mf_backtrace (& old_obj->dealloc_backtrace,
                                 NULL, 2);
 
@@ -1168,7 +1306,7 @@ __mfu_unregister (void *ptr, size_t sz, int type)
             {
               unsigned row = old_obj->type;
               unsigned plot = __mf_object_dead_head [row];
-              
+
               del_obj = __mf_object_cemetary [row][plot];
               __mf_object_cemetary [row][plot] = old_obj;
               plot ++;
@@ -1178,20 +1316,20 @@ __mfu_unregister (void *ptr, size_t sz, int type)
           }
         else
           del_obj = old_obj;
-        
+
         if (__mf_opts.print_leaks)
           {
             if ((old_obj->read_count + old_obj->write_count) == 0 &&
-                (old_obj->type == __MF_TYPE_HEAP 
+                (old_obj->type == __MF_TYPE_HEAP
                  || old_obj->type == __MF_TYPE_HEAP_I))
               {
-                fprintf (stderr, 
+                fprintf (stderr,
                          "*******\n"
                          "mudflap warning: unaccessed registered object:\n");
                 __mf_describe_object (old_obj);
               }
           }
-        
+
         if (del_obj != NULL) /* May or may not equal old_obj.  */
           {
             if (__mf_opts.backtrace > 0)
@@ -1204,7 +1342,7 @@ __mfu_unregister (void *ptr, size_t sz, int type)
               }
             CALL_REAL(free, del_obj);
           }
-        
+
         break;
       }
     } /* end switch (__mf_opts.mudflap_mode) */
@@ -1232,13 +1370,13 @@ struct tree_stats
 
 
 static int
-__mf_adapt_cache_fn (splay_tree_node n, void *param)
+__mf_adapt_cache_fn (mfsplay_tree_node n, void *param)
 {
   __mf_object_t *obj = (__mf_object_t *) n->value;
   struct tree_stats *s = (struct tree_stats *) param;
 
   assert (obj != NULL && s != NULL);
-  
+
   /* Exclude never-accessed objects.  */
   if (obj->read_count + obj->write_count)
     {
@@ -1289,11 +1427,11 @@ __mf_adapt_cache ()
 
   memset (&s, 0, sizeof (s));
 
-  splay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP), __mf_adapt_cache_fn, (void *) & s);
-  splay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP_I), __mf_adapt_cache_fn, (void *) & s);
-  splay_tree_foreach (__mf_object_tree (__MF_TYPE_STACK), __mf_adapt_cache_fn, (void *) & s);
-  splay_tree_foreach (__mf_object_tree (__MF_TYPE_STATIC), __mf_adapt_cache_fn, (void *) & s);
-  splay_tree_foreach (__mf_object_tree (__MF_TYPE_GUESS), __mf_adapt_cache_fn, (void *) & s);
+  mfsplay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP), __mf_adapt_cache_fn, (void *) & s);
+  mfsplay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP_I), __mf_adapt_cache_fn, (void *) & s);
+  mfsplay_tree_foreach (__mf_object_tree (__MF_TYPE_STACK), __mf_adapt_cache_fn, (void *) & s);
+  mfsplay_tree_foreach (__mf_object_tree (__MF_TYPE_STATIC), __mf_adapt_cache_fn, (void *) & s);
+  mfsplay_tree_foreach (__mf_object_tree (__MF_TYPE_GUESS), __mf_adapt_cache_fn, (void *) & s);
 
   /* Maybe we're dealing with funny aging/adaptation parameters, or an
      empty tree.  Just leave the cache alone in such cases, rather
@@ -1317,7 +1455,7 @@ __mf_adapt_cache ()
         break;
     }
   if (smoothed_new_shift < 0) smoothed_new_shift = __mf_lc_shift;
-  /* Converge toward this slowly to reduce flapping. */  
+  /* Converge toward this slowly to reduce flapping. */
   smoothed_new_shift = 0.9*smoothed_new_shift + 0.1*i;
   new_shift = (unsigned) (smoothed_new_shift + 0.5);
   assert (new_shift < sizeof (uintptr_t)*8);
@@ -1329,7 +1467,7 @@ __mf_adapt_cache ()
       cache_utilization += 1.0;
   cache_utilization /= (1 + __mf_lc_mask);
 
-  new_mask |= 0x3ff; /* XXX: force a large cache.  */
+  new_mask |= 0xffff; /* XXX: force a large cache.  */
   new_mask &= (LOOKUP_CACHE_SIZE_MAX - 1);
 
   VERBOSE_TRACE ("adapt cache obj=%u/%u sizes=%lu/%.0f/%.0f => "
@@ -1358,16 +1496,16 @@ __mf_adapt_cache ()
    max_objs of their pointers in objs[].  Return total count of
    overlaps (may exceed max_objs). */
 
-unsigned 
-__mf_find_objects2 (uintptr_t ptr_low, uintptr_t ptr_high, 
+unsigned
+__mf_find_objects2 (uintptr_t ptr_low, uintptr_t ptr_high,
                     __mf_object_t **objs, unsigned max_objs, int type)
 {
   unsigned count = 0;
-  splay_tree t = __mf_object_tree (type);
-  splay_tree_key k = (splay_tree_key) ptr_low;
+  mfsplay_tree t = __mf_object_tree (type);
+  mfsplay_tree_key k = (mfsplay_tree_key) ptr_low;
   int direction;
 
-  splay_tree_node n = splay_tree_lookup (t, k);
+  mfsplay_tree_node n = mfsplay_tree_lookup (t, k);
   /* An exact match for base address implies a hit.  */
   if (n != NULL)
     {
@@ -1380,24 +1518,24 @@ __mf_find_objects2 (uintptr_t ptr_low, uintptr_t ptr_high,
   for (direction = 0; direction < 2; direction ++)
     {
       /* Reset search origin.  */
-      k = (splay_tree_key) ptr_low;
+      k = (mfsplay_tree_key) ptr_low;
 
       while (1)
         {
           __mf_object_t *obj;
-              
-          n = (direction == 0 ? splay_tree_predecessor (t, k) : splay_tree_successor (t, k));
+
+          n = (direction == 0 ? mfsplay_tree_successor (t, k) : mfsplay_tree_predecessor (t, k));
           if (n == NULL) break;
           obj = (__mf_object_t *) n->value;
-              
+
           if (! (obj->low <= ptr_high && obj->high >= ptr_low)) /* No overlap? */
             break;
-              
+
           if (count < max_objs)
             objs[count] = (__mf_object_t *) n->value;
           count ++;
 
-          k = (splay_tree_key) obj->low;
+          k = (mfsplay_tree_key) obj->low;
         }
     }
 
@@ -1439,8 +1577,8 @@ __mf_find_objects (uintptr_t ptr_low, uintptr_t ptr_high,
 static void
 __mf_link_object (__mf_object_t *node)
 {
-  splay_tree t = __mf_object_tree (node->type);
-  splay_tree_insert (t, (splay_tree_key) node->low, (splay_tree_value) node);
+  mfsplay_tree t = __mf_object_tree (node->type);
+  mfsplay_tree_insert (t, (mfsplay_tree_key) node->low, (mfsplay_tree_value) node);
 }
 
 /* __mf_unlink_object */
@@ -1448,8 +1586,8 @@ __mf_link_object (__mf_object_t *node)
 static void
 __mf_unlink_object (__mf_object_t *node)
 {
-  splay_tree t = __mf_object_tree (node->type);
-  splay_tree_remove (t, (splay_tree_key) node->low);
+  mfsplay_tree t = __mf_object_tree (node->type);
+  mfsplay_tree_remove (t, (mfsplay_tree_key) node->low);
 }
 
 /* __mf_find_dead_objects */
@@ -1467,31 +1605,31 @@ __mf_find_dead_objects (uintptr_t low, uintptr_t high,
       unsigned count = 0;
       unsigned recollection = 0;
       unsigned row = 0;
-      
+
       assert (low <= high);
       assert (max_objs == 0 || objs != NULL);
-      
+
       /* Widen the search from the most recent plots in each row, looking
          backward in time.  */
       recollection = 0;
       while (recollection < __mf_opts.persistent_count)
         {
           count = 0;
-          
+
           for (row = 0; row <= __MF_TYPE_MAX_CEM; row ++)
             {
               unsigned plot;
               unsigned i;
-              
+
               plot = __mf_object_dead_head [row];
               for (i = 0; i <= recollection; i ++)
                 {
                   __mf_object_t *obj;
-                  
+
                   /* Look backward through row: it's a circular buffer.  */
                   if (plot > 0) plot --;
                   else plot = __mf_opts.persistent_count - 1;
-                  
+
                   obj = __mf_object_cemetary [row][plot];
                   if (obj && obj->low <= high && obj->high >= low)
                     {
@@ -1502,14 +1640,14 @@ __mf_find_dead_objects (uintptr_t low, uintptr_t high,
                     }
                 }
             }
-          
+
           if (count)
             break;
-          
+
           /* Look farther back in time.  */
           recollection = (recollection * 2) + 1;
         }
-      
+
       return count;
     } else {
       return 0;
@@ -1531,7 +1669,8 @@ __mf_describe_object (__mf_object_t *obj)
   if (__mf_opts.abbreviate && obj->description_epoch == epoch)
     {
       fprintf (stderr,
-               "mudflap object %p: name=`%s'\n",
+               "mudflap %sobject %p: name=`%s'\n",
+               (obj->deallocated_p ? "dead " : ""),
                (void *) obj, (obj->name ? obj->name : ""));
       return;
     }
@@ -1539,14 +1678,15 @@ __mf_describe_object (__mf_object_t *obj)
     obj->description_epoch = epoch;
 
   fprintf (stderr,
-           "mudflap object %p: name=`%s'\n"
+           "mudflap %sobject %p: name=`%s'\n"
            "bounds=[%p,%p] size=%lu area=%s check=%ur/%uw liveness=%u%s\n"
            "alloc time=%lu.%06lu pc=%p"
 #ifdef LIBMUDFLAPTH
            " thread=%u"
 #endif
            "\n",
-           (void *) obj, (obj->name ? obj->name : ""), 
+           (obj->deallocated_p ? "dead " : ""),
+           (void *) obj, (obj->name ? obj->name : ""),
            (void *) obj->low, (void *) obj->high,
            (unsigned long) (obj->high - obj->low + 1),
            (obj->type == __MF_TYPE_NOACCESS ? "no-access" :
@@ -1556,9 +1696,9 @@ __mf_describe_object (__mf_object_t *obj)
             obj->type == __MF_TYPE_STATIC ? "static" :
             obj->type == __MF_TYPE_GUESS ? "guess" :
             "unknown"),
-           obj->read_count, obj->write_count, obj->liveness, 
+           obj->read_count, obj->write_count, obj->liveness,
            obj->watching_p ? " watching" : "",
-           obj->alloc_time.tv_sec, obj->alloc_time.tv_usec, 
+           obj->alloc_time.tv_sec, obj->alloc_time.tv_usec,
            (void *) obj->alloc_pc
 #ifdef LIBMUDFLAPTH
            , (unsigned) obj->alloc_thread
@@ -1581,7 +1721,7 @@ __mf_describe_object (__mf_object_t *obj)
                    " thread=%u"
 #endif
                    "\n",
-                   obj->dealloc_time.tv_sec, obj->dealloc_time.tv_usec, 
+                   obj->dealloc_time.tv_sec, obj->dealloc_time.tv_usec,
                    (void *) obj->dealloc_pc
 #ifdef LIBMUDFLAPTH
                    , (unsigned) obj->dealloc_thread
@@ -1601,7 +1741,7 @@ __mf_describe_object (__mf_object_t *obj)
 
 
 static int
-__mf_report_leaks_fn (splay_tree_node n, void *param)
+__mf_report_leaks_fn (mfsplay_tree_node n, void *param)
 {
   __mf_object_t *node = (__mf_object_t *) n->value;
   unsigned *count = (unsigned *) param;
@@ -1621,9 +1761,9 @@ __mf_report_leaks ()
 {
   unsigned count = 0;
 
-  (void) splay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP),
+  (void) mfsplay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP),
                              __mf_report_leaks_fn, & count);
-  (void) splay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP_I),
+  (void) mfsplay_tree_foreach (__mf_object_tree (__MF_TYPE_HEAP_I),
                              __mf_report_leaks_fn, & count);
 
   return count;
@@ -1770,7 +1910,7 @@ __mf_backtrace (char ***symbols, void *guess_pc, unsigned guess_omit_levels)
      ends up containing a non-NULL guess_pc, then trim everything
      before that.  Otherwise, omit the first guess_omit_levels
      entries. */
-  
+
   if (guess_pc != NULL)
     for (i=0; i<pc_array_size; i++)
       if (pc_array [i] == guess_pc)
@@ -1814,15 +1954,15 @@ __mf_backtrace (char ***symbols, void *guess_pc, unsigned guess_omit_levels)
 /* __mf_violation */
 
 void
-__mf_violation (void *ptr, size_t sz, uintptr_t pc, 
+__mf_violation (void *ptr, size_t sz, uintptr_t pc,
                 const char *location, int type)
 {
   char buf [128];
   static unsigned violation_number;
   DECLARE(void, free, void *ptr);
 
-  TRACE ("violation pc=%p location=%s type=%d ptr=%p size=%lu\n", 
-         (void *) pc, 
+  TRACE ("violation pc=%p location=%s type=%d ptr=%p size=%lu\n",
+         (void *) pc,
          (location != NULL ? location : ""), type, ptr, (unsigned long) sz);
 
   if (__mf_opts.collect_stats)
@@ -1835,7 +1975,7 @@ __mf_violation (void *ptr, size_t sz, uintptr_t pc,
   {
     unsigned dead_p;
     unsigned num_helpful = 0;
-    struct timeval now;
+    struct timeval now = { 0, 0 };
 #if HAVE_GETTIMEOFDAY
     gettimeofday (& now, NULL);
 #endif
@@ -1844,14 +1984,14 @@ __mf_violation (void *ptr, size_t sz, uintptr_t pc,
     fprintf (stderr,
              "*******\n"
              "mudflap violation %u (%s): time=%lu.%06lu "
-             "ptr=%p size=%lu\npc=%p%s%s%s\n", 
+             "ptr=%p size=%lu\npc=%p%s%s%s\n",
              violation_number,
              ((type == __MF_VIOL_READ) ? "check/read" :
               (type == __MF_VIOL_WRITE) ? "check/write" :
               (type == __MF_VIOL_REGISTER) ? "register" :
               (type == __MF_VIOL_UNREGISTER) ? "unregister" :
               (type == __MF_VIOL_WATCH) ? "watch" : "unknown"),
-             now.tv_sec, now.tv_usec, 
+             now.tv_sec, now.tv_usec,
              (void *) ptr, (unsigned long)sz, (void *) pc,
              (location != NULL ? " location=`" : ""),
              (location != NULL ? location : ""),
@@ -1861,26 +2001,26 @@ __mf_violation (void *ptr, size_t sz, uintptr_t pc,
       {
         char ** symbols;
         unsigned i, num;
-        
+
         num = __mf_backtrace (& symbols, (void *) pc, 2);
         /* Note: backtrace_symbols calls malloc().  But since we're in
            __mf_violation and presumably __mf_check, it'll detect
            recursion, and not put the new string into the database.  */
-        
+
         for (i=0; i<num; i++)
           fprintf (stderr, "      %s\n", symbols[i]);
-        
+
         /* Calling free() here would trigger a violation.  */
         CALL_REAL(free, symbols);
       }
-    
-    
+
+
     /* Look for nearby objects.  For this, we start with s_low/s_high
        pointing to the given area, looking for overlapping objects.
        If none show up, widen the search area and keep looking. */
-    
+
     if (sz == 0) sz = 1;
-    
+
     for (dead_p = 0; dead_p <= 1; dead_p ++) /* for dead_p in 0 1 */
       {
         enum {max_objs = 3}; /* magic */
@@ -1889,7 +2029,7 @@ __mf_violation (void *ptr, size_t sz, uintptr_t pc,
         uintptr_t s_low, s_high;
         unsigned tries = 0;
         unsigned i;
-        
+
         s_low = (uintptr_t) ptr;
         s_high = CLAMPSZ (ptr, sz);
 
@@ -1997,7 +2137,7 @@ __mf_watch_or_not (void *ptr, size_t sz, char flag)
 
   TRACE ("%s ptr=%p size=%lu\n",
          (flag ? "watch" : "unwatch"), ptr, (unsigned long) sz);
-  
+
   switch (__mf_opts.mudflap_mode)
     {
     case mode_nop:
@@ -2078,7 +2218,7 @@ __mf_sigusr1_respond ()
   if (__mf_sigusr1_received > __mf_sigusr1_handled)
     {
       __mf_sigusr1_handled ++;
-      assert (__mf_state == reentrant);
+      assert (__mf_get_state () == reentrant);
       __mfu_report ();
       handler_installed = 0; /* We may need to re-enable signal; this might be a SysV library. */
     }
@@ -2101,7 +2241,7 @@ write_itoa (int fd, unsigned n)
       unsigned digit = n % 10;
       buf[bufsize-2-i] = digit + '0';
       n /= 10;
-      if (n == 0) 
+      if (n == 0)
         {
           char *m = & buf [bufsize-2-i];
           buf[bufsize-1] = '\0';
@@ -2119,7 +2259,7 @@ __assert_fail (const char *msg, const char *file, unsigned line, const char *fun
   write2("mf");
 #ifdef LIBMUDFLAPTH
   write2("(");
-  write_itoa (2, (unsigned) pthread_self ());  
+  write_itoa (2, (unsigned) pthread_self ());
   write2(")");
 #endif
   write2(": assertion failure: `");
@@ -2140,25 +2280,507 @@ __assert_fail (const char *msg, const char *file, unsigned line, const char *fun
 
 
 
-
-
-/* #include the generic splay tree implementation from libiberty here, to
-   ensure that it uses our memory allocation primitives.  */
+/* Adapted splay tree code, originally from libiberty.  It has been
+   specialized for libmudflap as requested by RMS.  */
 
 static void
-splay_tree_free (void *p)
+mfsplay_tree_free (void *p)
 {
   DECLARE (void, free, void *p);
   CALL_REAL (free, p);
 }
 
 static void *
-splay_tree_xmalloc (size_t s)
+mfsplay_tree_xmalloc (size_t s)
 {
   DECLARE (void *, malloc, size_t s);
   return CALL_REAL (malloc, s);
 }
 
-#define free(z) splay_tree_free(z)
-#define xmalloc(z) splay_tree_xmalloc(z)
-#include "splay-tree.c"
+
+static void mfsplay_tree_splay (mfsplay_tree, mfsplay_tree_key);
+static mfsplay_tree_node mfsplay_tree_splay_helper (mfsplay_tree,
+                                                mfsplay_tree_key,
+                                                mfsplay_tree_node *,
+                                                mfsplay_tree_node *,
+                                                mfsplay_tree_node *);
+
+
+/* Help splay SP around KEY.  PARENT and GRANDPARENT are the parent
+   and grandparent, respectively, of NODE.  */
+
+static mfsplay_tree_node
+mfsplay_tree_splay_helper (mfsplay_tree sp,
+                         mfsplay_tree_key key,
+                         mfsplay_tree_node * node,
+                         mfsplay_tree_node * parent,
+                         mfsplay_tree_node * grandparent)
+{
+  mfsplay_tree_node *next;
+  mfsplay_tree_node n;
+  int comparison;
+
+  n = *node;
+
+  if (!n)
+    return *parent;
+
+  comparison = ((key > n->key) ? 1 : ((key < n->key) ? -1 : 0));
+
+  if (comparison == 0)
+    /* We've found the target.  */
+    next = 0;
+  else if (comparison < 0)
+    /* The target is to the left.  */
+    next = &n->left;
+  else
+    /* The target is to the right.  */
+    next = &n->right;
+
+  if (next)
+    {
+      /* Check whether our recursion depth is too high.  Abort this search,
+         and signal that a rebalance is required to continue.  */
+      if (sp->depth > sp->max_depth)
+        {
+          sp->rebalance_p = 1;
+          return n;
+         }
+
+      /* Continue down the tree.  */
+      sp->depth ++;
+      n = mfsplay_tree_splay_helper (sp, key, next, node, parent);
+      sp->depth --;
+
+      /* The recursive call will change the place to which NODE
+         points.  */
+      if (*node != n || sp->rebalance_p)
+        return n;
+    }
+
+  if (!parent)
+    /* NODE is the root.  We are done.  */
+    return n;
+
+  /* First, handle the case where there is no grandparent (i.e.,
+   *PARENT is the root of the tree.)  */
+  if (!grandparent)
+    {
+      if (n == (*parent)->left)
+        {
+          *node = n->right;
+          n->right = *parent;
+        }
+      else
+        {
+          *node = n->left;
+          n->left = *parent;
+        }
+      *parent = n;
+      return n;
+    }
+
+  /* Next handle the cases where both N and *PARENT are left children,
+     or where both are right children.  */
+  if (n == (*parent)->left && *parent == (*grandparent)->left)
+    {
+      mfsplay_tree_node p = *parent;
+
+      (*grandparent)->left = p->right;
+      p->right = *grandparent;
+      p->left = n->right;
+      n->right = p;
+      *grandparent = n;
+      return n;
+    }
+  else if (n == (*parent)->right && *parent == (*grandparent)->right)
+    {
+      mfsplay_tree_node p = *parent;
+
+      (*grandparent)->right = p->left;
+      p->left = *grandparent;
+      p->right = n->left;
+      n->left = p;
+      *grandparent = n;
+      return n;
+    }
+
+  /* Finally, deal with the case where N is a left child, but *PARENT
+     is a right child, or vice versa.  */
+  if (n == (*parent)->left)
+    {
+      (*parent)->left = n->right;
+      n->right = *parent;
+      (*grandparent)->right = n->left;
+      n->left = *grandparent;
+      *grandparent = n;
+      return n;
+    }
+  else
+    {
+      (*parent)->right = n->left;
+      n->left = *parent;
+      (*grandparent)->left = n->right;
+      n->right = *grandparent;
+      *grandparent = n;
+      return n;
+    }
+}
+
+
+
+static int
+mfsplay_tree_rebalance_helper1 (mfsplay_tree_node n, void *array_ptr)
+{
+  mfsplay_tree_node **p = array_ptr;
+  *(*p) = n;
+  (*p)++;
+  return 0;
+}
+
+
+static mfsplay_tree_node
+mfsplay_tree_rebalance_helper2 (mfsplay_tree_node * array, unsigned low,
+                              unsigned high)
+{
+  unsigned middle = low + (high - low) / 2;
+  mfsplay_tree_node n = array[middle];
+
+  /* Note that since we're producing a balanced binary tree, it is not a problem
+     that this function is recursive.  */
+  if (low + 1 <= middle)
+    n->left = mfsplay_tree_rebalance_helper2 (array, low, middle - 1);
+  else
+    n->left = NULL;
+
+  if (middle + 1 <= high)
+    n->right = mfsplay_tree_rebalance_helper2 (array, middle + 1, high);
+  else
+    n->right = NULL;
+
+  return n;
+}
+
+
+/* Rebalance the entire tree.  Do this by copying all the node
+   pointers into an array, then cleverly re-linking them.  */
+static void
+mfsplay_tree_rebalance (mfsplay_tree sp)
+{
+  mfsplay_tree_node *all_nodes, *all_nodes_1;
+
+  if (sp->num_keys <= 2)
+    return;
+
+  all_nodes = mfsplay_tree_xmalloc (sizeof (mfsplay_tree_node) * sp->num_keys);
+
+  /* Traverse all nodes to copy their addresses into this array.  */
+  all_nodes_1 = all_nodes;
+  mfsplay_tree_foreach (sp, mfsplay_tree_rebalance_helper1,
+                      (void *) &all_nodes_1);
+
+  /* Relink all the nodes.  */
+  sp->root = mfsplay_tree_rebalance_helper2 (all_nodes, 0, sp->num_keys - 1);
+
+  mfsplay_tree_free (all_nodes);
+}
+
+
+/* Splay SP around KEY.  */
+static void
+mfsplay_tree_splay (mfsplay_tree sp, mfsplay_tree_key key)
+{
+  if (sp->root == 0)
+    return;
+
+  /* If we just splayed the tree with the same key, do nothing.  */
+  if (sp->last_splayed_key_p &&
+      (sp->last_splayed_key == key))
+    return;
+
+  /* Compute a maximum recursion depth for a splay tree with NUM nodes.
+     The idea is to limit excessive stack usage if we're facing
+     degenerate access patterns.  Unfortunately such patterns can occur
+     e.g. during static initialization, where many static objects might
+     be registered in increasing address sequence, or during a case where
+     large tree-like heap data structures are allocated quickly.
+
+     On x86, this corresponds to roughly 200K of stack usage.
+     XXX: For libmudflapth, this could be a function of __mf_opts.thread_stack.  */
+  sp->max_depth = 2500;
+  sp->rebalance_p = sp->depth = 0;
+
+  mfsplay_tree_splay_helper (sp, key, &sp->root, NULL, NULL);
+  if (sp->rebalance_p)
+    {
+      mfsplay_tree_rebalance (sp);
+
+      sp->rebalance_p = sp->depth = 0;
+      mfsplay_tree_splay_helper (sp, key, &sp->root, NULL, NULL);
+
+      if (sp->rebalance_p)
+        abort ();
+    }
+
+
+  /* Cache this splay key. */
+  sp->last_splayed_key = key;
+  sp->last_splayed_key_p = 1;
+}
+
+
+
+/* Allocate a new splay tree.  */
+static mfsplay_tree
+mfsplay_tree_new ()
+{
+  mfsplay_tree sp = mfsplay_tree_xmalloc (sizeof (struct mfsplay_tree_s));
+  sp->root = NULL;
+  sp->last_splayed_key_p = 0;
+  sp->num_keys = 0;
+
+  return sp;
+}
+
+
+
+/* Insert a new node (associating KEY with DATA) into SP.  If a
+   previous node with the indicated KEY exists, its data is replaced
+   with the new value.  Returns the new node.  */
+static mfsplay_tree_node
+mfsplay_tree_insert (mfsplay_tree sp, mfsplay_tree_key key, mfsplay_tree_value value)
+{
+  int comparison = 0;
+
+  mfsplay_tree_splay (sp, key);
+
+  if (sp->root)
+    comparison = ((sp->root->key > key) ? 1 :
+                  ((sp->root->key < key) ? -1 : 0));
+
+  if (sp->root && comparison == 0)
+    {
+      /* If the root of the tree already has the indicated KEY, just
+         replace the value with VALUE.  */
+      sp->root->value = value;
+    }
+  else
+    {
+      /* Create a new node, and insert it at the root.  */
+      mfsplay_tree_node node;
+
+      node = mfsplay_tree_xmalloc (sizeof (struct mfsplay_tree_node_s));
+      node->key = key;
+      node->value = value;
+      sp->num_keys++;
+      if (!sp->root)
+        node->left = node->right = 0;
+      else if (comparison < 0)
+        {
+          node->left = sp->root;
+          node->right = node->left->right;
+          node->left->right = 0;
+        }
+      else
+        {
+          node->right = sp->root;
+          node->left = node->right->left;
+          node->right->left = 0;
+        }
+
+      sp->root = node;
+      sp->last_splayed_key_p = 0;
+    }
+
+  return sp->root;
+}
+
+/* Remove KEY from SP.  It is not an error if it did not exist.  */
+
+static void
+mfsplay_tree_remove (mfsplay_tree sp, mfsplay_tree_key key)
+{
+  mfsplay_tree_splay (sp, key);
+  sp->last_splayed_key_p = 0;
+  if (sp->root && (sp->root->key == key))
+    {
+      mfsplay_tree_node left, right;
+      left = sp->root->left;
+      right = sp->root->right;
+      /* Delete the root node itself.  */
+      mfsplay_tree_free (sp->root);
+      sp->num_keys--;
+      /* One of the children is now the root.  Doesn't matter much
+         which, so long as we preserve the properties of the tree.  */
+      if (left)
+        {
+          sp->root = left;
+          /* If there was a right child as well, hang it off the
+             right-most leaf of the left child.  */
+          if (right)
+            {
+              while (left->right)
+                left = left->right;
+              left->right = right;
+            }
+        }
+      else
+        sp->root = right;
+    }
+}
+
+/* Lookup KEY in SP, returning VALUE if present, and NULL
+   otherwise.  */
+
+static mfsplay_tree_node
+mfsplay_tree_lookup (mfsplay_tree sp, mfsplay_tree_key key)
+{
+  mfsplay_tree_splay (sp, key);
+  if (sp->root && (sp->root->key == key))
+    return sp->root;
+  else
+    return 0;
+}
+
+
+/* Return the immediate predecessor KEY, or NULL if there is no
+   predecessor.  KEY need not be present in the tree.  */
+
+static mfsplay_tree_node
+mfsplay_tree_predecessor (mfsplay_tree sp, mfsplay_tree_key key)
+{
+  int comparison;
+  mfsplay_tree_node node;
+  /* If the tree is empty, there is certainly no predecessor.  */
+  if (!sp->root)
+    return NULL;
+  /* Splay the tree around KEY.  That will leave either the KEY
+     itself, its predecessor, or its successor at the root.  */
+  mfsplay_tree_splay (sp, key);
+  comparison = ((sp->root->key > key) ? 1 :
+                ((sp->root->key < key) ? -1 : 0));
+
+  /* If the predecessor is at the root, just return it.  */
+  if (comparison < 0)
+    return sp->root;
+  /* Otherwise, find the rightmost element of the left subtree.  */
+  node = sp->root->left;
+  if (node)
+    while (node->right)
+      node = node->right;
+  return node;
+}
+
+/* Return the immediate successor KEY, or NULL if there is no
+   successor.  KEY need not be present in the tree.  */
+
+static mfsplay_tree_node
+mfsplay_tree_successor (mfsplay_tree sp, mfsplay_tree_key key)
+{
+  int comparison;
+  mfsplay_tree_node node;
+  /* If the tree is empty, there is certainly no successor.  */
+  if (!sp->root)
+    return NULL;
+  /* Splay the tree around KEY.  That will leave either the KEY
+     itself, its predecessor, or its successor at the root.  */
+  mfsplay_tree_splay (sp, key);
+  comparison = ((sp->root->key > key) ? 1 :
+                ((sp->root->key < key) ? -1 : 0));
+  /* If the successor is at the root, just return it.  */
+  if (comparison > 0)
+    return sp->root;
+  /* Otherwise, find the leftmost element of the right subtree.  */
+  node = sp->root->right;
+  if (node)
+    while (node->left)
+      node = node->left;
+  return node;
+}
+
+/* Call FN, passing it the DATA, for every node in SP, following an
+   in-order traversal.  If FN every returns a non-zero value, the
+   iteration ceases immediately, and the value is returned.
+   Otherwise, this function returns 0.
+
+   This function simulates recursion using dynamically allocated
+   arrays, since it may be called from mfsplay_tree_rebalance(), which
+   in turn means that the tree is already uncomfortably deep for stack
+   space limits.  */
+static int
+mfsplay_tree_foreach (mfsplay_tree st, mfsplay_tree_foreach_fn fn, void *data)
+{
+  mfsplay_tree_node *stack1;
+  char *stack2;
+  unsigned sp;
+  int val = 0;
+  enum s { s_left, s_here, s_right, s_up };
+
+  if (st->root == NULL) /* => num_keys == 0 */
+    return 0;
+
+  stack1 = mfsplay_tree_xmalloc (sizeof (mfsplay_tree_node) * st->num_keys);
+  stack2 = mfsplay_tree_xmalloc (sizeof (char) * st->num_keys);
+
+  sp = 0;
+  stack1 [sp] = st->root;
+  stack2 [sp] = s_left;
+
+  while (1)
+    {
+      mfsplay_tree_node n;
+      enum s s;
+
+      n = stack1 [sp];
+      s = stack2 [sp];
+
+      /* Handle each of the four possible states separately.  */
+
+      /* 1: We're here to traverse the left subtree (if any).  */
+      if (s == s_left)
+        {
+          stack2 [sp] = s_here;
+          if (n->left != NULL)
+            {
+              sp ++;
+              stack1 [sp] = n->left;
+              stack2 [sp] = s_left;
+            }
+        }
+
+      /* 2: We're here to traverse this node.  */
+      else if (s == s_here)
+        {
+          stack2 [sp] = s_right;
+          val = (*fn) (n, data);
+          if (val) break;
+        }
+
+      /* 3: We're here to traverse the right subtree (if any).  */
+      else if (s == s_right)
+        {
+          stack2 [sp] = s_up;
+          if (n->right != NULL)
+            {
+              sp ++;
+              stack1 [sp] = n->right;
+              stack2 [sp] = s_left;
+            }
+        }
+
+      /* 4: We're here after both subtrees (if any) have been traversed.  */
+      else if (s == s_up)
+        {
+          /* Pop the stack.  */
+          if (sp == 0) break; /* Popping off the root note: we're finished!  */
+          sp --;
+        }
+
+      else
+        abort ();
+    }
+
+  mfsplay_tree_free (stack1);
+  mfsplay_tree_free (stack2);
+  return val;
+}