OSDN Git Service

(fold_rtx, case PLUS): When seeing if negative of constant is around,
[pf3gnuchains/gcc-fork.git] / gcc / cse.c
index 45e7d44..260da29 100644 (file)
--- a/gcc/cse.c
+++ b/gcc/cse.c
@@ -1,5 +1,5 @@
 /* Common subexpression elimination for GNU compiler.
-   Copyright (C) 1987, 88, 89, 92, 93, 1994 Free Software Foundation, Inc.
+   Copyright (C) 1987, 88, 89, 92-6, 1997 Free Software Foundation, Inc.
 
 This file is part of GNU CC.
 
@@ -15,7 +15,8 @@ GNU General Public License for more details.
 
 You should have received a copy of the GNU General Public License
 along with GNU CC; see the file COPYING.  If not, write to
-the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.  */
+the Free Software Foundation, 59 Temple Place - Suite 330,
+Boston, MA 02111-1307, USA.  */
 
 
 #include "config.h"
@@ -342,12 +343,23 @@ static int max_uid;
 
 static int cse_jumps_altered;
 
+/* Nonzero if we put a LABEL_REF into the hash table.  Since we may have put
+   it into an INSN without a REG_LABEL, we have to rerun jump after CSE
+   to put in the note.  */
+static int recorded_label_ref;
+
 /* canon_hash stores 1 in do_not_record
    if it notices a reference to CC0, PC, or some other volatile
    subexpression.  */
 
 static int do_not_record;
 
+#ifdef LOAD_EXTEND_OP
+
+/* Scratch rtl used when looking for load-extended copy of a MEM.  */
+static rtx memory_extend_rtx;
+#endif
+
 /* canon_hash stores 1 in hash_arg_in_memory
    if it notices a reference to memory within the expression being hashed.  */
 
@@ -439,12 +451,12 @@ struct table_elt
 #ifdef OVERLAPPING_REGNO_P
 #define FIXED_REGNO_P(N)  \
   (((N) == FRAME_POINTER_REGNUM || (N) == HARD_FRAME_POINTER_REGNUM \
-    || fixed_regs[N])    \
+    || fixed_regs[N] || global_regs[N])          \
    && ! OVERLAPPING_REGNO_P ((N)))
 #else
 #define FIXED_REGNO_P(N)  \
   ((N) == FRAME_POINTER_REGNUM || (N) == HARD_FRAME_POINTER_REGNUM \
-   || fixed_regs[N])
+   || fixed_regs[N] || global_regs[N])
 #endif
 
 /* Compute cost of X, as stored in the `cost' field of a table_elt.  Fixed
@@ -452,19 +464,38 @@ struct table_elt
    of 0.  Next come pseudos with a cost of one and other hard registers with
    a cost of 2.  Aside from these special cases, call `rtx_cost'.  */
 
-#define CHEAP_REG(N) \
+#define CHEAP_REGNO(N) \
   ((N) == FRAME_POINTER_REGNUM || (N) == HARD_FRAME_POINTER_REGNUM     \
    || (N) == STACK_POINTER_REGNUM || (N) == ARG_POINTER_REGNUM         \
    || ((N) >= FIRST_VIRTUAL_REGISTER && (N) <= LAST_VIRTUAL_REGISTER)  \
    || ((N) < FIRST_PSEUDO_REGISTER                                     \
        && FIXED_REGNO_P (N) && REGNO_REG_CLASS (N) != NO_REGS))
 
-#define COST(X)                                                \
-  (GET_CODE (X) == REG                                 \
-   ? (CHEAP_REG (REGNO (X)) ? 0                                \
-      : REGNO (X) >= FIRST_PSEUDO_REGISTER ? 1         \
-      : 2)                                             \
-   : rtx_cost (X, SET) * 2)
+/* A register is cheap if it is a user variable assigned to the register
+   or if its register number always corresponds to a cheap register.  */
+
+#define CHEAP_REG(N) \
+  ((REG_USERVAR_P (N) && REGNO (N) < FIRST_PSEUDO_REGISTER)    \
+   || CHEAP_REGNO (REGNO (N)))
+
+#define COST(X)                                                                \
+  (GET_CODE (X) == REG                                                 \
+   ? (CHEAP_REG (X) ? 0                                                        \
+      : REGNO (X) >= FIRST_PSEUDO_REGISTER ? 1                         \
+      : 2)                                                             \
+   : ((GET_CODE (X) == SUBREG                                          \
+       && GET_CODE (SUBREG_REG (X)) == REG                             \
+       && GET_MODE_CLASS (GET_MODE (X)) == MODE_INT                    \
+       && GET_MODE_CLASS (GET_MODE (SUBREG_REG (X))) == MODE_INT       \
+       && (GET_MODE_SIZE (GET_MODE (X))                                        \
+          < GET_MODE_SIZE (GET_MODE (SUBREG_REG (X))))                 \
+       && subreg_lowpart_p (X)                                         \
+       && TRULY_NOOP_TRUNCATION (GET_MODE_BITSIZE (GET_MODE (X)),      \
+                                GET_MODE_BITSIZE (GET_MODE (SUBREG_REG (X))))) \
+      ? (CHEAP_REG (SUBREG_REG (X)) ? 0                                        \
+        : REGNO (SUBREG_REG (X)) >= FIRST_PSEUDO_REGISTER ? 1          \
+        : 2)                                                           \
+      : rtx_cost (X, SET) * 2))
 
 /* Determine if the quantity number for register X represents a valid index
    into the `qty_...' variables.  */
@@ -515,7 +546,7 @@ static int constant_pool_entries_cost;
 
 struct write_data
 {
-  int sp : 1;                  /* Invalidate stack pointer. */
+  int sp : 1;                  /* Invalidate stack pointer.  */
   int var : 1;                 /* Invalidate variable addresses.  */
   int nonscalar : 1;           /* Invalidate all but scalar variables.  */
   int all : 1;                 /* Invalidate all memory refs.  */
@@ -540,7 +571,7 @@ struct cse_basic_block_data {
   int path_size;
   /* Current branch path, indicating which branches will be taken.  */
   struct branch_path {
-    /* The branch insn. */
+    /* The branch insn.  */
     rtx branch;
     /* Whether it should be taken or not.  AROUND is the same as taken
        except that it is used when the destination label is not preceded
@@ -605,7 +636,7 @@ static struct table_elt *insert PROTO((rtx, struct table_elt *, unsigned,
                                       enum machine_mode));
 static void merge_equiv_classes PROTO((struct table_elt *,
                                       struct table_elt *));
-static void invalidate         PROTO((rtx));
+static void invalidate         PROTO((rtx, enum machine_mode));
 static void remove_invalid_refs        PROTO((int));
 static void rehash_using_reg   PROTO((rtx));
 static void invalidate_memory  PROTO((struct write_data *));
@@ -711,7 +742,7 @@ rtx_cost (x, outer_code)
   switch (code)
     {
     case REG:
-      return ! CHEAP_REG (REGNO (x));
+      return ! CHEAP_REG (x);
 
     case SUBREG:
       /* If we can't tie these modes, make this expensive.  The larger
@@ -750,10 +781,11 @@ new_basic_block ()
 
   next_qty = max_reg;
 
-  bzero (reg_tick, max_reg * sizeof (int));
+  bzero ((char *) reg_tick, max_reg * sizeof (int));
 
-  bcopy (all_minus_one, reg_in_table, max_reg * sizeof (int));
-  bcopy (consec_ints, reg_qty, max_reg * sizeof (int));
+  bcopy ((char *) all_minus_one, (char *) reg_in_table,
+        max_reg * sizeof (int));
+  bcopy ((char *) consec_ints, (char *) reg_qty, max_reg * sizeof (int));
   CLEAR_HARD_REG_SET (hard_regs_in_table);
 
   /* The per-quantity values used to be initialized here, but it is
@@ -769,7 +801,7 @@ new_basic_block ()
        }
     }
 
-  bzero (table, sizeof table);
+  bzero ((char *) table, sizeof table);
 
   prev_insn = 0;
 
@@ -1272,6 +1304,11 @@ insert (x, classp, hash, mode)
            SET_HARD_REG_BIT (hard_regs_in_table, i);
     }
 
+  /* If X is a label, show we recorded it.  */
+  if (GET_CODE (x) == LABEL_REF
+      || (GET_CODE (x) == CONST && GET_CODE (XEXP (x, 0)) == PLUS
+         && GET_CODE (XEXP (XEXP (x, 0), 0)) == LABEL_REF))
+    recorded_label_ref = 1;
 
   /* Put an element for X into the right hash bucket.  */
 
@@ -1346,20 +1383,22 @@ insert (x, classp, hash, mode)
      update `qty_const_insn' to show that `this_insn' is the latest
      insn making that quantity equivalent to the constant.  */
 
-  if (elt->is_const && classp && GET_CODE (classp->exp) == REG)
+  if (elt->is_const && classp && GET_CODE (classp->exp) == REG
+      && GET_CODE (x) != REG)
     {
       qty_const[reg_qty[REGNO (classp->exp)]]
        = gen_lowpart_if_possible (qty_mode[reg_qty[REGNO (classp->exp)]], x);
       qty_const_insn[reg_qty[REGNO (classp->exp)]] = this_insn;
     }
 
-  else if (GET_CODE (x) == REG && classp && ! qty_const[reg_qty[REGNO (x)]])
+  else if (GET_CODE (x) == REG && classp && ! qty_const[reg_qty[REGNO (x)]]
+          && ! elt->is_const)
     {
       register struct table_elt *p;
 
       for (p = classp; p != 0; p = p->next_same_value)
        {
-         if (p->is_const)
+         if (p->is_const && GET_CODE (p->exp) != REG)
            {
              qty_const[reg_qty[REGNO (x)]]
                = gen_lowpart_if_possible (GET_MODE (x), p->exp);
@@ -1439,7 +1478,7 @@ merge_equiv_classes (class1, class2)
 
       /* Remove old entry, make a new one in CLASS1's class.
         Don't do this for invalid entries as we cannot find their
-        hash code (it also isn't necessary). */
+        hash code (it also isn't necessary).  */
       if (GET_CODE (exp) == REG || exp_equiv_p (exp, exp, 1, 0))
        {
          hash_arg_in_memory = 0;
@@ -1452,7 +1491,10 @@ merge_equiv_classes (class1, class2)
          remove_from_table (elt, hash);
 
          if (insert_regs (exp, class1, 0))
-           hash = HASH (exp, mode);
+           {
+             rehash_using_reg (exp);
+             hash = HASH (exp, mode);
+           }
          new = insert (exp, class1, hash, mode);
          new->in_memory = hash_arg_in_memory;
          new->in_struct = hash_arg_in_struct;
@@ -1466,14 +1508,18 @@ merge_equiv_classes (class1, class2)
    (because, when a memory reference with a varying address is stored in,
    all memory references are removed by invalidate_memory
    so specific invalidation is superfluous).
+   FULL_MODE, if not VOIDmode, indicates that this much should be invalidated
+   instead of just the amount indicated by the mode of X.  This is only used
+   for bitfield stores into memory.
 
    A nonvarying address may be just a register or just
    a symbol reference, or it may be either of those plus
    a numeric offset.  */
 
 static void
-invalidate (x)
+invalidate (x, full_mode)
      rtx x;
+     enum machine_mode full_mode;
 {
   register int i;
   register struct table_elt *p;
@@ -1504,7 +1550,15 @@ invalidate (x)
       reg_tick[regno]++;
 
       if (regno >= FIRST_PSEUDO_REGISTER)
-       remove_from_table (lookup_for_remove (x, hash, GET_MODE (x)), hash);
+       {
+         /* Because a register can be referenced in more than one mode,
+            we might have to remove more than one table entry.  */
+
+         struct table_elt *elt;
+
+         while (elt = lookup_for_remove (x, hash, GET_MODE (x)))
+           remove_from_table (elt, hash);
+       }
       else
        {
          HOST_WIDE_INT in_table
@@ -1548,7 +1602,7 @@ invalidate (x)
     {
       if (GET_CODE (SUBREG_REG (x)) != REG)
        abort ();
-      invalidate (SUBREG_REG (x));
+      invalidate (SUBREG_REG (x), VOIDmode);
       return;
     }
 
@@ -1559,7 +1613,10 @@ invalidate (x)
   if (GET_CODE (x) != MEM)
     abort ();
 
-  set_nonvarying_address_components (XEXP (x, 0), GET_MODE_SIZE (GET_MODE (x)),
+  if (full_mode == VOIDmode)
+    full_mode = GET_MODE (x);
+
+  set_nonvarying_address_components (XEXP (x, 0), GET_MODE_SIZE (full_mode),
                                     &base, &start, &end);
 
   for (i = 0; i < NBUCKETS; i++)
@@ -1697,7 +1754,7 @@ invalidate_for_call ()
        if (reg_tick[regno] >= 0)
          reg_tick[regno]++;
 
-       in_table |= TEST_HARD_REG_BIT (hard_regs_in_table, regno);
+       in_table |= (TEST_HARD_REG_BIT (hard_regs_in_table, regno) != 0);
       }
 
   /* In the case where we have no call-clobbered hard registers in the
@@ -1841,12 +1898,13 @@ canon_hash (x, mode)
        /* On some machines, we can't record any non-fixed hard register,
           because extending its life will cause reload problems.  We
           consider ap, fp, and sp to be fixed for this purpose.
-          On all machines, we can't record any global registers. */
+          On all machines, we can't record any global registers.  */
 
        if (regno < FIRST_PSEUDO_REGISTER
            && (global_regs[regno]
 #ifdef SMALL_REGISTER_CLASSES
-               || (! fixed_regs[regno]
+               || (SMALL_REGISTER_CLASSES
+                   && ! fixed_regs[regno]
                    && regno != FRAME_POINTER_REGNUM
                    && regno != HARD_FRAME_POINTER_REGNUM
                    && regno != ARG_POINTER_REGNUM
@@ -1872,21 +1930,26 @@ canon_hash (x, mode)
       /* This is like the general case, except that it only counts
         the integers representing the constant.  */
       hash += (unsigned) code + (unsigned) GET_MODE (x);
-      for (i = 2; i < GET_RTX_LENGTH (CONST_DOUBLE); i++)
-       {
-         unsigned tem = XINT (x, i);
-         hash += tem;
-       }
+      if (GET_MODE (x) != VOIDmode)
+       for (i = 2; i < GET_RTX_LENGTH (CONST_DOUBLE); i++)
+         {
+           unsigned tem = XINT (x, i);
+           hash += tem;
+         }
+      else
+       hash += ((unsigned) CONST_DOUBLE_LOW (x)
+                + (unsigned) CONST_DOUBLE_HIGH (x));
       return hash;
 
       /* Assume there is only one rtx object for any given label.  */
     case LABEL_REF:
-      /* Use `and' to ensure a positive number.  */
-      hash += ((unsigned) LABEL_REF << 7) + (unsigned) XEXP (x, 0);
+      hash
+       += ((unsigned) LABEL_REF << 7) + (unsigned HOST_WIDE_INT) XEXP (x, 0);
       return hash;
 
     case SYMBOL_REF:
-      hash += ((unsigned) SYMBOL_REF << 7) + (unsigned) XEXP (x, 0);
+      hash
+       += ((unsigned) SYMBOL_REF << 7) + (unsigned HOST_WIDE_INT) XSTR (x, 0);
       return hash;
 
     case MEM:
@@ -1895,7 +1958,7 @@ canon_hash (x, mode)
          do_not_record = 1;
          return 0;
        }
-      if (! RTX_UNCHANGING_P (x))
+      if (! RTX_UNCHANGING_P (x) || FIXED_BASE_PLUS_P (XEXP (x, 0)))
        {
          hash_arg_in_memory = 1;
          if (MEM_IN_STRUCT_P (x)) hash_arg_in_struct = 1;
@@ -1933,17 +1996,6 @@ canon_hash (x, mode)
       if (fmt[i] == 'e')
        {
          rtx tem = XEXP (x, i);
-         rtx tem1;
-
-         /* If the operand is a REG that is equivalent to a constant, hash
-            as if we were hashing the constant, since we will be comparing
-            that way.  */
-         if (tem != 0 && GET_CODE (tem) == REG
-             && REGNO_QTY_VALID_P (REGNO (tem))
-             && qty_mode[reg_qty[REGNO (tem)]] == GET_MODE (tem)
-             && (tem1 = qty_const[reg_qty[REGNO (tem)]]) != 0
-             && CONSTANT_P (tem1))
-           tem = tem1;
 
          /* If we are about to do the last recursive call
             needed at this level, change it into iteration.
@@ -2063,9 +2115,11 @@ exp_equiv_p (x, y, validate, equal_values)
       return INTVAL (x) == INTVAL (y);
 
     case LABEL_REF:
-    case SYMBOL_REF:
       return XEXP (x, 0) == XEXP (y, 0);
 
+    case SYMBOL_REF:
+      return XSTR (x, 0) == XSTR (y, 0);
+
     case REG:
       {
        int regno = REGNO (y);
@@ -2213,9 +2267,10 @@ refers_to_p (x, y)
    set PBASE, PSTART, and PEND which correspond to the base of the address,
    the starting offset, and ending offset respectively.
 
-   ADDR is known to be a nonvarying address. 
+   ADDR is known to be a nonvarying address.  */
 
-   cse_address_varies_p returns zero for nonvarying addresses.  */
+/* ??? Despite what the comments say, this function is in fact frequently
+   passed varying addresses.  This does not appear to cause any problems.  */
 
 static void
 set_nonvarying_address_components (addr, size, pbase, pstart, pend)
@@ -2225,7 +2280,7 @@ set_nonvarying_address_components (addr, size, pbase, pstart, pend)
      HOST_WIDE_INT *pstart, *pend;
 {
   rtx base;
-  int start, end;
+  HOST_WIDE_INT start, end;
 
   base = addr;
   start = 0;
@@ -2251,21 +2306,97 @@ set_nonvarying_address_components (addr, size, pbase, pstart, pend)
       start = INTVAL (XEXP (base, 1));
       base = qty_const[reg_qty[REGNO (XEXP (base, 0))]];
     }
+  /* This can happen as the result of virtual register instantiation,
+     if the initial offset is too large to be a valid address.  */
+  else if (GET_CODE (base) == PLUS
+          && GET_CODE (XEXP (base, 0)) == REG
+          && GET_CODE (XEXP (base, 1)) == REG
+          && qty_const != 0
+          && REGNO_QTY_VALID_P (REGNO (XEXP (base, 0)))
+          && (qty_mode[reg_qty[REGNO (XEXP (base, 0))]]
+              == GET_MODE (XEXP (base, 0)))
+          && qty_const[reg_qty[REGNO (XEXP (base, 0))]]
+          && REGNO_QTY_VALID_P (REGNO (XEXP (base, 1)))
+          && (qty_mode[reg_qty[REGNO (XEXP (base, 1))]]
+              == GET_MODE (XEXP (base, 1)))
+          && qty_const[reg_qty[REGNO (XEXP (base, 1))]])
+    {
+      rtx tem = qty_const[reg_qty[REGNO (XEXP (base, 1))]];
+      base = qty_const[reg_qty[REGNO (XEXP (base, 0))]];
 
-  /* By definition, operand1 of a LO_SUM is the associated constant
-     address.  Use the associated constant address as the base instead.  */
-  if (GET_CODE (base) == LO_SUM)
-    base = XEXP (base, 1);
+      /* One of the two values must be a constant.  */
+      if (GET_CODE (base) != CONST_INT)
+       {
+         if (GET_CODE (tem) != CONST_INT)
+           abort ();
+         start = INTVAL (tem);
+       }
+      else
+       {
+         start = INTVAL (base);
+         base = tem;
+       }
+    }
 
-  /* Strip off CONST.  */
-  if (GET_CODE (base) == CONST)
-    base = XEXP (base, 0);
+  /* Handle everything that we can find inside an address that has been
+     viewed as constant.  */
 
-  if (GET_CODE (base) == PLUS
-      && GET_CODE (XEXP (base, 1)) == CONST_INT)
+  while (1)
     {
-      start += INTVAL (XEXP (base, 1));
-      base = XEXP (base, 0);
+      /* If no part of this switch does a "continue", the code outside
+        will exit this loop.  */
+
+      switch (GET_CODE (base))
+       {
+       case LO_SUM:
+         /* By definition, operand1 of a LO_SUM is the associated constant
+            address.  Use the associated constant address as the base
+            instead.  */
+         base = XEXP (base, 1);
+         continue;
+
+       case CONST:
+         /* Strip off CONST.  */
+         base = XEXP (base, 0);
+         continue;
+
+       case PLUS:
+         if (GET_CODE (XEXP (base, 1)) == CONST_INT)
+           {
+             start += INTVAL (XEXP (base, 1));
+             base = XEXP (base, 0);
+             continue;
+           }
+         break;
+
+       case AND:
+         /* Handle the case of an AND which is the negative of a power of
+            two.  This is used to represent unaligned memory operations.  */
+         if (GET_CODE (XEXP (base, 1)) == CONST_INT
+             && exact_log2 (- INTVAL (XEXP (base, 1))) > 0)
+           {
+             set_nonvarying_address_components (XEXP (base, 0), size,
+                                                pbase, pstart, pend);
+
+             /* Assume the worst misalignment.  START is affected, but not
+                END, so compensate but adjusting SIZE.  Don't lose any
+                constant we already had.  */
+
+             size = *pend - *pstart - INTVAL (XEXP (base, 1)) - 1;
+             start += *pstart + INTVAL (XEXP (base, 1)) + 1;
+             end += *pend;
+             base = *pbase;
+           }
+         break;
+       }
+
+      break;
+    }
+
+  if (GET_CODE (base) == CONST_INT)
+    {
+      start += INTVAL (base);
+      base = const0_rtx;
     }
 
   end = start + size;
@@ -2298,13 +2429,6 @@ refers_to_mem_p (x, base, start, end)
   register enum rtx_code code;
   register char *fmt;
 
-  if (GET_CODE (base) == CONST_INT)
-    {
-      start += INTVAL (base);
-      end += INTVAL (base);
-      base = const0_rtx;
-    }
-
  repeat:
   if (x == 0)
     return 0;
@@ -2384,6 +2508,25 @@ cse_rtx_addr_varies_p (x)
       && qty_const[reg_qty[REGNO (XEXP (XEXP (x, 0), 0))]])
     return 0;
 
+  /* This can happen as the result of virtual register instantiation, if
+     the initial constant is too large to be a valid address.  This gives
+     us a three instruction sequence, load large offset into a register,
+     load fp minus a constant into a register, then a MEM which is the
+     sum of the two `constant' registers.  */
+  if (GET_CODE (x) == MEM
+      && GET_CODE (XEXP (x, 0)) == PLUS
+      && GET_CODE (XEXP (XEXP (x, 0), 0)) == REG
+      && GET_CODE (XEXP (XEXP (x, 0), 1)) == REG
+      && REGNO_QTY_VALID_P (REGNO (XEXP (XEXP (x, 0), 0)))
+      && (GET_MODE (XEXP (XEXP (x, 0), 0))
+         == qty_mode[reg_qty[REGNO (XEXP (XEXP (x, 0), 0))]])
+      && qty_const[reg_qty[REGNO (XEXP (XEXP (x, 0), 0))]]
+      && REGNO_QTY_VALID_P (REGNO (XEXP (XEXP (x, 0), 1)))
+      && (GET_MODE (XEXP (XEXP (x, 0), 1))
+         == qty_mode[reg_qty[REGNO (XEXP (XEXP (x, 0), 1))]])
+      && qty_const[reg_qty[REGNO (XEXP (XEXP (x, 0), 1))]])
+    return 0;
+
   return rtx_addr_varies_p (x);
 }
 \f
@@ -2452,6 +2595,7 @@ canon_reg (x, insn)
       if (fmt[i] == 'e')
        {
          rtx new = canon_reg (XEXP (x, i), insn);
+         int insn_code;
 
          /* If replacing pseudo with hard reg or vice versa, ensure the
             insn remains valid.  Likewise if the insn has MATCH_DUPs.  */
@@ -2459,7 +2603,8 @@ canon_reg (x, insn)
              && GET_CODE (new) == REG && GET_CODE (XEXP (x, i)) == REG
              && (((REGNO (new) < FIRST_PSEUDO_REGISTER)
                   != (REGNO (XEXP (x, i)) < FIRST_PSEUDO_REGISTER))
-                 || insn_n_dups[recog_memoized (insn)] > 0))
+                 || (insn_code = recog_memoized (insn)) < 0
+                 || insn_n_dups[insn_code] > 0))
            validate_change (insn, &XEXP (x, i), new, 1);
          else
            XEXP (x, i) = new;
@@ -2472,7 +2617,7 @@ canon_reg (x, insn)
   return x;
 }
 \f
-/* LOC is a location with INSN that is an operand address (the contents of
+/* LOC is a location within INSN that is an operand address (the contents of
    a MEM).  Find the best equivalent address to use that is valid for this
    insn.
 
@@ -2530,9 +2675,21 @@ find_best_addr (insn, loc)
      sometimes simplify the expression.  Many simplifications
      will not be valid, but some, usually applying the associative rule, will
      be valid and produce better code.  */
-  if (GET_CODE (addr) != REG
-      && validate_change (insn, loc, fold_rtx (addr, insn), 0))
-    addr = *loc;
+  if (GET_CODE (addr) != REG)
+    {
+      rtx folded = fold_rtx (copy_rtx (addr), NULL_RTX);
+
+      if (1
+#ifdef ADDRESS_COST
+         && (ADDRESS_COST (folded) < ADDRESS_COST (addr)
+             || (ADDRESS_COST (folded) == ADDRESS_COST (addr)
+                 && rtx_cost (folded) > rtx_cost (addr)))
+#else
+         && rtx_cost (folded) < rtx_cost (addr)
+#endif
+         && validate_change (insn, loc, folded, 0))
+       addr = folded;
+    }
        
   /* If this address is not in the hash table, we can't look for equivalences
      of the whole address.  Also, ignore if volatile.  */
@@ -2872,70 +3029,74 @@ simplify_unary_operation (code, mode, op, op_mode)
      check the wrong mode (input vs. output) for a conversion operation,
      such as FIX.  At some point, this should be simplified.  */
 
-#if !defined (REAL_IS_NOT_DOUBLE) || defined (REAL_ARITHMETIC)
-  if (code == FLOAT && GET_CODE (op) == CONST_INT)
-    {
-      REAL_VALUE_TYPE d;
+#if !defined(REAL_IS_NOT_DOUBLE) || defined(REAL_ARITHMETIC)
 
-#ifdef REAL_ARITHMETIC
-      REAL_VALUE_FROM_INT (d, INTVAL (op), INTVAL (op) < 0 ? ~0 : 0);
-#else
-      d = (double) INTVAL (op);
-#endif
-      return CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
-    }
-  else if (code == UNSIGNED_FLOAT && GET_CODE (op) == CONST_INT)
+  if (code == FLOAT && GET_MODE (op) == VOIDmode
+      && (GET_CODE (op) == CONST_DOUBLE || GET_CODE (op) == CONST_INT))
     {
+      HOST_WIDE_INT hv, lv;
       REAL_VALUE_TYPE d;
 
-#ifdef REAL_ARITHMETIC
-      REAL_VALUE_FROM_INT (d, INTVAL (op), 0);
-#else
-      d = (double) (unsigned int) INTVAL (op);
-#endif
-      return CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
-    }
-
-  else if (code == FLOAT && GET_CODE (op) == CONST_DOUBLE
-          && GET_MODE (op) == VOIDmode)
-    {
-      REAL_VALUE_TYPE d;
+      if (GET_CODE (op) == CONST_INT)
+       lv = INTVAL (op), hv = INTVAL (op) < 0 ? -1 : 0;
+      else
+       lv = CONST_DOUBLE_LOW (op),  hv = CONST_DOUBLE_HIGH (op);
 
 #ifdef REAL_ARITHMETIC
-      REAL_VALUE_FROM_INT (d, CONST_DOUBLE_LOW (op), CONST_DOUBLE_HIGH (op));
+      REAL_VALUE_FROM_INT (d, lv, hv, mode);
 #else
-      if (CONST_DOUBLE_HIGH (op) < 0)
+      if (hv < 0)
        {
-         d = (double) (~ CONST_DOUBLE_HIGH (op));
+         d = (double) (~ hv);
          d *= ((double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2))
                * (double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2)));
-         d += (double) (unsigned HOST_WIDE_INT) (~ CONST_DOUBLE_LOW (op));
+         d += (double) (unsigned HOST_WIDE_INT) (~ lv);
          d = (- d - 1.0);
        }
       else
        {
-         d = (double) CONST_DOUBLE_HIGH (op);
+         d = (double) hv;
          d *= ((double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2))
                * (double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2)));
-         d += (double) (unsigned HOST_WIDE_INT) CONST_DOUBLE_LOW (op);
+         d += (double) (unsigned HOST_WIDE_INT) lv;
        }
 #endif  /* REAL_ARITHMETIC */
+      d = real_value_truncate (mode, d);
       return CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
     }
-  else if (code == UNSIGNED_FLOAT && GET_CODE (op) == CONST_DOUBLE
-          && GET_MODE (op) == VOIDmode)
+  else if (code == UNSIGNED_FLOAT && GET_MODE (op) == VOIDmode
+          && (GET_CODE (op) == CONST_DOUBLE || GET_CODE (op) == CONST_INT))
     {
+      HOST_WIDE_INT hv, lv;
       REAL_VALUE_TYPE d;
 
+      if (GET_CODE (op) == CONST_INT)
+       lv = INTVAL (op), hv = INTVAL (op) < 0 ? -1 : 0;
+      else
+       lv = CONST_DOUBLE_LOW (op),  hv = CONST_DOUBLE_HIGH (op);
+
+      if (op_mode == VOIDmode)
+       {
+         /* We don't know how to interpret negative-looking numbers in
+            this case, so don't try to fold those.  */
+         if (hv < 0)
+           return 0;
+       }
+      else if (GET_MODE_BITSIZE (op_mode) >= HOST_BITS_PER_WIDE_INT * 2)
+       ;
+      else
+       hv = 0, lv &= GET_MODE_MASK (op_mode);
+
 #ifdef REAL_ARITHMETIC
-      REAL_VALUE_FROM_UNSIGNED_INT (d, CONST_DOUBLE_LOW (op),
-                                   CONST_DOUBLE_HIGH (op));
+      REAL_VALUE_FROM_UNSIGNED_INT (d, lv, hv, mode);
 #else
-      d = (double) CONST_DOUBLE_HIGH (op);
+
+      d = (double) (unsigned HOST_WIDE_INT) hv;
       d *= ((double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2))
            * (double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2)));
-      d += (double) (unsigned HOST_WIDE_INT) CONST_DOUBLE_LOW (op);
+      d += (double) (unsigned HOST_WIDE_INT) lv;
 #endif  /* REAL_ARITHMETIC */
+      d = real_value_truncate (mode, d);
       return CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
     }
 #endif
@@ -3027,14 +3188,14 @@ simplify_unary_operation (code, mode, op, op_mode)
       if (width < HOST_BITS_PER_WIDE_INT
          && ((val & ((HOST_WIDE_INT) (-1) << (width - 1)))
              != ((HOST_WIDE_INT) (-1) << (width - 1))))
-       val &= (1 << width) - 1;
+       val &= ((HOST_WIDE_INT) 1 << width) - 1;
 
       return GEN_INT (val);
     }
 
   /* We can do some operations on integer CONST_DOUBLEs.  Also allow
-     for a DImode operation on a CONST_INT. */
-  else if (GET_MODE (op) == VOIDmode && width == HOST_BITS_PER_INT * 2
+     for a DImode operation on a CONST_INT.  */
+  else if (GET_MODE (op) == VOIDmode && width <= HOST_BITS_PER_INT * 2
           && (GET_CODE (op) == CONST_DOUBLE || GET_CODE (op) == CONST_INT))
     {
       HOST_WIDE_INT l1, h1, lv, hv;
@@ -3071,10 +3232,8 @@ simplify_unary_operation (code, mode, op, op_mode)
          break;
 
        case TRUNCATE:
-         if (GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_WIDE_INT)
-           return GEN_INT (l1 & GET_MODE_MASK (mode));
-         else
-           return 0;
+         /* This is just a change-of-mode, so do nothing.  */
+         lv = l1, hv = h1;
          break;
 
        case ZERO_EXTEND:
@@ -3164,11 +3323,14 @@ simplify_unary_operation (code, mode, op, op_mode)
          abort ();
        }
 
-      x = immed_real_const_1 (d, mode);
+      x = CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
       set_float_handler (NULL_PTR);
       return x;
     }
-  else if (GET_CODE (op) == CONST_DOUBLE && GET_MODE_CLASS (mode) == MODE_INT
+
+  else if (GET_CODE (op) == CONST_DOUBLE
+          && GET_MODE_CLASS (GET_MODE (op)) == MODE_FLOAT
+          && GET_MODE_CLASS (mode) == MODE_INT
           && width <= HOST_BITS_PER_WIDE_INT && width > 0)
     {
       REAL_VALUE_TYPE d;
@@ -3207,6 +3369,19 @@ simplify_unary_operation (code, mode, op, op_mode)
              != ((HOST_WIDE_INT) (-1) << (width - 1))))
        val &= ((HOST_WIDE_INT) 1 << width) - 1;
 
+      /* If this would be an entire word for the target, but is not for
+        the host, then sign-extend on the host so that the number will look
+        the same way on the host that it would on the target.
+
+        For example, when building a 64 bit alpha hosted 32 bit sparc
+        targeted compiler, then we want the 32 bit unsigned value -1 to be
+        represented as a 64 bit value -1, and not as 0x00000000ffffffff.
+        The later confuses the sparc backend.  */
+
+      if (BITS_PER_WORD < HOST_BITS_PER_WIDE_INT && BITS_PER_WORD == width
+         && (val & ((HOST_WIDE_INT) 1 << (width - 1))))
+       val |= ((HOST_WIDE_INT) (-1) << width);
+
       return GEN_INT (val);
     }
 #endif
@@ -3236,7 +3411,23 @@ simplify_unary_operation (code, mode, op, op_mode)
              && GET_CODE (XEXP (XEXP (op, 0), 0)) == LABEL_REF
              && GET_CODE (XEXP (XEXP (op, 0), 1)) == LABEL_REF)
            return XEXP (op, 0);
+
+#ifdef POINTERS_EXTEND_UNSIGNED
+         if (! POINTERS_EXTEND_UNSIGNED
+             && mode == Pmode && GET_MODE (op) == ptr_mode
+             && CONSTANT_P (op))
+           return convert_memory_address (Pmode, op);
+#endif
          break;
+
+#ifdef POINTERS_EXTEND_UNSIGNED
+       case ZERO_EXTEND:
+         if (POINTERS_EXTEND_UNSIGNED
+             && mode == Pmode && GET_MODE (op) == ptr_mode
+             && CONSTANT_P (op))
+           return convert_memory_address (Pmode, op);
+         break;
+#endif
        }
 
       return 0;
@@ -3318,9 +3509,9 @@ simplify_binary_operation (code, mode, op0, op1)
        }
 #endif
 
-      set_float_handler (NULL_PTR);
       value = real_value_truncate (mode, value);
-      return immed_real_const_1 (value, mode);
+      set_float_handler (NULL_PTR);
+      return CONST_DOUBLE_FROM_REAL_VALUE (value, mode);
     }
 #endif  /* not REAL_IS_NOT_DOUBLE, or REAL_ARITHMETIC */
 
@@ -3349,7 +3540,7 @@ simplify_binary_operation (code, mode, op0, op1)
          neg_double (l2, h2, &lv, &hv);
          l2 = lv, h2 = hv;
 
-         /* .. fall through ... */
+         /* .. fall through ...  */
 
        case PLUS:
          add_double (l1, h1, l2, h2, &lv, &hv);
@@ -3417,7 +3608,7 @@ simplify_binary_operation (code, mode, op0, op1)
          break;
 
        case LSHIFTRT:   case ASHIFTRT:
-       case ASHIFT:     case LSHIFT:
+       case ASHIFT:
        case ROTATE:     case ROTATERT:
 #ifdef SHIFT_COUNT_TRUNCATED
          if (SHIFT_COUNT_TRUNCATED)
@@ -3430,9 +3621,8 @@ simplify_binary_operation (code, mode, op0, op1)
          if (code == LSHIFTRT || code == ASHIFTRT)
            rshift_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv,
                           code == ASHIFTRT);
-         else if (code == ASHIFT || code == LSHIFT)
-           lshift_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv,
-                          code == ASHIFT);
+         else if (code == ASHIFT)
+           lshift_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv, 1);
          else if (code == ROTATE)
            lrotate_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv);
          else /* code == ROTATERT */
@@ -3665,8 +3855,17 @@ simplify_binary_operation (code, mode, op0, op1)
            return tem;
 
          /* Don't let a relocatable value get a negative coeff.  */
-         if (GET_CODE (op1) == CONST_INT && GET_MODE (op1) != VOIDmode)
+         if (GET_CODE (op1) == CONST_INT && GET_MODE (op0) != VOIDmode)
            return plus_constant (op0, - INTVAL (op1));
+
+         /* (x - (x & y)) -> (x & ~y) */
+         if (GET_CODE (op1) == AND)
+           {
+            if (rtx_equal_p (op0, XEXP (op1, 0)))
+              return cse_gen_binary (AND, mode, op0, gen_rtx (NOT, mode, XEXP (op1, 1)));
+            if (rtx_equal_p (op0, XEXP (op1, 1)))
+              return cse_gen_binary (AND, mode, op0, gen_rtx (NOT, mode, XEXP (op1, 0)));
+          }
          break;
 
        case MULT:
@@ -3694,6 +3893,11 @@ simplify_binary_operation (code, mode, op0, op1)
             we are still generating RTL.  This test is a kludge.  */
          if (GET_CODE (op1) == CONST_INT
              && (val = exact_log2 (INTVAL (op1))) >= 0
+             /* If the mode is larger than the host word size, and the
+                uppermost bit is set, then this isn't a power of two due
+                to implicit sign extension.  */
+             && (width <= HOST_BITS_PER_WIDE_INT
+                 || val != HOST_BITS_PER_WIDE_INT - 1)
              && ! rtx_equal_function_value_matters)
            return gen_rtx (ASHIFT, mode, op0, GEN_INT (val));
 
@@ -3773,7 +3977,7 @@ simplify_binary_operation (code, mode, op0, op1)
              && (arg1 = exact_log2 (INTVAL (op1))) > 0)
            return gen_rtx (LSHIFTRT, mode, op0, GEN_INT (arg1));
 
-         /* ... fall through ... */
+         /* ... fall through ...  */
 
        case DIV:
          if (op1 == CONST1_RTX (mode))
@@ -3819,7 +4023,7 @@ simplify_binary_operation (code, mode, op0, op1)
              && exact_log2 (INTVAL (op1)) > 0)
            return gen_rtx (AND, mode, op0, GEN_INT (INTVAL (op1) - 1));
 
-         /* ... fall through ... */
+         /* ... fall through ...  */
 
        case MOD:
          if ((op0 == const0_rtx || op1 == const1_rtx)
@@ -3835,9 +4039,8 @@ simplify_binary_operation (code, mode, op0, op1)
              && ! side_effects_p (op1))
            return op0;
 
-         /* ... fall through ... */
+         /* ... fall through ...  */
 
-       case LSHIFT:
        case ASHIFT:
        case ASHIFTRT:
        case LSHIFTRT:
@@ -3979,7 +4182,6 @@ simplify_binary_operation (code, mode, op0, op1)
       break;
 
     case ASHIFT:
-    case LSHIFT:
       if (arg1 < 0)
        return 0;
 
@@ -4061,6 +4263,19 @@ simplify_binary_operation (code, mode, op0, op1)
          != ((HOST_WIDE_INT) (-1) << (width - 1))))
     val &= ((HOST_WIDE_INT) 1 << width) - 1;
 
+  /* If this would be an entire word for the target, but is not for
+     the host, then sign-extend on the host so that the number will look
+     the same way on the host that it would on the target.
+
+     For example, when building a 64 bit alpha hosted 32 bit sparc
+     targeted compiler, then we want the 32 bit unsigned value -1 to be
+     represented as a 64 bit value -1, and not as 0x00000000ffffffff.
+     The later confuses the sparc backend.  */
+
+  if (BITS_PER_WORD < HOST_BITS_PER_WIDE_INT && BITS_PER_WORD == width
+      && (val & ((HOST_WIDE_INT) 1 << (width - 1))))
+    val |= ((HOST_WIDE_INT) (-1) << width);
+
   return GEN_INT (val);
 }
 \f
@@ -4084,7 +4299,7 @@ simplify_plus_minus (code, mode, op0, op1)
   int first = 1, negate = 0, changed;
   int i, j;
 
-  bzero (ops, sizeof ops);
+  bzero ((char *) ops, sizeof ops);
   
   /* Set up the two operands and then expand them until nothing has been
      changed.  If we run out of room in our array, give up; this should
@@ -4313,20 +4528,16 @@ simplify_relational_operation (code, mode, op0, op1)
      a register or a CONST_INT, this can't help; testing for these cases will
      prevent infinite recursion here and speed things up.
 
-     If CODE is an unsigned comparison, we can only do this if A - B is a
-     constant integer, and then we have to compare that integer with zero as a
-     signed comparison.  Note that this will give the incorrect result from
-     comparisons that overflow.  Since these are undefined, this is probably
-     OK.  If it causes a problem, we can check for A or B being an address
-     (fp + const or SYMBOL_REF) and only do it in that case.  */
+     If CODE is an unsigned comparison, then we can never do this optimization,
+     because it gives an incorrect result if the subtraction wraps around zero.
+     ANSI C defines unsigned operations such that they never overflow, and
+     thus such cases can not be ignored.  */
 
   if (INTEGRAL_MODE_P (mode) && op1 != const0_rtx
       && ! ((GET_CODE (op0) == REG || GET_CODE (op0) == CONST_INT)
            && (GET_CODE (op1) == REG || GET_CODE (op1) == CONST_INT))
       && 0 != (tem = simplify_binary_operation (MINUS, mode, op0, op1))
-      && (GET_CODE (tem) == CONST_INT
-         || (code != GTU && code != GEU &&
-             code != LTU && code != LEU)))
+      && code != GTU && code != GEU && code != LTU && code != LEU)
     return simplify_relational_operation (signed_condition (code),
                                          mode, tem, const0_rtx);
 
@@ -4425,7 +4636,7 @@ simplify_relational_operation (code, mode, op0, op1)
             be zero, but a SYMBOL_REF can due to #pragma weak.  */
          if (((NONZERO_BASE_PLUS_P (op0) && op1 == const0_rtx)
               || GET_CODE (op0) == LABEL_REF)
-#if FRAME_POINTER_REGNO != ARG_POINTGER_REGNO
+#if FRAME_POINTER_REGNUM != ARG_POINTER_REGNUM
              /* On some machines, the ap reg can be 0 sometimes.  */
              && op0 != arg_pointer_rtx
 #endif
@@ -4436,7 +4647,7 @@ simplify_relational_operation (code, mode, op0, op1)
        case NE:
          if (((NONZERO_BASE_PLUS_P (op0) && op1 == const0_rtx)
               || GET_CODE (op0) == LABEL_REF)
-#if FRAME_POINTER_REGNO != ARG_POINTER_REGNO
+#if FRAME_POINTER_REGNUM != ARG_POINTER_REGNUM
              && op0 != arg_pointer_rtx
 #endif
              )
@@ -4532,11 +4743,12 @@ simplify_ternary_operation (code, mode, op0_mode, op0, op1, op2)
          /* Extracting a bit-field from a constant */
          HOST_WIDE_INT val = INTVAL (op0);
 
-#if BITS_BIG_ENDIAN
-         val >>= (GET_MODE_BITSIZE (op0_mode) - INTVAL (op2) - INTVAL (op1));
-#else
-         val >>= INTVAL (op2);
-#endif
+         if (BITS_BIG_ENDIAN)
+           val >>= (GET_MODE_BITSIZE (op0_mode)
+                    - INTVAL (op2) - INTVAL (op1));
+         else
+           val >>= INTVAL (op2);
+
          if (HOST_BITS_PER_WIDE_INT != INTVAL (op1))
            {
              /* First zero-extend.  */
@@ -4802,8 +5014,7 @@ fold_rtx (x, insn)
                     to compute that in SImode, because a 32-bit shift
                     in SImode is unpredictable.  We know the value is 0.  */
                  if (op0 && op1
-                     && (GET_CODE (elt->exp) == ASHIFT
-                         || GET_CODE (elt->exp) == LSHIFT)
+                     && GET_CODE (elt->exp) == ASHIFT
                      && GET_CODE (op1) == CONST_INT
                      && INTVAL (op1) >= GET_MODE_BITSIZE (mode))
                    {
@@ -4896,7 +5107,7 @@ fold_rtx (x, insn)
            if (offset == 0 && mode == const_mode)
              return constant;
 
-           /* If this actually isn't a constant (wierd!), we can't do
+           /* If this actually isn't a constant (weird!), we can't do
               anything.  Otherwise, handle the two most common cases:
               extracting a word from a multi-word constant, and extracting
               the low-order bits.  Other cases don't seem common enough to
@@ -4953,13 +5164,23 @@ fold_rtx (x, insn)
                    if (GET_MODE (table) != Pmode)
                      new = gen_rtx (TRUNCATE, GET_MODE (table), new);
 
-                   return new;
+                   /* Indicate this is a constant.  This isn't a 
+                      valid form of CONST, but it will only be used
+                      to fold the next insns and then discarded, so
+                      it should be safe.  */
+                   return gen_rtx (CONST, GET_MODE (new), new);
                  }
              }
          }
 
        return x;
       }
+
+    case ASM_OPERANDS:
+      for (i = XVECLEN (x, 3) - 1; i >= 0; i--)
+       validate_change (insn, &XVECEXP (x, 3, i),
+                        fold_rtx (XVECEXP (x, 3, i), insn), 0);
+      break;
     }
 
   const_arg0 = 0;
@@ -5126,13 +5347,26 @@ fold_rtx (x, insn)
   switch (GET_RTX_CLASS (code))
     {
     case '1':
-      /* We can't simplify extension ops unless we know the original mode.  */
-      if ((code == ZERO_EXTEND || code == SIGN_EXTEND)
-         && mode_arg0 == VOIDmode)
-       break;
-      new = simplify_unary_operation (code, mode,
-                                     const_arg0 ? const_arg0 : folded_arg0,
-                                     mode_arg0);
+      {
+       int is_const = 0;
+
+       /* We can't simplify extension ops unless we know the
+          original mode.  */
+       if ((code == ZERO_EXTEND || code == SIGN_EXTEND)
+           && mode_arg0 == VOIDmode)
+         break;
+
+       /* If we had a CONST, strip it off and put it back later if we
+          fold.  */
+       if (const_arg0 != 0 && GET_CODE (const_arg0) == CONST)
+         is_const = 1, const_arg0 = XEXP (const_arg0, 0);
+
+       new = simplify_unary_operation (code, mode,
+                                       const_arg0 ? const_arg0 : folded_arg0,
+                                       mode_arg0);
+       if (new != 0 && is_const)
+         new = gen_rtx (CONST, mode, new);
+      }
       break;
       
     case '<':
@@ -5150,7 +5384,8 @@ fold_rtx (x, insn)
 #ifdef FLOAT_STORE_FLAG_VALUE
          if (GET_MODE_CLASS (mode) == MODE_FLOAT)
            {
-             true = immed_real_const_1 (FLOAT_STORE_FLAG_VALUE, mode);
+             true = CONST_DOUBLE_FROM_REAL_VALUE (FLOAT_STORE_FLAG_VALUE,
+                                                  mode);
              false = CONST0_RTX (mode);
            }
 #endif
@@ -5167,12 +5402,14 @@ fold_rtx (x, insn)
          if (mode_arg0 == VOIDmode || GET_MODE_CLASS (mode_arg0) == MODE_CC)
            break;
 
-         /* If we do not now have two constants being compared, see if we
-            can nevertheless deduce some things about the comparison.  */
+         /* If we do not now have two constants being compared, see
+            if we can nevertheless deduce some things about the
+            comparison.  */
          if (const_arg0 == 0 || const_arg1 == 0)
            {
-             /* Is FOLDED_ARG0 frame-pointer plus a constant?  Or non-explicit
-                constant?  These aren't zero, but we don't know their sign. */
+             /* Is FOLDED_ARG0 frame-pointer plus a constant?  Or
+                non-explicit constant?  These aren't zero, but we
+                don't know their sign.  */
              if (const_arg1 == const0_rtx
                  && (NONZERO_BASE_PLUS_P (folded_arg0)
 #if 0  /* Sad to say, on sysvr4, #pragma weak can make a symbol address
@@ -5259,7 +5496,8 @@ fold_rtx (x, insn)
 #ifdef FLOAT_STORE_FLAG_VALUE
              if (GET_MODE_CLASS (mode) == MODE_FLOAT)
                {
-                 true = immed_real_const_1 (FLOAT_STORE_FLAG_VALUE, mode);
+                 true = CONST_DOUBLE_FROM_REAL_VALUE (FLOAT_STORE_FLAG_VALUE,
+                                                      mode);
                  false = CONST0_RTX (mode);
                }
 #endif
@@ -5288,7 +5526,7 @@ fold_rtx (x, insn)
 #ifdef FLOAT_STORE_FLAG_VALUE
       if (new != 0 && GET_MODE_CLASS (mode) == MODE_FLOAT)
        new = ((new == const0_rtx) ? CONST0_RTX (mode)
-              : immed_real_const_1 (FLOAT_STORE_FLAG_VALUE, mode));
+              : CONST_DOUBLE_FROM_REAL_VALUE (FLOAT_STORE_FLAG_VALUE, mode));
 #endif
       break;
 
@@ -5303,21 +5541,57 @@ fold_rtx (x, insn)
             ADDR_DIFF_VEC table.  */
          if (const_arg1 && GET_CODE (const_arg1) == LABEL_REF)
            {
-             rtx y = lookup_as_function (folded_arg0, MINUS);
+             rtx y
+               = GET_CODE (folded_arg0) == MINUS ? folded_arg0
+                 : lookup_as_function (folded_arg0, MINUS);
 
              if (y != 0 && GET_CODE (XEXP (y, 1)) == LABEL_REF
                  && XEXP (XEXP (y, 1), 0) == XEXP (const_arg1, 0))
                return XEXP (y, 0);
+
+             /* Now try for a CONST of a MINUS like the above.  */
+             if ((y = (GET_CODE (folded_arg0) == CONST ? folded_arg0
+                       : lookup_as_function (folded_arg0, CONST))) != 0
+                 && GET_CODE (XEXP (y, 0)) == MINUS
+                 && GET_CODE (XEXP (XEXP (y, 0), 1)) == LABEL_REF
+                 && XEXP (XEXP (XEXP (y, 0),1), 0) == XEXP (const_arg1, 0))
+               return XEXP (XEXP (y, 0), 0);
+           }
+
+         /* Likewise if the operands are in the other order.  */
+         if (const_arg0 && GET_CODE (const_arg0) == LABEL_REF)
+           {
+             rtx y
+               = GET_CODE (folded_arg1) == MINUS ? folded_arg1
+                 : lookup_as_function (folded_arg1, MINUS);
+
+             if (y != 0 && GET_CODE (XEXP (y, 1)) == LABEL_REF
+                 && XEXP (XEXP (y, 1), 0) == XEXP (const_arg0, 0))
+               return XEXP (y, 0);
+
+             /* Now try for a CONST of a MINUS like the above.  */
+             if ((y = (GET_CODE (folded_arg1) == CONST ? folded_arg1
+                       : lookup_as_function (folded_arg1, CONST))) != 0
+                 && GET_CODE (XEXP (y, 0)) == MINUS
+                 && GET_CODE (XEXP (XEXP (y, 0), 1)) == LABEL_REF
+                 && XEXP (XEXP (XEXP (y, 0),1), 0) == XEXP (const_arg0, 0))
+               return XEXP (XEXP (y, 0), 0);
            }
 
          /* If second operand is a register equivalent to a negative
             CONST_INT, see if we can find a register equivalent to the
             positive constant.  Make a MINUS if so.  Don't do this for
-            a negative constant since we might then alternate between
+            a non-negative constant since we might then alternate between
             chosing positive and negative constants.  Having the positive
-            constant previously-used is the more common case.  */
-         if (const_arg1 && GET_CODE (const_arg1) == CONST_INT
-             && INTVAL (const_arg1) < 0 && GET_CODE (folded_arg1) == REG)
+            constant previously-used is the more common case.  Be sure
+            the resulting constant is non-negative; if const_arg1 were
+            the smallest negative number this would overflow: depending
+            on the mode, this would either just be the same value (and
+            hence not save anything) or be incorrect.  */
+         if (const_arg1 != 0 && GET_CODE (const_arg1) == CONST_INT
+             && INTVAL (const_arg1) < 0
+             && - INTVAL (const_arg1) >= 0
+             && GET_CODE (folded_arg1) == REG)
            {
              rtx new_const = GEN_INT (- INTVAL (const_arg1));
              struct table_elt *p
@@ -5344,7 +5618,7 @@ fold_rtx (x, insn)
                                 NULL_RTX);
            }
 
-         /* ... fall through ... */
+         /* ... fall through ...  */
 
        from_plus:
        case SMIN:    case SMAX:      case UMIN:    case UMAX:
@@ -5528,16 +5802,14 @@ gen_lowpart_if_possible (mode, x)
       register int offset = 0;
       rtx new;
 
-#if WORDS_BIG_ENDIAN
-      offset = (MAX (GET_MODE_SIZE (GET_MODE (x)), UNITS_PER_WORD)
-               - MAX (GET_MODE_SIZE (mode), UNITS_PER_WORD));
-#endif
-#if BYTES_BIG_ENDIAN
-      /* Adjust the address so that the address-after-the-data
-        is unchanged.  */
-      offset -= (MIN (UNITS_PER_WORD, GET_MODE_SIZE (mode))
-                - MIN (UNITS_PER_WORD, GET_MODE_SIZE (GET_MODE (x))));
-#endif
+      if (WORDS_BIG_ENDIAN)
+       offset = (MAX (GET_MODE_SIZE (GET_MODE (x)), UNITS_PER_WORD)
+                 - MAX (GET_MODE_SIZE (mode), UNITS_PER_WORD));
+      if (BYTES_BIG_ENDIAN)
+       /* Adjust the address so that the address-after-the-data is
+          unchanged.  */
+       offset -= (MIN (UNITS_PER_WORD, GET_MODE_SIZE (mode))
+                  - MIN (UNITS_PER_WORD, GET_MODE_SIZE (GET_MODE (x))));
       new = gen_rtx (MEM, mode, plus_constant (XEXP (x, 0), offset));
       if (! memory_address_p (mode, XEXP (new, 0)))
        return 0;
@@ -5709,6 +5981,13 @@ record_jump_cond (code, mode, op0, op1, reversed_nonequality)
   op0_elt = lookup (op0, op0_hash, mode);
   op1_elt = lookup (op1, op1_hash, mode);
 
+  /* If both operands are already equivalent or if they are not in the
+     table but are identical, do nothing.  */
+  if ((op0_elt != 0 && op1_elt != 0
+       && op0_elt->first_same_value == op1_elt->first_same_value)
+      || op0 == op1 || rtx_equal_p (op0, op1))
+    return;
+
   /* If we aren't setting two things equal all we can do is save this
      comparison.   Similarly if this is floating-point.  In the latter
      case, OP1 might be zero and both -0.0 and 0.0 are equal to it.
@@ -5864,8 +6143,8 @@ cse_insn (insn, in_libcall_block)
      int in_libcall_block;
 {
   register rtx x = PATTERN (insn);
-  rtx tem;
   register int i;
+  rtx tem;
   register int n_sets = 0;
 
   /* Records what this insn does to set CC0.  */
@@ -5891,6 +6170,13 @@ cse_insn (insn, in_libcall_block)
      Also determine whether there is a CLOBBER that invalidates
      all memory references, or all references at varying addresses.  */
 
+  if (GET_CODE (insn) == CALL_INSN)
+    {
+      for (tem = CALL_INSN_FUNCTION_USAGE (insn); tem; tem = XEXP (tem, 1))
+       if (GET_CODE (XEXP (tem, 0)) == CLOBBER)
+          invalidate (SET_DEST (XEXP (tem, 0)), VOIDmode);
+    }
+
   if (GET_CODE (x) == SET)
     {
       sets = (struct set *) alloca (sizeof (struct set));
@@ -5912,14 +6198,14 @@ cse_insn (insn, in_libcall_block)
         someplace else, so it isn't worth cse'ing (and on 80386 is unsafe)!
         Ensure we invalidate the destination register.  On the 80386 no
         other code would invalidate it since it is a fixed_reg.
-        We need not check the return of apply_change_group; see canon_reg. */
+        We need not check the return of apply_change_group; see canon_reg.  */
 
       else if (GET_CODE (SET_SRC (x)) == CALL)
        {
          canon_reg (SET_SRC (x), insn);
          apply_change_group ();
          fold_rtx (SET_SRC (x), insn);
-         invalidate (SET_DEST (x));
+         invalidate (SET_DEST (x), VOIDmode);
        }
       else
        n_sets = 1;
@@ -5950,10 +6236,10 @@ cse_insn (insn, in_libcall_block)
 
              if (GET_CODE (clobbered) == REG
                  || GET_CODE (clobbered) == SUBREG)
-               invalidate (clobbered);
+               invalidate (clobbered, VOIDmode);
              else if (GET_CODE (clobbered) == STRICT_LOW_PART
                       || GET_CODE (clobbered) == ZERO_EXTRACT)
-               invalidate (XEXP (clobbered, 0));
+               invalidate (XEXP (clobbered, 0), GET_MODE (clobbered));
            }
        }
            
@@ -5969,7 +6255,7 @@ cse_insn (insn, in_libcall_block)
                  canon_reg (SET_SRC (y), insn);
                  apply_change_group ();
                  fold_rtx (SET_SRC (y), insn);
-                 invalidate (SET_DEST (y));
+                 invalidate (SET_DEST (y), VOIDmode);
                }
              else if (SET_DEST (y) == pc_rtx
                       && GET_CODE (SET_SRC (y)) == LABEL_REF)
@@ -6025,14 +6311,15 @@ cse_insn (insn, in_libcall_block)
       fold_rtx (x, insn);
     }
 
-  if (n_sets == 1 && REG_NOTES (insn) != 0)
-    {
-      /* Store the equivalent value in SRC_EQV, if different.  */
-      rtx tem = find_reg_note (insn, REG_EQUAL, NULL_RTX);
-
-      if (tem && ! rtx_equal_p (XEXP (tem, 0), SET_SRC (sets[0].rtl)))
-        src_eqv = canon_reg (XEXP (tem, 0), NULL_RTX);
-    }
+  /* Store the equivalent value in SRC_EQV, if different, or if the DEST
+     is a STRICT_LOW_PART.  The latter condition is necessary because SRC_EQV
+     is handled specially for this case, and if it isn't set, then there will
+     be no equivalence for the destination.  */
+  if (n_sets == 1 && REG_NOTES (insn) != 0
+      && (tem = find_reg_note (insn, REG_EQUAL, NULL_RTX)) != 0
+      && (! rtx_equal_p (XEXP (tem, 0), SET_SRC (sets[0].rtl))
+         || GET_CODE (SET_DEST (sets[0].rtl)) == STRICT_LOW_PART))
+    src_eqv = canon_reg (XEXP (tem, 0), NULL_RTX);
 
   /* Canonicalize sources and addresses of destinations.
      We do this in a separate pass to avoid problems when a MATCH_DUP is
@@ -6049,11 +6336,13 @@ cse_insn (insn, in_libcall_block)
       rtx dest = SET_DEST (sets[i].rtl);
       rtx src = SET_SRC (sets[i].rtl);
       rtx new = canon_reg (src, insn);
+      int insn_code;
 
       if ((GET_CODE (new) == REG && GET_CODE (src) == REG
           && ((REGNO (new) < FIRST_PSEUDO_REGISTER)
               != (REGNO (src) < FIRST_PSEUDO_REGISTER)))
-         || insn_n_dups[recog_memoized (insn)] > 0)
+         || (insn_code = recog_memoized (insn)) < 0
+         || insn_n_dups[insn_code] > 0)
        validate_change (insn, &SET_SRC (sets[i].rtl), new, 1);
       else
        SET_SRC (sets[i].rtl) = new;
@@ -6141,7 +6430,7 @@ cse_insn (insn, in_libcall_block)
 
       /* If this is a STRICT_LOW_PART assignment, src_eqv corresponds to the
         value of the INNER register, not the destination.  So it is not
-        a legal substitution for the source.  But save it for later.  */
+        a valid substitution for the source.  But save it for later.  */
       if (GET_CODE (dest) == STRICT_LOW_PART)
        src_eqv_here = 0;
       else
@@ -6151,6 +6440,13 @@ cse_insn (insn, in_libcall_block)
         simplified result, which may not necessarily be valid.  */
       src_folded = fold_rtx (src, insn);
 
+#if 0
+      /* ??? This caused bad code to be generated for the m68k port with -O2.
+        Suppose src is (CONST_INT -1), and that after truncation src_folded
+        is (CONST_INT 3).  Suppose src_folded is then used for src_const.
+        At the end we will add src and src_const to the same equivalence
+        class.  We now have 3 and -1 on the same equivalence class.  This
+        causes later instructions to be mis-optimized.  */
       /* If storing a constant in a bitfield, pre-truncate the constant
         so we will be able to record it later.  */
       if (GET_CODE (SET_DEST (sets[i].rtl)) == ZERO_EXTRACT
@@ -6166,6 +6462,7 @@ cse_insn (insn, in_libcall_block)
              = GEN_INT (INTVAL (src) & (((HOST_WIDE_INT) 1
                                          << INTVAL (width)) - 1));
        }
+#endif
 
       /* Compute SRC's hash code, and also notice if it
         should not be recorded at all.  In that case,
@@ -6378,7 +6675,53 @@ cse_insn (insn, in_libcall_block)
                }
            }
        }
-                 
+
+#ifdef LOAD_EXTEND_OP
+      /* See if a MEM has already been loaded with a widening operation;
+        if it has, we can use a subreg of that.  Many CISC machines
+        also have such operations, but this is only likely to be
+        beneficial these machines.  */
+      
+      if (flag_expensive_optimizations &&  src_related == 0
+         && (GET_MODE_SIZE (mode) < UNITS_PER_WORD)
+         && GET_MODE_CLASS (mode) == MODE_INT
+         && GET_CODE (src) == MEM && ! do_not_record
+         && LOAD_EXTEND_OP (mode) != NIL)
+       {
+         enum machine_mode tmode;
+         
+         /* Set what we are trying to extend and the operation it might
+            have been extended with.  */
+         PUT_CODE (memory_extend_rtx, LOAD_EXTEND_OP (mode));
+         XEXP (memory_extend_rtx, 0) = src;
+         
+         for (tmode = GET_MODE_WIDER_MODE (mode);
+              GET_MODE_SIZE (tmode) <= UNITS_PER_WORD;
+              tmode = GET_MODE_WIDER_MODE (tmode))
+           {
+             struct table_elt *larger_elt;
+             
+             PUT_MODE (memory_extend_rtx, tmode);
+             larger_elt = lookup (memory_extend_rtx, 
+                                  HASH (memory_extend_rtx, tmode), tmode);
+             if (larger_elt == 0)
+               continue;
+             
+             for (larger_elt = larger_elt->first_same_value;
+                  larger_elt; larger_elt = larger_elt->next_same_value)
+               if (GET_CODE (larger_elt->exp) == REG)
+                 {
+                   src_related = gen_lowpart_if_possible (mode, 
+                                                          larger_elt->exp);
+                   break;
+                 }
+             
+             if (src_related)
+               break;
+           }
+       }
+#endif /* LOAD_EXTEND_OP */
       if (src == src_folded)
         src_folded = 0;
 
@@ -6429,7 +6772,7 @@ cse_insn (insn, in_libcall_block)
          that are when they are equal cost.  Note that we can never
          worsen an insn as the current contents will also succeed.
         If we find an equivalent identical to the destination, use it as best,
-        since this insn will probably be eliminated in that case. */
+        since this insn will probably be eliminated in that case.  */
       if (src)
        {
          if (rtx_equal_p (src, dest))
@@ -6559,7 +6902,11 @@ cse_insn (insn, in_libcall_block)
 
          else if (constant_pool_entries_cost
                   && CONSTANT_P (trial)
-                  && (src_folded == 0 || GET_CODE (src_folded) != MEM)
+                  && ! (GET_CODE (trial) == CONST
+                        && GET_CODE (XEXP (trial, 0)) == TRUNCATE)
+                  && (src_folded == 0
+                      || (GET_CODE (src_folded) != MEM
+                          && ! src_folded_force_flag))
                   && GET_MODE_CLASS (mode) != MODE_CC)
            {
              src_folded_force_flag = 1;
@@ -6624,7 +6971,7 @@ cse_insn (insn, in_libcall_block)
       if (n_sets == 1 && src_const && GET_CODE (dest) == REG
          && GET_CODE (src_const) != REG)
        {
-         rtx tem = find_reg_note (insn, REG_EQUAL, NULL_RTX);
+         tem = find_reg_note (insn, REG_EQUAL, NULL_RTX);
          
          /* Record the actual constant value in a REG_EQUAL note, making
             a new one if one does not already exist.  */
@@ -6792,7 +7139,7 @@ cse_insn (insn, in_libcall_block)
 
          if (NEXT_INSN (insn) == 0
              || GET_CODE (NEXT_INSN (insn)) != BARRIER)
-           emit_barrier_after (insn);
+           emit_barrier_before (NEXT_INSN (insn));
 
          /* We might have two BARRIERs separated by notes.  Delete the second
             one if so.  */
@@ -6812,10 +7159,10 @@ cse_insn (insn, in_libcall_block)
        {
          if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG
              || GET_CODE (dest) == MEM)
-           invalidate (dest);
+           invalidate (dest, VOIDmode);
          else if (GET_CODE (dest) == STRICT_LOW_PART
                   || GET_CODE (dest) == ZERO_EXTRACT)
-           invalidate (XEXP (dest, 0));
+           invalidate (XEXP (dest, 0), GET_MODE (dest));
          sets[i].rtl = 0;
        }
 
@@ -6861,7 +7208,10 @@ cse_insn (insn, in_libcall_block)
          classp = 0;
        }
       if (insert_regs (src_eqv, classp, 0))
-       src_eqv_hash = HASH (src_eqv, eqvmode);
+       {
+         rehash_using_reg (src_eqv);
+         src_eqv_hash = HASH (src_eqv, eqvmode);
+       }
       elt = insert (src_eqv, classp, src_eqv_hash, eqvmode);
       elt->in_memory = src_eqv_in_memory;
       elt->in_struct = src_eqv_in_struct;
@@ -6908,7 +7258,10 @@ cse_insn (insn, in_libcall_block)
                   any of the src_elt's, because they would have failed to
                   match if not still valid.  */
                if (insert_regs (src, classp, 0))
-                 sets[i].src_hash = HASH (src, mode);
+                 {
+                   rehash_using_reg (src);
+                   sets[i].src_hash = HASH (src, mode);
+                 }
                elt = insert (src, classp, sets[i].src_hash, mode);
                elt->in_memory = sets[i].src_in_memory;
                elt->in_struct = sets[i].src_in_struct;
@@ -6950,18 +7303,21 @@ cse_insn (insn, in_libcall_block)
   for (i = 0; i < n_sets; i++)
     if (sets[i].rtl)
       {
-       register rtx dest = sets[i].inner_dest;
+       /* We can't use the inner dest, because the mode associated with
+          a ZERO_EXTRACT is significant.  */
+       register rtx dest = SET_DEST (sets[i].rtl);
 
        /* Needed for registers to remove the register from its
           previous quantity's chain.
           Needed for memory if this is a nonvarying address, unless
           we have just done an invalidate_memory that covers even those.  */
        if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG
-           || (! writes_memory.all && ! cse_rtx_addr_varies_p (dest)))
-         invalidate (dest);
+           || (GET_CODE (dest) == MEM && ! writes_memory.all
+               && ! cse_rtx_addr_varies_p (dest)))
+         invalidate (dest, VOIDmode);
        else if (GET_CODE (dest) == STRICT_LOW_PART
                 || GET_CODE (dest) == ZERO_EXTRACT)
-         invalidate (XEXP (dest, 0));
+         invalidate (XEXP (dest, 0), GET_MODE (dest));
       }
 
   /* Make sure registers mentioned in destinations
@@ -7018,7 +7374,17 @@ cse_insn (insn, in_libcall_block)
            || in_libcall_block
            /* If we didn't put a REG_EQUAL value or a source into the hash
               table, there is no point is recording DEST.  */
-            || sets[i].src_elt == 0)
+           || sets[i].src_elt == 0
+           /* If DEST is a paradoxical SUBREG and SRC is a ZERO_EXTEND
+              or SIGN_EXTEND, don't record DEST since it can cause
+              some tracking to be wrong.
+
+              ??? Think about this more later.  */
+           || (GET_CODE (dest) == SUBREG
+               && (GET_MODE_SIZE (GET_MODE (dest))
+                   > GET_MODE_SIZE (GET_MODE (SUBREG_REG (dest))))
+               && (GET_CODE (sets[i].src) == SIGN_EXTEND
+                   || GET_CODE (sets[i].src) == ZERO_EXTEND)))
          continue;
 
        /* STRICT_LOW_PART isn't part of the value BEING set,
@@ -7030,13 +7396,20 @@ cse_insn (insn, in_libcall_block)
        if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG)
          /* Registers must also be inserted into chains for quantities.  */
          if (insert_regs (dest, sets[i].src_elt, 1))
-           /* If `insert_regs' changes something, the hash code must be
-              recalculated.  */
-           sets[i].dest_hash = HASH (dest, GET_MODE (dest));
+           {
+             /* If `insert_regs' changes something, the hash code must be
+                recalculated.  */
+             rehash_using_reg (dest);
+             sets[i].dest_hash = HASH (dest, GET_MODE (dest));
+           }
 
        elt = insert (dest, sets[i].src_elt,
                      sets[i].dest_hash, GET_MODE (dest));
-       elt->in_memory = GET_CODE (sets[i].inner_dest) == MEM;
+       elt->in_memory = (GET_CODE (sets[i].inner_dest) == MEM
+                         && (! RTX_UNCHANGING_P (sets[i].inner_dest)
+                             || FIXED_BASE_PLUS_P (XEXP (sets[i].inner_dest,
+                                                         0))));
+
        if (elt->in_memory)
          {
            /* This implicitly assumes a whole struct
@@ -7062,8 +7435,9 @@ cse_insn (insn, in_libcall_block)
           already entered SRC and DEST of the SET in the table.  */
 
        if (GET_CODE (dest) == SUBREG
-           && (GET_MODE_SIZE (GET_MODE (SUBREG_REG (dest))) / UNITS_PER_WORD
-               == GET_MODE_SIZE (GET_MODE (dest)) / UNITS_PER_WORD)
+           && (((GET_MODE_SIZE (GET_MODE (SUBREG_REG (dest))) - 1)
+                / UNITS_PER_WORD)
+               == (GET_MODE_SIZE (GET_MODE (dest)) - 1)/ UNITS_PER_WORD)
            && (GET_MODE_SIZE (GET_MODE (dest))
                >= GET_MODE_SIZE (GET_MODE (SUBREG_REG (dest))))
            && sets[i].src_elt != 0)
@@ -7095,7 +7469,10 @@ cse_insn (insn, in_libcall_block)
                if (src_elt == 0)
                  {
                    if (insert_regs (new_src, classp, 0))
-                     src_hash = HASH (new_src, new_mode);
+                     {
+                       rehash_using_reg (new_src);
+                       src_hash = HASH (new_src, new_mode);
+                     }
                    src_elt = insert (new_src, classp, src_hash, new_mode);
                    src_elt->in_memory = elt->in_memory;
                    src_elt->in_struct = elt->in_struct;
@@ -7165,6 +7542,12 @@ cse_insn (insn, in_libcall_block)
              XEXP (note, 1) = REG_NOTES (prev);
              REG_NOTES (prev) = note;
            }
+
+         /* If INSN has a REG_EQUAL note, and this note mentions REG0,
+            then we must delete it, because the value in REG0 has changed.  */
+         note = find_reg_note (insn, REG_EQUAL, NULL_RTX);
+         if (note && reg_mentioned_p (dest, XEXP (note, 0)))
+           remove_note (insn, note);
        }
     }
 
@@ -7213,7 +7596,7 @@ note_mem_written (written, writes_ptr)
     *writes_ptr = everything;
   else if (GET_CODE (written) == MEM)
     {
-      /* Pushing or popping the stack invalidates just the stack pointer. */
+      /* Pushing or popping the stack invalidates just the stack pointer.  */
       rtx addr = XEXP (written, 0);
       if ((GET_CODE (addr) == PRE_DEC || GET_CODE (addr) == PRE_INC
           || GET_CODE (addr) == POST_DEC || GET_CODE (addr) == POST_INC)
@@ -7225,19 +7608,21 @@ note_mem_written (written, writes_ptr)
        }
       else if (GET_MODE (written) == BLKmode)
        *writes_ptr = everything;
-      /* (mem (scratch)) means clobber everything.  */
-      else if (GET_CODE (addr) == SCRATCH)
-       *writes_ptr = everything;
       else if (cse_rtx_addr_varies_p (written))
        {
          /* A varying address that is a sum indicates an array element,
             and that's just as good as a structure element
             in implying that we need not invalidate scalar variables.
             However, we must allow QImode aliasing of scalars, because the
-            ANSI C standard allows character pointers to alias anything.  */
+            ANSI C standard allows character pointers to alias anything.
+            We must also allow AND addresses, because they may generate
+            accesses outside the object being referenced.  This is used to
+            generate aligned addresses from unaligned addresses, for instance,
+            the alpha storeqi_unaligned pattern.  */
          if (! ((MEM_IN_STRUCT_P (written)
                  || GET_CODE (XEXP (written, 0)) == PLUS)
-                && GET_MODE (written) != QImode))
+                && GET_MODE (written) != QImode
+                && GET_CODE (XEXP (written, 0)) != AND))
            writes_ptr->all = 1;
          writes_ptr->nonscalar = 1;
        }
@@ -7272,21 +7657,19 @@ invalidate_from_clobbers (w, x)
 
       /* This should be *very* rare.  */
       if (TEST_HARD_REG_BIT (hard_regs_in_table, STACK_POINTER_REGNUM))
-       invalidate (stack_pointer_rtx);
+       invalidate (stack_pointer_rtx, VOIDmode);
     }
 
   if (GET_CODE (x) == CLOBBER)
     {
       rtx ref = XEXP (x, 0);
-      if (ref)
-       {
-         if (GET_CODE (ref) == REG || GET_CODE (ref) == SUBREG
-             || (GET_CODE (ref) == MEM && ! w->all))
-           invalidate (ref);
-         else if (GET_CODE (ref) == STRICT_LOW_PART
-                  || GET_CODE (ref) == ZERO_EXTRACT)
-           invalidate (XEXP (ref, 0));
-       }
+
+      if (GET_CODE (ref) == REG || GET_CODE (ref) == SUBREG
+         || (GET_CODE (ref) == MEM && ! w->all))
+       invalidate (ref, VOIDmode);
+      else if (GET_CODE (ref) == STRICT_LOW_PART
+              || GET_CODE (ref) == ZERO_EXTRACT)
+       invalidate (XEXP (ref, 0), GET_MODE (ref));
     }
   else if (GET_CODE (x) == PARALLEL)
     {
@@ -7301,10 +7684,10 @@ invalidate_from_clobbers (w, x)
                {
                  if (GET_CODE (ref) == REG || GET_CODE (ref) == SUBREG
                      || (GET_CODE (ref) == MEM && !w->all))
-                   invalidate (ref);
+                   invalidate (ref, VOIDmode);
                  else if (GET_CODE (ref) == STRICT_LOW_PART
                           || GET_CODE (ref) == ZERO_EXTRACT)
-                   invalidate (XEXP (ref, 0));
+                   invalidate (XEXP (ref, 0), GET_MODE (ref));
                }
            }
        }
@@ -7355,6 +7738,7 @@ cse_process_notes (x, object)
 
     case SIGN_EXTEND:
     case ZERO_EXTEND:
+    case SUBREG:
       {
        rtx new = cse_process_notes (XEXP (x, 0), object);
        /* We don't substitute VOIDmode constants into these rtx,
@@ -7432,11 +7816,12 @@ cse_around_loop (loop_start)
     for (p = last_jump_equiv_class->first_same_value; p;
         p = p->next_same_value)
       if (GET_CODE (p->exp) == MEM || GET_CODE (p->exp) == REG
-         || GET_CODE (p->exp) == SUBREG)
-       invalidate (p->exp);
+         || (GET_CODE (p->exp) == SUBREG
+             && GET_CODE (SUBREG_REG (p->exp)) == REG))
+       invalidate (p->exp, VOIDmode);
       else if (GET_CODE (p->exp) == STRICT_LOW_PART
               || GET_CODE (p->exp) == ZERO_EXTRACT)
-       invalidate (XEXP (p->exp, 0));
+       invalidate (XEXP (p->exp, 0), GET_MODE (p->exp));
 
   /* Process insns starting after LOOP_START until we hit a CALL_INSN or
      a CODE_LABEL (we could handle a CALL_INSN, but it isn't worth it).
@@ -7477,13 +7862,6 @@ invalidate_skipped_set (dest, set)
      rtx set;
      rtx dest;
 {
-  if (GET_CODE (set) == CLOBBER
-#ifdef HAVE_cc0
-      || dest == cc0_rtx
-#endif
-      || dest == pc_rtx)
-    return;
-
   if (GET_CODE (dest) == MEM)
     note_mem_written (dest, &skipped_writes_memory);
 
@@ -7493,12 +7871,19 @@ invalidate_skipped_set (dest, set)
   if (skipped_writes_memory.nonscalar)
     skipped_writes_memory.all = 1;
 
+  if (GET_CODE (set) == CLOBBER
+#ifdef HAVE_cc0
+      || dest == cc0_rtx
+#endif
+      || dest == pc_rtx)
+    return;
+
   if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG
       || (! skipped_writes_memory.all && ! cse_rtx_addr_varies_p (dest)))
-    invalidate (dest);
+    invalidate (dest, VOIDmode);
   else if (GET_CODE (dest) == STRICT_LOW_PART
           || GET_CODE (dest) == ZERO_EXTRACT)
-    invalidate (XEXP (dest, 0));
+    invalidate (XEXP (dest, 0), GET_MODE (dest));
 }
 
 /* Invalidate all insns from START up to the end of the function or the
@@ -7646,14 +8031,15 @@ cse_set_around_loop (x, insn, loop_start)
   if (writes_memory.var)
     invalidate_memory (&writes_memory);
 
-  /* See comment on similar code in cse_insn for explanation of these tests. */
+  /* See comment on similar code in cse_insn for explanation of these
+     tests.  */
   if (GET_CODE (SET_DEST (x)) == REG || GET_CODE (SET_DEST (x)) == SUBREG
       || (GET_CODE (SET_DEST (x)) == MEM && ! writes_memory.all
          && ! cse_rtx_addr_varies_p (SET_DEST (x))))
-    invalidate (SET_DEST (x));
+    invalidate (SET_DEST (x), VOIDmode);
   else if (GET_CODE (SET_DEST (x)) == STRICT_LOW_PART
           || GET_CODE (SET_DEST (x)) == ZERO_EXTRACT)
-    invalidate (XEXP (SET_DEST (x), 0));
+    invalidate (XEXP (SET_DEST (x), 0), GET_MODE (SET_DEST (x)));
 }
 \f
 /* Find the end of INSN's basic block and return its range,
@@ -7894,6 +8280,7 @@ cse_main (f, nregs, after_loop, file)
   register int i;
 
   cse_jumps_altered = 0;
+  recorded_label_ref = 0;
   constant_pool_entries_cost = 0;
   val.path_size = 0;
 
@@ -7916,9 +8303,16 @@ cse_main (f, nregs, after_loop, file)
   reg_in_table = (int *) alloca (nregs * sizeof (int));
   reg_tick = (int *) alloca (nregs * sizeof (int));
 
+#ifdef LOAD_EXTEND_OP
+
+  /* Allocate scratch rtl here.  cse_insn will fill in the memory reference
+     and change the code and mode as appropriate.  */
+  memory_extend_rtx = gen_rtx (ZERO_EXTEND, VOIDmode, 0);
+#endif
+
   /* Discard all the free elements of the previous function
      since they are allocated in the temporarily obstack.  */
-  bzero (table, sizeof table);
+  bzero ((char *) table, sizeof table);
   free_element_chain = 0;
   n_elements_made = 0;
 
@@ -7926,7 +8320,7 @@ cse_main (f, nregs, after_loop, file)
 
   max_uid = get_max_uid ();
   uid_cuid = (int *) alloca ((max_uid + 1) * sizeof (int));
-  bzero (uid_cuid, (max_uid + 1) * sizeof (int));
+  bzero ((char *) uid_cuid, (max_uid + 1) * sizeof (int));
 
   /* Compute the mapping from uids to cuids.
      CUIDs are numbers assigned to insns, like uids,
@@ -7968,7 +8362,7 @@ cse_main (f, nregs, after_loop, file)
 #if ARG_POINTER_REGNUM != FRAME_POINTER_REGNUM
         && ! (i == ARG_POINTER_REGNUM && fixed_regs[i])
 #endif
-#ifdef PIC_OFFSET_TABLE_REGNUM
+#if defined (PIC_OFFSET_TABLE_REGNUM) && !defined (PIC_OFFSET_TABLE_REG_CALL_CLOBBERED)
         && ! (i == PIC_OFFSET_TABLE_REGNUM && flag_pic)
 #endif
         )
@@ -8042,7 +8436,7 @@ cse_main (f, nregs, after_loop, file)
   if (max_elements_made < n_elements_made)
     max_elements_made = n_elements_made;
 
-  return cse_jumps_altered;
+  return cse_jumps_altered || recorded_label_ref;
 }
 
 /* Process a single basic block.  FROM and TO and the limits of the basic
@@ -8178,22 +8572,25 @@ cse_basic_block (from, to, next_branch, around_loop)
          && GET_CODE (to) == CODE_LABEL && --LABEL_NUSES (to) == to_usage)
        {
          struct cse_basic_block_data val;
+         rtx prev;
 
          insn = NEXT_INSN (to);
 
          if (LABEL_NUSES (to) == 0)
-           delete_insn (to);
-
-         /* Find the end of the following block.  Note that we won't be
-            following branches in this case.  If TO was the last insn
-            in the function, we are done.  Similarly, if we deleted the
-            insn after TO, it must have been because it was preceded by
-            a BARRIER.  In that case, we are done with this block because it
-            has no continuation.  */
+           insn = delete_insn (to);
 
-         if (insn == 0 || INSN_DELETED_P (insn))
+         /* If TO was the last insn in the function, we are done.  */
+         if (insn == 0)
            return 0;
 
+         /* If TO was preceded by a BARRIER we are done with this block
+            because it has no continuation.  */
+         prev = prev_nonnote_insn (to);
+         if (prev && GET_CODE (prev) == BARRIER)
+           return insn;
+
+         /* Find the end of the following block.  Note that we won't be
+            following branches in this case.  */
          to_usage = 0;
          val.path_size = 0;
          cse_end_of_basic_block (insn, &val, 0, 0, 0);
@@ -8253,11 +8650,14 @@ count_reg_usage (x, counts, dest, incr)
      rtx dest;
      int incr;
 {
-  enum rtx_code code = GET_CODE (x);
+  enum rtx_code code;
   char *fmt;
   int i, j;
 
-  switch (code)
+  if (x == 0)
+    return;
+
+  switch (code = GET_CODE (x))
     {
     case REG:
       if (x != dest)
@@ -8278,27 +8678,38 @@ count_reg_usage (x, counts, dest, incr)
       /* Unless we are setting a REG, count everything in SET_DEST.  */
       if (GET_CODE (SET_DEST (x)) != REG)
        count_reg_usage (SET_DEST (x), counts, NULL_RTX, incr);
-      count_reg_usage (SET_SRC (x), counts, SET_DEST (x), incr);
+
+      /* If SRC has side-effects, then we can't delete this insn, so the
+        usage of SET_DEST inside SRC counts.
+
+        ??? Strictly-speaking, we might be preserving this insn
+        because some other SET has side-effects, but that's hard
+        to do and can't happen now.  */
+      count_reg_usage (SET_SRC (x), counts,
+                      side_effects_p (SET_SRC (x)) ? NULL_RTX : SET_DEST (x),
+                      incr);
       return;
 
+    case CALL_INSN:
+      count_reg_usage (CALL_INSN_FUNCTION_USAGE (x), counts, NULL_RTX, incr);
+
+      /* ... falls through ...  */
     case INSN:
     case JUMP_INSN:
-    case CALL_INSN:
       count_reg_usage (PATTERN (x), counts, NULL_RTX, incr);
 
       /* Things used in a REG_EQUAL note aren't dead since loop may try to
         use them.  */
 
-      if (REG_NOTES (x))
-       count_reg_usage (REG_NOTES (x), counts, NULL_RTX, incr);
+      count_reg_usage (REG_NOTES (x), counts, NULL_RTX, incr);
       return;
 
     case EXPR_LIST:
     case INSN_LIST:
-      if (REG_NOTE_KIND (x) == REG_EQUAL)
+      if (REG_NOTE_KIND (x) == REG_EQUAL
+         || GET_CODE (XEXP (x,0)) == USE)
        count_reg_usage (XEXP (x, 0), counts, NULL_RTX, incr);
-      if (XEXP (x, 1))
-       count_reg_usage (XEXP (x, 1), counts, NULL_RTX, incr);
+      count_reg_usage (XEXP (x, 1), counts, NULL_RTX, incr);
       return;
     }
 
@@ -8333,7 +8744,7 @@ delete_dead_from_cse (insns, nreg)
   int in_libcall = 0;
 
   /* First count the number of times each register is used.  */
-  bzero (counts, sizeof (int) * nreg);
+  bzero ((char *) counts, sizeof (int) * nreg);
   for (insn = next_real_insn (insns); insn; insn = next_real_insn (insn))
     count_reg_usage (insn, counts, NULL_RTX, 1);