OSDN Git Service

* function.c (free_temps_for_rtl_expr): Don't free slots
[pf3gnuchains/gcc-fork.git] / gcc / expr.c
index c3034c4..fb266e2 100644 (file)
@@ -1,5 +1,6 @@
 /* Convert tree expression to rtl instructions, for GNU compiler.
-   Copyright (C) 1988, 92-98, 1999 Free Software Foundation, Inc.
+   Copyright (C) 1988, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000
+   Free Software Foundation, Inc.
 
 This file is part of GNU CC.
 
@@ -40,8 +41,8 @@ Boston, MA 02111-1307, USA.  */
 #include "typeclass.h"
 #include "defaults.h"
 #include "toplev.h"
-
-#define CEIL(x,y) (((x) + (y) - 1) / (y))
+#include "ggc.h"
+#include "tm_p.h"
 
 /* Decide whether a function's arguments should be processed
    from first to last or from last to first.
@@ -83,31 +84,13 @@ int cse_not_expected;
    Nowadays this is never zero.  */
 int do_preexpand_calls = 1;
 
-/* Number of units that we should eventually pop off the stack.
-   These are the arguments to function calls that have already returned.  */
-int pending_stack_adjust;
-
-/* Nonzero means stack pops must not be deferred, and deferred stack
-   pops must not be output.  It is nonzero inside a function call,
-   inside a conditional expression, inside a statement expression,
-   and in other cases as well.  */
-int inhibit_defer_pop;
-
-/* Nonzero means __builtin_saveregs has already been done in this function.
-   The value is the pseudoreg containing the value __builtin_saveregs
-   returned.  */
-static rtx saveregs_value;
-
-/* Similarly for __builtin_apply_args.  */
-static rtx apply_args_value;
-
 /* Don't check memory usage, since code is being emitted to check a memory
    usage.  Used when current_function_check_memory_usage is true, to avoid
    infinite recursion.  */
 static int in_check_memory_usage;
 
-/* Postincrements that still need to be expanded.  */
-static rtx pending_chain;
+/* Chain of pending expressions for PLACEHOLDER_EXPR to replace.  */
+static tree placeholder_list = 0;
 
 /* This structure is used by move_by_pieces to describe the move to
    be performed.  */
@@ -118,11 +101,13 @@ struct move_by_pieces
   int autinc_to;
   int explicit_inc_to;
   int to_struct;
+  int to_readonly;
   rtx from;
   rtx from_addr;
   int autinc_from;
   int explicit_inc_from;
   int from_struct;
+  int from_readonly;
   int len;
   int offset;
   int reverse;
@@ -144,52 +129,40 @@ struct clear_by_pieces
 };
 
 extern struct obstack permanent_obstack;
-extern rtx arg_pointer_save_area;
-
-static rtx get_push_address    PROTO ((int));
-
-static rtx enqueue_insn                PROTO((rtx, rtx));
-static void init_queue         PROTO((void));
-static int move_by_pieces_ninsns PROTO((unsigned int, int));
-static void move_by_pieces_1   PROTO((rtx (*) (rtx, ...), enum machine_mode,
-                                      struct move_by_pieces *));
-static void clear_by_pieces    PROTO((rtx, int, int));
-static void clear_by_pieces_1  PROTO((rtx (*) (rtx, ...), enum machine_mode,
-                                      struct clear_by_pieces *));
-static int is_zeros_p          PROTO((tree));
-static int mostly_zeros_p      PROTO((tree));
-static void store_constructor_field PROTO((rtx, int, int, enum machine_mode,
-                                          tree, tree, int));
-static void store_constructor  PROTO((tree, rtx, int));
-static rtx store_field         PROTO((rtx, int, int, enum machine_mode, tree,
-                                      enum machine_mode, int, int,
-                                      int, int));
+
+static rtx get_push_address    PARAMS ((int));
+
+static rtx enqueue_insn                PARAMS ((rtx, rtx));
+static int move_by_pieces_ninsns PARAMS ((unsigned int, unsigned int));
+static void move_by_pieces_1   PARAMS ((rtx (*) (rtx, ...), enum machine_mode,
+                                        struct move_by_pieces *));
+static void clear_by_pieces    PARAMS ((rtx, int, unsigned int));
+static void clear_by_pieces_1  PARAMS ((rtx (*) (rtx, ...),
+                                        enum machine_mode,
+                                        struct clear_by_pieces *));
+static int is_zeros_p          PARAMS ((tree));
+static int mostly_zeros_p      PARAMS ((tree));
+static void store_constructor_field PARAMS ((rtx, int, int, enum machine_mode,
+                                            tree, tree, unsigned int, int));
+static void store_constructor  PARAMS ((tree, rtx, unsigned int, int, int));
+static rtx store_field         PARAMS ((rtx, int, int, enum machine_mode,
+                                        tree, enum machine_mode, int,
+                                        unsigned int, int, int));
 static enum memory_use_mode
-  get_memory_usage_from_modifier PROTO((enum expand_modifier));
-static tree save_noncopied_parts PROTO((tree, tree));
-static tree init_noncopied_parts PROTO((tree, tree));
-static int safe_from_p         PROTO((rtx, tree, int));
-static int fixed_type_p                PROTO((tree));
-static rtx var_rtx             PROTO((tree));
-static int get_pointer_alignment PROTO((tree, unsigned));
-static tree string_constant    PROTO((tree, tree *));
-static tree c_strlen           PROTO((tree));
-static rtx get_memory_rtx      PROTO((tree));
-static rtx expand_builtin      PROTO((tree, rtx, rtx,
-                                      enum machine_mode, int));
-static int apply_args_size     PROTO((void));
-static int apply_result_size   PROTO((void));
-static rtx result_vector       PROTO((int, rtx));
-static rtx expand_builtin_apply_args PROTO((void));
-static rtx expand_builtin_apply        PROTO((rtx, rtx, rtx));
-static void expand_builtin_return PROTO((rtx));
-static rtx expand_increment    PROTO((tree, int, int));
-static void preexpand_calls    PROTO((tree));
-static void do_jump_by_parts_greater PROTO((tree, int, rtx, rtx));
-static void do_jump_by_parts_equality PROTO((tree, rtx, rtx));
-static void do_jump_for_compare        PROTO((rtx, rtx, rtx));
-static rtx compare             PROTO((tree, enum rtx_code, enum rtx_code));
-static rtx do_store_flag       PROTO((tree, rtx, enum machine_mode, int));
+  get_memory_usage_from_modifier PARAMS ((enum expand_modifier));
+static tree save_noncopied_parts PARAMS ((tree, tree));
+static tree init_noncopied_parts PARAMS ((tree, tree));
+static int safe_from_p         PARAMS ((rtx, tree, int));
+static int fixed_type_p                PARAMS ((tree));
+static rtx var_rtx             PARAMS ((tree));
+static int readonly_fields_p   PARAMS ((tree));
+static rtx expand_expr_unaligned PARAMS ((tree, unsigned int *));
+static rtx expand_increment    PARAMS ((tree, int, int));
+static void preexpand_calls    PARAMS ((tree));
+static void do_jump_by_parts_greater PARAMS ((tree, int, rtx, rtx));
+static void do_jump_by_parts_equality PARAMS ((tree, rtx, rtx));
+static void do_compare_and_jump        PARAMS ((tree, enum rtx_code, enum rtx_code, rtx, rtx));
+static rtx do_store_flag       PARAMS ((tree, rtx, enum machine_mode, int));
 
 /* Record for each mode whether we can move a register directly to or
    from an object of that mode in memory.  If we can't, we won't try
@@ -226,15 +199,7 @@ enum insn_code clrstr_optab[NUM_MACHINE_MODES];
 /* SLOW_UNALIGNED_ACCESS is non-zero if unaligned accesses are very slow.  */
 
 #ifndef SLOW_UNALIGNED_ACCESS
-#define SLOW_UNALIGNED_ACCESS STRICT_ALIGNMENT
-#endif
-
-/* Register mappings for target machines without register windows.  */
-#ifndef INCOMING_REGNO
-#define INCOMING_REGNO(OUT) (OUT)
-#endif
-#ifndef OUTGOING_REGNO
-#define OUTGOING_REGNO(IN) (IN)
+#define SLOW_UNALIGNED_ACCESS(MODE, ALIGN) STRICT_ALIGNMENT
 #endif
 \f
 /* This is run once per compilation to set up which modes can be used
@@ -319,50 +284,43 @@ init_expr_once ()
 void
 init_expr ()
 {
-  init_queue ();
+  cfun->expr = (struct expr_status *) xmalloc (sizeof (struct expr_status));
 
+  pending_chain = 0;
   pending_stack_adjust = 0;
+  arg_space_so_far = 0;
   inhibit_defer_pop = 0;
   saveregs_value = 0;
   apply_args_value = 0;
   forced_labels = 0;
 }
 
-/* Save all variables describing the current status into the structure *P.
-   This is used before starting a nested function.  */
-
 void
-save_expr_status (p)
-     struct function *p;
+mark_expr_status (p)
+     struct expr_status *p;
 {
-  p->pending_chain = pending_chain;
-  p->pending_stack_adjust = pending_stack_adjust;
-  p->inhibit_defer_pop = inhibit_defer_pop;
-  p->saveregs_value = saveregs_value;
-  p->apply_args_value = apply_args_value;
-  p->forced_labels = forced_labels;
-
-  pending_chain = NULL_RTX;
-  pending_stack_adjust = 0;
-  inhibit_defer_pop = 0;
-  saveregs_value = 0;
-  apply_args_value = 0;
-  forced_labels = 0;
+  if (p == NULL)
+    return;
+
+  ggc_mark_rtx (p->x_saveregs_value);
+  ggc_mark_rtx (p->x_apply_args_value);
+  ggc_mark_rtx (p->x_forced_labels);
 }
 
-/* Restore all variables describing the current status from the structure *P.
-   This is used after a nested function.  */
+void
+free_expr_status (f)
+     struct function *f;
+{
+  free (f->expr);
+  f->expr = NULL;
+}
 
+/* Small sanity check that the queue is empty at the end of a function.  */
 void
-restore_expr_status (p)
-     struct function *p;
+finish_expr_for_function ()
 {
-  pending_chain = p->pending_chain;
-  pending_stack_adjust = p->pending_stack_adjust;
-  inhibit_defer_pop = p->inhibit_defer_pop;
-  saveregs_value = p->saveregs_value;
-  apply_args_value = p->apply_args_value;
-  forced_labels = p->forced_labels;
+  if (pending_chain)
+    abort ();
 }
 \f
 /* Manage the queue of increment instructions to be output
@@ -379,9 +337,8 @@ static rtx
 enqueue_insn (var, body)
      rtx var, body;
 {
-  pending_chain = gen_rtx_QUEUED (GET_MODE (var),
-                                 var, NULL_RTX, NULL_RTX, body,
-                                 pending_chain);
+  pending_chain = gen_rtx_QUEUED (GET_MODE (var), var, NULL_RTX, NULL_RTX,
+                                 body, pending_chain);
   return pending_chain;
 }
 
@@ -524,13 +481,6 @@ emit_queue ()
       pending_chain = QUEUED_NEXT (p);
     }
 }
-
-static void
-init_queue ()
-{
-  if (pending_chain)
-    abort ();
-}
 \f
 /* Copy data from FROM to TO, where the machine modes are not the same.
    Both modes may be integer, or both may be floating.
@@ -893,7 +843,7 @@ convert_move (to, from, unsignedp)
        {
 #ifdef HAVE_slt
          if (HAVE_slt
-             && insn_operand_mode[(int) CODE_FOR_slt][0] == word_mode
+             && insn_data[(int) CODE_FOR_slt].operand[0].mode == word_mode
              && STORE_FLAG_VALUE == -1)
            {
              emit_cmp_insn (lowfrom, const0_rtx, NE, NULL_RTX,
@@ -1098,7 +1048,8 @@ convert_move (to, from, unsignedp)
            if (((can_extend_p (to_mode, intermediate, unsignedp)
                  != CODE_FOR_nothing)
                 || (GET_MODE_SIZE (to_mode) < GET_MODE_SIZE (intermediate)
-                    && TRULY_NOOP_TRUNCATION (to_mode, intermediate)))
+                    && TRULY_NOOP_TRUNCATION (GET_MODE_BITSIZE (to_mode),
+                                              GET_MODE_BITSIZE (intermediate))))
                && (can_extend_p (intermediate, from_mode, unsignedp)
                    != CODE_FOR_nothing))
              {
@@ -1402,26 +1353,6 @@ convert_modes (mode, oldmode, x, unsignedp)
 #define MOVE_MAX_PIECES   MOVE_MAX
 #endif
 
-/* Some architectures do not have complete pre/post increment/decrement
-   instruction sets, or only move some modes efficiently. these macros
-   allow us to fine tune move_by_pieces for these targets. */
-
-#ifndef USE_LOAD_POST_INCREMENT
-#define USE_LOAD_POST_INCREMENT(MODE)   HAVE_POST_INCREMENT
-#endif
-
-#ifndef USE_LOAD_PRE_DECREMENT
-#define USE_LOAD_PRE_DECREMENT(MODE)    HAVE_PRE_DECREMENT
-#endif
-
-#ifndef USE_STORE_POST_INCREMENT
-#define USE_STORE_POST_INCREMENT(MODE)  HAVE_POST_INCREMENT
-#endif
-
-#ifndef USE_STORE_PRE_DECREMENT
-#define USE_STORE_PRE_DECREMENT(MODE)   HAVE_PRE_DECREMENT
-#endif
-
 /* Generate several move instructions to copy LEN bytes
    from block FROM to block TO.  (These are MEM rtx's with BLKmode).
    The caller must pass FROM and TO
@@ -1431,7 +1362,8 @@ convert_modes (mode, oldmode, x, unsignedp)
 void
 move_by_pieces (to, from, len, align)
      rtx to, from;
-     int len, align;
+     int len;
+     unsigned int align;
 {
   struct move_by_pieces data;
   rtx to_addr = XEXP (to, 0), from_addr = XEXP (from, 0);
@@ -1461,6 +1393,8 @@ move_by_pieces (to, from, len, align)
 
   data.to_struct = MEM_IN_STRUCT_P (to);
   data.from_struct = MEM_IN_STRUCT_P (from);
+  data.to_readonly = RTX_UNCHANGING_P (to);
+  data.from_readonly = RTX_UNCHANGING_P (from);
 
   /* If copying requires more than two move insns,
      copy addresses to registers (to make displacements shorter)
@@ -1504,7 +1438,7 @@ move_by_pieces (to, from, len, align)
        data.to_addr = copy_addr_to_reg (to_addr);
     }
 
-  if (! SLOW_UNALIGNED_ACCESS
+  if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
       || align > MOVE_MAX || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT)
     align = MOVE_MAX;
 
@@ -1524,7 +1458,7 @@ move_by_pieces (to, from, len, align)
       icode = mov_optab->handlers[(int) mode].insn_code;
       if (icode != CODE_FOR_nothing
          && align >= MIN (BIGGEST_ALIGNMENT / BITS_PER_UNIT,
-                          GET_MODE_SIZE (mode)))
+                          (unsigned int) GET_MODE_SIZE (mode)))
        move_by_pieces_1 (GEN_FCN (icode), mode, &data);
 
       max_size = GET_MODE_SIZE (mode);
@@ -1541,12 +1475,12 @@ move_by_pieces (to, from, len, align)
 static int
 move_by_pieces_ninsns (l, align)
      unsigned int l;
-     int align;
+     unsigned int align;
 {
   register int n_insns = 0;
   int max_size = MOVE_MAX + 1;
 
-  if (! SLOW_UNALIGNED_ACCESS
+  if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
       || align > MOVE_MAX || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT)
     align = MOVE_MAX;
 
@@ -1565,8 +1499,7 @@ move_by_pieces_ninsns (l, align)
 
       icode = mov_optab->handlers[(int) mode].insn_code;
       if (icode != CODE_FOR_nothing
-         && align >= MIN (BIGGEST_ALIGNMENT / BITS_PER_UNIT,
-                          GET_MODE_SIZE (mode)))
+         && align >= GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT)
        n_insns += l / GET_MODE_SIZE (mode), l %= GET_MODE_SIZE (mode);
 
       max_size = GET_MODE_SIZE (mode);
@@ -1581,7 +1514,7 @@ move_by_pieces_ninsns (l, align)
 
 static void
 move_by_pieces_1 (genfun, mode, data)
-     rtx (*genfun) PROTO ((rtx, ...));
+     rtx (*genfun) PARAMS ((rtx, ...));
      enum machine_mode mode;
      struct move_by_pieces *data;
 {
@@ -1598,6 +1531,7 @@ move_by_pieces_1 (genfun, mode, data)
                                         plus_constant (data->to_addr,
                                                        data->offset))));
       MEM_IN_STRUCT_P (to1) = data->to_struct;
+      RTX_UNCHANGING_P (to1) = data->to_readonly;
 
       from1
        = (data->autinc_from
@@ -1606,6 +1540,7 @@ move_by_pieces_1 (genfun, mode, data)
                                       plus_constant (data->from_addr,
                                                      data->offset))));
       MEM_IN_STRUCT_P (from1) = data->from_struct;
+      RTX_UNCHANGING_P (from1) = data->from_readonly;
 
       if (HAVE_PRE_DECREMENT && data->explicit_inc_to < 0)
        emit_insn (gen_add2_insn (data->to_addr, GEN_INT (-size)));
@@ -1641,7 +1576,7 @@ rtx
 emit_block_move (x, y, size, align)
      rtx x, y;
      rtx size;
-     int align;
+     unsigned int align;
 {
   rtx retval = 0;
 #ifdef TARGET_MEM_FUNCTIONS
@@ -1681,6 +1616,7 @@ emit_block_move (x, y, size, align)
           mode = GET_MODE_WIDER_MODE (mode))
        {
          enum insn_code code = movstr_optab[(int) mode];
+         insn_operand_predicate_fn pred;
 
          if (code != CODE_FOR_nothing
              /* We don't need MODE to be narrower than BITS_PER_HOST_WIDE_INT
@@ -1691,21 +1627,20 @@ emit_block_move (x, y, size, align)
                   && ((unsigned HOST_WIDE_INT) INTVAL (size)
                       <= (GET_MODE_MASK (mode) >> 1)))
                  || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
-             && (insn_operand_predicate[(int) code][0] == 0
-                 || (*insn_operand_predicate[(int) code][0]) (x, BLKmode))
-             && (insn_operand_predicate[(int) code][1] == 0
-                 || (*insn_operand_predicate[(int) code][1]) (y, BLKmode))
-             && (insn_operand_predicate[(int) code][3] == 0
-                 || (*insn_operand_predicate[(int) code][3]) (opalign,
-                                                              VOIDmode)))
+             && ((pred = insn_data[(int) code].operand[0].predicate) == 0
+                 || (*pred) (x, BLKmode))
+             && ((pred = insn_data[(int) code].operand[1].predicate) == 0
+                 || (*pred) (y, BLKmode))
+             && ((pred = insn_data[(int) code].operand[3].predicate) == 0
+                 || (*pred) (opalign, VOIDmode)))
            {
              rtx op2;
              rtx last = get_last_insn ();
              rtx pat;
 
              op2 = convert_to_mode (mode, size, 1);
-             if (insn_operand_predicate[(int) code][2] != 0
-                 && ! (*insn_operand_predicate[(int) code][2]) (op2, mode))
+             pred = insn_data[(int) code].operand[2].predicate;
+             if (pred != 0 && ! (*pred) (op2, mode))
                op2 = copy_to_mode_reg (mode, op2);
 
              pat = GEN_FCN ((int) code) (x, y, op2, opalign);
@@ -1719,6 +1654,37 @@ emit_block_move (x, y, size, align)
            }
        }
 
+      /* X, Y, or SIZE may have been passed through protect_from_queue.
+
+        It is unsafe to save the value generated by protect_from_queue
+        and reuse it later.  Consider what happens if emit_queue is
+        called before the return value from protect_from_queue is used.
+
+        Expansion of the CALL_EXPR below will call emit_queue before
+        we are finished emitting RTL for argument setup.  So if we are
+        not careful we could get the wrong value for an argument.
+
+        To avoid this problem we go ahead and emit code to copy X, Y &
+        SIZE into new pseudos.  We can then place those new pseudos
+        into an RTL_EXPR and use them later, even after a call to
+        emit_queue. 
+
+        Note this is not strictly needed for library calls since they
+        do not call emit_queue before loading their arguments.  However,
+        we may need to have library calls call emit_queue in the future
+        since failing to do so could cause problems for targets which
+        define SMALL_REGISTER_CLASSES and pass arguments in registers.  */
+      x = copy_to_mode_reg (Pmode, XEXP (x, 0));
+      y = copy_to_mode_reg (Pmode, XEXP (y, 0));
+
+#ifdef TARGET_MEM_FUNCTIONS
+      size = copy_to_mode_reg (TYPE_MODE (sizetype), size);
+#else
+      size = convert_to_mode (TYPE_MODE (integer_type_node), size,
+                             TREE_UNSIGNED (integer_type_node));
+      size = copy_to_mode_reg (TYPE_MODE (integer_type_node), size);
+#endif
+
 #ifdef TARGET_MEM_FUNCTIONS
       /* It is incorrect to use the libcall calling conventions to call
         memcpy in this context.
@@ -1743,6 +1709,7 @@ emit_block_move (x, y, size, align)
          fntype = build_pointer_type (void_type_node);
          fntype = build_function_type (fntype, NULL_TREE);
          fn = build_decl (FUNCTION_DECL, fn, fntype);
+         ggc_add_tree_root (&fn, 1);
          DECL_EXTERNAL (fn) = 1;
          TREE_PUBLIC (fn) = 1;
          DECL_ARTIFICIAL (fn) = 1;
@@ -1757,12 +1724,10 @@ emit_block_move (x, y, size, align)
         the last is a size_t byte count for the copy.  */
       arg_list
        = build_tree_list (NULL_TREE,
-                           make_tree (build_pointer_type (void_type_node),
-                                      XEXP (x, 0)));
+                          make_tree (build_pointer_type (void_type_node), x));
       TREE_CHAIN (arg_list)
        = build_tree_list (NULL_TREE,
-                          make_tree (build_pointer_type (void_type_node),
-                                     XEXP (y, 0)));
+                          make_tree (build_pointer_type (void_type_node), y));
       TREE_CHAIN (TREE_CHAIN (arg_list))
         = build_tree_list (NULL_TREE, make_tree (sizetype, size));
       TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
@@ -1776,8 +1741,7 @@ emit_block_move (x, y, size, align)
       retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
 #else
       emit_library_call (bcopy_libfunc, 0,
-                        VOIDmode, 3, XEXP (y, 0), Pmode,
-                        XEXP (x, 0), Pmode,
+                        VOIDmode, 3, y, Pmode, x, Pmode,
                         convert_to_mode (TYPE_MODE (integer_type_node), size,
                                          TREE_UNSIGNED (integer_type_node)),
                         TYPE_MODE (integer_type_node));
@@ -1921,7 +1885,8 @@ move_block_from_reg (regno, x, nregs, size)
 void
 emit_group_load (dst, orig_src, ssize, align)
      rtx dst, orig_src;
-     int align, ssize;
+     unsigned int align;
+     int ssize;
 {
   rtx *tmps, src;
   int start, i;
@@ -1943,7 +1908,10 @@ emit_group_load (dst, orig_src, ssize, align)
   src = orig_src;
   if (GET_CODE (src) != MEM)
     {
-      src = gen_reg_rtx (GET_MODE (orig_src));
+      if (GET_CODE (src) == VOIDmode)
+       src = gen_reg_rtx (GET_MODE (dst));
+      else
+       src = gen_reg_rtx (GET_MODE (orig_src));
       emit_move_insn (src, orig_src);
     }
 
@@ -1961,13 +1929,13 @@ emit_group_load (dst, orig_src, ssize, align)
          shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
          bytelen = ssize - bytepos;
          if (bytelen <= 0)
-           abort();
+           abort ();
        }
 
       /* Optimize the access just a bit.  */
       if (GET_CODE (src) == MEM
-         && align*BITS_PER_UNIT >= GET_MODE_ALIGNMENT (mode)
-         && bytepos*BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
+         && align * BITS_PER_UNIT >= GET_MODE_ALIGNMENT (mode)
+         && bytepos * BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
          && bytelen == GET_MODE_SIZE (mode))
        {
          tmps[i] = gen_reg_rtx (mode);
@@ -1976,6 +1944,17 @@ emit_group_load (dst, orig_src, ssize, align)
                                          plus_constant (XEXP (src, 0),
                                                         bytepos)));
        }
+      else if (GET_CODE (src) == CONCAT)
+       {
+         if (bytepos == 0
+             && bytelen == GET_MODE_SIZE (GET_MODE (XEXP (src, 0))))
+           tmps[i] = XEXP (src, 0);
+         else if (bytepos == GET_MODE_SIZE (GET_MODE (XEXP (src, 0)))
+                  && bytelen == GET_MODE_SIZE (GET_MODE (XEXP (src, 1))))
+           tmps[i] = XEXP (src, 1);
+         else
+           abort ();
+       }
       else
        {
          tmps[i] = extract_bit_field (src, bytelen*BITS_PER_UNIT,
@@ -2003,7 +1982,8 @@ emit_group_load (dst, orig_src, ssize, align)
 void
 emit_group_store (orig_dst, src, ssize, align)
      rtx orig_dst, src;
-     int ssize, align;
+     int ssize;
+     unsigned int align;
 {
   rtx *tmps, dst;
   int start, i;
@@ -2087,21 +2067,18 @@ emit_group_store (orig_dst, src, ssize, align)
 
       /* Optimize the access just a bit.  */
       if (GET_CODE (dst) == MEM
-         && align*BITS_PER_UNIT >= GET_MODE_ALIGNMENT (mode)
-         && bytepos*BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
+         && align * BITS_PER_UNIT >= GET_MODE_ALIGNMENT (mode)
+         && bytepos * BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
          && bytelen == GET_MODE_SIZE (mode))
-       {
-         emit_move_insn (change_address (dst, mode,
-                                         plus_constant (XEXP (dst, 0),
-                                                        bytepos)),
-                         tmps[i]);
-       }
+       emit_move_insn (change_address (dst, mode,
+                                       plus_constant (XEXP (dst, 0),
+                                                      bytepos)),
+                       tmps[i]);
       else
-       {
-         store_bit_field (dst, bytelen*BITS_PER_UNIT, bytepos*BITS_PER_UNIT,
+       store_bit_field (dst, bytelen * BITS_PER_UNIT, bytepos * BITS_PER_UNIT,
                           mode, tmps[i], align, ssize);
-       }
     }
+
   emit_queue();
 
   /* Copy from the pseudo into the (probable) hard reg.  */
@@ -2116,18 +2093,17 @@ emit_group_store (orig_dst, src, ssize, align)
    The primary purpose of this routine is to handle functions
    that return BLKmode structures in registers.  Some machines
    (the PA for example) want to return all small structures
-   in registers regardless of the structure's alignment.
-  */
+   in registers regardless of the structure's alignment. */
 
 rtx
-copy_blkmode_from_reg(tgtblk,srcreg,type)
+copy_blkmode_from_reg (tgtblk,srcreg,type)
      rtx tgtblk;
      rtx srcreg;
      tree type;
 {
       int bytes = int_size_in_bytes (type);
       rtx src = NULL, dst = NULL;
-      int bitsize = MIN (TYPE_ALIGN (type), (unsigned int) BITS_PER_WORD);
+      int bitsize = MIN (TYPE_ALIGN (type), BITS_PER_WORD);
       int bitpos, xbitpos, big_endian_correction = 0;
       
       if (tgtblk == 0)
@@ -2256,7 +2232,8 @@ use_group_regs (call_fusage, regs)
 static void
 clear_by_pieces (to, len, align)
      rtx to;
-     int len, align;
+     int len;
+     unsigned int align;
 {
   struct clear_by_pieces data;
   rtx to_addr = XEXP (to, 0);
@@ -2307,7 +2284,7 @@ clear_by_pieces (to, len, align)
        data.to_addr = copy_addr_to_reg (to_addr);
     }
 
-  if (! SLOW_UNALIGNED_ACCESS
+  if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
       || align > MOVE_MAX || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT)
     align = MOVE_MAX;
 
@@ -2326,8 +2303,7 @@ clear_by_pieces (to, len, align)
 
       icode = mov_optab->handlers[(int) mode].insn_code;
       if (icode != CODE_FOR_nothing
-         && align >= MIN (BIGGEST_ALIGNMENT / BITS_PER_UNIT,
-                          GET_MODE_SIZE (mode)))
+         && align >= GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT)
        clear_by_pieces_1 (GEN_FCN (icode), mode, &data);
 
       max_size = GET_MODE_SIZE (mode);
@@ -2344,7 +2320,7 @@ clear_by_pieces (to, len, align)
 
 static void
 clear_by_pieces_1 (genfun, mode, data)
-     rtx (*genfun) PROTO ((rtx, ...));
+     rtx (*genfun) PARAMS ((rtx, ...));
      enum machine_mode mode;
      struct clear_by_pieces *data;
 {
@@ -2385,7 +2361,7 @@ rtx
 clear_storage (object, size, align)
      rtx object;
      rtx size;
-     int align;
+     unsigned int align;
 {
 #ifdef TARGET_MEM_FUNCTIONS
   static tree fn;
@@ -2415,6 +2391,7 @@ clear_storage (object, size, align)
               mode = GET_MODE_WIDER_MODE (mode))
            {
              enum insn_code code = clrstr_optab[(int) mode];
+             insn_operand_predicate_fn pred;
 
              if (code != CODE_FOR_nothing
                  /* We don't need MODE to be narrower than
@@ -2425,21 +2402,18 @@ clear_storage (object, size, align)
                       && ((unsigned HOST_WIDE_INT) INTVAL (size)
                           <= (GET_MODE_MASK (mode) >> 1)))
                      || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
-                 && (insn_operand_predicate[(int) code][0] == 0
-                     || (*insn_operand_predicate[(int) code][0]) (object,
-                                                                  BLKmode))
-                 && (insn_operand_predicate[(int) code][2] == 0
-                     || (*insn_operand_predicate[(int) code][2]) (opalign,
-                                                                  VOIDmode)))
+                 && ((pred = insn_data[(int) code].operand[0].predicate) == 0
+                     || (*pred) (object, BLKmode))
+                 && ((pred = insn_data[(int) code].operand[2].predicate) == 0
+                     || (*pred) (opalign, VOIDmode)))
                {
                  rtx op1;
                  rtx last = get_last_insn ();
                  rtx pat;
 
                  op1 = convert_to_mode (mode, size, 1);
-                 if (insn_operand_predicate[(int) code][1] != 0
-                     && ! (*insn_operand_predicate[(int) code][1]) (op1,
-                                                                    mode))
+                 pred = insn_data[(int) code].operand[1].predicate;
+                 if (pred != 0 && ! (*pred) (op1, mode))
                    op1 = copy_to_mode_reg (mode, op1);
 
                  pat = GEN_FCN ((int) code) (object, op1, opalign);
@@ -2453,69 +2427,98 @@ clear_storage (object, size, align)
                }
            }
 
+         /* OBJECT or SIZE may have been passed through protect_from_queue.
 
-#ifdef TARGET_MEM_FUNCTIONS
-      /* It is incorrect to use the libcall calling conventions to call
-        memset in this context.
+            It is unsafe to save the value generated by protect_from_queue
+            and reuse it later.  Consider what happens if emit_queue is
+            called before the return value from protect_from_queue is used.
 
-        This could be a user call to memset and the user may wish to
-        examine the return value from memset.
+            Expansion of the CALL_EXPR below will call emit_queue before
+            we are finished emitting RTL for argument setup.  So if we are
+            not careful we could get the wrong value for an argument.
 
-        For targets where libcalls and normal calls have different conventions
-        for returning pointers, we could end up generating incorrect code. 
+            To avoid this problem we go ahead and emit code to copy OBJECT
+            and SIZE into new pseudos.  We can then place those new pseudos
+            into an RTL_EXPR and use them later, even after a call to
+            emit_queue.
 
-        So instead of using a libcall sequence we build up a suitable
-        CALL_EXPR and expand the call in the normal fashion.  */
-      if (fn == NULL_TREE)
-       {
-         tree fntype;
+            Note this is not strictly needed for library calls since they
+            do not call emit_queue before loading their arguments.  However,
+            we may need to have library calls call emit_queue in the future
+            since failing to do so could cause problems for targets which
+            define SMALL_REGISTER_CLASSES and pass arguments in registers.  */
+         object = copy_to_mode_reg (Pmode, XEXP (object, 0));
 
-         /* This was copied from except.c, I don't know if all this is
-            necessary in this context or not.  */
-         fn = get_identifier ("memset");
-         push_obstacks_nochange ();
-         end_temporary_allocation ();
-         fntype = build_pointer_type (void_type_node);
-         fntype = build_function_type (fntype, NULL_TREE);
-         fn = build_decl (FUNCTION_DECL, fn, fntype);
-         DECL_EXTERNAL (fn) = 1;
-         TREE_PUBLIC (fn) = 1;
-         DECL_ARTIFICIAL (fn) = 1;
-         make_decl_rtl (fn, NULL_PTR, 1);
-         assemble_external (fn);
-         pop_obstacks ();
-       }
+#ifdef TARGET_MEM_FUNCTIONS
+         size = copy_to_mode_reg (TYPE_MODE (sizetype), size);
+#else
+         size = convert_to_mode (TYPE_MODE (integer_type_node), size,
+                                 TREE_UNSIGNED (integer_type_node));
+         size = copy_to_mode_reg (TYPE_MODE (integer_type_node), size);
+#endif
 
-      /* We need to make an argument list for the function call. 
 
-        memset has three arguments, the first is a void * addresses, the
-        second a integer with the initialization value, the last is a size_t
-        byte count for the copy.  */
-      arg_list
-       = build_tree_list (NULL_TREE,
-                           make_tree (build_pointer_type (void_type_node),
-                                      XEXP (object, 0)));
-      TREE_CHAIN (arg_list)
-       = build_tree_list (NULL_TREE,
-                          make_tree (integer_type_node, const0_rtx));
-      TREE_CHAIN (TREE_CHAIN (arg_list))
-        = build_tree_list (NULL_TREE, make_tree (sizetype, size));
-      TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
+#ifdef TARGET_MEM_FUNCTIONS
+         /* It is incorrect to use the libcall calling conventions to call
+            memset in this context.
 
-      /* Now we have to build up the CALL_EXPR itself.  */
-      call_expr = build1 (ADDR_EXPR, build_pointer_type (TREE_TYPE (fn)), fn);
-      call_expr = build (CALL_EXPR, TREE_TYPE (TREE_TYPE (fn)),
-                        call_expr, arg_list, NULL_TREE);
-      TREE_SIDE_EFFECTS (call_expr) = 1;
+            This could be a user call to memset and the user may wish to
+            examine the return value from memset.
 
-      retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
+            For targets where libcalls and normal calls have different
+            conventions for returning pointers, we could end up generating
+             incorrect code. 
+
+            So instead of using a libcall sequence we build up a suitable
+            CALL_EXPR and expand the call in the normal fashion.  */
+         if (fn == NULL_TREE)
+           {
+             tree fntype;
+
+             /* This was copied from except.c, I don't know if all this is
+                necessary in this context or not.  */
+             fn = get_identifier ("memset");
+             push_obstacks_nochange ();
+             end_temporary_allocation ();
+             fntype = build_pointer_type (void_type_node);
+             fntype = build_function_type (fntype, NULL_TREE);
+             fn = build_decl (FUNCTION_DECL, fn, fntype);
+             ggc_add_tree_root (&fn, 1);
+             DECL_EXTERNAL (fn) = 1;
+             TREE_PUBLIC (fn) = 1;
+             DECL_ARTIFICIAL (fn) = 1;
+             make_decl_rtl (fn, NULL_PTR, 1);
+             assemble_external (fn);
+             pop_obstacks ();
+           }
+
+         /* We need to make an argument list for the function call. 
+
+            memset has three arguments, the first is a void * addresses, the
+            second a integer with the initialization value, the last is a
+            size_t byte count for the copy.  */
+         arg_list
+           = build_tree_list (NULL_TREE,
+                              make_tree (build_pointer_type (void_type_node),
+                                         object));
+         TREE_CHAIN (arg_list)
+           = build_tree_list (NULL_TREE,
+                               make_tree (integer_type_node, const0_rtx));
+         TREE_CHAIN (TREE_CHAIN (arg_list))
+           = build_tree_list (NULL_TREE, make_tree (sizetype, size));
+         TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
+
+         /* Now we have to build up the CALL_EXPR itself.  */
+         call_expr = build1 (ADDR_EXPR,
+                             build_pointer_type (TREE_TYPE (fn)), fn);
+         call_expr = build (CALL_EXPR, TREE_TYPE (TREE_TYPE (fn)),
+                            call_expr, arg_list, NULL_TREE);
+         TREE_SIDE_EFFECTS (call_expr) = 1;
+
+         retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
 #else
          emit_library_call (bzero_libfunc, 0,
-                            VOIDmode, 2,
-                            XEXP (object, 0), Pmode,   
-                            convert_to_mode
-                            (TYPE_MODE (integer_type_node), size,
-                             TREE_UNSIGNED (integer_type_node)),
+                            VOIDmode, 2, object, Pmode, size,
                             TYPE_MODE (integer_type_node));
 #endif
        }
@@ -2585,6 +2588,9 @@ emit_move_insn_1 (x, y)
   enum mode_class class = GET_MODE_CLASS (mode);
   int i;
 
+  if (mode >= MAX_MACHINE_MODE)
+      abort ();
+
   if (mov_optab->handlers[(int) mode].insn_code != CODE_FOR_nothing)
     return
       emit_insn (GEN_FCN (mov_optab->handlers[(int) mode].insn_code) (x, y));
@@ -2629,19 +2635,78 @@ emit_move_insn_1 (x, y)
        }
       else
        {
-         /* Show the output dies here.  This is necessary for pseudos;
+         rtx realpart_x, realpart_y;
+         rtx imagpart_x, imagpart_y;
+
+         /* If this is a complex value with each part being smaller than a
+            word, the usual calling sequence will likely pack the pieces into
+            a single register.  Unfortunately, SUBREG of hard registers only
+            deals in terms of words, so we have a problem converting input
+            arguments to the CONCAT of two registers that is used elsewhere
+            for complex values.  If this is before reload, we can copy it into
+            memory and reload.  FIXME, we should see about using extract and
+            insert on integer registers, but complex short and complex char
+            variables should be rarely used.  */
+         if (GET_MODE_BITSIZE (mode) < 2*BITS_PER_WORD
+             && (reload_in_progress | reload_completed) == 0)
+           {
+             int packed_dest_p = (REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER);
+             int packed_src_p  = (REG_P (y) && REGNO (y) < FIRST_PSEUDO_REGISTER);
+
+             if (packed_dest_p || packed_src_p)
+               {
+                 enum mode_class reg_class = ((class == MODE_COMPLEX_FLOAT)
+                                              ? MODE_FLOAT : MODE_INT);
+
+                 enum machine_mode reg_mode = 
+                   mode_for_size (GET_MODE_BITSIZE (mode), reg_class, 1);
+
+                 if (reg_mode != BLKmode)
+                   {
+                     rtx mem = assign_stack_temp (reg_mode,
+                                                  GET_MODE_SIZE (mode), 0);
+
+                     rtx cmem = change_address (mem, mode, NULL_RTX);
+
+                     cfun->cannot_inline = "function uses short complex types";
+
+                     if (packed_dest_p)
+                       {
+                         rtx sreg = gen_rtx_SUBREG (reg_mode, x, 0);
+                         emit_move_insn_1 (cmem, y);
+                         return emit_move_insn_1 (sreg, mem);
+                       }
+                     else
+                       {
+                         rtx sreg = gen_rtx_SUBREG (reg_mode, y, 0);
+                         emit_move_insn_1 (mem, sreg);
+                         return emit_move_insn_1 (x, cmem);
+                       }
+                   }
+               }
+           }
+
+         realpart_x = gen_realpart (submode, x);
+         realpart_y = gen_realpart (submode, y);
+         imagpart_x = gen_imagpart (submode, x);
+         imagpart_y = gen_imagpart (submode, y);
+
+         /* Show the output dies here.  This is necessary for SUBREGs
+            of pseudos since we cannot track their lifetimes correctly;
             hard regs shouldn't appear here except as return values.
             We never want to emit such a clobber after reload.  */
          if (x != y
-             && ! (reload_in_progress || reload_completed))
+             && ! (reload_in_progress || reload_completed)
+             && (GET_CODE (realpart_x) == SUBREG
+                 || GET_CODE (imagpart_x) == SUBREG))
            {
              emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
            }
 
          emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
-                    (gen_realpart (submode, x), gen_realpart (submode, y)));
+                    (realpart_x, realpart_y));
          emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
-                    (gen_imagpart (submode, x), gen_imagpart (submode, y)));
+                    (imagpart_x, imagpart_y));
        }
 
       return get_last_insn ();
@@ -2653,6 +2718,8 @@ emit_move_insn_1 (x, y)
   else if (GET_MODE_SIZE (mode) > UNITS_PER_WORD)
     {
       rtx last_insn = 0;
+      rtx seq;
+      int need_clobber;
       
 #ifdef PUSH_ROUNDING
 
@@ -2665,15 +2732,9 @@ emit_move_insn_1 (x, y)
        }
 #endif
                             
-      /* Show the output dies here.  This is necessary for pseudos;
-        hard regs shouldn't appear here except as return values.
-        We never want to emit such a clobber after reload.  */
-      if (x != y
-         && ! (reload_in_progress || reload_completed))
-       {
-         emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
-       }
+      start_sequence ();
 
+      need_clobber = 0;
       for (i = 0;
           i < (GET_MODE_SIZE (mode)  + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD;
           i++)
@@ -2695,9 +2756,27 @@ emit_move_insn_1 (x, y)
          if (xpart == 0 || ypart == 0)
            abort ();
 
+         need_clobber |= (GET_CODE (xpart) == SUBREG);
+
          last_insn = emit_move_insn (xpart, ypart);
        }
 
+      seq = gen_sequence ();
+      end_sequence ();
+
+      /* Show the output dies here.  This is necessary for SUBREGs
+        of pseudos since we cannot track their lifetimes correctly;
+        hard regs shouldn't appear here except as return values.
+        We never want to emit such a clobber after reload.  */
+      if (x != y
+         && ! (reload_in_progress || reload_completed)
+         && need_clobber != 0)
+       {
+         emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
+       }
+
+      emit_insn (seq);
+
       return last_insn;
     }
   else
@@ -2755,7 +2834,7 @@ push_block (size, extra, below)
                    negate_rtx (Pmode, plus_constant (size, extra)));
   else
     temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
-                   negate_rtx (Pmode, size));
+                        negate_rtx (Pmode, size));
 #endif
 
   return memory_address (GET_CLASS_NARROWEST_MODE (MODE_INT), temp);
@@ -2820,18 +2899,20 @@ get_push_address (size)
 
 void
 emit_push_insn (x, mode, type, size, align, partial, reg, extra,
-               args_addr, args_so_far, reg_parm_stack_space)
+               args_addr, args_so_far, reg_parm_stack_space,
+                alignment_pad)
      register rtx x;
      enum machine_mode mode;
      tree type;
      rtx size;
-     int align;
+     unsigned int align;
      int partial;
      rtx reg;
      int extra;
      rtx args_addr;
      rtx args_so_far;
      int reg_parm_stack_space;
+     rtx alignment_pad;
 {
   rtx xinner;
   enum direction stack_direction
@@ -2891,7 +2972,7 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
          /* Here we avoid the case of a structure whose weak alignment
             forces many pushes of a small amount of data,
             and such small pushes do rounding that causes trouble.  */
-         && ((! SLOW_UNALIGNED_ACCESS)
+         && ((! SLOW_UNALIGNED_ACCESS (word_mode, align))
              || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT
              || PUSH_ROUNDING (align) == align)
          && PUSH_ROUNDING (INTVAL (size)) == INTVAL (size))
@@ -2914,13 +2995,13 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
              temp = get_push_address (INTVAL(size) - used);
              if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
                emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                                  temp, ptr_mode,
-                                  XEXP (xinner, 0), ptr_mode,
+                                  temp, Pmode,
+                                  XEXP (xinner, 0), Pmode,
                                   GEN_INT (INTVAL(size) - used),
                                   TYPE_MODE (sizetype));
              else
                emit_library_call (chkr_set_right_libfunc, 1, VOIDmode, 3,
-                                  temp, ptr_mode,
+                                  temp, Pmode,
                                   GEN_INT (INTVAL(size) - used),
                                   TYPE_MODE (sizetype),
                                   GEN_INT (MEMORY_USE_RW),
@@ -2971,12 +3052,12 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
              target = copy_to_reg (temp);
              if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
                emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                                  target, ptr_mode,
-                                  XEXP (xinner, 0), ptr_mode,
+                                  target, Pmode,
+                                  XEXP (xinner, 0), Pmode,
                                   size, TYPE_MODE (sizetype));
              else
                emit_library_call (chkr_set_right_libfunc, 1, VOIDmode, 3,
-                                  target, ptr_mode,
+                                  target, Pmode,
                                   size, TYPE_MODE (sizetype),
                                   GEN_INT (MEMORY_USE_RW),
                                   TYPE_MODE (integer_type_node));
@@ -2985,7 +3066,7 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
 
          /* TEMP is the address of the block.  Copy the data there.  */
          if (GET_CODE (size) == CONST_INT
-             && (MOVE_BY_PIECES_P ((unsigned) INTVAL (size), align)))
+             && MOVE_BY_PIECES_P ((unsigned) INTVAL (size), align))
            {
              move_by_pieces (gen_rtx_MEM (BLKmode, temp), xinner,
                              INTVAL (size), align);
@@ -3002,29 +3083,26 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
                   mode = GET_MODE_WIDER_MODE (mode))
                {
                  enum insn_code code = movstr_optab[(int) mode];
+                 insn_operand_predicate_fn pred;
 
                  if (code != CODE_FOR_nothing
                      && ((GET_CODE (size) == CONST_INT
                           && ((unsigned HOST_WIDE_INT) INTVAL (size)
                               <= (GET_MODE_MASK (mode) >> 1)))
                          || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
-                     && (insn_operand_predicate[(int) code][0] == 0
-                         || ((*insn_operand_predicate[(int) code][0])
-                             (target, BLKmode)))
-                     && (insn_operand_predicate[(int) code][1] == 0
-                         || ((*insn_operand_predicate[(int) code][1])
-                             (xinner, BLKmode)))
-                     && (insn_operand_predicate[(int) code][3] == 0
-                         || ((*insn_operand_predicate[(int) code][3])
-                             (opalign, VOIDmode))))
+                     && (!(pred = insn_data[(int) code].operand[0].predicate)
+                         || ((*pred) (target, BLKmode)))
+                     && (!(pred = insn_data[(int) code].operand[1].predicate)
+                         || ((*pred) (xinner, BLKmode)))
+                     && (!(pred = insn_data[(int) code].operand[3].predicate)
+                         || ((*pred) (opalign, VOIDmode))))
                    {
                      rtx op2 = convert_to_mode (mode, size, 1);
                      rtx last = get_last_insn ();
                      rtx pat;
 
-                     if (insn_operand_predicate[(int) code][2] != 0
-                         && ! ((*insn_operand_predicate[(int) code][2])
-                               (op2, mode)))
+                     pred = insn_data[(int) code].operand[2].predicate;
+                     if (pred != 0 && ! (*pred) (op2, mode))
                        op2 = copy_to_mode_reg (mode, op2);
 
                      pat = GEN_FCN ((int) code) (target, xinner,
@@ -3129,7 +3207,7 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
                          0, args_addr,
                          GEN_INT (args_offset + ((i - not_stack + skip)
                                                  * UNITS_PER_WORD)),
-                         reg_parm_stack_space);
+                         reg_parm_stack_space, alignment_pad);
     }
   else
     {
@@ -3170,13 +3248,13 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
 
          if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
            emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                              target, ptr_mode,
-                              XEXP (x, 0), ptr_mode,
+                              target, Pmode,
+                              XEXP (x, 0), Pmode,
                               GEN_INT (GET_MODE_SIZE (mode)),
                               TYPE_MODE (sizetype));
          else
            emit_library_call (chkr_set_right_libfunc, 1, VOIDmode, 3,
-                              target, ptr_mode,
+                              target, Pmode,
                               GEN_INT (GET_MODE_SIZE (mode)),
                               TYPE_MODE (sizetype),
                               GEN_INT (MEMORY_USE_RW),
@@ -3201,6 +3279,9 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
 
   if (extra && args_addr == 0 && where_pad == stack_direction)
     anti_adjust_stack (GEN_INT (extra));
+  if (alignment_pad)
+    anti_adjust_stack (alignment_pad);
 }
 \f
 /* Expand an assignment that stores the value of FROM into TO.
@@ -3218,7 +3299,7 @@ rtx
 expand_assignment (to, from, want_value, suggest_reg)
      tree to, from;
      int want_value;
-     int suggest_reg;
+     int suggest_reg ATTRIBUTE_UNUSED;
 {
   register rtx to_rtx = 0;
   rtx result;
@@ -3247,7 +3328,7 @@ expand_assignment (to, from, want_value, suggest_reg)
       int unsignedp;
       int volatilep = 0;
       tree tem;
-      int alignment;
+      unsigned int alignment;
 
       push_temp_slots ();
       tem = get_inner_reference (to, &bitsize, &bitpos, &offset, &mode1,
@@ -3276,8 +3357,11 @@ expand_assignment (to, from, want_value, suggest_reg)
 #endif
            }
 
+         /* A constant address in TO_RTX can have VOIDmode, we must not try
+            to call force_reg for that case.  Avoid that case.  */
          if (GET_CODE (to_rtx) == MEM
              && GET_MODE (to_rtx) == BLKmode
+             && GET_MODE (XEXP (to_rtx, 0)) != VOIDmode
              && bitsize
              && (bitpos % bitsize) == 0 
              && (bitsize % GET_MODE_ALIGNMENT (mode1)) == 0
@@ -3298,8 +3382,10 @@ expand_assignment (to, from, want_value, suggest_reg)
 
          to_rtx = change_address (to_rtx, VOIDmode,
                                   gen_rtx_PLUS (ptr_mode, XEXP (to_rtx, 0),
-                                                force_reg (ptr_mode, offset_rtx)));
+                                                force_reg (ptr_mode,
+                                                           offset_rtx)));
        }
+
       if (volatilep)
        {
          if (GET_CODE (to_rtx) == MEM)
@@ -3351,7 +3437,7 @@ expand_assignment (to, from, want_value, suggest_reg)
          /* Check the access right of the pointer.  */
          if (size)
            emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                              to_addr, ptr_mode,
+                              to_addr, Pmode,
                               GEN_INT (size), TYPE_MODE (sizetype),
                               GEN_INT (MEMORY_USE_WO),
                               TYPE_MODE (integer_type_node));
@@ -3410,7 +3496,14 @@ expand_assignment (to, from, want_value, suggest_reg)
        emit_block_move (to_rtx, value, expr_size (from),
                         TYPE_ALIGN (TREE_TYPE (from)) / BITS_PER_UNIT);
       else
-       emit_move_insn (to_rtx, value);
+       {
+#ifdef POINTERS_EXTEND_UNSIGNED
+         if (TREE_CODE (TREE_TYPE (to)) == REFERENCE_TYPE
+            || TREE_CODE (TREE_TYPE (to)) == POINTER_TYPE)
+           value = convert_memory_address (GET_MODE (to_rtx), value);
+#endif
+         emit_move_insn (to_rtx, value);
+       }
       preserve_temp_slots (to_rtx);
       free_temp_slots ();
       pop_temp_slots ();
@@ -3428,13 +3521,20 @@ expand_assignment (to, from, want_value, suggest_reg)
     }
 
   /* Don't move directly into a return register.  */
-  if (TREE_CODE (to) == RESULT_DECL && GET_CODE (to_rtx) == REG)
+  if (TREE_CODE (to) == RESULT_DECL
+      && (GET_CODE (to_rtx) == REG || GET_CODE (to_rtx) == PARALLEL))
     {
       rtx temp;
 
       push_temp_slots ();
       temp = expand_expr (from, 0, GET_MODE (to_rtx), 0);
-      emit_move_insn (to_rtx, temp);
+
+      if (GET_CODE (to_rtx) == PARALLEL)
+       emit_group_load (to_rtx, temp, int_size_in_bytes (TREE_TYPE (from)),
+                        TYPE_ALIGN (TREE_TYPE (from)) / BITS_PER_UNIT);
+      else
+       emit_move_insn (to_rtx, temp);
+
       preserve_temp_slots (to_rtx);
       free_temp_slots ();
       pop_temp_slots ();
@@ -3458,8 +3558,8 @@ expand_assignment (to, from, want_value, suggest_reg)
       /* Copy the rights of the bitmap.  */
       if (current_function_check_memory_usage)
        emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                          XEXP (to_rtx, 0), ptr_mode,
-                          XEXP (from_rtx, 0), ptr_mode,
+                          XEXP (to_rtx, 0), Pmode,
+                          XEXP (from_rtx, 0), Pmode,
                           convert_to_mode (TYPE_MODE (sizetype),
                                            size, TREE_UNSIGNED (sizetype)),
                           TYPE_MODE (sizetype));
@@ -3595,8 +3695,7 @@ store_expr (exp, target, want_value)
        Don't do this if TARGET is volatile because we are supposed
        to write it and then read it.  */
     {
-      temp = expand_expr (exp, cse_not_expected ? NULL_RTX : target,
-                         GET_MODE (target), 0);
+      temp = expand_expr (exp, target, GET_MODE (target), 0);
       if (GET_MODE (temp) != BLKmode && GET_MODE (temp) != VOIDmode)
        temp = copy_to_reg (temp);
       dont_return_target = 1;
@@ -3648,6 +3747,20 @@ store_expr (exp, target, want_value)
 
       convert_move (SUBREG_REG (target), temp,
                    SUBREG_PROMOTED_UNSIGNED_P (target));
+
+      /* If we promoted a constant, change the mode back down to match
+        target.  Otherwise, the caller might get confused by a result whose
+        mode is larger than expected.  */
+
+      if (want_value && GET_MODE (temp) != GET_MODE (target)
+         && GET_MODE (temp) != VOIDmode)
+       {
+         temp = gen_rtx_SUBREG (GET_MODE (target), temp, 0);
+         SUBREG_PROMOTED_VAR_P (temp) = 1;
+         SUBREG_PROMOTED_UNSIGNED_P (temp)
+           = SUBREG_PROMOTED_UNSIGNED_P (target);
+       }
+
       return want_value ? temp : NULL_RTX;
     }
   else
@@ -3684,12 +3797,12 @@ store_expr (exp, target, want_value)
     {
       if (GET_CODE (temp) == MEM)
         emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                          XEXP (target, 0), ptr_mode,
-                          XEXP (temp, 0), ptr_mode,
+                          XEXP (target, 0), Pmode,
+                          XEXP (temp, 0), Pmode,
                           expr_size (exp), TYPE_MODE (sizetype));
       else
         emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                          XEXP (target, 0), ptr_mode, 
+                          XEXP (target, 0), Pmode, 
                           expr_size (exp), TYPE_MODE (sizetype),
                           GEN_INT (MEMORY_USE_WO), 
                           TYPE_MODE (integer_type_node));
@@ -3752,8 +3865,7 @@ store_expr (exp, target, want_value)
              tree copy_size
                = size_binop (MIN_EXPR,
                              make_tree (sizetype, size),
-                             convert (sizetype,
-                                      build_int_2 (TREE_STRING_LENGTH (exp), 0)));
+                             size_int (TREE_STRING_LENGTH (exp)));
              rtx copy_size_rtx = expand_expr (copy_size, NULL_RTX,
                                               VOIDmode, 0);
              rtx label = 0;
@@ -3794,7 +3906,7 @@ store_expr (exp, target, want_value)
                  /* Be sure we can write on ADDR.  */
                  if (current_function_check_memory_usage)
                    emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                                      addr, ptr_mode,
+                                      addr, Pmode,
                                       size, TYPE_MODE (sizetype),
                                       GEN_INT (MEMORY_USE_WO), 
                                       TYPE_MODE (integer_type_node));
@@ -3926,7 +4038,7 @@ mostly_zeros_p (exp)
 /* Helper function for store_constructor.
    TARGET, BITSIZE, BITPOS, MODE, EXP are as for store_field.
    TYPE is the type of the CONSTRUCTOR, not the element type.
-   CLEARED is as for store_constructor.
+   ALIGN and CLEARED are as for store_constructor.
 
    This provides a recursive shortcut back to store_constructor when it isn't
    necessary to go through store_field.  This is so that we can pass through
@@ -3935,11 +4047,12 @@ mostly_zeros_p (exp)
 
 static void
 store_constructor_field (target, bitsize, bitpos,
-                        mode, exp, type, cleared)
+                        mode, exp, type, align, cleared)
      rtx target;
      int bitsize, bitpos;
      enum machine_mode mode;
      tree exp, type;
+     unsigned int align;
      int cleared;
 {
   if (TREE_CODE (exp) == CONSTRUCTOR
@@ -3950,29 +4063,42 @@ store_constructor_field (target, bitsize, bitpos,
       && (bitpos == 0 || GET_CODE (target) == MEM))
     {
       if (bitpos != 0)
-       target = change_address (target, VOIDmode,
-                                plus_constant (XEXP (target, 0),
-                                               bitpos / BITS_PER_UNIT));
-      store_constructor (exp, target, cleared);
+       target
+         = change_address (target,
+                           GET_MODE (target) == BLKmode
+                           || 0 != (bitpos
+                                    % GET_MODE_ALIGNMENT (GET_MODE (target)))
+                           ? BLKmode : VOIDmode,
+                           plus_constant (XEXP (target, 0),
+                                          bitpos / BITS_PER_UNIT));
+      store_constructor (exp, target, align, cleared, bitsize / BITS_PER_UNIT);
     }
   else
-    store_field (target, bitsize, bitpos, mode, exp,
-                VOIDmode, 0, TYPE_ALIGN (type) / BITS_PER_UNIT,
+    store_field (target, bitsize, bitpos, mode, exp, VOIDmode, 0, 
+                (align + BITS_PER_UNIT - 1) / BITS_PER_UNIT,
                 int_size_in_bytes (type), 0);
 }
 
 /* Store the value of constructor EXP into the rtx TARGET.
    TARGET is either a REG or a MEM.
-   CLEARED is true if TARGET is known to have been zero'd.  */
+   ALIGN is the maximum known alignment for TARGET, in bits.
+   CLEARED is true if TARGET is known to have been zero'd.
+   SIZE is the number of bytes of TARGET we are allowed to modify: this
+   may not be the same as the size of EXP if we are assigning to a field
+   which has been packed to exclude padding bits.  */
 
 static void
-store_constructor (exp, target, cleared)
+store_constructor (exp, target, align, cleared, size)
      tree exp;
      rtx target;
+     unsigned int align;
      int cleared;
+     int size;
 {
   tree type = TREE_TYPE (exp);
+#ifdef WORD_REGISTER_OPERATIONS
   rtx exp_size = expr_size (exp);
+#endif
 
   /* We know our target cannot conflict, since safe_from_p has been called.  */
 #if 0
@@ -3982,7 +4108,7 @@ store_constructor (exp, target, cleared)
   if (GET_CODE (target) == REG && REGNO (target) < FIRST_PSEUDO_REGISTER)
     {
       rtx temp = gen_reg_rtx (GET_MODE (target));
-      store_constructor (exp, temp, 0);
+      store_constructor (exp, temp, align, cleared, size);
       emit_move_insn (target, temp);
       return;
     }
@@ -3994,9 +4120,17 @@ store_constructor (exp, target, cleared)
       register tree elt;
 
       /* Inform later passes that the whole union value is dead.  */
-      if (TREE_CODE (type) == UNION_TYPE
-         || TREE_CODE (type) == QUAL_UNION_TYPE)
-       emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
+      if ((TREE_CODE (type) == UNION_TYPE
+          || TREE_CODE (type) == QUAL_UNION_TYPE)
+         && ! cleared)
+       {
+         emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
+
+         /* If the constructor is empty, clear the union.  */
+         if (! CONSTRUCTOR_ELTS (exp)  && ! cleared)
+           clear_storage (target, expr_size (exp),
+                          TYPE_ALIGN (type) / BITS_PER_UNIT);
+       }
 
       /* If we are building a static constructor into a register,
         set the initial value as zero so we can fold the value into
@@ -4014,17 +4148,18 @@ store_constructor (exp, target, cleared)
       /* If the constructor has fewer fields than the structure
         or if we are initializing the structure to mostly zeros,
         clear the whole structure first.  */
-      else if ((list_length (CONSTRUCTOR_ELTS (exp))
-               != list_length (TYPE_FIELDS (type)))
-              || mostly_zeros_p (exp))
+      else if (size > 0
+              && ((list_length (CONSTRUCTOR_ELTS (exp))
+                   != list_length (TYPE_FIELDS (type)))
+                  || mostly_zeros_p (exp)))
        {
          if (! cleared)
-           clear_storage (target, expr_size (exp),
-                          TYPE_ALIGN (type) / BITS_PER_UNIT);
+           clear_storage (target, GEN_INT (size),
+                          (align + BITS_PER_UNIT - 1) / BITS_PER_UNIT);
 
          cleared = 1;
        }
-      else
+      else if (! cleared)
        /* Inform later passes that the old value is dead.  */
        emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
 
@@ -4034,7 +4169,9 @@ store_constructor (exp, target, cleared)
       for (elt = CONSTRUCTOR_ELTS (exp); elt; elt = TREE_CHAIN (elt))
        {
          register tree field = TREE_PURPOSE (elt);
+#ifdef WORD_REGISTER_OPERATIONS
          tree value = TREE_VALUE (elt);
+#endif
          register enum machine_mode mode;
          int bitsize;
          int bitpos = 0;
@@ -4051,7 +4188,11 @@ store_constructor (exp, target, cleared)
          if (cleared && is_zeros_p (TREE_VALUE (elt)))
            continue;
 
-         bitsize = TREE_INT_CST_LOW (DECL_SIZE (field));
+         if (TREE_CODE (DECL_SIZE (field)) == INTEGER_CST)
+           bitsize = TREE_INT_CST_LOW (DECL_SIZE (field));
+         else
+           bitsize = -1;
+
          unsignedp = TREE_UNSIGNED (field);
          mode = DECL_MODE (field);
          if (DECL_BIT_FIELD (field))
@@ -4074,11 +4215,12 @@ store_constructor (exp, target, cleared)
              rtx offset_rtx;
 
              if (contains_placeholder_p (offset))
-               offset = build (WITH_RECORD_EXPR, sizetype,
+               offset = build (WITH_RECORD_EXPR, bitsizetype,
                                offset, make_tree (TREE_TYPE (exp), target));
 
-             offset = size_binop (FLOOR_DIV_EXPR, offset,
-                                  size_int (BITS_PER_UNIT));
+             offset = size_binop (EXACT_DIV_EXPR, offset,
+                                  bitsize_int (BITS_PER_UNIT));
+             offset = convert (sizetype, offset);
 
              offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
              if (GET_CODE (to_rtx) != MEM)
@@ -4096,8 +4238,10 @@ store_constructor (exp, target, cleared)
              to_rtx
                = change_address (to_rtx, VOIDmode,
                                  gen_rtx_PLUS (ptr_mode, XEXP (to_rtx, 0),
-                                          force_reg (ptr_mode, offset_rtx)));
+                                               force_reg (ptr_mode,
+                                                          offset_rtx)));
            }
+
          if (TREE_READONLY (field))
            {
              if (GET_CODE (to_rtx) == MEM)
@@ -4134,8 +4278,11 @@ store_constructor (exp, target, cleared)
              mode = word_mode;
            }
 #endif
-         store_constructor_field (to_rtx, bitsize, bitpos,
-                                  mode, value, type, cleared);
+         store_constructor_field (to_rtx, bitsize, bitpos, mode,
+                                  TREE_VALUE (elt), type, 
+                                  MIN (align,
+                                       DECL_ALIGN (TREE_PURPOSE (elt))),
+                                  cleared);
        }
     }
   else if (TREE_CODE (type) == ARRAY_TYPE)
@@ -4191,11 +4338,11 @@ store_constructor (exp, target, cleared)
              || 4 * zero_count >= 3 * count)
            need_to_clear = 1;
        }
-      if (need_to_clear)
+      if (need_to_clear && size > 0)
        {
          if (! cleared)
-           clear_storage (target, expr_size (exp),
-                          TYPE_ALIGN (type) / BITS_PER_UNIT);
+           clear_storage (target, GEN_INT (size),
+                          (align + BITS_PER_UNIT - 1) / BITS_PER_UNIT);
          cleared = 1;
        }
       else
@@ -4214,15 +4361,25 @@ store_constructor (exp, target, cleared)
          int bitpos;
          int unsignedp;
          tree value = TREE_VALUE (elt);
+         unsigned int align = TYPE_ALIGN (TREE_TYPE (value));
          tree index = TREE_PURPOSE (elt);
          rtx xtarget = target;
 
          if (cleared && is_zeros_p (value))
            continue;
 
-         mode = TYPE_MODE (elttype);
-         bitsize = GET_MODE_BITSIZE (mode);
          unsignedp = TREE_UNSIGNED (elttype);
+         mode = TYPE_MODE (elttype);
+         if (mode == BLKmode)
+           {
+             if (TREE_CODE (TYPE_SIZE (elttype)) == INTEGER_CST
+                 && TREE_INT_CST_HIGH (TYPE_SIZE (elttype)) == 0)
+               bitsize = TREE_INT_CST_LOW (TYPE_SIZE (elttype));
+             else
+               bitsize = -1;
+           }
+         else
+           bitsize = GET_MODE_BITSIZE (mode);
 
          if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
            {
@@ -4249,8 +4406,8 @@ store_constructor (exp, target, cleared)
                  for (; lo <= hi; lo++)
                    {
                      bitpos = lo * TREE_INT_CST_LOW (TYPE_SIZE (elttype));
-                     store_constructor_field (target, bitsize, bitpos,
-                                              mode, value, type, cleared);
+                     store_constructor_field (target, bitsize, bitpos, mode,
+                                              value, type, align, cleared);
                    }
                }
              else
@@ -4279,17 +4436,20 @@ store_constructor (exp, target, cleared)
                  loop = expand_start_loop (0);
 
                  /* Assign value to element index.  */
-                 position = size_binop (EXACT_DIV_EXPR, TYPE_SIZE (elttype),
-                                        size_int (BITS_PER_UNIT));
-                 position = size_binop (MULT_EXPR,
-                                        size_binop (MINUS_EXPR, index,
-                                                    TYPE_MIN_VALUE (domain)),
-                                        position);
+                 position
+                   = convert (ssizetype,
+                              fold (build (MINUS_EXPR, TREE_TYPE (index),
+                                           index, TYPE_MIN_VALUE (domain))));
+                 position = size_binop (MULT_EXPR, position,
+                                        convert (ssizetype,
+                                                 TYPE_SIZE_UNIT (elttype)));
+
                  pos_rtx = expand_expr (position, 0, VOIDmode, 0);
                  addr = gen_rtx_PLUS (Pmode, XEXP (target, 0), pos_rtx);
                  xtarget = change_address (target, mode, addr);
                  if (TREE_CODE (value) == CONSTRUCTOR)
-                   store_constructor (value, xtarget, cleared);
+                   store_constructor (value, xtarget, align, cleared,
+                                      bitsize / BITS_PER_UNIT);
                  else
                    store_expr (value, xtarget, 0);
 
@@ -4302,11 +4462,6 @@ store_constructor (exp, target, cleared)
                                           index, integer_one_node), 0, 0);
                  expand_end_loop ();
                  emit_label (loop_end);
-
-                 /* Needed by stupid register allocation. to extend the
-                    lifetime of pseudo-regs used by target past the end
-                    of the loop.  */
-                 emit_insn (gen_rtx_USE (GET_MODE (target), target));
                }
            }
          else if ((index != 0 && TREE_CODE (index) != INTEGER_CST)
@@ -4316,14 +4471,15 @@ store_constructor (exp, target, cleared)
              tree position;
 
              if (index == 0)
-               index = size_int (i);
+               index = ssize_int (1);
 
              if (minelt)
-               index = size_binop (MINUS_EXPR, index,
-                                   TYPE_MIN_VALUE (domain));
-             position = size_binop (EXACT_DIV_EXPR, TYPE_SIZE (elttype),
-                                    size_int (BITS_PER_UNIT));
-             position = size_binop (MULT_EXPR, index, position);
+               index = convert (ssizetype,
+                                fold (build (MINUS_EXPR, index,
+                                             TYPE_MIN_VALUE (domain))));
+             position = size_binop (MULT_EXPR, index,
+                                    convert (ssizetype,
+                                             TYPE_SIZE_UNIT (elttype)));
              pos_rtx = expand_expr (position, 0, VOIDmode, 0);
              addr = gen_rtx_PLUS (Pmode, XEXP (target, 0), pos_rtx);
              xtarget = change_address (target, mode, addr);
@@ -4336,8 +4492,8 @@ store_constructor (exp, target, cleared)
                          * TREE_INT_CST_LOW (TYPE_SIZE (elttype)));
              else
                bitpos = (i * TREE_INT_CST_LOW (TYPE_SIZE (elttype)));
-             store_constructor_field (target, bitsize, bitpos,
-                                      mode, value, type, cleared);
+             store_constructor_field (target, bitsize, bitpos, mode, value,
+                                      type, align, cleared);
            }
        }
     }
@@ -4360,10 +4516,10 @@ store_constructor (exp, target, cleared)
         bzero/memset), and set the bits we want.  */
        
       /* Check for all zeros.  */
-      if (elt == NULL_TREE)
+      if (elt == NULL_TREE && size > 0)
        {
          if (!cleared)
-           clear_storage (target, expr_size (exp),
+           clear_storage (target, GEN_INT (size),
                           TYPE_ALIGN (type) / BITS_PER_UNIT);
          return;
        }
@@ -4371,8 +4527,8 @@ store_constructor (exp, target, cleared)
       domain_min = convert (sizetype, TYPE_MIN_VALUE (domain));
       domain_max = convert (sizetype, TYPE_MAX_VALUE (domain));
       bitlength = size_binop (PLUS_EXPR,
-                             size_binop (MINUS_EXPR, domain_max, domain_min),
-                             size_one_node);
+                             size_diffop (domain_max, domain_min),
+                             ssize_int (1));
 
       if (nbytes < 0 || TREE_CODE (bitlength) != INTEGER_CST)
        abort ();
@@ -4553,7 +4709,7 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
      tree exp;
      enum machine_mode value_mode;
      int unsignedp;
-     int align;
+     unsigned int align;
      int total_size;
      int alias_set;
 {
@@ -4605,14 +4761,26 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
      Use bit-field techniques or SUBREG to store in it.  */
 
   if (mode == VOIDmode
-      || (mode != BLKmode && ! direct_store[(int) mode])
+      || (mode != BLKmode && ! direct_store[(int) mode]
+         && GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
+         && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT)
       || GET_CODE (target) == REG
       || GET_CODE (target) == SUBREG
       /* If the field isn't aligned enough to store as an ordinary memref,
         store it as a bit field.  */
-      || (SLOW_UNALIGNED_ACCESS
-         && align * BITS_PER_UNIT < GET_MODE_ALIGNMENT (mode))
-      || (SLOW_UNALIGNED_ACCESS && bitpos % GET_MODE_ALIGNMENT (mode) != 0))
+      || (mode != BLKmode && SLOW_UNALIGNED_ACCESS (mode, align)
+         && (align * BITS_PER_UNIT < GET_MODE_ALIGNMENT (mode)
+             || bitpos % GET_MODE_ALIGNMENT (mode)))
+      || (mode == BLKmode && SLOW_UNALIGNED_ACCESS (mode, align)
+         && (TYPE_ALIGN (TREE_TYPE (exp)) > align * BITS_PER_UNIT
+             || bitpos % TYPE_ALIGN (TREE_TYPE (exp)) != 0))
+      /* If the RHS and field are a constant size and the size of the
+        RHS isn't the same size as the bitfield, we must use bitfield
+        operations.  */
+      || ((bitsize >= 0
+          && TREE_CODE (TYPE_SIZE (TREE_TYPE (exp))) == INTEGER_CST)
+         && (TREE_INT_CST_HIGH (TYPE_SIZE (TREE_TYPE (exp))) != 0
+             || TREE_INT_CST_LOW (TYPE_SIZE (TREE_TYPE (exp))) != bitsize)))
     {
       rtx temp = expand_expr (exp, NULL_RTX, VOIDmode, 0);
 
@@ -4639,6 +4807,8 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
         boundary.  If so, we simply do a block copy.  */
       if (GET_MODE (target) == BLKmode && GET_MODE (temp) == BLKmode)
        {
+         unsigned int exp_align = expr_align (exp) / BITS_PER_UNIT;
+
          if (GET_CODE (target) != MEM || GET_CODE (temp) != MEM
              || bitpos % BITS_PER_UNIT != 0)
            abort ();
@@ -4647,10 +4817,17 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
                                   plus_constant (XEXP (target, 0),
                                                bitpos / BITS_PER_UNIT));
 
+         /* Make sure that ALIGN is no stricter than the alignment of EXP.  */
+         align = MIN (exp_align, align);
+
+         /* Find an alignment that is consistent with the bit position.  */
+         while ((bitpos % (align * BITS_PER_UNIT)) != 0)
+           align >>= 1;
+
          emit_block_move (target, temp,
                           GEN_INT ((bitsize + BITS_PER_UNIT - 1)
                                    / BITS_PER_UNIT),
-                          1);
+                          align);
 
          return value_mode == VOIDmode ? const0_rtx : target;
        }
@@ -4747,12 +4924,12 @@ get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
      enum machine_mode *pmode;
      int *punsignedp;
      int *pvolatilep;
-     int *palignment;
+     unsigned int *palignment;
 {
   tree orig_exp = exp;
   tree size_tree = 0;
   enum machine_mode mode = VOIDmode;
-  tree offset = integer_zero_node;
+  tree offset = size_zero_node;
   unsigned int alignment = BIGGEST_ALIGNMENT;
 
   if (TREE_CODE (exp) == COMPONENT_REF)
@@ -4797,7 +4974,7 @@ get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
          tree pos = (TREE_CODE (exp) == COMPONENT_REF
                      ? DECL_FIELD_BITPOS (TREE_OPERAND (exp, 1))
                      : TREE_OPERAND (exp, 2));
-         tree constant = integer_zero_node, var = pos;
+         tree constant = bitsize_int (0), var = pos;
 
          /* If this field hasn't been filled in yet, don't go
             past it.  This should only happen when folding expressions
@@ -4811,12 +4988,14 @@ get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
              && TREE_CODE (TREE_OPERAND (pos, 1)) == INTEGER_CST)
            constant = TREE_OPERAND (pos, 1), var = TREE_OPERAND (pos, 0);
          else if (TREE_CODE (pos) == INTEGER_CST)
-           constant = pos, var = integer_zero_node;
+           constant = pos, var = bitsize_int (0);
 
          *pbitpos += TREE_INT_CST_LOW (constant);
-         offset = size_binop (PLUS_EXPR, offset,
-                              size_binop (EXACT_DIV_EXPR, var,
-                                          size_int (BITS_PER_UNIT)));
+         offset
+           = size_binop (PLUS_EXPR, offset,
+                         convert (sizetype,
+                                  size_binop (EXACT_DIV_EXPR, var,
+                                              bitsize_int (BITS_PER_UNIT))));
        }
 
       else if (TREE_CODE (exp) == ARRAY_REF)
@@ -4873,22 +5052,21 @@ get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
                 it overflowed.  In either case, redo the multiplication
                 against the size in units.  This is especially important
                 in the non-constant case to avoid a division at runtime.  */
-             xindex = fold (build (MULT_EXPR, ssizetype, index,
-                                    convert (ssizetype,
-                                         TYPE_SIZE_UNIT (TREE_TYPE (exp)))));
+             xindex
+               = fold (build (MULT_EXPR, ssizetype, index,
+                              convert (ssizetype,
+                                       TYPE_SIZE_UNIT (TREE_TYPE (exp)))));
 
              if (contains_placeholder_p (xindex))
-               xindex = build (WITH_RECORD_EXPR, sizetype, xindex, exp);
+               xindex = build (WITH_RECORD_EXPR, ssizetype, xindex, exp);
 
-             offset = size_binop (PLUS_EXPR, offset, xindex);
+             offset
+               = size_binop (PLUS_EXPR, offset, convert (sizetype, xindex));
            }
        }
       else if (TREE_CODE (exp) != NON_LVALUE_EXPR
               && ! ((TREE_CODE (exp) == NOP_EXPR
                      || TREE_CODE (exp) == CONVERT_EXPR)
-                    && ! (TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE
-                          && (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0)))
-                              != UNION_TYPE))
                     && (TYPE_MODE (TREE_TYPE (exp))
                         == TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))))
        break;
@@ -5091,7 +5269,7 @@ init_noncopied_parts (lhs, list)
   for (tail = list; tail; tail = TREE_CHAIN (tail))
     if (TREE_CODE (TREE_VALUE (tail)) == TREE_LIST)
       parts = chainon (parts, init_noncopied_parts (lhs, TREE_VALUE (tail)));
-    else
+    else if (TREE_PURPOSE (tail))
       {
        tree part = TREE_VALUE (tail);
        tree part_type = TREE_TYPE (part);
@@ -5377,9 +5555,13 @@ void
 check_max_integer_computation_mode (exp)
     tree exp;
 {
-  enum tree_code code = TREE_CODE (exp);
+  enum tree_code code;
   enum machine_mode mode;
 
+  /* Strip any NOPs that don't change the mode.  */
+  STRIP_NOPS (exp);
+  code = TREE_CODE (exp);
+
   /* We must allow conversions of constants to MAX_INTEGER_COMPUTATION_MODE.  */
   if (code == NOP_EXPR
       && TREE_CODE (TREE_OPERAND (exp, 0)) == INTEGER_CST)
@@ -5423,6 +5605,26 @@ check_max_integer_computation_mode (exp)
 #endif
 
 \f
+/* Utility function used by expand_expr to see if TYPE, a RECORD_TYPE,
+   has any readonly fields.  If any of the fields have types that
+   contain readonly fields, return true as well.  */
+
+static int
+readonly_fields_p (type)
+     tree type;
+{
+  tree field;
+
+  for (field = TYPE_FIELDS (type); field != 0; field = TREE_CHAIN (field))
+    if (TREE_CODE (field) == FIELD_DECL 
+       && (TREE_READONLY (field)
+           || (TREE_CODE (TREE_TYPE (field)) == RECORD_TYPE
+               && readonly_fields_p (TREE_TYPE (field)))))
+      return 1;
+
+  return 0;
+}
+\f
 /* expand_expr: generate code for computing expression EXP.
    An rtx for the computed value is returned.  The value is never null.
    In the case of a void EXP, const0_rtx is returned.
@@ -5465,27 +5667,37 @@ expand_expr (exp, target, tmode, modifier)
      enum machine_mode tmode;
      enum expand_modifier modifier;
 {
-  /* Chain of pending expressions for PLACEHOLDER_EXPR to replace.
-     This is static so it will be accessible to our recursive callees.  */
-  static tree placeholder_list = 0;
   register rtx op0, op1, temp;
   tree type = TREE_TYPE (exp);
   int unsignedp = TREE_UNSIGNED (type);
-  register enum machine_mode mode = TYPE_MODE (type);
+  register enum machine_mode mode;
   register enum tree_code code = TREE_CODE (exp);
   optab this_optab;
-  /* Use subtarget as the target for operand 0 of a binary operation.  */
-  rtx subtarget = (target != 0 && GET_CODE (target) == REG ? target : 0);
-  rtx original_target = target;
-  int ignore = (target == const0_rtx
-               || ((code == NON_LVALUE_EXPR || code == NOP_EXPR
-                    || code == CONVERT_EXPR || code == REFERENCE_EXPR
-                    || code == COND_EXPR)
-                   && TREE_CODE (type) == VOID_TYPE));
+  rtx subtarget, original_target;
+  int ignore;
   tree context;
   /* Used by check-memory-usage to make modifier read only.  */
   enum expand_modifier ro_modifier;
 
+  /* Handle ERROR_MARK before anybody tries to access its type. */
+  if (TREE_CODE (exp) == ERROR_MARK)
+    {
+      op0 = CONST0_RTX (tmode);
+      if (op0 != 0)
+       return op0;
+      return const0_rtx;
+    }
+
+  mode = TYPE_MODE (type);
+  /* Use subtarget as the target for operand 0 of a binary operation.  */
+  subtarget = (target != 0 && GET_CODE (target) == REG ? target : 0);
+  original_target = target;
+  ignore = (target == const0_rtx
+           || ((code == NON_LVALUE_EXPR || code == NOP_EXPR
+                || code == CONVERT_EXPR || code == REFERENCE_EXPR
+                || code == COND_EXPR)
+               && TREE_CODE (type) == VOID_TYPE));
+
   /* Make a read-only version of the modifier.  */
   if (modifier == EXPAND_NORMAL || modifier == EXPAND_SUM
       || modifier == EXPAND_CONST_ADDRESS || modifier == EXPAND_INITIALIZER)
@@ -5513,10 +5725,12 @@ expand_expr (exp, target, tmode, modifier)
       if (! TREE_SIDE_EFFECTS (exp))
        return const0_rtx;
 
-      /* Ensure we reference a volatile object even if value is ignored.  */
+      /* Ensure we reference a volatile object even if value is ignored, but
+        don't do this if all we are doing is taking its address.  */
       if (TREE_THIS_VOLATILE (exp)
          && TREE_CODE (exp) != FUNCTION_DECL
-         && mode != VOIDmode && mode != BLKmode)
+         && mode != VOIDmode && mode != BLKmode
+         && modifier != EXPAND_CONST_ADDRESS)
        {
          temp = expand_expr (exp, NULL_RTX, VOIDmode, ro_modifier);
          if (GET_CODE (temp) == MEM)
@@ -5524,11 +5738,12 @@ expand_expr (exp, target, tmode, modifier)
          return const0_rtx;
        }
 
-      if (TREE_CODE_CLASS (code) == '1')
+      if (TREE_CODE_CLASS (code) == '1' || code == COMPONENT_REF
+         || code == INDIRECT_REF || code == BUFFER_REF)
        return expand_expr (TREE_OPERAND (exp, 0), const0_rtx,
                            VOIDmode, ro_modifier);
-      else if (TREE_CODE_CLASS (code) == '2'
-              || TREE_CODE_CLASS (code) == '<')
+      else if (TREE_CODE_CLASS (code) == '2' || TREE_CODE_CLASS (code) == '<'
+            || code == ARRAY_REF)
        {
          expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode, ro_modifier);
          expand_expr (TREE_OPERAND (exp, 1), const0_rtx, VOIDmode, ro_modifier);
@@ -5540,12 +5755,24 @@ expand_expr (exp, target, tmode, modifier)
           the first.  */
        return expand_expr (TREE_OPERAND (exp, 0), const0_rtx,
                            VOIDmode, ro_modifier);
-
+      else if (code == BIT_FIELD_REF)
+       {
+         expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode, ro_modifier);
+         expand_expr (TREE_OPERAND (exp, 1), const0_rtx, VOIDmode, ro_modifier);
+         expand_expr (TREE_OPERAND (exp, 2), const0_rtx, VOIDmode, ro_modifier);
+         return const0_rtx;
+       }
+;
       target = 0;
     }
 
 #ifdef MAX_INTEGER_COMPUTATION_MODE
+  /* Only check stuff here if the mode we want is different from the mode
+     of the expression; if it's the same, check_max_integer_computiation_mode
+     will handle it.  Do we really need to check this stuff at all?  */
+
   if (target
+      && GET_MODE (target) != mode
       && TREE_CODE (exp) != INTEGER_CST
       && TREE_CODE (exp) != PARM_DECL
       && TREE_CODE (exp) != ARRAY_REF
@@ -5553,7 +5780,8 @@ expand_expr (exp, target, tmode, modifier)
       && TREE_CODE (exp) != BIT_FIELD_REF
       && TREE_CODE (exp) != INDIRECT_REF
       && TREE_CODE (exp) != CALL_EXPR
-      && TREE_CODE (exp) != VAR_DECL)
+      && TREE_CODE (exp) != VAR_DECL
+      && TREE_CODE (exp) != RTL_EXPR)
     {
       enum machine_mode mode = GET_MODE (target);
 
@@ -5562,7 +5790,8 @@ expand_expr (exp, target, tmode, modifier)
        fatal ("unsupported wide integer operation");
     }
 
-  if (TREE_CODE (exp) != INTEGER_CST
+  if (tmode != mode
+      && TREE_CODE (exp) != INTEGER_CST
       && TREE_CODE (exp) != PARM_DECL
       && TREE_CODE (exp) != ARRAY_REF
       && TREE_CODE (exp) != COMPONENT_REF
@@ -5570,6 +5799,7 @@ expand_expr (exp, target, tmode, modifier)
       && TREE_CODE (exp) != INDIRECT_REF
       && TREE_CODE (exp) != VAR_DECL
       && TREE_CODE (exp) != CALL_EXPR
+      && TREE_CODE (exp) != RTL_EXPR
       && GET_MODE_CLASS (tmode) == MODE_INT
       && tmode > MAX_INTEGER_COMPUTATION_MODE)
     fatal ("unsupported wide integer operation");
@@ -5601,9 +5831,9 @@ expand_expr (exp, target, tmode, modifier)
            push_obstacks (p->function_obstack,
                           p->function_maybepermanent_obstack);
 
-           p->forced_labels = gen_rtx_EXPR_LIST (VOIDmode,
-                                                 label_rtx (exp),
-                                                 p->forced_labels);
+           p->expr->x_forced_labels
+             = gen_rtx_EXPR_LIST (VOIDmode, label_rtx (exp),
+                                  p->expr->x_forced_labels);
            pop_obstacks ();
          }
        else
@@ -5613,6 +5843,7 @@ expand_expr (exp, target, tmode, modifier)
                                                 label_rtx (exp),
                                                 forced_labels);
          }
+
        temp = gen_rtx_MEM (FUNCTION_MODE,
                            gen_rtx_LABEL_REF (Pmode, label_rtx (exp)));
        if (function != current_function_decl
@@ -5651,7 +5882,8 @@ expand_expr (exp, target, tmode, modifier)
         memory protection).
 
         Aggregates are not checked here; they're handled elsewhere.  */
-      if (current_function_check_memory_usage && code == VAR_DECL
+      if (cfun && current_function_check_memory_usage
+         && code == VAR_DECL
          && GET_CODE (DECL_RTL (exp)) == MEM
          && ! AGGREGATE_TYPE_P (TREE_TYPE (exp)))
        {
@@ -5660,7 +5892,7 @@ expand_expr (exp, target, tmode, modifier)
 
          if (memory_usage != MEMORY_USE_DONT)
            emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                              XEXP (DECL_RTL (exp), 0), ptr_mode,
+                              XEXP (DECL_RTL (exp), 0), Pmode,
                               GEN_INT (int_size_in_bytes (type)),
                               TYPE_MODE (sizetype),
                               GEN_INT (memory_usage),
@@ -6040,7 +6272,7 @@ expand_expr (exp, target, tmode, modifier)
 
        /* Need to open a binding contour here because
           if there are any cleanups they must be contained here.  */
-       expand_start_bindings (0);
+       expand_start_bindings (2);
 
        /* Mark the corresponding BLOCK for output in its proper place.  */
        if (TREE_OPERAND (exp, 2) != 0
@@ -6142,7 +6374,8 @@ expand_expr (exp, target, tmode, modifier)
              RTX_UNCHANGING_P (target) = 1;
            }
 
-         store_constructor (exp, target, 0);
+         store_constructor (exp, target, TYPE_ALIGN (TREE_TYPE (exp)), 0,
+                            int_size_in_bytes (TREE_TYPE (exp)));
          return target;
        }
 
@@ -6168,7 +6401,8 @@ expand_expr (exp, target, tmode, modifier)
        op0 = expand_expr (exp1, NULL_RTX, VOIDmode, EXPAND_SUM);
        op0 = memory_address (mode, op0);
 
-       if (current_function_check_memory_usage && !AGGREGATE_TYPE_P (TREE_TYPE (exp)))
+       if (cfun && current_function_check_memory_usage
+           && ! AGGREGATE_TYPE_P (TREE_TYPE (exp)))
          {
            enum memory_use_mode memory_usage;
            memory_usage = get_memory_usage_from_modifier (modifier);
@@ -6177,7 +6411,7 @@ expand_expr (exp, target, tmode, modifier)
              {
                in_check_memory_usage = 1;
                emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                                  op0, ptr_mode,
+                                  op0, Pmode,
                                   GEN_INT (int_size_in_bytes (type)),
                                   TYPE_MODE (sizetype),
                                   GEN_INT (memory_usage),
@@ -6207,6 +6441,14 @@ expand_expr (exp, target, tmode, modifier)
           never change.  Languages where it can never change should
           also set TREE_STATIC.  */
        RTX_UNCHANGING_P (temp) = TREE_READONLY (exp) & TREE_STATIC (exp);
+
+       /* If we are writing to this object and its type is a record with
+          readonly fields, we must mark it as readonly so it will
+          conflict with readonly references to those fields.  */
+       if (modifier == EXPAND_MEMORY_USE_WO
+           && TREE_CODE (type) == RECORD_TYPE && readonly_fields_p (type))
+         RTX_UNCHANGING_P (temp) = 1;
+
        return temp;
       }
 
@@ -6218,8 +6460,7 @@ expand_expr (exp, target, tmode, modifier)
        tree array = TREE_OPERAND (exp, 0);
        tree domain = TYPE_DOMAIN (TREE_TYPE (array));
        tree low_bound = domain ? TYPE_MIN_VALUE (domain) : integer_zero_node;
-       tree index = TREE_OPERAND (exp, 1);
-       tree index_type = TREE_TYPE (index);
+       tree index = convert (sizetype, TREE_OPERAND (exp, 1));
        HOST_WIDE_INT i;
 
        /* Optimize the special-case of a zero lower bound.
@@ -6228,14 +6469,10 @@ expand_expr (exp, target, tmode, modifier)
           with constant folding.  (E.g. suppose the lower bound is 1,
           and its mode is QI.  Without the conversion,  (ARRAY
           +(INDEX-(unsigned char)1)) becomes ((ARRAY+(-(unsigned char)1))
-          +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)
-
-          But sizetype isn't quite right either (especially if
-          the lowbound is negative).  FIXME */
+          +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)  */
 
        if (! integer_zerop (low_bound))
-         index = fold (build (MINUS_EXPR, index_type, index,
-                              convert (sizetype, low_bound)));
+         index = size_diffop (index, convert (sizetype, low_bound));
 
        /* Fold an expression like: "foo"[2].
           This is not done in fold so it won't happen inside &.
@@ -6336,7 +6573,8 @@ expand_expr (exp, target, tmode, modifier)
                op0 =  expand_expr (TREE_VALUE (elt), target, tmode, modifier);
                if (DECL_BIT_FIELD (TREE_PURPOSE (elt)))
                  {
-                   int bitsize = DECL_FIELD_SIZE (TREE_PURPOSE (elt));
+                   HOST_WIDE_INT bitsize
+                     = TREE_INT_CST_LOW (DECL_SIZE (TREE_PURPOSE (elt)));
 
                    if (TREE_UNSIGNED (TREE_TYPE (TREE_PURPOSE (elt))))
                      {
@@ -6368,7 +6606,7 @@ expand_expr (exp, target, tmode, modifier)
        int bitpos;
        tree offset;
        int volatilep = 0;
-       int alignment;
+       unsigned int alignment;
        tree tem = get_inner_reference (exp, &bitsize, &bitpos, &offset,
                                        &mode1, &unsignedp, &volatilep,
                                        &alignment);
@@ -6389,15 +6627,17 @@ expand_expr (exp, target, tmode, modifier)
                                != INTEGER_CST)
                            ? target : NULL_RTX),
                           VOIDmode,
-                          modifier == EXPAND_INITIALIZER
+                          (modifier == EXPAND_INITIALIZER
+                           || modifier == EXPAND_CONST_ADDRESS)
                           ? modifier : EXPAND_NORMAL);
 
        /* If this is a constant, put it into a register if it is a
-          legitimate constant and memory if it isn't.  */
+          legitimate constant and OFFSET is 0 and memory if it isn't.  */
        if (CONSTANT_P (op0))
          {
            enum machine_mode mode = TYPE_MODE (TREE_TYPE (tem));
-           if (mode != BLKmode && LEGITIMATE_CONSTANT_P (op0))
+           if (mode != BLKmode && LEGITIMATE_CONSTANT_P (op0)
+               && offset == 0)
              op0 = force_reg (mode, op0);
            else
              op0 = validize_mem (force_const_mem (mode, op0));
@@ -6407,6 +6647,20 @@ expand_expr (exp, target, tmode, modifier)
          {
            rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
 
+           /* If this object is in memory, put it into a register.
+              This case can't occur in C, but can in Ada if we have
+              unchecked conversion of an expression from a scalar type to
+              an array or record type.  */
+           if (GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
+               || GET_CODE (op0) == CONCAT || GET_CODE (op0) == ADDRESSOF)
+             {
+               rtx memloc = assign_temp (TREE_TYPE (tem), 1, 1, 1);
+
+               mark_temp_addr_taken (memloc);
+               emit_move_insn (memloc, op0);
+               op0 = memloc;
+             }
+
            if (GET_CODE (op0) != MEM)
              abort ();
 
@@ -6419,9 +6673,12 @@ expand_expr (exp, target, tmode, modifier)
 #endif
              }
 
+           /* A constant address in OP0 can have VOIDmode, we must not try
+              to call force_reg for that case.  Avoid that case.  */
            if (GET_CODE (op0) == MEM
                && GET_MODE (op0) == BLKmode
-               && bitsize
+               && GET_MODE (XEXP (op0, 0)) != VOIDmode
+               && bitsize != 0
                && (bitpos % bitsize) == 0 
                && (bitsize % GET_MODE_ALIGNMENT (mode1)) == 0
                && (alignment * BITS_PER_UNIT) == GET_MODE_ALIGNMENT (mode1))
@@ -6442,7 +6699,8 @@ expand_expr (exp, target, tmode, modifier)
 
            op0 = change_address (op0, VOIDmode,
                                  gen_rtx_PLUS (ptr_mode, XEXP (op0, 0),
-                                               force_reg (ptr_mode, offset_rtx)));
+                                               force_reg (ptr_mode,
+                                                          offset_rtx)));
          }
 
        /* Don't forget about volatility even if this is a bitfield.  */
@@ -6469,7 +6727,7 @@ expand_expr (exp, target, tmode, modifier)
                /* Check the access right of the pointer.  */
                if (size > BITS_PER_UNIT)
                  emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                                    to, ptr_mode,
+                                    to, Pmode,
                                     GEN_INT (size / BITS_PER_UNIT),
                                     TYPE_MODE (sizetype),
                                     GEN_INT (memory_usage), 
@@ -6494,13 +6752,34 @@ expand_expr (exp, target, tmode, modifier)
                     && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT)
                    /* If the field isn't aligned enough to fetch as a memref,
                       fetch it as a bit field.  */
-                   || (SLOW_UNALIGNED_ACCESS
-                       && ((TYPE_ALIGN (TREE_TYPE (tem)) < (unsigned int) GET_MODE_ALIGNMENT (mode))
-                           || (bitpos % GET_MODE_ALIGNMENT (mode) != 0))))))
+                   || (mode1 != BLKmode
+                       && SLOW_UNALIGNED_ACCESS (mode1, alignment)
+                       && ((TYPE_ALIGN (TREE_TYPE (tem))
+                            < (unsigned int) GET_MODE_ALIGNMENT (mode))
+                           || (bitpos % GET_MODE_ALIGNMENT (mode) != 0)))
+                   /* If the type and the field are a constant size and the
+                      size of the type isn't the same size as the bitfield,
+                      we must use bitfield operations.  */
+                   || ((bitsize >= 0
+                        && (TREE_CODE (TYPE_SIZE (TREE_TYPE (exp)))
+                            == INTEGER_CST)
+                        && ((TREE_INT_CST_HIGH (TYPE_SIZE (TREE_TYPE (exp)))
+                             != 0)
+                            || (TREE_INT_CST_LOW (TYPE_SIZE (TREE_TYPE (exp)))
+                                != bitsize))))))
+           || (modifier != EXPAND_CONST_ADDRESS
+               && modifier != EXPAND_INITIALIZER
+               && mode == BLKmode
+               && SLOW_UNALIGNED_ACCESS (mode, alignment)
+               && (TYPE_ALIGN (type) > alignment * BITS_PER_UNIT
+                   || bitpos % TYPE_ALIGN (type) != 0)))
          {
            enum machine_mode ext_mode = mode;
 
-           if (ext_mode == BLKmode)
+           if (ext_mode == BLKmode
+               && ! (target != 0 && GET_CODE (op0) == MEM
+                     && GET_CODE (target) == MEM
+                     && bitpos % BITS_PER_UNIT == 0))
              ext_mode = mode_for_size (bitsize, MODE_INT, 1);
 
            if (ext_mode == BLKmode)
@@ -6578,7 +6857,7 @@ expand_expr (exp, target, tmode, modifier)
 
        if (GET_CODE (op0) == MEM)
          MEM_ALIAS_SET (op0) = get_alias_set (exp);
-
        if (GET_CODE (XEXP (op0, 0)) == REG)
          mark_reg_pointer (XEXP (op0, 0), alignment);
 
@@ -6724,7 +7003,7 @@ expand_expr (exp, target, tmode, modifier)
       {
        /* Start a new binding layer that will keep track of all cleanup
           actions to be performed.  */
-       expand_start_bindings (0);
+       expand_start_bindings (2);
 
        target_temp_slot_level = temp_slot_level;
 
@@ -6759,6 +7038,16 @@ expand_expr (exp, target, tmode, modifier)
       if (TREE_CODE (type) == UNION_TYPE)
        {
          tree valtype = TREE_TYPE (TREE_OPERAND (exp, 0));
+
+         /* If both input and output are BLKmode, this conversion
+            isn't actually doing anything unless we need to make the
+            alignment stricter.  */
+         if (mode == BLKmode && TYPE_MODE (valtype) == BLKmode
+             && (TYPE_ALIGN (type) <= TYPE_ALIGN (valtype)
+                 || TYPE_ALIGN (type) >= BIGGEST_ALIGNMENT))
+           return expand_expr (TREE_OPERAND (exp, 0), target, tmode,
+                               modifier);
+
          if (target == 0)
            {
              if (mode != BLKmode)
@@ -6774,11 +7063,13 @@ expand_expr (exp, target, tmode, modifier)
 
          else if (GET_CODE (target) == REG)
            /* Store this field into a union of the proper type.  */
-           store_field (target, GET_MODE_BITSIZE (TYPE_MODE (valtype)), 0,
-                        TYPE_MODE (valtype), TREE_OPERAND (exp, 0),
-                        VOIDmode, 0, 1,
-                        int_size_in_bytes (TREE_TYPE (TREE_OPERAND (exp, 0))),
-                        0);
+           store_field (target,
+                        MIN ((int_size_in_bytes (TREE_TYPE
+                                                 (TREE_OPERAND (exp, 0)))
+                              * BITS_PER_UNIT),
+                             GET_MODE_BITSIZE (mode)),
+                        0, TYPE_MODE (valtype), TREE_OPERAND (exp, 0),
+                        VOIDmode, 0, 1, int_size_in_bytes (type), 0);
          else
            abort ();
 
@@ -6868,9 +7159,19 @@ expand_expr (exp, target, tmode, modifier)
              && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_WIDE_INT
              && TREE_CONSTANT (TREE_OPERAND (exp, 1)))
            {
+             rtx constant_part;
+
              op1 = expand_expr (TREE_OPERAND (exp, 1), subtarget, VOIDmode,
                                 EXPAND_SUM);
-             op1 = plus_constant (op1, TREE_INT_CST_LOW (TREE_OPERAND (exp, 0)));
+             /* Use immed_double_const to ensure that the constant is
+                truncated according to the mode of OP1, then sign extended
+                to a HOST_WIDE_INT.  Using the constant directly can result
+                in non-canonical RTL in a 64x32 cross compile.  */
+             constant_part
+               = immed_double_const (TREE_INT_CST_LOW (TREE_OPERAND (exp, 0)),
+                                     (HOST_WIDE_INT) 0,
+                                     TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 1))));
+             op1 = plus_constant (op1, INTVAL (constant_part));
              if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
                op1 = force_operand (op1, target);
              return op1;
@@ -6880,6 +7181,8 @@ expand_expr (exp, target, tmode, modifier)
                   && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_INT
                   && TREE_CONSTANT (TREE_OPERAND (exp, 0)))
            {
+             rtx constant_part;
+
              op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode,
                                 EXPAND_SUM);
              if (! CONSTANT_P (op0))
@@ -6892,7 +7195,15 @@ expand_expr (exp, target, tmode, modifier)
                    goto binop2;
                  goto both_summands;
                }
-             op0 = plus_constant (op0, TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)));
+             /* Use immed_double_const to ensure that the constant is
+                truncated according to the mode of OP1, then sign extended
+                to a HOST_WIDE_INT.  Using the constant directly can result
+                in non-canonical RTL in a 64x32 cross compile.  */
+             constant_part
+               = immed_double_const (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)),
+                                     (HOST_WIDE_INT) 0,
+                                     TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))));
+             op0 = plus_constant (op0, INTVAL (constant_part));
              if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
                op0 = force_operand (op0, target);
              return op0;
@@ -6989,21 +7300,11 @@ expand_expr (exp, target, tmode, modifier)
          tree negated = fold (build1 (NEGATE_EXPR, type,
                                       TREE_OPERAND (exp, 1)));
 
-         /* Deal with the case where we can't negate the constant
-            in TYPE.  */
          if (TREE_UNSIGNED (type) || TREE_OVERFLOW (negated))
-           {
-             tree newtype = signed_type (type);
-             tree newop0 = convert (newtype, TREE_OPERAND (exp, 0));
-             tree newop1 = convert (newtype, TREE_OPERAND (exp, 1));
-             tree newneg = fold (build1 (NEGATE_EXPR, newtype, newop1));
-
-             if (! TREE_OVERFLOW (newneg))
-               return expand_expr (convert (type, 
-                                            build (PLUS_EXPR, newtype,
-                                                   newop0, newneg)),
-                                   target, tmode, ro_modifier);
-           }
+           /* If we can't negate the constant in TYPE, leave it alone and
+              expand_binop will negate it for us.  We used to try to do it
+              here in the signed version of TYPE, but that doesn't work
+              on POINTER_TYPEs.  */;
          else
            {
              exp = build (PLUS_EXPR, type, TREE_OPERAND (exp, 0), negated);
@@ -7038,19 +7339,23 @@ expand_expr (exp, target, tmode, modifier)
          /* Apply distributive law if OP0 is x+c.  */
          if (GET_CODE (op0) == PLUS
              && GET_CODE (XEXP (op0, 1)) == CONST_INT)
-           return gen_rtx_PLUS (mode,
-                                gen_rtx_MULT (mode, XEXP (op0, 0),
-                                              GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)))),
-                           GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))
-                                    * INTVAL (XEXP (op0, 1))));
+           return
+             gen_rtx_PLUS
+               (mode,
+                gen_rtx_MULT
+                (mode, XEXP (op0, 0),
+                 GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)))),
+                GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))
+                         * INTVAL (XEXP (op0, 1))));
 
          if (GET_CODE (op0) != REG)
            op0 = force_operand (op0, NULL_RTX);
          if (GET_CODE (op0) != REG)
            op0 = copy_to_mode_reg (mode, op0);
 
-         return gen_rtx_MULT (mode, op0,
-                              GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))));
+         return
+           gen_rtx_MULT (mode, op0,
+                         GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))));
        }
 
       if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
@@ -7205,7 +7510,7 @@ expand_expr (exp, target, tmode, modifier)
       if (TREE_UNSIGNED (type))
        return op0;
 
-      return expand_abs (mode, op0, target, unsignedp,
+      return expand_abs (mode, op0, target,
                         safe_from_p (target, TREE_OPERAND (exp, 0), 1));
 
     case MAX_EXPR:
@@ -7245,7 +7550,8 @@ expand_expr (exp, target, tmode, modifier)
 
       /* If this mode is an integer too wide to compare properly,
         compare word by word.  Rely on cse to optimize constant cases.  */
-      if (GET_MODE_CLASS (mode) == MODE_INT && !can_compare_p (mode))
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (GE, mode, ccp_jump))
        {
          if (code == MAX_EXPR)
            do_jump_by_parts_greater_rtx (mode, TREE_UNSIGNED (type),
@@ -7253,29 +7559,15 @@ expand_expr (exp, target, tmode, modifier)
          else
            do_jump_by_parts_greater_rtx (mode, TREE_UNSIGNED (type),
                                          op1, target, NULL_RTX, op0);
-         emit_move_insn (target, op1);
        }
       else
        {
-         if (code == MAX_EXPR)
-           temp = (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 1)))
-                   ? compare_from_rtx (target, op1, GEU, 1, mode, NULL_RTX, 0)
-                   : compare_from_rtx (target, op1, GE, 0, mode, NULL_RTX, 0));
-         else
-           temp = (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 1)))
-                   ? compare_from_rtx (target, op1, LEU, 1, mode, NULL_RTX, 0)
-                   : compare_from_rtx (target, op1, LE, 0, mode, NULL_RTX, 0));
-         if (temp == const0_rtx)
-           emit_move_insn (target, op1);
-         else if (temp != const_true_rtx)
-           {
-             if (bcc_gen_fctn[(int) GET_CODE (temp)] != 0)
-               emit_jump_insn ((*bcc_gen_fctn[(int) GET_CODE (temp)]) (op0));
-             else
-               abort ();
-             emit_move_insn (target, op1);
-           }
+         int unsignedp = TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 1)));
+         do_compare_rtx_and_jump (target, op1, code == MAX_EXPR ? GE : LE,
+                                  unsignedp, mode, NULL_RTX, 0, NULL_RTX,
+                                  op0);
        }
+      emit_move_insn (target, op1);
       emit_label (op0);
       return target;
 
@@ -7340,6 +7632,13 @@ expand_expr (exp, target, tmode, modifier)
     case GE_EXPR:
     case EQ_EXPR:
     case NE_EXPR:
+    case UNORDERED_EXPR:
+    case ORDERED_EXPR:
+    case UNLT_EXPR:
+    case UNLE_EXPR:
+    case UNGT_EXPR:
+    case UNGE_EXPR:
+    case UNEQ_EXPR:
       preexpand_calls (exp);
       temp = do_store_flag (exp, target, tmode != VOIDmode ? tmode : mode, 0);
       if (temp != 0)
@@ -7663,7 +7962,11 @@ expand_expr (exp, target, tmode, modifier)
            jumpifnot (TREE_OPERAND (exp, 0), op0);
 
            start_cleanup_deferral ();
-           if (temp != 0)
+           
+           /* One branch of the cond can be void, if it never returns. For
+               example A ? throw : E  */
+           if (temp != 0
+               && TREE_TYPE (TREE_OPERAND (exp, 1)) != void_type_node)
              store_expr (TREE_OPERAND (exp, 1), temp, 0);
            else
              expand_expr (TREE_OPERAND (exp, 1),
@@ -7674,7 +7977,8 @@ expand_expr (exp, target, tmode, modifier)
            emit_barrier ();
            emit_label (op0);
            start_cleanup_deferral ();
-           if (temp != 0)
+           if (temp != 0
+               && TREE_TYPE (TREE_OPERAND (exp, 2)) != void_type_node)
              store_expr (TREE_OPERAND (exp, 2), temp, 0);
            else
              expand_expr (TREE_OPERAND (exp, 2),
@@ -7711,6 +8015,11 @@ expand_expr (exp, target, tmode, modifier)
        if (! ignore)
          target = original_target;
 
+       /* Set this here so that if we get a target that refers to a
+          register variable that's already been used, put_reg_into_stack
+          knows that it should fix up those uses.  */     
+       TREE_USED (slot) = 1;
+
        if (target == 0)
          {
            if (DECL_RTL (slot) != 0)
@@ -7780,7 +8089,6 @@ expand_expr (exp, target, tmode, modifier)
        /* Mark it as expanded.  */
        TREE_OPERAND (exp, 1) = NULL_TREE;
 
-       TREE_USED (slot) = 1;
        store_expr (exp1, target, 0);
 
        expand_decl_cleanup (NULL_TREE, cleanups);
@@ -7929,10 +8237,9 @@ expand_expr (exp, target, tmode, modifier)
 
          op0 = protect_from_queue (op0, 0);
 
-         /* We would like the object in memory.  If it is a constant,
-            we can have it be statically allocated into memory.  For
-            a non-constant (REG, SUBREG or CONCAT), we need to allocate some
-            memory and store the value into it.  */
+         /* We would like the object in memory.  If it is a constant, we can
+            have it be statically allocated into memory.  For a non-constant,
+            we need to allocate some memory and store the value into it.  */
 
          if (CONSTANT_P (op0))
            op0 = force_const_mem (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))),
@@ -8102,7 +8409,7 @@ expand_expr (exp, target, tmode, modifier)
 
        /* Start a new binding layer that will keep track of all cleanup
           actions to be performed.  */
-       expand_start_bindings (0);
+       expand_start_bindings (2);
 
        target_temp_slot_level = temp_slot_level;
 
@@ -8144,11 +8451,8 @@ expand_expr (exp, target, tmode, modifier)
        return const0_rtx;
       }
 
-    case ERROR_MARK:
-      op0 = CONST0_RTX (tmode);
-      if (op0 != 0)
-       return op0;
-      return const0_rtx;
+    case VA_ARG_EXPR:
+      return expand_builtin_va_arg (TREE_OPERAND (exp, 0), type);
 
     default:
       return (*lang_expand_expr) (exp, original_target, tmode, modifier);
@@ -8169,82 +8473,321 @@ expand_expr (exp, target, tmode, modifier)
     abort ();
   return temp;
 }
-
-
 \f
-/* Return the alignment in bits of EXP, a pointer valued expression.
-   But don't return more than MAX_ALIGN no matter what.
-   The alignment returned is, by default, the alignment of the thing that
-   EXP points to (if it is not a POINTER_TYPE, 0 is returned).
+/* Similar to expand_expr, except that we don't specify a target, target
+   mode, or modifier and we return the alignment of the inner type.  This is
+   used in cases where it is not necessary to align the result to the
+   alignment of its type as long as we know the alignment of the result, for
+   example for comparisons of BLKmode values.  */
 
-   Otherwise, look at the expression to see if we can do better, i.e., if the
-   expression is actually pointing at an object whose alignment is tighter.  */
-
-static int
-get_pointer_alignment (exp, max_align)
-     tree exp;
-     unsigned max_align;
+static rtx
+expand_expr_unaligned (exp, palign)
+     register tree exp;
+     unsigned int *palign;
 {
-  unsigned align, inner;
+  register rtx op0;
+  tree type = TREE_TYPE (exp);
+  register enum machine_mode mode = TYPE_MODE (type);
 
-  if (TREE_CODE (TREE_TYPE (exp)) != POINTER_TYPE)
-    return 0;
+  /* Default the alignment we return to that of the type.  */
+  *palign = TYPE_ALIGN (type);
 
-  align = TYPE_ALIGN (TREE_TYPE (TREE_TYPE (exp)));
-  align = MIN (align, max_align);
+  /* The only cases in which we do anything special is if the resulting mode
+     is BLKmode.  */
+  if (mode != BLKmode)
+    return expand_expr (exp, NULL_RTX, VOIDmode, EXPAND_NORMAL);
 
-  while (1)
+  switch (TREE_CODE (exp))
     {
-      switch (TREE_CODE (exp))
+    case CONVERT_EXPR:
+    case NOP_EXPR:
+    case NON_LVALUE_EXPR:
+      /* Conversions between BLKmode values don't change the underlying
+         alignment or value.  */
+      if (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == BLKmode)
+       return expand_expr_unaligned (TREE_OPERAND (exp, 0), palign);
+      break;
+
+    case ARRAY_REF:
+      /* Much of the code for this case is copied directly from expand_expr.
+        We need to duplicate it here because we will do something different
+        in the fall-through case, so we need to handle the same exceptions
+        it does.  */
+      {
+       tree array = TREE_OPERAND (exp, 0);
+       tree domain = TYPE_DOMAIN (TREE_TYPE (array));
+       tree low_bound = domain ? TYPE_MIN_VALUE (domain) : integer_zero_node;
+       tree index = convert (sizetype, TREE_OPERAND (exp, 1));
+       HOST_WIDE_INT i;
+
+       if (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) != ARRAY_TYPE)
+         abort ();
+
+       /* Optimize the special-case of a zero lower bound.
+
+          We convert the low_bound to sizetype to avoid some problems
+          with constant folding.  (E.g. suppose the lower bound is 1,
+          and its mode is QI.  Without the conversion,  (ARRAY
+          +(INDEX-(unsigned char)1)) becomes ((ARRAY+(-(unsigned char)1))
+          +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)  */
+
+       if (! integer_zerop (low_bound))
+         index = size_diffop (index, convert (sizetype, low_bound));
+
+       /* If this is a constant index into a constant array,
+          just get the value from the array.  Handle both the cases when
+          we have an explicit constructor and when our operand is a variable
+          that was declared const.  */
+
+       if (TREE_CODE (array) == CONSTRUCTOR && ! TREE_SIDE_EFFECTS (array))
+         {
+           if (TREE_CODE (index) == INTEGER_CST
+               && TREE_INT_CST_HIGH (index) == 0)
+             {
+               tree elem = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0));
+
+               i = TREE_INT_CST_LOW (index);
+               while (elem && i--)
+                 elem = TREE_CHAIN (elem);
+               if (elem)
+                 return expand_expr_unaligned (fold (TREE_VALUE (elem)),
+                                               palign);
+             }
+         }
+         
+       else if (optimize >= 1
+                && TREE_READONLY (array) && ! TREE_SIDE_EFFECTS (array)
+                && TREE_CODE (array) == VAR_DECL && DECL_INITIAL (array)
+                && TREE_CODE (DECL_INITIAL (array)) != ERROR_MARK)
+         {
+           if (TREE_CODE (index) == INTEGER_CST)
+             {
+               tree init = DECL_INITIAL (array);
+
+               i = TREE_INT_CST_LOW (index);
+               if (TREE_CODE (init) == CONSTRUCTOR)
+                 {
+                   tree elem = CONSTRUCTOR_ELTS (init);
+
+                   while (elem
+                          && !tree_int_cst_equal (TREE_PURPOSE (elem), index))
+                     elem = TREE_CHAIN (elem);
+                   if (elem)
+                     return expand_expr_unaligned (fold (TREE_VALUE (elem)),
+                                                   palign);
+                 }
+             }
+         }
+      }
+
+      /* ... fall through ... */
+
+    case COMPONENT_REF:
+    case BIT_FIELD_REF:
+      /* If the operand is a CONSTRUCTOR, we can just extract the
+        appropriate field if it is present.  Don't do this if we have
+        already written the data since we want to refer to that copy
+        and varasm.c assumes that's what we'll do.  */
+      if (TREE_CODE (exp) != ARRAY_REF
+         && TREE_CODE (TREE_OPERAND (exp, 0)) == CONSTRUCTOR
+         && TREE_CST_RTL (TREE_OPERAND (exp, 0)) == 0)
        {
-       case NOP_EXPR:
-       case CONVERT_EXPR:
-       case NON_LVALUE_EXPR:
-         exp = TREE_OPERAND (exp, 0);
-         if (TREE_CODE (TREE_TYPE (exp)) != POINTER_TYPE)
-           return align;
-         inner = TYPE_ALIGN (TREE_TYPE (TREE_TYPE (exp)));
-         align = MIN (inner, max_align);
-         break;
+         tree elt;
+
+         for (elt = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)); elt;
+              elt = TREE_CHAIN (elt))
+           if (TREE_PURPOSE (elt) == TREE_OPERAND (exp, 1))
+             /* Note that unlike the case in expand_expr, we know this is
+                BLKmode and hence not an integer.  */
+             return expand_expr_unaligned (TREE_VALUE (elt), palign);
+       }
+
+      {
+       enum machine_mode mode1;
+       int bitsize;
+       int bitpos;
+       tree offset;
+       int volatilep = 0;
+       unsigned int alignment;
+       int unsignedp;
+       tree tem = get_inner_reference (exp, &bitsize, &bitpos, &offset,
+                                       &mode1, &unsignedp, &volatilep,
+                                       &alignment);
 
-       case PLUS_EXPR:
-         /* If sum of pointer + int, restrict our maximum alignment to that
-            imposed by the integer.  If not, we can't do any better than
-            ALIGN.  */
-         if (TREE_CODE (TREE_OPERAND (exp, 1)) != INTEGER_CST)
-           return align;
+       /* If we got back the original object, something is wrong.  Perhaps
+          we are evaluating an expression too early.  In any event, don't
+          infinitely recurse.  */
+       if (tem == exp)
+         abort ();
 
-         while (((TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)) * BITS_PER_UNIT)
-                 & (max_align - 1))
-                != 0)
-           max_align >>= 1;
+       op0 = expand_expr (tem, NULL_RTX, VOIDmode, EXPAND_NORMAL);
 
-         exp = TREE_OPERAND (exp, 0);
-         break;
+       /* If this is a constant, put it into a register if it is a
+          legitimate constant and OFFSET is 0 and memory if it isn't.  */
+       if (CONSTANT_P (op0))
+         {
+           enum machine_mode inner_mode = TYPE_MODE (TREE_TYPE (tem));
 
-       case ADDR_EXPR:
-         /* See what we are pointing at and look at its alignment.  */
-         exp = TREE_OPERAND (exp, 0);
-         if (TREE_CODE (exp) == FUNCTION_DECL)
-           align = FUNCTION_BOUNDARY;
-         else if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'd')
-           align = DECL_ALIGN (exp);
-#ifdef CONSTANT_ALIGNMENT
-         else if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'c')
-           align = CONSTANT_ALIGNMENT (exp, align);
+           if (inner_mode != BLKmode && LEGITIMATE_CONSTANT_P (op0)
+               && offset == 0)
+             op0 = force_reg (inner_mode, op0);
+           else
+             op0 = validize_mem (force_const_mem (inner_mode, op0));
+         }
+
+       if (offset != 0)
+         {
+           rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
+
+           /* If this object is in a register, put it into memory.
+              This case can't occur in C, but can in Ada if we have
+              unchecked conversion of an expression from a scalar type to
+              an array or record type.  */
+           if (GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
+               || GET_CODE (op0) == CONCAT || GET_CODE (op0) == ADDRESSOF)
+             {
+               rtx memloc = assign_temp (TREE_TYPE (tem), 1, 1, 1);
+
+               mark_temp_addr_taken (memloc);
+               emit_move_insn (memloc, op0);
+               op0 = memloc;
+             }
+
+           if (GET_CODE (op0) != MEM)
+             abort ();
+
+           if (GET_MODE (offset_rtx) != ptr_mode)
+             {
+#ifdef POINTERS_EXTEND_UNSIGNED
+               offset_rtx = convert_memory_address (ptr_mode, offset_rtx);
+#else
+               offset_rtx = convert_to_mode (ptr_mode, offset_rtx, 0);
 #endif
-         return MIN (align, max_align);
+             }
+
+           op0 = change_address (op0, VOIDmode,
+                                 gen_rtx_PLUS (ptr_mode, XEXP (op0, 0),
+                                               force_reg (ptr_mode,
+                                                          offset_rtx)));
+         }
+
+       /* Don't forget about volatility even if this is a bitfield.  */
+       if (GET_CODE (op0) == MEM && volatilep && ! MEM_VOLATILE_P (op0))
+         {
+           op0 = copy_rtx (op0);
+           MEM_VOLATILE_P (op0) = 1;
+         }
+
+       /* Check the access.  */
+       if (current_function_check_memory_usage && GET_CODE (op0) == MEM)
+          {
+           rtx to;
+           int size;
+
+           to = plus_constant (XEXP (op0, 0), (bitpos / BITS_PER_UNIT));
+           size = (bitpos % BITS_PER_UNIT) + bitsize + BITS_PER_UNIT - 1;
+
+           /* Check the access right of the pointer.  */
+           if (size > BITS_PER_UNIT)
+             emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
+                                to, ptr_mode, GEN_INT (size / BITS_PER_UNIT),
+                                TYPE_MODE (sizetype),
+                                GEN_INT (MEMORY_USE_RO), 
+                                TYPE_MODE (integer_type_node));
+         }
+
+       /* In cases where an aligned union has an unaligned object
+          as a field, we might be extracting a BLKmode value from
+          an integer-mode (e.g., SImode) object.  Handle this case
+          by doing the extract into an object as wide as the field
+          (which we know to be the width of a basic mode), then
+          storing into memory, and changing the mode to BLKmode.
+          If we ultimately want the address (EXPAND_CONST_ADDRESS or
+          EXPAND_INITIALIZER), then we must not copy to a temporary.  */
+       if (mode1 == VOIDmode
+           || GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
+           || (SLOW_UNALIGNED_ACCESS (mode1, alignment)
+               && (TYPE_ALIGN (type) > alignment * BITS_PER_UNIT
+                   || bitpos % TYPE_ALIGN (type) != 0)))
+         {
+           enum machine_mode ext_mode = mode_for_size (bitsize, MODE_INT, 1);
+
+           if (ext_mode == BLKmode)
+             {
+               /* In this case, BITPOS must start at a byte boundary.  */
+               if (GET_CODE (op0) != MEM
+                   || bitpos % BITS_PER_UNIT != 0)
+                 abort ();
+
+               op0 = change_address (op0, VOIDmode,
+                                     plus_constant (XEXP (op0, 0),
+                                                    bitpos / BITS_PER_UNIT));
+             }
+           else
+             {
+               rtx new = assign_stack_temp (ext_mode,
+                                            bitsize / BITS_PER_UNIT, 0);
+
+               op0 = extract_bit_field (validize_mem (op0), bitsize, bitpos,
+                                        unsignedp, NULL_RTX, ext_mode,
+                                        ext_mode, alignment,
+                                        int_size_in_bytes (TREE_TYPE (tem)));
+
+               /* If the result is a record type and BITSIZE is narrower than
+                  the mode of OP0, an integral mode, and this is a big endian
+                  machine, we must put the field into the high-order bits.  */
+               if (TREE_CODE (type) == RECORD_TYPE && BYTES_BIG_ENDIAN
+                   && GET_MODE_CLASS (GET_MODE (op0)) == MODE_INT
+                   && bitsize < GET_MODE_BITSIZE (GET_MODE (op0)))
+                 op0 = expand_shift (LSHIFT_EXPR, GET_MODE (op0), op0,
+                                     size_int (GET_MODE_BITSIZE
+                                               (GET_MODE (op0))
+                                               - bitsize),
+                                     op0, 1);
+
+
+               emit_move_insn (new, op0);
+               op0 = copy_rtx (new);
+               PUT_MODE (op0, BLKmode);
+             }
+         }
+       else
+         /* Get a reference to just this component.  */
+         op0 = change_address (op0, mode1,
+                                 plus_constant (XEXP (op0, 0),
+                                                (bitpos / BITS_PER_UNIT)));
+
+       MEM_ALIAS_SET (op0) = get_alias_set (exp);
+
+       /* Adjust the alignment in case the bit position is not
+          a multiple of the alignment of the inner object.  */
+       while (bitpos % alignment != 0)
+         alignment >>= 1;
+
+       if (GET_CODE (XEXP (op0, 0)) == REG)
+         mark_reg_pointer (XEXP (op0, 0), alignment);
+
+       MEM_IN_STRUCT_P (op0) = 1;
+       MEM_VOLATILE_P (op0) |= volatilep;
+
+       *palign = alignment;
+       return op0;
+      }
+
+    default:
+      break;
 
-       default:
-         return align;
-       }
     }
+
+  return expand_expr (exp, NULL_RTX, VOIDmode, EXPAND_NORMAL);
 }
 \f
-/* Return the tree node and offset if a given argument corresponds to
-   a string constant.  */
+/* Return the tree node if a ARG corresponds to a string constant or zero
+   if it doesn't.  If we return non-zero, set *PTR_OFFSET to the offset
+   in bytes within the string that ARG is accessing.  The type of the
+   offset will be `sizetype'.  */
 
-static tree
+tree
 string_constant (arg, ptr_offset)
      tree arg;
      tree *ptr_offset;
@@ -8254,7 +8797,7 @@ string_constant (arg, ptr_offset)
   if (TREE_CODE (arg) == ADDR_EXPR
       && TREE_CODE (TREE_OPERAND (arg, 0)) == STRING_CST)
     {
-      *ptr_offset = integer_zero_node;
+      *ptr_offset = size_zero_node;
       return TREE_OPERAND (arg, 0);
     }
   else if (TREE_CODE (arg) == PLUS_EXPR)
@@ -8268,1883 +8811,41 @@ string_constant (arg, ptr_offset)
       if (TREE_CODE (arg0) == ADDR_EXPR
          && TREE_CODE (TREE_OPERAND (arg0, 0)) == STRING_CST)
        {
-         *ptr_offset = arg1;
+         *ptr_offset = convert (sizetype, arg1);
          return TREE_OPERAND (arg0, 0);
        }
       else if (TREE_CODE (arg1) == ADDR_EXPR
               && TREE_CODE (TREE_OPERAND (arg1, 0)) == STRING_CST)
        {
-         *ptr_offset = arg0;
+         *ptr_offset = convert (sizetype, arg0);
          return TREE_OPERAND (arg1, 0);
        }
     }
 
   return 0;
 }
+\f
+/* Expand code for a post- or pre- increment or decrement
+   and return the RTX for the result.
+   POST is 1 for postinc/decrements and 0 for preinc/decrements.  */
 
-/* Compute the length of a C string.  TREE_STRING_LENGTH is not the right
-   way, because it could contain a zero byte in the middle.
-   TREE_STRING_LENGTH is the size of the character array, not the string.
-
-   Unfortunately, string_constant can't access the values of const char
-   arrays with initializers, so neither can we do so here.  */
-
-static tree
-c_strlen (src)
-     tree src;
+static rtx
+expand_increment (exp, post, ignore)
+     register tree exp;
+     int post, ignore;
 {
-  tree offset_node;
-  int offset, max;
-  char *ptr;
-
-  src = string_constant (src, &offset_node);
-  if (src == 0)
-    return 0;
-  max = TREE_STRING_LENGTH (src);
-  ptr = TREE_STRING_POINTER (src);
-  if (offset_node && TREE_CODE (offset_node) != INTEGER_CST)
-    {
-      /* If the string has an internal zero byte (e.g., "foo\0bar"), we can't
-        compute the offset to the following null if we don't know where to
-        start searching for it.  */
-      int i;
-      for (i = 0; i < max; i++)
-       if (ptr[i] == 0)
-         return 0;
-      /* We don't know the starting offset, but we do know that the string
-        has no internal zero bytes.  We can assume that the offset falls
-        within the bounds of the string; otherwise, the programmer deserves
-        what he gets.  Subtract the offset from the length of the string,
-        and return that.  */
-      /* This would perhaps not be valid if we were dealing with named
-         arrays in addition to literal string constants.  */
-      return size_binop (MINUS_EXPR, size_int (max), offset_node);
-    }
-
-  /* We have a known offset into the string.  Start searching there for
-     a null character.  */
-  if (offset_node == 0)
-    offset = 0;
-  else
-    {
-      /* Did we get a long long offset?  If so, punt.  */
-      if (TREE_INT_CST_HIGH (offset_node) != 0)
-       return 0;
-      offset = TREE_INT_CST_LOW (offset_node);
-    }
-  /* If the offset is known to be out of bounds, warn, and call strlen at
-     runtime.  */
-  if (offset < 0 || offset > max)
-    {
-      warning ("offset outside bounds of constant string");
-      return 0;
-    }
-  /* Use strlen to search for the first zero byte.  Since any strings
-     constructed with build_string will have nulls appended, we win even
-     if we get handed something like (char[4])"abcd".
-
-     Since OFFSET is our starting index into the string, no further
-     calculation is needed.  */
-  return size_int (strlen (ptr + offset));
-}
-
-rtx
-expand_builtin_return_addr (fndecl_code, count, tem)
-     enum built_in_function fndecl_code;
-     int count;
-     rtx tem;
-{
-  int i;
-
-  /* Some machines need special handling before we can access
-     arbitrary frames.  For example, on the sparc, we must first flush
-     all register windows to the stack.  */
-#ifdef SETUP_FRAME_ADDRESSES
-  if (count > 0)
-    SETUP_FRAME_ADDRESSES ();
-#endif
-
-  /* On the sparc, the return address is not in the frame, it is in a
-     register.  There is no way to access it off of the current frame
-     pointer, but it can be accessed off the previous frame pointer by
-     reading the value from the register window save area.  */
-#ifdef RETURN_ADDR_IN_PREVIOUS_FRAME
-  if (fndecl_code == BUILT_IN_RETURN_ADDRESS)
-    count--;
-#endif
-
-  /* Scan back COUNT frames to the specified frame.  */
-  for (i = 0; i < count; i++)
-    {
-      /* Assume the dynamic chain pointer is in the word that the
-        frame address points to, unless otherwise specified.  */
-#ifdef DYNAMIC_CHAIN_ADDRESS
-      tem = DYNAMIC_CHAIN_ADDRESS (tem);
-#endif
-      tem = memory_address (Pmode, tem);
-      tem = copy_to_reg (gen_rtx_MEM (Pmode, tem));
-    }
-
-  /* For __builtin_frame_address, return what we've got.  */
-  if (fndecl_code == BUILT_IN_FRAME_ADDRESS)
-    return tem;
-
-  /* For __builtin_return_address, Get the return address from that
-     frame.  */
-#ifdef RETURN_ADDR_RTX
-  tem = RETURN_ADDR_RTX (count, tem);
-#else
-  tem = memory_address (Pmode,
-                       plus_constant (tem, GET_MODE_SIZE (Pmode)));
-  tem = gen_rtx_MEM (Pmode, tem);
-#endif
-  return tem;
-}
-
-/* __builtin_setjmp is passed a pointer to an array of five words (not
-   all will be used on all machines).  It operates similarly to the C
-   library function of the same name, but is more efficient.  Much of
-   the code below (and for longjmp) is copied from the handling of
-   non-local gotos.
-
-   NOTE: This is intended for use by GNAT and the exception handling
-   scheme in the compiler and will only work in the method used by
-   them.  */
-
-rtx
-expand_builtin_setjmp (buf_addr, target, first_label, next_label)
-     rtx buf_addr;
-     rtx target;
-     rtx first_label, next_label;
-{
-  rtx lab1 = gen_label_rtx ();
-  enum machine_mode sa_mode = STACK_SAVEAREA_MODE (SAVE_NONLOCAL);
-  enum machine_mode value_mode;
-  rtx stack_save;
-
-  value_mode = TYPE_MODE (integer_type_node);
-
-#ifdef POINTERS_EXTEND_UNSIGNED
-  buf_addr = convert_memory_address (Pmode, buf_addr);
-#endif
-
-  buf_addr = force_reg (Pmode, buf_addr);
-
-  if (target == 0 || GET_CODE (target) != REG
-      || REGNO (target) < FIRST_PSEUDO_REGISTER)
-    target = gen_reg_rtx (value_mode);
-
-  emit_queue ();
-
-  /* We store the frame pointer and the address of lab1 in the buffer
-     and use the rest of it for the stack save area, which is
-     machine-dependent.  */
-
-#ifndef BUILTIN_SETJMP_FRAME_VALUE
-#define BUILTIN_SETJMP_FRAME_VALUE virtual_stack_vars_rtx
-#endif
-
-  emit_move_insn (gen_rtx_MEM (Pmode, buf_addr),
-                 BUILTIN_SETJMP_FRAME_VALUE);
-  emit_move_insn (validize_mem
-                 (gen_rtx_MEM (Pmode,
-                               plus_constant (buf_addr,
-                                              GET_MODE_SIZE (Pmode)))),
-                 gen_rtx_LABEL_REF (Pmode, lab1));
-
-  stack_save = gen_rtx_MEM (sa_mode,
-                           plus_constant (buf_addr,
-                                          2 * GET_MODE_SIZE (Pmode)));
-  emit_stack_save (SAVE_NONLOCAL, &stack_save, NULL_RTX);
-
-  /* If there is further processing to do, do it.  */
-#ifdef HAVE_builtin_setjmp_setup
-  if (HAVE_builtin_setjmp_setup)
-    emit_insn (gen_builtin_setjmp_setup (buf_addr));
-#endif
-
-  /* Set TARGET to zero and branch to the first-time-through label.  */
-  emit_move_insn (target, const0_rtx);
-  emit_jump_insn (gen_jump (first_label));
-  emit_barrier ();
-  emit_label (lab1);
-
-  /* Tell flow about the strange goings on.  */
-  current_function_has_nonlocal_label = 1;
-
-  /* Clobber the FP when we get here, so we have to make sure it's
-     marked as used by this function.  */
-  emit_insn (gen_rtx_USE (VOIDmode, hard_frame_pointer_rtx));
-
-  /* Mark the static chain as clobbered here so life information
-     doesn't get messed up for it.  */
-  emit_insn (gen_rtx_CLOBBER (VOIDmode, static_chain_rtx));
-
-  /* Now put in the code to restore the frame pointer, and argument
-     pointer, if needed.  The code below is from expand_end_bindings
-     in stmt.c; see detailed documentation there.  */
-#ifdef HAVE_nonlocal_goto
-  if (! HAVE_nonlocal_goto)
-#endif
-    emit_move_insn (virtual_stack_vars_rtx, hard_frame_pointer_rtx);
-
-#if ARG_POINTER_REGNUM != HARD_FRAME_POINTER_REGNUM
-  if (fixed_regs[ARG_POINTER_REGNUM])
-    {
-#ifdef ELIMINABLE_REGS
-      size_t i;
-      static struct elims {int from, to;} elim_regs[] = ELIMINABLE_REGS;
-
-      for (i = 0; i < sizeof elim_regs / sizeof elim_regs[0]; i++)
-       if (elim_regs[i].from == ARG_POINTER_REGNUM
-           && elim_regs[i].to == HARD_FRAME_POINTER_REGNUM)
-         break;
-
-      if (i == sizeof elim_regs / sizeof elim_regs [0])
-#endif
-       {
-         /* Now restore our arg pointer from the address at which it
-            was saved in our stack frame.
-            If there hasn't be space allocated for it yet, make
-            some now.  */
-         if (arg_pointer_save_area == 0)
-           arg_pointer_save_area
-             = assign_stack_local (Pmode, GET_MODE_SIZE (Pmode), 0);
-         emit_move_insn (virtual_incoming_args_rtx,
-                         copy_to_reg (arg_pointer_save_area));
-       }
-    }
-#endif
-
-#ifdef HAVE_builtin_setjmp_receiver
-  if (HAVE_builtin_setjmp_receiver)
-    emit_insn (gen_builtin_setjmp_receiver (lab1));
-  else
-#endif
-#ifdef HAVE_nonlocal_goto_receiver
-    if (HAVE_nonlocal_goto_receiver)
-      emit_insn (gen_nonlocal_goto_receiver ());
-    else
-#endif
-      {
-       ; /* Nothing */
-      }
-
-  /* Set TARGET, and branch to the next-time-through label.  */
-  emit_move_insn (target, const1_rtx);
-  emit_jump_insn (gen_jump (next_label));
-  emit_barrier ();
-
-  return target;
-}
-
-void
-expand_builtin_longjmp (buf_addr, value)
-     rtx buf_addr, value;
-{
-  rtx fp, lab, stack;
-  enum machine_mode sa_mode = STACK_SAVEAREA_MODE (SAVE_NONLOCAL);
-
-#ifdef POINTERS_EXTEND_UNSIGNED
-  buf_addr = convert_memory_address (Pmode, buf_addr);
-#endif
-  buf_addr = force_reg (Pmode, buf_addr);
-
-  /* We used to store value in static_chain_rtx, but that fails if pointers
-     are smaller than integers.  We instead require that the user must pass
-     a second argument of 1, because that is what builtin_setjmp will
-     return.  This also makes EH slightly more efficient, since we are no
-     longer copying around a value that we don't care about.  */
-  if (value != const1_rtx)
-    abort ();
-
-#ifdef HAVE_builtin_longjmp
-  if (HAVE_builtin_longjmp)
-    emit_insn (gen_builtin_longjmp (buf_addr));
-  else
-#endif
-    {
-      fp = gen_rtx_MEM (Pmode, buf_addr);
-      lab = gen_rtx_MEM (Pmode, plus_constant (buf_addr,
-                                              GET_MODE_SIZE (Pmode)));
-
-      stack = gen_rtx_MEM (sa_mode, plus_constant (buf_addr,
-                                                  2 * GET_MODE_SIZE (Pmode)));
-
-      /* Pick up FP, label, and SP from the block and jump.  This code is
-        from expand_goto in stmt.c; see there for detailed comments.  */
-#if HAVE_nonlocal_goto
-      if (HAVE_nonlocal_goto)
-       /* We have to pass a value to the nonlocal_goto pattern that will
-          get copied into the static_chain pointer, but it does not matter
-          what that value is, because builtin_setjmp does not use it.  */
-       emit_insn (gen_nonlocal_goto (value, fp, stack, lab));
-      else
-#endif
-       {
-         lab = copy_to_reg (lab);
-
-         emit_move_insn (hard_frame_pointer_rtx, fp);
-         emit_stack_restore (SAVE_NONLOCAL, stack, NULL_RTX);
-
-         emit_insn (gen_rtx_USE (VOIDmode, hard_frame_pointer_rtx));
-         emit_insn (gen_rtx_USE (VOIDmode, stack_pointer_rtx));
-         emit_indirect_jump (lab);
-       }
-    }
-}
-
-static rtx
-get_memory_rtx (exp)
-     tree exp;
-{
-  rtx mem;
-  int is_aggregate;
-
-  mem = gen_rtx_MEM (BLKmode,
-                    memory_address (BLKmode,
-                                    expand_expr (exp, NULL_RTX,
-                                                 ptr_mode, EXPAND_SUM)));
-
-  RTX_UNCHANGING_P (mem) = TREE_READONLY (exp);
-
-  /* Figure out the type of the object pointed to.  Set MEM_IN_STRUCT_P
-     if the value is the address of a structure or if the expression is
-     cast to a pointer to structure type.  */
-  is_aggregate = 0;
-
-  while (TREE_CODE (exp) == NOP_EXPR)
-    {
-      tree cast_type = TREE_TYPE (exp);
-      if (TREE_CODE (cast_type) == POINTER_TYPE
-         && AGGREGATE_TYPE_P (TREE_TYPE (cast_type)))
-       {
-         is_aggregate = 1;
-         break;
-       }
-      exp = TREE_OPERAND (exp, 0);
-    }
-
-  if (is_aggregate == 0)
-    {
-      tree type;
-
-      if (TREE_CODE (exp) == ADDR_EXPR)
-       /* If this is the address of an object, check whether the
-          object is an array.  */
-       type = TREE_TYPE (TREE_OPERAND (exp, 0));
-      else
-       type = TREE_TYPE (TREE_TYPE (exp));
-      is_aggregate = AGGREGATE_TYPE_P (type);
-    }
-
-  MEM_SET_IN_STRUCT_P (mem, is_aggregate);
-  return mem;
-}
-
-\f
-/* Expand an expression EXP that calls a built-in function,
-   with result going to TARGET if that's convenient
-   (and in mode MODE if that's convenient).
-   SUBTARGET may be used as the target for computing one of EXP's operands.
-   IGNORE is nonzero if the value is to be ignored.  */
-
-#define CALLED_AS_BUILT_IN(NODE) \
-   (!strncmp (IDENTIFIER_POINTER (DECL_NAME (NODE)), "__builtin_", 10))
-
-static rtx
-expand_builtin (exp, target, subtarget, mode, ignore)
-     tree exp;
-     rtx target;
-     rtx subtarget;
-     enum machine_mode mode;
-     int ignore;
-{
-  tree fndecl = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
-  tree arglist = TREE_OPERAND (exp, 1);
-  rtx op0;
-  rtx lab1, insns;
-  enum machine_mode value_mode = TYPE_MODE (TREE_TYPE (exp));
-  optab builtin_optab;
-
-  switch (DECL_FUNCTION_CODE (fndecl))
-    {
-    case BUILT_IN_ABS:
-    case BUILT_IN_LABS:
-    case BUILT_IN_FABS:
-      /* build_function_call changes these into ABS_EXPR.  */
-      abort ();
-
-    case BUILT_IN_SIN:
-    case BUILT_IN_COS:
-      /* Treat these like sqrt, but only if the user asks for them.  */
-      if (! flag_fast_math)
-       break;
-    case BUILT_IN_FSQRT:
-      /* If not optimizing, call the library function.  */
-      if (! optimize)
-       break;
-
-      if (arglist == 0
-         /* Arg could be wrong type if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != REAL_TYPE)
-       break;
-
-      /* Stabilize and compute the argument.  */
-      if (TREE_CODE (TREE_VALUE (arglist)) != VAR_DECL
-         && TREE_CODE (TREE_VALUE (arglist)) != PARM_DECL)
-       {
-         exp = copy_node (exp);
-         arglist = copy_node (arglist);
-         TREE_OPERAND (exp, 1) = arglist;
-         TREE_VALUE (arglist) = save_expr (TREE_VALUE (arglist));
-       }
-      op0 = expand_expr (TREE_VALUE (arglist), subtarget, VOIDmode, 0);
-
-      /* Make a suitable register to place result in.  */
-      target = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
-
-      emit_queue ();
-      start_sequence ();
-
-      switch (DECL_FUNCTION_CODE (fndecl))
-       {
-       case BUILT_IN_SIN:
-         builtin_optab = sin_optab; break;
-       case BUILT_IN_COS:
-         builtin_optab = cos_optab; break;
-       case BUILT_IN_FSQRT:
-         builtin_optab = sqrt_optab; break;
-       default:
-         abort ();
-       }
-
-      /* Compute into TARGET.
-        Set TARGET to wherever the result comes back.  */
-      target = expand_unop (TYPE_MODE (TREE_TYPE (TREE_VALUE (arglist))),
-                           builtin_optab, op0, target, 0);
-
-      /* If we were unable to expand via the builtin, stop the
-        sequence (without outputting the insns) and break, causing
-        a call to the library function.  */
-      if (target == 0)
-       {
-         end_sequence ();
-         break;
-        }
-
-      /* Check the results by default.  But if flag_fast_math is turned on,
-        then assume sqrt will always be called with valid arguments.  */
-
-      if (! flag_fast_math)
-       {
-         /* Don't define the builtin FP instructions
-            if your machine is not IEEE.  */
-         if (TARGET_FLOAT_FORMAT != IEEE_FLOAT_FORMAT)
-           abort ();
-
-         lab1 = gen_label_rtx ();
-
-         /* Test the result; if it is NaN, set errno=EDOM because
-            the argument was not in the domain.  */
-         emit_cmp_and_jump_insns (target, target, EQ, 0, GET_MODE (target),
-                                  0, 0, lab1);
-
-#ifdef TARGET_EDOM
-         {
-#ifdef GEN_ERRNO_RTX
-           rtx errno_rtx = GEN_ERRNO_RTX;
-#else
-           rtx errno_rtx
-             = gen_rtx_MEM (word_mode, gen_rtx_SYMBOL_REF (Pmode, "errno"));
-#endif
-
-           emit_move_insn (errno_rtx, GEN_INT (TARGET_EDOM));
-         }
-#else
-         /* We can't set errno=EDOM directly; let the library call do it.
-            Pop the arguments right away in case the call gets deleted.  */
-         NO_DEFER_POP;
-         expand_call (exp, target, 0);
-         OK_DEFER_POP;
-#endif
-
-         emit_label (lab1);
-       }
-
-      /* Output the entire sequence.  */
-      insns = get_insns ();
-      end_sequence ();
-      emit_insns (insns);
-      return target;
-
-    case BUILT_IN_FMOD:
-      break;
-
-      /* __builtin_apply_args returns block of memory allocated on
-        the stack into which is stored the arg pointer, structure
-        value address, static chain, and all the registers that might
-        possibly be used in performing a function call.  The code is
-        moved to the start of the function so the incoming values are
-        saved.  */
-    case BUILT_IN_APPLY_ARGS:
-      /* Don't do __builtin_apply_args more than once in a function.
-        Save the result of the first call and reuse it.  */
-      if (apply_args_value != 0)
-       return apply_args_value;
-      {
-       /* When this function is called, it means that registers must be
-          saved on entry to this function.  So we migrate the
-          call to the first insn of this function.  */
-       rtx temp;
-       rtx seq;
-
-       start_sequence ();
-       temp = expand_builtin_apply_args ();
-       seq = get_insns ();
-       end_sequence ();
-
-       apply_args_value = temp;
-
-       /* Put the sequence after the NOTE that starts the function.
-          If this is inside a SEQUENCE, make the outer-level insn
-          chain current, so the code is placed at the start of the
-          function.  */
-       push_topmost_sequence ();
-       emit_insns_before (seq, NEXT_INSN (get_insns ()));
-       pop_topmost_sequence ();
-       return temp;
-      }
-
-      /* __builtin_apply (FUNCTION, ARGUMENTS, ARGSIZE) invokes
-        FUNCTION with a copy of the parameters described by
-        ARGUMENTS, and ARGSIZE.  It returns a block of memory
-        allocated on the stack into which is stored all the registers
-        that might possibly be used for returning the result of a
-        function.  ARGUMENTS is the value returned by
-        __builtin_apply_args.  ARGSIZE is the number of bytes of
-        arguments that must be copied.  ??? How should this value be
-        computed?  We'll also need a safe worst case value for varargs
-        functions.  */
-    case BUILT_IN_APPLY:
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || ! POINTER_TYPE_P (TREE_TYPE (TREE_VALUE (arglist)))
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist))))) != INTEGER_TYPE)
-       return const0_rtx;
-      else
-       {
-         int i;
-         tree t;
-         rtx ops[3];
-
-         for (t = arglist, i = 0; t; t = TREE_CHAIN (t), i++)
-           ops[i] = expand_expr (TREE_VALUE (t), NULL_RTX, VOIDmode, 0);
-
-         return expand_builtin_apply (ops[0], ops[1], ops[2]);
-       }
-
-      /* __builtin_return (RESULT) causes the function to return the
-        value described by RESULT.  RESULT is address of the block of
-        memory returned by __builtin_apply.  */
-    case BUILT_IN_RETURN:
-      if (arglist
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         && TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) == POINTER_TYPE)
-       expand_builtin_return (expand_expr (TREE_VALUE (arglist),
-                                           NULL_RTX, VOIDmode, 0));
-      return const0_rtx;
-
-    case BUILT_IN_SAVEREGS:
-      /* Don't do __builtin_saveregs more than once in a function.
-        Save the result of the first call and reuse it.  */
-      if (saveregs_value != 0)
-       return saveregs_value;
-      {
-       /* When this function is called, it means that registers must be
-          saved on entry to this function.  So we migrate the
-          call to the first insn of this function.  */
-       rtx temp;
-       rtx seq;
-
-       /* Now really call the function.  `expand_call' does not call
-          expand_builtin, so there is no danger of infinite recursion here.  */
-       start_sequence ();
-
-#ifdef EXPAND_BUILTIN_SAVEREGS
-       /* Do whatever the machine needs done in this case.  */
-       temp = EXPAND_BUILTIN_SAVEREGS (arglist);
-#else
-       /* The register where the function returns its value
-          is likely to have something else in it, such as an argument.
-          So preserve that register around the call.  */
-
-       if (value_mode != VOIDmode)
-         {
-           rtx valreg = hard_libcall_value (value_mode);
-           rtx saved_valreg = gen_reg_rtx (value_mode);
-
-           emit_move_insn (saved_valreg, valreg);
-           temp = expand_call (exp, target, ignore);
-           emit_move_insn (valreg, saved_valreg);
-         }
-       else
-         /* Generate the call, putting the value in a pseudo.  */
-         temp = expand_call (exp, target, ignore);
-#endif
-
-       seq = get_insns ();
-       end_sequence ();
-
-       saveregs_value = temp;
-
-       /* Put the sequence after the NOTE that starts the function.
-          If this is inside a SEQUENCE, make the outer-level insn
-          chain current, so the code is placed at the start of the
-          function.  */
-       push_topmost_sequence ();
-       emit_insns_before (seq, NEXT_INSN (get_insns ()));
-       pop_topmost_sequence ();
-       return temp;
-      }
-
-      /* __builtin_args_info (N) returns word N of the arg space info
-        for the current function.  The number and meanings of words
-        is controlled by the definition of CUMULATIVE_ARGS.  */
-    case BUILT_IN_ARGS_INFO:
-      {
-       int nwords = sizeof (CUMULATIVE_ARGS) / sizeof (int);
-       int *word_ptr = (int *) &current_function_args_info;
-#if 0  
-       /* These are used by the code below that is if 0'ed away */
-       int i;
-       tree type, elts, result;
-#endif
-
-       if (sizeof (CUMULATIVE_ARGS) % sizeof (int) != 0)
-         fatal ("CUMULATIVE_ARGS type defined badly; see %s, line %d",
-                __FILE__, __LINE__);
-
-       if (arglist != 0)
-         {
-           tree arg = TREE_VALUE (arglist);
-           if (TREE_CODE (arg) != INTEGER_CST)
-             error ("argument of `__builtin_args_info' must be constant");
-           else
-             {
-               int wordnum = TREE_INT_CST_LOW (arg);
-
-               if (wordnum < 0 || wordnum >= nwords || TREE_INT_CST_HIGH (arg))
-                 error ("argument of `__builtin_args_info' out of range");
-               else
-                 return GEN_INT (word_ptr[wordnum]);
-             }
-         }
-       else
-         error ("missing argument in `__builtin_args_info'");
-
-       return const0_rtx;
-
-#if 0
-       for (i = 0; i < nwords; i++)
-         elts = tree_cons (NULL_TREE, build_int_2 (word_ptr[i], 0));
-
-       type = build_array_type (integer_type_node,
-                                build_index_type (build_int_2 (nwords, 0)));
-       result = build (CONSTRUCTOR, type, NULL_TREE, nreverse (elts));
-       TREE_CONSTANT (result) = 1;
-       TREE_STATIC (result) = 1;
-       result = build (INDIRECT_REF, build_pointer_type (type), result);
-       TREE_CONSTANT (result) = 1;
-       return expand_expr (result, NULL_RTX, VOIDmode, EXPAND_MEMORY_USE_BAD);
-#endif
-      }
-
-      /* Return the address of the first anonymous stack arg.  */
-    case BUILT_IN_NEXT_ARG:
-      {
-       tree fntype = TREE_TYPE (current_function_decl);
-
-       if ((TYPE_ARG_TYPES (fntype) == 0
-            || (TREE_VALUE (tree_last (TYPE_ARG_TYPES (fntype)))
-                == void_type_node))
-           && ! current_function_varargs)
-         {
-           error ("`va_start' used in function with fixed args");
-           return const0_rtx;
-         }
-
-       if (arglist)
-         {
-           tree last_parm = tree_last (DECL_ARGUMENTS (current_function_decl));
-           tree arg = TREE_VALUE (arglist);
-
-           /* Strip off all nops for the sake of the comparison.  This
-              is not quite the same as STRIP_NOPS.  It does more.  
-              We must also strip off INDIRECT_EXPR for C++ reference
-              parameters.  */
-           while (TREE_CODE (arg) == NOP_EXPR
-                  || TREE_CODE (arg) == CONVERT_EXPR
-                  || TREE_CODE (arg) == NON_LVALUE_EXPR
-                  || TREE_CODE (arg) == INDIRECT_REF)
-             arg = TREE_OPERAND (arg, 0);
-           if (arg != last_parm)
-             warning ("second parameter of `va_start' not last named argument");
-         }
-       else if (! current_function_varargs)
-         /* Evidently an out of date version of <stdarg.h>; can't validate
-            va_start's second argument, but can still work as intended.  */
-         warning ("`__builtin_next_arg' called without an argument");
-      }
-
-      return expand_binop (Pmode, add_optab,
-                          current_function_internal_arg_pointer,
-                          current_function_arg_offset_rtx,
-                          NULL_RTX, 0, OPTAB_LIB_WIDEN);
-
-    case BUILT_IN_CLASSIFY_TYPE:
-      if (arglist != 0)
-       {
-         tree type = TREE_TYPE (TREE_VALUE (arglist));
-         enum tree_code code = TREE_CODE (type);
-         if (code == VOID_TYPE)
-           return GEN_INT (void_type_class);
-         if (code == INTEGER_TYPE)
-           return GEN_INT (integer_type_class);
-         if (code == CHAR_TYPE)
-           return GEN_INT (char_type_class);
-         if (code == ENUMERAL_TYPE)
-           return GEN_INT (enumeral_type_class);
-         if (code == BOOLEAN_TYPE)
-           return GEN_INT (boolean_type_class);
-         if (code == POINTER_TYPE)
-           return GEN_INT (pointer_type_class);
-         if (code == REFERENCE_TYPE)
-           return GEN_INT (reference_type_class);
-         if (code == OFFSET_TYPE)
-           return GEN_INT (offset_type_class);
-         if (code == REAL_TYPE)
-           return GEN_INT (real_type_class);
-         if (code == COMPLEX_TYPE)
-           return GEN_INT (complex_type_class);
-         if (code == FUNCTION_TYPE)
-           return GEN_INT (function_type_class);
-         if (code == METHOD_TYPE)
-           return GEN_INT (method_type_class);
-         if (code == RECORD_TYPE)
-           return GEN_INT (record_type_class);
-         if (code == UNION_TYPE || code == QUAL_UNION_TYPE)
-           return GEN_INT (union_type_class);
-         if (code == ARRAY_TYPE)
-           {
-             if (TYPE_STRING_FLAG (type))
-               return GEN_INT (string_type_class);
-             else
-               return GEN_INT (array_type_class);
-           }
-         if (code == SET_TYPE)
-           return GEN_INT (set_type_class);
-         if (code == FILE_TYPE)
-           return GEN_INT (file_type_class);
-         if (code == LANG_TYPE)
-           return GEN_INT (lang_type_class);
-       }
-      return GEN_INT (no_type_class);
-
-    case BUILT_IN_CONSTANT_P:
-      if (arglist == 0)
-       return const0_rtx;
-      else
-       {
-         tree arg = TREE_VALUE (arglist);
-         rtx tmp;
-
-         /* We return 1 for a numeric type that's known to be a constant
-            value at compile-time or for an aggregate type that's a
-            literal constant.  */
-         STRIP_NOPS (arg);
-
-         /* If we know this is a constant, emit the constant of one.  */
-         if (TREE_CODE_CLASS (TREE_CODE (arg)) == 'c'
-             || (TREE_CODE (arg) == CONSTRUCTOR
-                 && TREE_CONSTANT (arg))
-             || (TREE_CODE (arg) == ADDR_EXPR
-                 && TREE_CODE (TREE_OPERAND (arg, 0)) == STRING_CST))
-           return const1_rtx;
-
-         /* If we aren't going to be running CSE or this expression
-            has side effects, show we don't know it to be a constant.
-            Likewise if it's a pointer or aggregate type since in those
-            case we only want literals, since those are only optimized
-            when generating RTL, not later.  */
-         if (TREE_SIDE_EFFECTS (arg) || cse_not_expected
-             || AGGREGATE_TYPE_P (TREE_TYPE (arg))
-             || POINTER_TYPE_P (TREE_TYPE (arg)))
-           return const0_rtx;
-
-         /* Otherwise, emit (constant_p_rtx (ARG)) and let CSE get a
-            chance to see if it can deduce whether ARG is constant.  */
-
-         tmp = expand_expr (arg, NULL_RTX, VOIDmode, 0);
-         tmp = gen_rtx_CONSTANT_P_RTX (value_mode, tmp);
-         return tmp;
-       }
-
-    case BUILT_IN_FRAME_ADDRESS:
-      /* The argument must be a nonnegative integer constant.
-        It counts the number of frames to scan up the stack.
-        The value is the address of that frame.  */
-    case BUILT_IN_RETURN_ADDRESS:
-      /* The argument must be a nonnegative integer constant.
-        It counts the number of frames to scan up the stack.
-        The value is the return address saved in that frame.  */
-      if (arglist == 0)
-       /* Warning about missing arg was already issued.  */
-       return const0_rtx;
-      else if (TREE_CODE (TREE_VALUE (arglist)) != INTEGER_CST
-              || tree_int_cst_sgn (TREE_VALUE (arglist)) < 0)
-       {
-         if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_FRAME_ADDRESS)
-           error ("invalid arg to `__builtin_frame_address'");
-         else
-           error ("invalid arg to `__builtin_return_address'");
-         return const0_rtx;
-       }
-      else
-       {
-         rtx tem = expand_builtin_return_addr (DECL_FUNCTION_CODE (fndecl),
-                                               TREE_INT_CST_LOW (TREE_VALUE (arglist)),
-                                               hard_frame_pointer_rtx);
-
-         /* Some ports cannot access arbitrary stack frames.  */
-         if (tem == NULL)
-           {
-             if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_FRAME_ADDRESS)
-               warning ("unsupported arg to `__builtin_frame_address'");
-             else
-               warning ("unsupported arg to `__builtin_return_address'");
-             return const0_rtx;
-           }
-
-         /* For __builtin_frame_address, return what we've got.  */
-         if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_FRAME_ADDRESS)
-           return tem;
-
-         if (GET_CODE (tem) != REG)
-           tem = copy_to_reg (tem);
-         return tem;
-       }
-
-    /* Returns the address of the area where the structure is returned.
-       0 otherwise.  */
-    case BUILT_IN_AGGREGATE_INCOMING_ADDRESS:
-      if (arglist != 0
-          || ! AGGREGATE_TYPE_P (TREE_TYPE (TREE_TYPE (current_function_decl)))
-          || GET_CODE (DECL_RTL (DECL_RESULT (current_function_decl))) != MEM)
-        return const0_rtx;
-      else
-        return XEXP (DECL_RTL (DECL_RESULT (current_function_decl)), 0);
-
-    case BUILT_IN_ALLOCA:
-      if (arglist == 0
-         /* Arg could be non-integer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != INTEGER_TYPE)
-       break;
-
-      /* Compute the argument.  */
-      op0 = expand_expr (TREE_VALUE (arglist), NULL_RTX, VOIDmode, 0);
-
-      /* Allocate the desired space.  */
-      return allocate_dynamic_stack_space (op0, target, BITS_PER_UNIT);
-
-    case BUILT_IN_FFS:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-integer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != INTEGER_TYPE)
-       break;
-
-      /* Compute the argument.  */
-      op0 = expand_expr (TREE_VALUE (arglist), subtarget, VOIDmode, 0);
-      /* Compute ffs, into TARGET if possible.
-        Set TARGET to wherever the result comes back.  */
-      target = expand_unop (TYPE_MODE (TREE_TYPE (TREE_VALUE (arglist))),
-                           ffs_optab, op0, target, 1);
-      if (target == 0)
-       abort ();
-      return target;
-
-    case BUILT_IN_STRLEN:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE)
-       break;
-      else
-       {
-         tree src = TREE_VALUE (arglist);
-         tree len = c_strlen (src);
-
-         int align
-           = get_pointer_alignment (src, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-
-         rtx result, src_rtx, char_rtx;
-         enum machine_mode insn_mode = value_mode, char_mode;
-         enum insn_code icode;
-
-         /* If the length is known, just return it.  */
-         if (len != 0)
-           return expand_expr (len, target, mode, EXPAND_MEMORY_USE_BAD);
-
-         /* If SRC is not a pointer type, don't do this operation inline.  */
-         if (align == 0)
-           break;
-
-         /* Call a function if we can't compute strlen in the right mode.  */
-
-         while (insn_mode != VOIDmode)
-           {
-             icode = strlen_optab->handlers[(int) insn_mode].insn_code;
-             if (icode != CODE_FOR_nothing)
-               break;
-
-             insn_mode = GET_MODE_WIDER_MODE (insn_mode);
-           }
-         if (insn_mode == VOIDmode)
-           break;
-
-         /* Make a place to write the result of the instruction.  */
-         result = target;
-         if (! (result != 0
-                && GET_CODE (result) == REG
-                && GET_MODE (result) == insn_mode
-                && REGNO (result) >= FIRST_PSEUDO_REGISTER))
-           result = gen_reg_rtx (insn_mode);
-
-         /* Make sure the operands are acceptable to the predicates.  */
-
-         if (! (*insn_operand_predicate[(int)icode][0]) (result, insn_mode))
-           result = gen_reg_rtx (insn_mode);
-         src_rtx = memory_address (BLKmode,
-                                   expand_expr (src, NULL_RTX, ptr_mode,
-                                                EXPAND_NORMAL));
-
-         if (! (*insn_operand_predicate[(int)icode][1]) (src_rtx, Pmode))
-           src_rtx = copy_to_mode_reg (Pmode, src_rtx);
-
-         /* Check the string is readable and has an end.  */
-         if (current_function_check_memory_usage)
-           emit_library_call (chkr_check_str_libfunc, 1, VOIDmode, 2,
-                              src_rtx, ptr_mode,
-                              GEN_INT (MEMORY_USE_RO),
-                              TYPE_MODE (integer_type_node));
-
-         char_rtx = const0_rtx;
-         char_mode = insn_operand_mode[(int)icode][2];
-         if (! (*insn_operand_predicate[(int)icode][2]) (char_rtx, char_mode))
-           char_rtx = copy_to_mode_reg (char_mode, char_rtx);
-
-         emit_insn (GEN_FCN (icode) (result,
-                                     gen_rtx_MEM (BLKmode, src_rtx),
-                                     char_rtx, GEN_INT (align)));
-
-         /* Return the value in the proper mode for this function.  */
-         if (GET_MODE (result) == value_mode)
-           return result;
-         else if (target != 0)
-           {
-             convert_move (target, result, 0);
-             return target;
-           }
-         else
-           return convert_to_mode (value_mode, result, 0);
-       }
-
-    case BUILT_IN_STRCPY:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE)
-       break;
-      else
-       {
-         tree len = c_strlen (TREE_VALUE (TREE_CHAIN (arglist)));
-
-         if (len == 0)
-           break;
-
-         len = size_binop (PLUS_EXPR, len, integer_one_node);
-
-         chainon (arglist, build_tree_list (NULL_TREE, len));
-       }
-
-      /* Drops in.  */
-    case BUILT_IN_MEMCPY:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || (TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist))))
-             != POINTER_TYPE)
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || (TREE_CODE (TREE_TYPE (TREE_VALUE
-                                   (TREE_CHAIN (TREE_CHAIN (arglist)))))
-             != INTEGER_TYPE))
-       break;
-      else
-       {
-         tree dest = TREE_VALUE (arglist);
-         tree src = TREE_VALUE (TREE_CHAIN (arglist));
-         tree len = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist)));
-
-         int src_align
-           = get_pointer_alignment (src, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-         int dest_align
-           = get_pointer_alignment (dest, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-         rtx dest_mem, src_mem, dest_addr, len_rtx;
-
-         /* If either SRC or DEST is not a pointer type, don't do
-            this operation in-line.  */
-         if (src_align == 0 || dest_align == 0)
-           {
-             if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_STRCPY)
-               TREE_CHAIN (TREE_CHAIN (arglist)) = 0;
-             break;
-           }
-
-         dest_mem = get_memory_rtx (dest);
-         src_mem = get_memory_rtx (src);
-         len_rtx = expand_expr (len, NULL_RTX, VOIDmode, 0);
-
-         /* Just copy the rights of SRC to the rights of DEST.  */
-         if (current_function_check_memory_usage)
-           emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                              XEXP (dest_mem, 0), ptr_mode,
-                              XEXP (src_mem, 0), ptr_mode,
-                              len_rtx, TYPE_MODE (sizetype));
-
-         /* Copy word part most expediently.  */
-         dest_addr
-           = emit_block_move (dest_mem, src_mem, len_rtx,
-                              MIN (src_align, dest_align));
-
-         if (dest_addr == 0)
-           dest_addr = force_operand (XEXP (dest_mem, 0), NULL_RTX);
-
-         return dest_addr;
-       }
-
-    case BUILT_IN_MEMSET:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || (TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist))))
-             != INTEGER_TYPE)
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || (INTEGER_TYPE
-             != (TREE_CODE (TREE_TYPE
-                            (TREE_VALUE
-                             (TREE_CHAIN (TREE_CHAIN (arglist))))))))
-       break;
-      else
-       {
-         tree dest = TREE_VALUE (arglist);
-         tree val = TREE_VALUE (TREE_CHAIN (arglist));
-         tree len = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist)));
-
-         int dest_align
-           = get_pointer_alignment (dest, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-         rtx dest_mem, dest_addr, len_rtx;
-
-         /* If DEST is not a pointer type, don't do this 
-            operation in-line.  */
-         if (dest_align == 0)
-           break;
-
-         /* If the arguments have side-effects, then we can only evaluate
-            them at most once.  The following code evaluates them twice if
-            they are not constants because we break out to expand_call
-            in that case.  They can't be constants if they have side-effects
-            so we can check for that first.  Alternatively, we could call
-            save_expr to make multiple evaluation safe.  */
-         if (TREE_SIDE_EFFECTS (val) || TREE_SIDE_EFFECTS (len))
-           break;
-
-         /* If VAL is not 0, don't do this operation in-line. */
-         if (expand_expr (val, NULL_RTX, VOIDmode, 0) != const0_rtx)
-           break;
-
-         /* If LEN does not expand to a constant, don't do this
-            operation in-line.  */
-         len_rtx = expand_expr (len, NULL_RTX, VOIDmode, 0);
-         if (GET_CODE (len_rtx) != CONST_INT)
-           break;
-
-         dest_mem = get_memory_rtx (dest);
-          
-         /* Just check DST is writable and mark it as readable.  */
-         if (current_function_check_memory_usage)
-           emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                              XEXP (dest_mem, 0), ptr_mode,
-                              len_rtx, TYPE_MODE (sizetype),
-                              GEN_INT (MEMORY_USE_WO),
-                              TYPE_MODE (integer_type_node));
-
-
-         dest_addr = clear_storage (dest_mem, len_rtx, dest_align);
-
-         if (dest_addr == 0)
-           dest_addr = force_operand (XEXP (dest_mem, 0), NULL_RTX);
-
-         return dest_addr;
-       }
-
-/* These comparison functions need an instruction that returns an actual
-   index.  An ordinary compare that just sets the condition codes
-   is not enough.  */
-#ifdef HAVE_cmpstrsi
-    case BUILT_IN_STRCMP:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      /* If we need to check memory accesses, call the library function.  */
-      if (current_function_check_memory_usage)
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE)
-       break;
-      else if (!HAVE_cmpstrsi)
-       break;
-      {
-       tree arg1 = TREE_VALUE (arglist);
-       tree arg2 = TREE_VALUE (TREE_CHAIN (arglist));
-       tree len, len2;
-
-       len = c_strlen (arg1);
-       if (len)
-         len = size_binop (PLUS_EXPR, integer_one_node, len);
-       len2 = c_strlen (arg2);
-       if (len2)
-         len2 = size_binop (PLUS_EXPR, integer_one_node, len2);
-
-       /* If we don't have a constant length for the first, use the length
-          of the second, if we know it.  We don't require a constant for
-          this case; some cost analysis could be done if both are available
-          but neither is constant.  For now, assume they're equally cheap.
-
-          If both strings have constant lengths, use the smaller.  This
-          could arise if optimization results in strcpy being called with
-          two fixed strings, or if the code was machine-generated.  We should
-          add some code to the `memcmp' handler below to deal with such
-          situations, someday.  */
-       if (!len || TREE_CODE (len) != INTEGER_CST)
-         {
-           if (len2)
-             len = len2;
-           else if (len == 0)
-             break;
-         }
-       else if (len2 && TREE_CODE (len2) == INTEGER_CST)
-         {
-           if (tree_int_cst_lt (len2, len))
-             len = len2;
-         }
-
-       chainon (arglist, build_tree_list (NULL_TREE, len));
-      }
-
-      /* Drops in.  */
-    case BUILT_IN_MEMCMP:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      /* If we need to check memory accesses, call the library function.  */
-      if (current_function_check_memory_usage)
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist))))) != INTEGER_TYPE)
-       break;
-      else if (!HAVE_cmpstrsi)
-       break;
-      {
-       tree arg1 = TREE_VALUE (arglist);
-       tree arg2 = TREE_VALUE (TREE_CHAIN (arglist));
-       tree len = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist)));
-       rtx result;
-
-       int arg1_align
-         = get_pointer_alignment (arg1, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-       int arg2_align
-         = get_pointer_alignment (arg2, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-       enum machine_mode insn_mode
-         = insn_operand_mode[(int) CODE_FOR_cmpstrsi][0];
-
-       /* If we don't have POINTER_TYPE, call the function.  */
-       if (arg1_align == 0 || arg2_align == 0)
-         {
-           if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_STRCMP)
-             TREE_CHAIN (TREE_CHAIN (arglist)) = 0;
-           break;
-         }
-
-       /* Make a place to write the result of the instruction.  */
-       result = target;
-       if (! (result != 0
-              && GET_CODE (result) == REG && GET_MODE (result) == insn_mode
-              && REGNO (result) >= FIRST_PSEUDO_REGISTER))
-         result = gen_reg_rtx (insn_mode);
-
-       emit_insn (gen_cmpstrsi (result, get_memory_rtx (arg1),
-                                get_memory_rtx (arg2),
-                                expand_expr (len, NULL_RTX, VOIDmode, 0),
-                                GEN_INT (MIN (arg1_align, arg2_align))));
-
-       /* Return the value in the proper mode for this function.  */
-       mode = TYPE_MODE (TREE_TYPE (exp));
-       if (GET_MODE (result) == mode)
-         return result;
-       else if (target != 0)
-         {
-           convert_move (target, result, 0);
-           return target;
-         }
-       else
-         return convert_to_mode (mode, result, 0);
-      }        
-#else
-    case BUILT_IN_STRCMP:
-    case BUILT_IN_MEMCMP:
-      break;
-#endif
-
-    case BUILT_IN_SETJMP:
-      if (arglist == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE)
-       break;
-      else
-       {
-         rtx buf_addr = expand_expr (TREE_VALUE (arglist), subtarget,
-                                     VOIDmode, 0);
-         rtx lab = gen_label_rtx ();
-         rtx ret = expand_builtin_setjmp (buf_addr, target, lab, lab);
-         emit_label (lab);
-         return ret;
-       }
-
-      /* __builtin_longjmp is passed a pointer to an array of five words.
-        It's similar to the C library longjmp function but works with
-        __builtin_setjmp above.  */
-    case BUILT_IN_LONGJMP:
-      if (arglist == 0 || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE)
-       break;
-      else
-       {
-         rtx buf_addr = expand_expr (TREE_VALUE (arglist), subtarget,
-                                     VOIDmode, 0);
-         rtx value = expand_expr (TREE_VALUE (TREE_CHAIN (arglist)),
-                                  NULL_RTX, VOIDmode, 0);
-
-         if (value != const1_rtx)
-           {
-             error ("__builtin_longjmp second argument must be 1");
-             return const0_rtx;
-           }
-
-         expand_builtin_longjmp (buf_addr, value);
-         return const0_rtx;
-       }
-
-    case BUILT_IN_TRAP:
-#ifdef HAVE_trap
-      if (HAVE_trap)
-       emit_insn (gen_trap ());
-      else
-#endif
-       error ("__builtin_trap not supported by this target");
-      emit_barrier ();
-      return const0_rtx;
-
-      /* Various hooks for the DWARF 2 __throw routine.  */
-    case BUILT_IN_UNWIND_INIT:
-      expand_builtin_unwind_init ();
-      return const0_rtx;
-    case BUILT_IN_DWARF_CFA:
-      return virtual_cfa_rtx;
-#ifdef DWARF2_UNWIND_INFO
-    case BUILT_IN_DWARF_FP_REGNUM:
-      return expand_builtin_dwarf_fp_regnum ();
-    case BUILT_IN_DWARF_REG_SIZE:
-      return expand_builtin_dwarf_reg_size (TREE_VALUE (arglist), target);
-#endif
-    case BUILT_IN_FROB_RETURN_ADDR:
-      return expand_builtin_frob_return_addr (TREE_VALUE (arglist));
-    case BUILT_IN_EXTRACT_RETURN_ADDR:
-      return expand_builtin_extract_return_addr (TREE_VALUE (arglist));
-    case BUILT_IN_EH_RETURN:
-      expand_builtin_eh_return (TREE_VALUE (arglist),
-                               TREE_VALUE (TREE_CHAIN (arglist)),
-                               TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist))));
-      return const0_rtx;
-
-    default:                   /* just do library call, if unknown builtin */
-      error ("built-in function `%s' not currently supported",
-            IDENTIFIER_POINTER (DECL_NAME (fndecl)));
-    }
-
-  /* The switch statement above can drop through to cause the function
-     to be called normally.  */
-
-  return expand_call (exp, target, ignore);
-}
-\f
-/* Built-in functions to perform an untyped call and return.  */
-
-/* For each register that may be used for calling a function, this
-   gives a mode used to copy the register's value.  VOIDmode indicates
-   the register is not used for calling a function.  If the machine
-   has register windows, this gives only the outbound registers.
-   INCOMING_REGNO gives the corresponding inbound register.  */
-static enum machine_mode apply_args_mode[FIRST_PSEUDO_REGISTER];
-
-/* For each register that may be used for returning values, this gives
-   a mode used to copy the register's value.  VOIDmode indicates the
-   register is not used for returning values.  If the machine has
-   register windows, this gives only the outbound registers.
-   INCOMING_REGNO gives the corresponding inbound register.  */
-static enum machine_mode apply_result_mode[FIRST_PSEUDO_REGISTER];
-
-/* For each register that may be used for calling a function, this
-   gives the offset of that register into the block returned by
-   __builtin_apply_args.  0 indicates that the register is not
-   used for calling a function.  */
-static int apply_args_reg_offset[FIRST_PSEUDO_REGISTER];
-
-/* Return the offset of register REGNO into the block returned by 
-   __builtin_apply_args.  This is not declared static, since it is
-   needed in objc-act.c.  */
-
-int 
-apply_args_register_offset (regno)
-     int regno;
-{
-  apply_args_size ();
-
-  /* Arguments are always put in outgoing registers (in the argument
-     block) if such make sense.  */
-#ifdef OUTGOING_REGNO
-  regno = OUTGOING_REGNO(regno);
-#endif
-  return apply_args_reg_offset[regno];
-}
-
-/* Return the size required for the block returned by __builtin_apply_args,
-   and initialize apply_args_mode.  */
-
-static int
-apply_args_size ()
-{
-  static int size = -1;
-  int align, regno;
-  enum machine_mode mode;
-
-  /* The values computed by this function never change.  */
-  if (size < 0)
-    {
-      /* The first value is the incoming arg-pointer.  */
-      size = GET_MODE_SIZE (Pmode);
-
-      /* The second value is the structure value address unless this is
-        passed as an "invisible" first argument.  */
-      if (struct_value_rtx)
-       size += GET_MODE_SIZE (Pmode);
-
-      for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-       if (FUNCTION_ARG_REGNO_P (regno))
-         {
-           /* Search for the proper mode for copying this register's
-              value.  I'm not sure this is right, but it works so far.  */
-           enum machine_mode best_mode = VOIDmode;
-
-           for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT);
-                mode != VOIDmode;
-                mode = GET_MODE_WIDER_MODE (mode))
-             if (HARD_REGNO_MODE_OK (regno, mode)
-                 && HARD_REGNO_NREGS (regno, mode) == 1)
-               best_mode = mode;
-
-           if (best_mode == VOIDmode)
-             for (mode = GET_CLASS_NARROWEST_MODE (MODE_FLOAT);
-                  mode != VOIDmode;
-                  mode = GET_MODE_WIDER_MODE (mode))
-               if (HARD_REGNO_MODE_OK (regno, mode)
-                   && (mov_optab->handlers[(int) mode].insn_code
-                       != CODE_FOR_nothing))
-                 best_mode = mode;
-
-           mode = best_mode;
-           if (mode == VOIDmode)
-             abort ();
-
-           align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-           if (size % align != 0)
-             size = CEIL (size, align) * align;
-           apply_args_reg_offset[regno] = size;
-           size += GET_MODE_SIZE (mode);
-           apply_args_mode[regno] = mode;
-         }
-       else
-         {
-           apply_args_mode[regno] = VOIDmode;
-           apply_args_reg_offset[regno] = 0;
-         }
-    }
-  return size;
-}
-
-/* Return the size required for the block returned by __builtin_apply,
-   and initialize apply_result_mode.  */
-
-static int
-apply_result_size ()
-{
-  static int size = -1;
-  int align, regno;
-  enum machine_mode mode;
-
-  /* The values computed by this function never change.  */
-  if (size < 0)
-    {
-      size = 0;
-
-      for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-       if (FUNCTION_VALUE_REGNO_P (regno))
-         {
-           /* Search for the proper mode for copying this register's
-              value.  I'm not sure this is right, but it works so far.  */
-           enum machine_mode best_mode = VOIDmode;
-
-           for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT);
-                mode != TImode;
-                mode = GET_MODE_WIDER_MODE (mode))
-             if (HARD_REGNO_MODE_OK (regno, mode))
-               best_mode = mode;
-
-           if (best_mode == VOIDmode)
-             for (mode = GET_CLASS_NARROWEST_MODE (MODE_FLOAT);
-                  mode != VOIDmode;
-                  mode = GET_MODE_WIDER_MODE (mode))
-               if (HARD_REGNO_MODE_OK (regno, mode)
-                   && (mov_optab->handlers[(int) mode].insn_code
-                       != CODE_FOR_nothing))
-                 best_mode = mode;
-
-           mode = best_mode;
-           if (mode == VOIDmode)
-             abort ();
-
-           align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-           if (size % align != 0)
-             size = CEIL (size, align) * align;
-           size += GET_MODE_SIZE (mode);
-           apply_result_mode[regno] = mode;
-         }
-       else
-         apply_result_mode[regno] = VOIDmode;
-
-      /* Allow targets that use untyped_call and untyped_return to override
-        the size so that machine-specific information can be stored here.  */
-#ifdef APPLY_RESULT_SIZE
-      size = APPLY_RESULT_SIZE;
-#endif
-    }
-  return size;
-}
-
-#if defined (HAVE_untyped_call) || defined (HAVE_untyped_return)
-/* Create a vector describing the result block RESULT.  If SAVEP is true,
-   the result block is used to save the values; otherwise it is used to
-   restore the values.  */
-
-static rtx
-result_vector (savep, result)
-     int savep;
-     rtx result;
-{
-  int regno, size, align, nelts;
-  enum machine_mode mode;
-  rtx reg, mem;
-  rtx *savevec = (rtx *) alloca (FIRST_PSEUDO_REGISTER * sizeof (rtx));
-  
-  size = nelts = 0;
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_result_mode[regno]) != VOIDmode)
-      {
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
-       reg = gen_rtx_REG (mode, savep ? regno : INCOMING_REGNO (regno));
-       mem = change_address (result, mode,
-                             plus_constant (XEXP (result, 0), size));
-       savevec[nelts++] = (savep
-                           ? gen_rtx_SET (VOIDmode, mem, reg)
-                           : gen_rtx_SET (VOIDmode, reg, mem));
-       size += GET_MODE_SIZE (mode);
-      }
-  return gen_rtx_PARALLEL (VOIDmode, gen_rtvec_v (nelts, savevec));
-}
-#endif /* HAVE_untyped_call or HAVE_untyped_return */
-
-/* Save the state required to perform an untyped call with the same
-   arguments as were passed to the current function.  */
-
-static rtx
-expand_builtin_apply_args ()
-{
-  rtx registers;
-  int size, align, regno;
-  enum machine_mode mode;
-
-  /* Create a block where the arg-pointer, structure value address,
-     and argument registers can be saved.  */
-  registers = assign_stack_local (BLKmode, apply_args_size (), -1);
-
-  /* Walk past the arg-pointer and structure value address.  */
-  size = GET_MODE_SIZE (Pmode);
-  if (struct_value_rtx)
-    size += GET_MODE_SIZE (Pmode);
-
-  /* Save each register used in calling a function to the block.  */
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_args_mode[regno]) != VOIDmode)
-      {
-       rtx tem;
-
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
-
-       tem = gen_rtx_REG (mode, INCOMING_REGNO (regno));
-
-#ifdef STACK_REGS
-        /* For reg-stack.c's stack register household.
-          Compare with a similar piece of code in function.c.  */
-
-        emit_insn (gen_rtx_USE (mode, tem));
-#endif
-
-       emit_move_insn (change_address (registers, mode,
-                                       plus_constant (XEXP (registers, 0),
-                                                      size)),
-                       tem);
-       size += GET_MODE_SIZE (mode);
-      }
-
-  /* Save the arg pointer to the block.  */
-  emit_move_insn (change_address (registers, Pmode, XEXP (registers, 0)),
-                 copy_to_reg (virtual_incoming_args_rtx));
-  size = GET_MODE_SIZE (Pmode);
-
-  /* Save the structure value address unless this is passed as an
-     "invisible" first argument.  */
-  if (struct_value_incoming_rtx)
-    {
-      emit_move_insn (change_address (registers, Pmode,
-                                     plus_constant (XEXP (registers, 0),
-                                                    size)),
-                     copy_to_reg (struct_value_incoming_rtx));
-      size += GET_MODE_SIZE (Pmode);
-    }
-
-  /* Return the address of the block.  */
-  return copy_addr_to_reg (XEXP (registers, 0));
-}
-
-/* Perform an untyped call and save the state required to perform an
-   untyped return of whatever value was returned by the given function.  */
-
-static rtx
-expand_builtin_apply (function, arguments, argsize)
-     rtx function, arguments, argsize;
-{
-  int size, align, regno;
-  enum machine_mode mode;
-  rtx incoming_args, result, reg, dest, call_insn;
-  rtx old_stack_level = 0;
-  rtx call_fusage = 0;
-
-  /* Create a block where the return registers can be saved.  */
-  result = assign_stack_local (BLKmode, apply_result_size (), -1);
-
-  /* ??? The argsize value should be adjusted here.  */
-
-  /* Fetch the arg pointer from the ARGUMENTS block.  */
-  incoming_args = gen_reg_rtx (Pmode);
-  emit_move_insn (incoming_args,
-                 gen_rtx_MEM (Pmode, arguments));
-#ifndef STACK_GROWS_DOWNWARD
-  incoming_args = expand_binop (Pmode, sub_optab, incoming_args, argsize,
-                               incoming_args, 0, OPTAB_LIB_WIDEN);
-#endif
-
-  /* Perform postincrements before actually calling the function.  */
-  emit_queue ();
-
-  /* Push a new argument block and copy the arguments.  */
-  do_pending_stack_adjust ();
-
-  /* Save the stack with nonlocal if available */
-#ifdef HAVE_save_stack_nonlocal
-  if (HAVE_save_stack_nonlocal)
-    emit_stack_save (SAVE_NONLOCAL, &old_stack_level, NULL_RTX);
-  else
-#endif
-    emit_stack_save (SAVE_BLOCK, &old_stack_level, NULL_RTX);
-
-  /* Push a block of memory onto the stack to store the memory arguments.
-     Save the address in a register, and copy the memory arguments.  ??? I
-     haven't figured out how the calling convention macros effect this,
-     but it's likely that the source and/or destination addresses in
-     the block copy will need updating in machine specific ways.  */
-  dest = allocate_dynamic_stack_space (argsize, 0, 0);
-  emit_block_move (gen_rtx_MEM (BLKmode, dest),
-                  gen_rtx_MEM (BLKmode, incoming_args),
-                  argsize,
-                  PARM_BOUNDARY / BITS_PER_UNIT);
-
-  /* Refer to the argument block.  */
-  apply_args_size ();
-  arguments = gen_rtx_MEM (BLKmode, arguments);
-
-  /* Walk past the arg-pointer and structure value address.  */
-  size = GET_MODE_SIZE (Pmode);
-  if (struct_value_rtx)
-    size += GET_MODE_SIZE (Pmode);
-
-  /* Restore each of the registers previously saved.  Make USE insns
-     for each of these registers for use in making the call.  */
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_args_mode[regno]) != VOIDmode)
-      {
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
-       reg = gen_rtx_REG (mode, regno);
-       emit_move_insn (reg,
-                       change_address (arguments, mode,
-                                       plus_constant (XEXP (arguments, 0),
-                                                      size)));
-
-       use_reg (&call_fusage, reg);
-       size += GET_MODE_SIZE (mode);
-      }
-
-  /* Restore the structure value address unless this is passed as an
-     "invisible" first argument.  */
-  size = GET_MODE_SIZE (Pmode);
-  if (struct_value_rtx)
-    {
-      rtx value = gen_reg_rtx (Pmode);
-      emit_move_insn (value,
-                     change_address (arguments, Pmode,
-                                     plus_constant (XEXP (arguments, 0),
-                                                    size)));
-      emit_move_insn (struct_value_rtx, value);
-      if (GET_CODE (struct_value_rtx) == REG)
-         use_reg (&call_fusage, struct_value_rtx);
-      size += GET_MODE_SIZE (Pmode);
-    }
-
-  /* All arguments and registers used for the call are set up by now!  */
-  function = prepare_call_address (function, NULL_TREE, &call_fusage, 0);
-
-  /* Ensure address is valid.  SYMBOL_REF is already valid, so no need,
-     and we don't want to load it into a register as an optimization,
-     because prepare_call_address already did it if it should be done.  */
-  if (GET_CODE (function) != SYMBOL_REF)
-    function = memory_address (FUNCTION_MODE, function);
-
-  /* Generate the actual call instruction and save the return value.  */
-#ifdef HAVE_untyped_call
-  if (HAVE_untyped_call)
-    emit_call_insn (gen_untyped_call (gen_rtx_MEM (FUNCTION_MODE, function),
-                                     result, result_vector (1, result)));
-  else
-#endif
-#ifdef HAVE_call_value
-  if (HAVE_call_value)
-    {
-      rtx valreg = 0;
-
-      /* Locate the unique return register.  It is not possible to
-        express a call that sets more than one return register using
-        call_value; use untyped_call for that.  In fact, untyped_call
-        only needs to save the return registers in the given block.  */
-      for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-       if ((mode = apply_result_mode[regno]) != VOIDmode)
-         {
-           if (valreg)
-             abort (); /* HAVE_untyped_call required.  */
-           valreg = gen_rtx_REG (mode, regno);
-         }
-
-      emit_call_insn (gen_call_value (valreg,
-                                     gen_rtx_MEM (FUNCTION_MODE, function),
-                                     const0_rtx, NULL_RTX, const0_rtx));
-
-      emit_move_insn (change_address (result, GET_MODE (valreg),
-                                     XEXP (result, 0)),
-                     valreg);
-    }
-  else
-#endif
-    abort ();
-
-  /* Find the CALL insn we just emitted.  */
-  for (call_insn = get_last_insn ();
-       call_insn && GET_CODE (call_insn) != CALL_INSN;
-       call_insn = PREV_INSN (call_insn))
-    ;
-
-  if (! call_insn)
-    abort ();
-
-  /* Put the register usage information on the CALL.  If there is already
-     some usage information, put ours at the end.  */
-  if (CALL_INSN_FUNCTION_USAGE (call_insn))
-    {
-      rtx link;
-
-      for (link = CALL_INSN_FUNCTION_USAGE (call_insn); XEXP (link, 1) != 0;
-          link = XEXP (link, 1))
-       ;
-
-      XEXP (link, 1) = call_fusage;
-    }
-  else
-    CALL_INSN_FUNCTION_USAGE (call_insn) = call_fusage;
-
-  /* Restore the stack.  */
-#ifdef HAVE_save_stack_nonlocal
-  if (HAVE_save_stack_nonlocal)
-    emit_stack_restore (SAVE_NONLOCAL, old_stack_level, NULL_RTX);
-  else
-#endif
-    emit_stack_restore (SAVE_BLOCK, old_stack_level, NULL_RTX);
-
-  /* Return the address of the result block.  */
-  return copy_addr_to_reg (XEXP (result, 0));
-}
-
-/* Perform an untyped return.  */
-
-static void
-expand_builtin_return (result)
-     rtx result;
-{
-  int size, align, regno;
-  enum machine_mode mode;
-  rtx reg;
-  rtx call_fusage = 0;
-
-  apply_result_size ();
-  result = gen_rtx_MEM (BLKmode, result);
-
-#ifdef HAVE_untyped_return
-  if (HAVE_untyped_return)
-    {
-      emit_jump_insn (gen_untyped_return (result, result_vector (0, result)));
-      emit_barrier ();
-      return;
-    }
-#endif
-
-  /* Restore the return value and note that each value is used.  */
-  size = 0;
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_result_mode[regno]) != VOIDmode)
-      {
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
-       reg = gen_rtx_REG (mode, INCOMING_REGNO (regno));
-       emit_move_insn (reg,
-                       change_address (result, mode,
-                                       plus_constant (XEXP (result, 0),
-                                                      size)));
-
-       push_to_sequence (call_fusage);
-       emit_insn (gen_rtx_USE (VOIDmode, reg));
-       call_fusage = get_insns ();
-       end_sequence ();
-       size += GET_MODE_SIZE (mode);
-      }
-
-  /* Put the USE insns before the return.  */
-  emit_insns (call_fusage);
-
-  /* Return whatever values was restored by jumping directly to the end
-     of the function.  */
-  expand_null_return ();
-}
-\f
-/* Expand code for a post- or pre- increment or decrement
-   and return the RTX for the result.
-   POST is 1 for postinc/decrements and 0 for preinc/decrements.  */
-
-static rtx
-expand_increment (exp, post, ignore)
-     register tree exp;
-     int post, ignore;
-{
-  register rtx op0, op1;
-  register rtx temp, value;
-  register tree incremented = TREE_OPERAND (exp, 0);
-  optab this_optab = add_optab;
-  int icode;
-  enum machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
-  int op0_is_copy = 0;
-  int single_insn = 0;
-  /* 1 means we can't store into OP0 directly,
-     because it is a subreg narrower than a word,
-     and we don't dare clobber the rest of the word.  */
-  int bad_subreg = 0;
+  register rtx op0, op1;
+  register rtx temp, value;
+  register tree incremented = TREE_OPERAND (exp, 0);
+  optab this_optab = add_optab;
+  int icode;
+  enum machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
+  int op0_is_copy = 0;
+  int single_insn = 0;
+  /* 1 means we can't store into OP0 directly,
+     because it is a subreg narrower than a word,
+     and we don't dare clobber the rest of the word.  */
+  int bad_subreg = 0;
 
   /* Stabilize any component ref that might need to be
      evaluated more than once below.  */
@@ -10221,9 +8922,9 @@ expand_increment (exp, post, ignore)
       if (icode != (int) CODE_FOR_nothing
          /* Make sure that OP0 is valid for operands 0 and 1
             of the insn we want to queue.  */
-         && (*insn_operand_predicate[icode][0]) (op0, mode)
-         && (*insn_operand_predicate[icode][1]) (op0, mode)
-         && (*insn_operand_predicate[icode][2]) (op1, mode))
+         && (*insn_data[icode].operand[0].predicate) (op0, mode)
+         && (*insn_data[icode].operand[1].predicate) (op0, mode)
+         && (*insn_data[icode].operand[2].predicate) (op1, mode))
        single_insn = 1;
     }
 
@@ -10277,10 +8978,10 @@ expand_increment (exp, post, ignore)
       if (icode != (int) CODE_FOR_nothing
          /* Make sure that OP0 is valid for operands 0 and 1
             of the insn we want to queue.  */
-         && (*insn_operand_predicate[icode][0]) (op0, mode)
-         && (*insn_operand_predicate[icode][1]) (op0, mode))
+         && (*insn_data[icode].operand[0].predicate) (op0, mode)
+         && (*insn_data[icode].operand[1].predicate) (op0, mode))
        {
-         if (! (*insn_operand_predicate[icode][2]) (op1, mode))
+         if (! (*insn_data[icode].operand[2].predicate) (op1, mode))
            op1 = force_reg (mode, op1);
 
          return enqueue_insn (op0, GEN_FCN (icode) (op0, op0, op1));
@@ -10294,7 +8995,7 @@ expand_increment (exp, post, ignore)
 
          op0 = change_address (op0, VOIDmode, addr);
          temp = force_reg (GET_MODE (op0), op0);
-         if (! (*insn_operand_predicate[icode][2]) (op1, mode))
+         if (! (*insn_data[icode].operand[2].predicate) (op1, mode))
            op1 = force_reg (mode, op1);
 
          /* The increment queue is LIFO, thus we have to `queue'
@@ -10395,10 +9096,17 @@ preexpand_calls (exp)
   for (i = 0; i < nops; i++)
     if (TREE_OPERAND (exp, i) != 0)
       {
-       type = TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, i)));
-       if (type == 'e' || type == '<' || type == '1' || type == '2'
-           || type == 'r')
-         preexpand_calls (TREE_OPERAND (exp, i));
+       if (TREE_CODE (exp) == TARGET_EXPR && i == 2)
+         /* We don't need to preexpand the cleanup for a TARGET_EXPR.
+            It doesn't happen before the call is made.  */
+         ;
+       else
+         {
+           type = TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, i)));
+           if (type == 'e' || type == '<' || type == '1' || type == '2'
+               || type == 'r')
+             preexpand_calls (TREE_OPERAND (exp, i));
+         }
       }
 }
 \f
@@ -10490,7 +9198,6 @@ do_jump (exp, if_false_label, if_true_label)
      These cases set DROP_THROUGH_LABEL nonzero.  */
   rtx drop_through_label = 0;
   rtx temp;
-  rtx comparison = 0;
   int i;
   tree type;
   enum machine_mode mode;
@@ -10542,6 +9249,15 @@ do_jump (exp, if_false_label, if_true_label)
       do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
       break;
 
+    case WITH_RECORD_EXPR:
+      /* Put the object on the placeholder list, recurse through our first
+        operand, and pop the list.  */
+      placeholder_list = tree_cons (TREE_OPERAND (exp, 1), NULL_TREE,
+                                   placeholder_list);
+      do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
+      placeholder_list = TREE_CHAIN (placeholder_list);
+      break;
+
 #if 0
       /* This is never less insns than evaluating the PLUS_EXPR followed by
         a test and can be longer if the test is eliminated.  */
@@ -10556,10 +9272,10 @@ do_jump (exp, if_false_label, if_true_label)
 
     case MINUS_EXPR:
       /* Non-zero iff operands of minus differ.  */
-      comparison = compare (build (NE_EXPR, TREE_TYPE (exp),
-                                  TREE_OPERAND (exp, 0),
-                                  TREE_OPERAND (exp, 1)),
-                           NE, NE);
+      do_compare_and_jump (build (NE_EXPR, TREE_TYPE (exp),
+                                 TREE_OPERAND (exp, 0),
+                                 TREE_OPERAND (exp, 1)),
+                          NE, NE, if_false_label, if_true_label);
       break;
 
     case BIT_AND_EXPR:
@@ -10627,7 +9343,7 @@ do_jump (exp, if_false_label, if_true_label)
        tree type;
        tree offset;
        int volatilep = 0;
-       int alignment;
+       unsigned int alignment;
 
        /* Get description of this reference.  We don't actually care
           about the underlying object here.  */
@@ -10715,10 +9431,10 @@ do_jump (exp, if_false_label, if_true_label)
          do_jump (TREE_OPERAND (exp, 0), if_true_label, if_false_label);
 
        else if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_INT
-                && !can_compare_p (TYPE_MODE (inner_type)))
+                && !can_compare_p (EQ, TYPE_MODE (inner_type), ccp_jump))
          do_jump_by_parts_equality (exp, if_false_label, if_true_label);
        else
-         comparison = compare (exp, EQ, EQ);
+         do_compare_and_jump (exp, EQ, EQ, if_false_label, if_true_label);
        break;
       }
 
@@ -10755,47 +9471,120 @@ do_jump (exp, if_false_label, if_true_label)
          do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
 
        else if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_INT
-                && !can_compare_p (TYPE_MODE (inner_type)))
+                && !can_compare_p (NE, TYPE_MODE (inner_type), ccp_jump))
          do_jump_by_parts_equality (exp, if_true_label, if_false_label);
        else
-         comparison = compare (exp, NE, NE);
+         do_compare_and_jump (exp, NE, NE, if_false_label, if_true_label);
        break;
       }
 
     case LT_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (LT, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 1, if_false_label, if_true_label);
       else
-       comparison = compare (exp, LT, LTU);
+       do_compare_and_jump (exp, LT, LTU, if_false_label, if_true_label);
       break;
 
     case LE_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (LE, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 0, if_true_label, if_false_label);
       else
-       comparison = compare (exp, LE, LEU);
+       do_compare_and_jump (exp, LE, LEU, if_false_label, if_true_label);
       break;
 
     case GT_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (GT, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 0, if_false_label, if_true_label);
       else
-       comparison = compare (exp, GT, GTU);
+       do_compare_and_jump (exp, GT, GTU, if_false_label, if_true_label);
       break;
 
     case GE_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (GE, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 1, if_true_label, if_false_label);
       else
-       comparison = compare (exp, GE, GEU);
+       do_compare_and_jump (exp, GE, GEU, if_false_label, if_true_label);
+      break;
+
+    case UNORDERED_EXPR:
+    case ORDERED_EXPR:
+      {
+       enum rtx_code cmp, rcmp;
+       int do_rev;
+
+       if (code == UNORDERED_EXPR)
+         cmp = UNORDERED, rcmp = ORDERED;
+       else
+         cmp = ORDERED, rcmp = UNORDERED;
+        mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+
+       do_rev = 0;
+       if (! can_compare_p (cmp, mode, ccp_jump)
+           && (can_compare_p (rcmp, mode, ccp_jump)
+               /* If the target doesn't provide either UNORDERED or ORDERED
+                  comparisons, canonicalize on UNORDERED for the library.  */
+               || rcmp == UNORDERED))
+         do_rev = 1;
+
+        if (! do_rev)
+         do_compare_and_jump (exp, cmp, cmp, if_false_label, if_true_label);
+       else
+         do_compare_and_jump (exp, rcmp, rcmp, if_true_label, if_false_label);
+      }
+      break;
+
+    {
+      enum rtx_code rcode1;
+      enum tree_code tcode2;
+
+      case UNLT_EXPR:
+       rcode1 = UNLT;
+       tcode2 = LT_EXPR;
+       goto unordered_bcc;
+      case UNLE_EXPR:
+       rcode1 = UNLE;
+       tcode2 = LE_EXPR;
+       goto unordered_bcc;
+      case UNGT_EXPR:
+       rcode1 = UNGT;
+       tcode2 = GT_EXPR;
+       goto unordered_bcc;
+      case UNGE_EXPR:
+       rcode1 = UNGE;
+       tcode2 = GE_EXPR;
+       goto unordered_bcc;
+      case UNEQ_EXPR:
+       rcode1 = UNEQ;
+       tcode2 = EQ_EXPR;
+       goto unordered_bcc;
+
+      unordered_bcc:
+        mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+       if (can_compare_p (rcode1, mode, ccp_jump))
+         do_compare_and_jump (exp, rcode1, rcode1, if_false_label,
+                              if_true_label);
+       else
+         {
+           tree op0 = save_expr (TREE_OPERAND (exp, 0));
+           tree op1 = save_expr (TREE_OPERAND (exp, 1));
+           tree cmp0, cmp1;
+
+           /* If the target doesn't support combined unordered 
+              compares, decompose into UNORDERED + comparison.  */
+           cmp0 = fold (build (UNORDERED_EXPR, TREE_TYPE (exp), op0, op1));
+           cmp1 = fold (build (tcode2, TREE_TYPE (exp), op0, op1));
+           exp = build (TRUTH_ORIF_EXPR, TREE_TYPE (exp), cmp0, cmp1);
+           do_jump (exp, if_false_label, if_true_label);
+         }
+      }
       break;
 
     default:
@@ -10811,41 +9600,27 @@ do_jump (exp, if_false_label, if_true_label)
        temp = copy_to_reg (temp);
 #endif
       do_pending_stack_adjust ();
-      if (GET_CODE (temp) == CONST_INT)
-       comparison = (temp == const0_rtx ? const0_rtx : const_true_rtx);
-      else if (GET_CODE (temp) == LABEL_REF)
-       comparison = const_true_rtx;
+      /* Do any postincrements in the expression that was tested.  */
+      emit_queue ();
+
+      if (GET_CODE (temp) == CONST_INT || GET_CODE (temp) == LABEL_REF)
+       {
+         rtx target = temp == const0_rtx ? if_false_label : if_true_label;
+         if (target)
+           emit_jump (target);
+       }
       else if (GET_MODE_CLASS (GET_MODE (temp)) == MODE_INT
-              && !can_compare_p (GET_MODE (temp)))
+              && ! can_compare_p (NE, GET_MODE (temp), ccp_jump))
        /* Note swapping the labels gives us not-equal.  */
        do_jump_by_parts_equality_rtx (temp, if_true_label, if_false_label);
       else if (GET_MODE (temp) != VOIDmode)
-       comparison = compare_from_rtx (temp, CONST0_RTX (GET_MODE (temp)),
-                                      NE, TREE_UNSIGNED (TREE_TYPE (exp)),
-                                      GET_MODE (temp), NULL_RTX, 0);
+       do_compare_rtx_and_jump (temp, CONST0_RTX (GET_MODE (temp)),
+                                NE, TREE_UNSIGNED (TREE_TYPE (exp)),
+                                GET_MODE (temp), NULL_RTX, 0,
+                                if_false_label, if_true_label);
       else
-       abort ();
-    }
-
-  /* Do any postincrements in the expression that was tested.  */
-  emit_queue ();
-
-  /* If COMPARISON is nonzero here, it is an rtx that can be substituted
-     straight into a conditional jump instruction as the jump condition.
-     Otherwise, all the work has been done already.  */
-
-  if (comparison == const_true_rtx)
-    {
-      if (if_true_label)
-       emit_jump (if_true_label);
-    }
-  else if (comparison == const0_rtx)
-    {
-      if (if_false_label)
-       emit_jump (if_false_label);
+       abort ();
     }
-  else if (comparison)
-    do_jump_for_compare (comparison, if_false_label, if_true_label);
 
   if (drop_through_label)
     {
@@ -10871,57 +9646,9 @@ do_jump_by_parts_greater (exp, swap, if_false_label, if_true_label)
   rtx op0 = expand_expr (TREE_OPERAND (exp, swap), NULL_RTX, VOIDmode, 0);
   rtx op1 = expand_expr (TREE_OPERAND (exp, !swap), NULL_RTX, VOIDmode, 0);
   enum machine_mode mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
-  int nwords = (GET_MODE_SIZE (mode) / UNITS_PER_WORD);
-  rtx drop_through_label = 0;
   int unsignedp = TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0)));
-  int i;
-
-  if (! if_true_label || ! if_false_label)
-    drop_through_label = gen_label_rtx ();
-  if (! if_true_label)
-    if_true_label = drop_through_label;
-  if (! if_false_label)
-    if_false_label = drop_through_label;
-
-  /* Compare a word at a time, high order first.  */
-  for (i = 0; i < nwords; i++)
-    {
-      rtx comp;
-      rtx op0_word, op1_word;
-
-      if (WORDS_BIG_ENDIAN)
-       {
-         op0_word = operand_subword_force (op0, i, mode);
-         op1_word = operand_subword_force (op1, i, mode);
-       }
-      else
-       {
-         op0_word = operand_subword_force (op0, nwords - 1 - i, mode);
-         op1_word = operand_subword_force (op1, nwords - 1 - i, mode);
-       }
-
-      /* All but high-order word must be compared as unsigned.  */
-      comp = compare_from_rtx (op0_word, op1_word,
-                              (unsignedp || i > 0) ? GTU : GT,
-                              unsignedp, word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_true_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_true_label);
-
-      /* Consider lower words only if these are equal.  */
-      comp = compare_from_rtx (op0_word, op1_word, NE, unsignedp, word_mode,
-                              NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_false_label);
-    }
 
-  if (if_false_label)
-    emit_jump (if_false_label);
-  if (drop_through_label)
-    emit_label (drop_through_label);
+  do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true_label);
 }
 
 /* Compare OP0 with OP1, word at a time, in mode MODE.
@@ -10949,7 +9676,6 @@ do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true
   /* Compare a word at a time, high order first.  */
   for (i = 0; i < nwords; i++)
     {
-      rtx comp;
       rtx op0_word, op1_word;
 
       if (WORDS_BIG_ENDIAN)
@@ -10964,21 +9690,13 @@ do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true
        }
 
       /* All but high-order word must be compared as unsigned.  */
-      comp = compare_from_rtx (op0_word, op1_word,
-                              (unsignedp || i > 0) ? GTU : GT,
-                              unsignedp, word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_true_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_true_label);
+      do_compare_rtx_and_jump (op0_word, op1_word, GT,
+                              (unsignedp || i > 0), word_mode, NULL_RTX, 0,
+                              NULL_RTX, if_true_label);
 
       /* Consider lower words only if these are equal.  */
-      comp = compare_from_rtx (op0_word, op1_word, NE, unsignedp, word_mode,
-                              NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_false_label);
+      do_compare_rtx_and_jump (op0_word, op1_word, NE, unsignedp, word_mode,
+                              NULL_RTX, 0, NULL_RTX, if_false_label);
     }
 
   if (if_false_label)
@@ -11006,16 +9724,11 @@ do_jump_by_parts_equality (exp, if_false_label, if_true_label)
     drop_through_label = if_false_label = gen_label_rtx ();
 
   for (i = 0; i < nwords; i++)
-    {
-      rtx comp = compare_from_rtx (operand_subword_force (op0, i, mode),
-                                  operand_subword_force (op1, i, mode),
-                                  EQ, TREE_UNSIGNED (TREE_TYPE (exp)),
-                                  word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, if_false_label, NULL_RTX);
-    }
+    do_compare_rtx_and_jump (operand_subword_force (op0, i, mode),
+                            operand_subword_force (op1, i, mode),
+                            EQ, TREE_UNSIGNED (TREE_TYPE (exp)),
+                            word_mode, NULL_RTX, 0, if_false_label,
+                            NULL_RTX);
 
   if (if_true_label)
     emit_jump (if_true_label);
@@ -11051,15 +9764,8 @@ do_jump_by_parts_equality_rtx (op0, if_false_label, if_true_label)
 
   if (part != 0)
     {
-      rtx comp = compare_from_rtx (part, const0_rtx, EQ, 1, word_mode,
-                                  NULL_RTX, 0);
-
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp == const0_rtx)
-       emit_jump (if_true_label);
-      else
-       do_jump_for_compare (comp, if_false_label, if_true_label);
+      do_compare_rtx_and_jump (part, const0_rtx, EQ, 1, word_mode,
+                              NULL_RTX, 0, if_false_label, if_true_label);
 
       return;
     }
@@ -11069,15 +9775,9 @@ do_jump_by_parts_equality_rtx (op0, if_false_label, if_true_label)
     drop_through_label = if_false_label = gen_label_rtx ();
 
   for (i = 0; i < nwords; i++)
-    {
-      rtx comp = compare_from_rtx (operand_subword_force (op0, i,
-                                                         GET_MODE (op0)),
-                                  const0_rtx, EQ, 1, word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, if_false_label, NULL_RTX);
-    }
+    do_compare_rtx_and_jump (operand_subword_force (op0, i, GET_MODE (op0)),
+                            const0_rtx, EQ, 1, word_mode, NULL_RTX, 0,
+                            if_false_label, NULL_RTX);
 
   if (if_true_label)
     emit_jump (if_true_label);
@@ -11085,160 +9785,84 @@ do_jump_by_parts_equality_rtx (op0, if_false_label, if_true_label)
   if (drop_through_label)
     emit_label (drop_through_label);
 }
-
-/* Given a comparison expression in rtl form, output conditional branches to
-   IF_TRUE_LABEL, IF_FALSE_LABEL, or both.  */
-
-static void
-do_jump_for_compare (comparison, if_false_label, if_true_label)
-     rtx comparison, if_false_label, if_true_label;
-{
-  if (if_true_label)
-    {
-      if (bcc_gen_fctn[(int) GET_CODE (comparison)] != 0)
-       emit_jump_insn ((*bcc_gen_fctn[(int) GET_CODE (comparison)])
-                         (if_true_label));
-      else
-       abort ();
-
-      if (if_false_label)
-       emit_jump (if_false_label);
-    }
-  else if (if_false_label)
-    {
-      rtx first = get_last_insn (), insn, branch;
-      int br_count;
-
-      /* Output the branch with the opposite condition.  Then try to invert
-        what is generated.  If more than one insn is a branch, or if the
-        branch is not the last insn written, abort. If we can't invert
-        the branch, emit make a true label, redirect this jump to that,
-        emit a jump to the false label and define the true label.  */
-      /* ??? Note that we wouldn't have to do any of this nonsense if
-        we passed both labels into a combined compare-and-branch. 
-        Ah well, jump threading does a good job of repairing the damage.  */
-
-      if (bcc_gen_fctn[(int) GET_CODE (comparison)] != 0)
-       emit_jump_insn ((*bcc_gen_fctn[(int) GET_CODE (comparison)])
-                         (if_false_label));
-      else
-       abort ();
-
-      /* Here we get the first insn that was just emitted.  It used to be the
-        case that, on some machines, emitting the branch would discard
-        the previous compare insn and emit a replacement.  This isn't
-        done anymore, but abort if we see that FIRST is deleted.  */
-
-      if (first == 0)
-       first = get_insns ();
-      else if (INSN_DELETED_P (first))
-       abort ();
-      else
-       first = NEXT_INSN (first);
-
-      /* Look for multiple branches in this sequence, as might be generated
-        for a multi-word integer comparison.  */
-
-      br_count = 0;
-      branch = NULL_RTX;
-      for (insn = first; insn ; insn = NEXT_INSN (insn))
-       if (GET_CODE (insn) == JUMP_INSN)
-         {
-           branch = insn;
-           br_count += 1;
-         }
-
-      /* If we've got one branch at the end of the sequence,
-        we can try to reverse it.  */
-
-      if (br_count == 1 && NEXT_INSN (branch) == NULL_RTX)
-       {
-         rtx insn_label;
-         insn_label = XEXP (condjump_label (branch), 0);
-         JUMP_LABEL (branch) = insn_label;
-
-         if (insn_label != if_false_label)
-           abort ();
-
-         if (invert_jump (branch, if_false_label))
-           return;
-       }
-
-      /* Multiple branches, or reversion failed.  Convert to branches
-        around an unconditional jump.  */
-
-      if_true_label = gen_label_rtx ();
-      for (insn = first; insn; insn = NEXT_INSN (insn))
-       if (GET_CODE (insn) == JUMP_INSN)
-         {
-           rtx insn_label;
-           insn_label = XEXP (condjump_label (insn), 0);
-           JUMP_LABEL (insn) = insn_label;
-
-           if (insn_label == if_false_label)
-             redirect_jump (insn, if_true_label);
-         }
-       emit_jump (if_false_label);
-       emit_label (if_true_label);
-    }
-}
 \f
-/* Generate code for a comparison expression EXP
+/* Generate code for a comparison of OP0 and OP1 with rtx code CODE.
    (including code to compute the values to be compared)
    and set (CC0) according to the result.
-   SIGNED_CODE should be the rtx operation for this comparison for
-   signed data; UNSIGNED_CODE, likewise for use if data is unsigned.
+   The decision as to signed or unsigned comparison must be made by the caller.
 
    We force a stack adjustment unless there are currently
-   things pushed on the stack that aren't yet used.  */
+   things pushed on the stack that aren't yet used.
 
-static rtx
-compare (exp, signed_code, unsigned_code)
-     register tree exp;
-     enum rtx_code signed_code, unsigned_code;
+   If MODE is BLKmode, SIZE is an RTX giving the size of the objects being
+   compared.
+
+   If ALIGN is non-zero, it is the alignment of this type; if zero, the
+   size of MODE should be used.  */
+
+rtx
+compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
+     register rtx op0, op1;
+     enum rtx_code code;
+     int unsignedp;
+     enum machine_mode mode;
+     rtx size;
+     unsigned int align;
 {
-  register rtx op0
-    = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, VOIDmode, 0);
-  register rtx op1
-    = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
-  register tree type = TREE_TYPE (TREE_OPERAND (exp, 0));
-  register enum machine_mode mode = TYPE_MODE (type);
-  int unsignedp = TREE_UNSIGNED (type);
-  enum rtx_code code = unsignedp ? unsigned_code : signed_code;
+  rtx tem;
 
-#ifdef HAVE_canonicalize_funcptr_for_compare
-  /* If function pointers need to be "canonicalized" before they can
-     be reliably compared, then canonicalize them.  */
-  if (HAVE_canonicalize_funcptr_for_compare
-      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == POINTER_TYPE
-      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-         == FUNCTION_TYPE))
-    {
-      rtx new_op0 = gen_reg_rtx (mode);
+  /* If one operand is constant, make it the second one.  Only do this
+     if the other operand is not constant as well.  */
 
-      emit_insn (gen_canonicalize_funcptr_for_compare (new_op0, op0));
-      op0 = new_op0;
+  if ((CONSTANT_P (op0) && ! CONSTANT_P (op1))
+      || (GET_CODE (op0) == CONST_INT && GET_CODE (op1) != CONST_INT))
+    {
+      tem = op0;
+      op0 = op1;
+      op1 = tem;
+      code = swap_condition (code);
     }
 
-  if (HAVE_canonicalize_funcptr_for_compare
-      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 1))) == POINTER_TYPE
-      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 1))))
-         == FUNCTION_TYPE))
+  if (flag_force_mem)
     {
-      rtx new_op1 = gen_reg_rtx (mode);
+      op0 = force_not_mem (op0);
+      op1 = force_not_mem (op1);
+    }
 
-      emit_insn (gen_canonicalize_funcptr_for_compare (new_op1, op1));
-      op1 = new_op1;
+  do_pending_stack_adjust ();
+
+  if (GET_CODE (op0) == CONST_INT && GET_CODE (op1) == CONST_INT
+      && (tem = simplify_relational_operation (code, mode, op0, op1)) != 0)
+    return tem;
+
+#if 0
+  /* There's no need to do this now that combine.c can eliminate lots of
+     sign extensions.  This can be less efficient in certain cases on other
+     machines.  */
+
+  /* If this is a signed equality comparison, we can do it as an
+     unsigned comparison since zero-extension is cheaper than sign
+     extension and comparisons with zero are done as unsigned.  This is
+     the case even on machines that can do fast sign extension, since
+     zero-extension is easier to combine with other operations than
+     sign-extension is.  If we are comparing against a constant, we must
+     convert it to what it would look like unsigned.  */
+  if ((code == EQ || code == NE) && ! unsignedp
+      && GET_MODE_BITSIZE (GET_MODE (op0)) <= HOST_BITS_PER_WIDE_INT)
+    {
+      if (GET_CODE (op1) == CONST_INT
+         && (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0))) != INTVAL (op1))
+       op1 = GEN_INT (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0)));
+      unsignedp = 1;
     }
 #endif
+       
+  emit_cmp_insn (op0, op1, code, size, mode, unsignedp, align);
 
-  return compare_from_rtx (op0, op1, code, unsignedp, mode,
-                          ((mode == BLKmode)
-                           ? expr_size (TREE_OPERAND (exp, 0)) : NULL_RTX),
-                          TYPE_ALIGN (TREE_TYPE (exp)) / BITS_PER_UNIT);
+  return gen_rtx_fmt_ee (code, VOIDmode, cc0_rtx, const0_rtx);
 }
 
-/* Like compare but expects the values to compare as two rtx's.
+/* Like do_compare_and_jump but expects the values to compare as two rtx's.
    The decision as to signed or unsigned comparison must be made by the caller.
 
    If MODE is BLKmode, SIZE is an RTX giving the size of the objects being
@@ -11247,16 +9871,28 @@ compare (exp, signed_code, unsigned_code)
    If ALIGN is non-zero, it is the alignment of this type; if zero, the
    size of MODE should be used.  */
 
-rtx
-compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
+void
+do_compare_rtx_and_jump (op0, op1, code, unsignedp, mode, size, align,
+                        if_false_label, if_true_label)
      register rtx op0, op1;
      enum rtx_code code;
      int unsignedp;
      enum machine_mode mode;
      rtx size;
-     int align;
+     unsigned int align;
+     rtx if_false_label, if_true_label;
 {
   rtx tem;
+  int dummy_true_label = 0;
+
+  /* Reverse the comparison if that is safe and we want to jump if it is
+     false.  */
+  if (! if_true_label && ! FLOAT_MODE_P (mode))
+    {
+      if_true_label = if_false_label;
+      if_false_label = 0;
+      code = reverse_condition (code);
+    }
 
   /* If one operand is constant, make it the second one.  Only do this
      if the other operand is not constant as well.  */
@@ -11280,7 +9916,19 @@ compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
 
   if (GET_CODE (op0) == CONST_INT && GET_CODE (op1) == CONST_INT
       && (tem = simplify_relational_operation (code, mode, op0, op1)) != 0)
-    return tem;
+    {
+      if (tem == const_true_rtx)
+       {
+         if (if_true_label)
+           emit_jump (if_true_label);
+       }
+      else
+       {
+         if (if_false_label)
+           emit_jump (if_false_label);
+       }
+      return;
+    }
 
 #if 0
   /* There's no need to do this now that combine.c can eliminate lots of
@@ -11303,10 +9951,91 @@ compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
       unsignedp = 1;
     }
 #endif
-       
-  emit_cmp_insn (op0, op1, code, size, mode, unsignedp, align);
 
-  return gen_rtx_fmt_ee (code, VOIDmode, cc0_rtx, const0_rtx);
+  if (! if_true_label)
+    {
+      dummy_true_label = 1;
+      if_true_label = gen_label_rtx ();
+    }
+
+  emit_cmp_and_jump_insns (op0, op1, code, size, mode, unsignedp, align,
+                          if_true_label);
+
+  if (if_false_label)
+    emit_jump (if_false_label);
+  if (dummy_true_label)
+    emit_label (if_true_label);
+}
+
+/* Generate code for a comparison expression EXP (including code to compute
+   the values to be compared) and a conditional jump to IF_FALSE_LABEL and/or
+   IF_TRUE_LABEL.  One of the labels can be NULL_RTX, in which case the
+   generated code will drop through.
+   SIGNED_CODE should be the rtx operation for this comparison for
+   signed data; UNSIGNED_CODE, likewise for use if data is unsigned.
+
+   We force a stack adjustment unless there are currently
+   things pushed on the stack that aren't yet used.  */
+
+static void
+do_compare_and_jump (exp, signed_code, unsigned_code, if_false_label,
+                    if_true_label)
+     register tree exp;
+     enum rtx_code signed_code, unsigned_code;
+     rtx if_false_label, if_true_label;
+{
+  unsigned int align0, align1;
+  register rtx op0, op1;
+  register tree type;
+  register enum machine_mode mode;
+  int unsignedp;
+  enum rtx_code code;
+
+  /* Don't crash if the comparison was erroneous.  */
+  op0 = expand_expr_unaligned (TREE_OPERAND (exp, 0), &align0);
+  if (TREE_CODE (TREE_OPERAND (exp, 0)) == ERROR_MARK)
+    return;
+
+  op1 = expand_expr_unaligned (TREE_OPERAND (exp, 1), &align1);
+  type = TREE_TYPE (TREE_OPERAND (exp, 0));
+  mode = TYPE_MODE (type);
+  unsignedp = TREE_UNSIGNED (type);
+  code = unsignedp ? unsigned_code : signed_code;
+
+#ifdef HAVE_canonicalize_funcptr_for_compare
+  /* If function pointers need to be "canonicalized" before they can
+     be reliably compared, then canonicalize them.  */
+  if (HAVE_canonicalize_funcptr_for_compare
+      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == POINTER_TYPE
+      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))))
+         == FUNCTION_TYPE))
+    {
+      rtx new_op0 = gen_reg_rtx (mode);
+
+      emit_insn (gen_canonicalize_funcptr_for_compare (new_op0, op0));
+      op0 = new_op0;
+    }
+
+  if (HAVE_canonicalize_funcptr_for_compare
+      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 1))) == POINTER_TYPE
+      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 1))))
+         == FUNCTION_TYPE))
+    {
+      rtx new_op1 = gen_reg_rtx (mode);
+
+      emit_insn (gen_canonicalize_funcptr_for_compare (new_op1, op1));
+      op1 = new_op1;
+    }
+#endif
+
+  /* Do any postincrements in the expression that was tested.  */
+  emit_queue ();
+
+  do_compare_rtx_and_jump (op0, op1, code, unsignedp, mode,
+                          ((mode == BLKmode)
+                           ? expr_size (TREE_OPERAND (exp, 0)) : NULL_RTX),
+                          MIN (align0, align1) / BITS_PER_UNIT,
+                          if_false_label, if_true_label);
 }
 \f
 /* Generate code to calculate EXP using a store-flag instruction
@@ -11421,6 +10150,29 @@ do_store_flag (exp, target, mode, only_cheap)
       else
        code = unsignedp ? GEU : GE;
       break;
+
+    case UNORDERED_EXPR:
+      code = UNORDERED;
+      break;
+    case ORDERED_EXPR:
+      code = ORDERED;
+      break;
+    case UNLT_EXPR:
+      code = UNLT;
+      break;
+    case UNLE_EXPR:
+      code = UNLE;
+      break;
+    case UNGT_EXPR:
+      code = UNGT;
+      break;
+    case UNGE_EXPR:
+      code = UNGE;
+      break;
+    case UNEQ_EXPR:
+      code = UNEQ;
+      break;
+
     default:
       abort ();
     }
@@ -11496,11 +10248,12 @@ do_store_flag (exp, target, mode, only_cheap)
     }
 
   /* Now see if we are likely to be able to do this.  Return if not.  */
-  if (! can_compare_p (operand_mode))
+  if (! can_compare_p (code, operand_mode, ccp_store_flag))
     return 0;
+
   icode = setcc_gen_code[(int) code];
   if (icode == CODE_FOR_nothing
-      || (only_cheap && insn_operand_mode[(int) icode][0] != mode))
+      || (only_cheap && insn_data[(int) icode].operand[0].mode != mode))
     {
       /* We can only do this if it is one of the special cases that
         can be handled without an scc insn.  */