OSDN Git Service

* config/alpha/alpha.c (alpha_emit_floatuns): Ensure we pass a REG
[pf3gnuchains/gcc-fork.git] / gcc / expr.c
index d7f87c5..98a2628 100644 (file)
@@ -1,5 +1,6 @@
 /* Convert tree expression to rtl instructions, for GNU compiler.
-   Copyright (C) 1988, 92-98, 1999 Free Software Foundation, Inc.
+   Copyright (C) 1988, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000
+   Free Software Foundation, Inc.
 
 This file is part of GNU CC.
 
@@ -40,8 +41,22 @@ Boston, MA 02111-1307, USA.  */
 #include "typeclass.h"
 #include "defaults.h"
 #include "toplev.h"
+#include "ggc.h"
+#include "intl.h"
+#include "tm_p.h"
 
-#define CEIL(x,y) (((x) + (y) - 1) / (y))
+#ifndef ACCUMULATE_OUTGOING_ARGS
+#define ACCUMULATE_OUTGOING_ARGS 0
+#endif
+
+/* Supply a default definition for PUSH_ARGS.  */
+#ifndef PUSH_ARGS
+#ifdef PUSH_ROUNDING
+#define PUSH_ARGS      !ACCUMULATE_OUTGOING_ARGS
+#else
+#define PUSH_ARGS      0
+#endif
+#endif
 
 /* Decide whether a function's arguments should be processed
    from first to last or from last to first.
@@ -83,31 +98,13 @@ int cse_not_expected;
    Nowadays this is never zero.  */
 int do_preexpand_calls = 1;
 
-/* Number of units that we should eventually pop off the stack.
-   These are the arguments to function calls that have already returned.  */
-int pending_stack_adjust;
-
-/* Nonzero means stack pops must not be deferred, and deferred stack
-   pops must not be output.  It is nonzero inside a function call,
-   inside a conditional expression, inside a statement expression,
-   and in other cases as well.  */
-int inhibit_defer_pop;
-
-/* Nonzero means __builtin_saveregs has already been done in this function.
-   The value is the pseudoreg containing the value __builtin_saveregs
-   returned.  */
-static rtx saveregs_value;
-
-/* Similarly for __builtin_apply_args.  */
-static rtx apply_args_value;
-
 /* Don't check memory usage, since code is being emitted to check a memory
    usage.  Used when current_function_check_memory_usage is true, to avoid
    infinite recursion.  */
 static int in_check_memory_usage;
 
-/* Postincrements that still need to be expanded.  */
-static rtx pending_chain;
+/* Chain of pending expressions for PLACEHOLDER_EXPR to replace.  */
+static tree placeholder_list = 0;
 
 /* This structure is used by move_by_pieces to describe the move to
    be performed.  */
@@ -118,11 +115,13 @@ struct move_by_pieces
   int autinc_to;
   int explicit_inc_to;
   int to_struct;
+  int to_readonly;
   rtx from;
   rtx from_addr;
   int autinc_from;
   int explicit_inc_from;
   int from_struct;
+  int from_readonly;
   int len;
   int offset;
   int reverse;
@@ -144,52 +143,44 @@ struct clear_by_pieces
 };
 
 extern struct obstack permanent_obstack;
-extern rtx arg_pointer_save_area;
-
-static rtx get_push_address    PROTO ((int));
-
-static rtx enqueue_insn                PROTO((rtx, rtx));
-static void init_queue         PROTO((void));
-static int move_by_pieces_ninsns PROTO((unsigned int, int));
-static void move_by_pieces_1   PROTO((rtx (*) (rtx, ...), enum machine_mode,
-                                      struct move_by_pieces *));
-static void clear_by_pieces    PROTO((rtx, int, int));
-static void clear_by_pieces_1  PROTO((rtx (*) (rtx, ...), enum machine_mode,
-                                      struct clear_by_pieces *));
-static int is_zeros_p          PROTO((tree));
-static int mostly_zeros_p      PROTO((tree));
-static void store_constructor_field PROTO((rtx, int, int, enum machine_mode,
-                                          tree, tree, int));
-static void store_constructor  PROTO((tree, rtx, int));
-static rtx store_field         PROTO((rtx, int, int, enum machine_mode, tree,
-                                      enum machine_mode, int, int,
-                                      int, int));
+
+static rtx get_push_address    PARAMS ((int));
+
+static rtx enqueue_insn                PARAMS ((rtx, rtx));
+static int move_by_pieces_ninsns PARAMS ((unsigned int, unsigned int));
+static void move_by_pieces_1   PARAMS ((rtx (*) (rtx, ...), enum machine_mode,
+                                        struct move_by_pieces *));
+static void clear_by_pieces    PARAMS ((rtx, int, unsigned int));
+static void clear_by_pieces_1  PARAMS ((rtx (*) (rtx, ...),
+                                        enum machine_mode,
+                                        struct clear_by_pieces *));
+static int is_zeros_p          PARAMS ((tree));
+static int mostly_zeros_p      PARAMS ((tree));
+static void store_constructor_field PARAMS ((rtx, unsigned HOST_WIDE_INT,
+                                            HOST_WIDE_INT, enum machine_mode,
+                                            tree, tree, unsigned int, int));
+static void store_constructor  PARAMS ((tree, rtx, unsigned int, int,
+                                        HOST_WIDE_INT));
+static rtx store_field         PARAMS ((rtx, HOST_WIDE_INT,
+                                        HOST_WIDE_INT, enum machine_mode,
+                                        tree, enum machine_mode, int,
+                                        unsigned int, HOST_WIDE_INT, int));
 static enum memory_use_mode
-  get_memory_usage_from_modifier PROTO((enum expand_modifier));
-static tree save_noncopied_parts PROTO((tree, tree));
-static tree init_noncopied_parts PROTO((tree, tree));
-static int safe_from_p         PROTO((rtx, tree, int));
-static int fixed_type_p                PROTO((tree));
-static rtx var_rtx             PROTO((tree));
-static int get_pointer_alignment PROTO((tree, unsigned));
-static tree string_constant    PROTO((tree, tree *));
-static tree c_strlen           PROTO((tree));
-static rtx get_memory_rtx      PROTO((tree));
-static rtx expand_builtin      PROTO((tree, rtx, rtx,
-                                      enum machine_mode, int));
-static int apply_args_size     PROTO((void));
-static int apply_result_size   PROTO((void));
-static rtx result_vector       PROTO((int, rtx));
-static rtx expand_builtin_apply_args PROTO((void));
-static rtx expand_builtin_apply        PROTO((rtx, rtx, rtx));
-static void expand_builtin_return PROTO((rtx));
-static rtx expand_increment    PROTO((tree, int, int));
-static void preexpand_calls    PROTO((tree));
-static void do_jump_by_parts_greater PROTO((tree, int, rtx, rtx));
-static void do_jump_by_parts_equality PROTO((tree, rtx, rtx));
-static void do_jump_for_compare        PROTO((rtx, rtx, rtx));
-static rtx compare             PROTO((tree, enum rtx_code, enum rtx_code));
-static rtx do_store_flag       PROTO((tree, rtx, enum machine_mode, int));
+  get_memory_usage_from_modifier PARAMS ((enum expand_modifier));
+static tree save_noncopied_parts PARAMS ((tree, tree));
+static tree init_noncopied_parts PARAMS ((tree, tree));
+static int safe_from_p         PARAMS ((rtx, tree, int));
+static int fixed_type_p                PARAMS ((tree));
+static rtx var_rtx             PARAMS ((tree));
+static int readonly_fields_p   PARAMS ((tree));
+static rtx expand_expr_unaligned PARAMS ((tree, unsigned int *));
+static rtx expand_increment    PARAMS ((tree, int, int));
+static void preexpand_calls    PARAMS ((tree));
+static void do_jump_by_parts_greater PARAMS ((tree, int, rtx, rtx));
+static void do_jump_by_parts_equality PARAMS ((tree, rtx, rtx));
+static void do_compare_and_jump        PARAMS ((tree, enum rtx_code, enum rtx_code,
+                                        rtx, rtx));
+static rtx do_store_flag       PARAMS ((tree, rtx, enum machine_mode, int));
 
 /* Record for each mode whether we can move a register directly to or
    from an object of that mode in memory.  If we can't, we won't try
@@ -213,8 +204,8 @@ static char direct_store[NUM_MACHINE_MODES];
 /* This macro is used to determine whether move_by_pieces should be called
    to perform a structure copy. */
 #ifndef MOVE_BY_PIECES_P
-#define MOVE_BY_PIECES_P(SIZE, ALIGN) (move_by_pieces_ninsns        \
-                                       (SIZE, ALIGN) < MOVE_RATIO)
+#define MOVE_BY_PIECES_P(SIZE, ALIGN) \
+  (move_by_pieces_ninsns (SIZE, ALIGN) < MOVE_RATIO)
 #endif
 
 /* This array records the insn_code of insns to perform block moves.  */
@@ -226,15 +217,7 @@ enum insn_code clrstr_optab[NUM_MACHINE_MODES];
 /* SLOW_UNALIGNED_ACCESS is non-zero if unaligned accesses are very slow.  */
 
 #ifndef SLOW_UNALIGNED_ACCESS
-#define SLOW_UNALIGNED_ACCESS STRICT_ALIGNMENT
-#endif
-
-/* Register mappings for target machines without register windows.  */
-#ifndef INCOMING_REGNO
-#define INCOMING_REGNO(OUT) (OUT)
-#endif
-#ifndef OUTGOING_REGNO
-#define OUTGOING_REGNO(IN) (IN)
+#define SLOW_UNALIGNED_ACCESS(MODE, ALIGN) STRICT_ALIGNMENT
 #endif
 \f
 /* This is run once per compilation to set up which modes can be used
@@ -319,50 +302,43 @@ init_expr_once ()
 void
 init_expr ()
 {
-  init_queue ();
+  cfun->expr = (struct expr_status *) xmalloc (sizeof (struct expr_status));
 
+  pending_chain = 0;
   pending_stack_adjust = 0;
+  stack_pointer_delta = 0;
   inhibit_defer_pop = 0;
   saveregs_value = 0;
   apply_args_value = 0;
   forced_labels = 0;
 }
 
-/* Save all variables describing the current status into the structure *P.
-   This is used before starting a nested function.  */
-
 void
-save_expr_status (p)
-     struct function *p;
+mark_expr_status (p)
+     struct expr_status *p;
 {
-  p->pending_chain = pending_chain;
-  p->pending_stack_adjust = pending_stack_adjust;
-  p->inhibit_defer_pop = inhibit_defer_pop;
-  p->saveregs_value = saveregs_value;
-  p->apply_args_value = apply_args_value;
-  p->forced_labels = forced_labels;
-
-  pending_chain = NULL_RTX;
-  pending_stack_adjust = 0;
-  inhibit_defer_pop = 0;
-  saveregs_value = 0;
-  apply_args_value = 0;
-  forced_labels = 0;
+  if (p == NULL)
+    return;
+
+  ggc_mark_rtx (p->x_saveregs_value);
+  ggc_mark_rtx (p->x_apply_args_value);
+  ggc_mark_rtx (p->x_forced_labels);
 }
 
-/* Restore all variables describing the current status from the structure *P.
-   This is used after a nested function.  */
+void
+free_expr_status (f)
+     struct function *f;
+{
+  free (f->expr);
+  f->expr = NULL;
+}
 
+/* Small sanity check that the queue is empty at the end of a function.  */
 void
-restore_expr_status (p)
-     struct function *p;
+finish_expr_for_function ()
 {
-  pending_chain = p->pending_chain;
-  pending_stack_adjust = p->pending_stack_adjust;
-  inhibit_defer_pop = p->inhibit_defer_pop;
-  saveregs_value = p->saveregs_value;
-  apply_args_value = p->apply_args_value;
-  forced_labels = p->forced_labels;
+  if (pending_chain)
+    abort ();
 }
 \f
 /* Manage the queue of increment instructions to be output
@@ -379,9 +355,8 @@ static rtx
 enqueue_insn (var, body)
      rtx var, body;
 {
-  pending_chain = gen_rtx_QUEUED (GET_MODE (var),
-                                 var, NULL_RTX, NULL_RTX, body,
-                                 pending_chain);
+  pending_chain = gen_rtx_QUEUED (GET_MODE (var), var, NULL_RTX, NULL_RTX,
+                                 body, pending_chain);
   return pending_chain;
 }
 
@@ -524,13 +499,6 @@ emit_queue ()
       pending_chain = QUEUED_NEXT (p);
     }
 }
-
-static void
-init_queue ()
-{
-  if (pending_chain)
-    abort ();
-}
 \f
 /* Copy data from FROM to TO, where the machine modes are not the same.
    Both modes may be integer, or both may be floating.
@@ -893,7 +861,7 @@ convert_move (to, from, unsignedp)
        {
 #ifdef HAVE_slt
          if (HAVE_slt
-             && insn_operand_mode[(int) CODE_FOR_slt][0] == word_mode
+             && insn_data[(int) CODE_FOR_slt].operand[0].mode == word_mode
              && STORE_FLAG_VALUE == -1)
            {
              emit_cmp_insn (lowfrom, const0_rtx, NE, NULL_RTX,
@@ -1098,7 +1066,8 @@ convert_move (to, from, unsignedp)
            if (((can_extend_p (to_mode, intermediate, unsignedp)
                  != CODE_FOR_nothing)
                 || (GET_MODE_SIZE (to_mode) < GET_MODE_SIZE (intermediate)
-                    && TRULY_NOOP_TRUNCATION (to_mode, intermediate)))
+                    && TRULY_NOOP_TRUNCATION (GET_MODE_BITSIZE (to_mode),
+                                              GET_MODE_BITSIZE (intermediate))))
                && (can_extend_p (intermediate, from_mode, unsignedp)
                    != CODE_FOR_nothing))
              {
@@ -1396,7 +1365,7 @@ convert_modes (mode, oldmode, x, unsignedp)
 
 /* MOVE_MAX_PIECES is the number of bytes at a time which we can
    move efficiently, as opposed to  MOVE_MAX which is the maximum
-   number of bhytes we can move with a single instruction. */
+   number of bytes we can move with a single instruction. */
 
 #ifndef MOVE_MAX_PIECES
 #define MOVE_MAX_PIECES   MOVE_MAX
@@ -1406,16 +1375,17 @@ convert_modes (mode, oldmode, x, unsignedp)
    from block FROM to block TO.  (These are MEM rtx's with BLKmode).
    The caller must pass FROM and TO
     through protect_from_queue before calling.
-   ALIGN (in bytes) is maximum alignment we can assume.  */
+   ALIGN is maximum alignment we can assume.  */
 
 void
 move_by_pieces (to, from, len, align)
      rtx to, from;
-     int len, align;
+     int len;
+     unsigned int align;
 {
   struct move_by_pieces data;
   rtx to_addr = XEXP (to, 0), from_addr = XEXP (from, 0);
-  int max_size = MOVE_MAX_PIECES + 1;
+  unsigned int max_size = MOVE_MAX_PIECES + 1;
   enum machine_mode mode = VOIDmode, tmode;
   enum insn_code icode;
 
@@ -1441,6 +1411,8 @@ move_by_pieces (to, from, len, align)
 
   data.to_struct = MEM_IN_STRUCT_P (to);
   data.from_struct = MEM_IN_STRUCT_P (from);
+  data.to_readonly = RTX_UNCHANGING_P (to);
+  data.from_readonly = RTX_UNCHANGING_P (from);
 
   /* If copying requires more than two move insns,
      copy addresses to registers (to make displacements shorter)
@@ -1484,9 +1456,9 @@ move_by_pieces (to, from, len, align)
        data.to_addr = copy_addr_to_reg (to_addr);
     }
 
-  if (! SLOW_UNALIGNED_ACCESS
-      || align > MOVE_MAX || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT)
-    align = MOVE_MAX;
+  if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
+      || align > MOVE_MAX * BITS_PER_UNIT || align >= BIGGEST_ALIGNMENT)
+    align = MOVE_MAX * BITS_PER_UNIT;
 
   /* First move what we can in the largest integer mode, then go to
      successively smaller modes.  */
@@ -1502,9 +1474,7 @@ move_by_pieces (to, from, len, align)
        break;
 
       icode = mov_optab->handlers[(int) mode].insn_code;
-      if (icode != CODE_FOR_nothing
-         && align >= MIN (BIGGEST_ALIGNMENT / BITS_PER_UNIT,
-                          GET_MODE_SIZE (mode)))
+      if (icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode))
        move_by_pieces_1 (GEN_FCN (icode), mode, &data);
 
       max_size = GET_MODE_SIZE (mode);
@@ -1521,14 +1491,14 @@ move_by_pieces (to, from, len, align)
 static int
 move_by_pieces_ninsns (l, align)
      unsigned int l;
-     int align;
+     unsigned int align;
 {
   register int n_insns = 0;
-  int max_size = MOVE_MAX + 1;
+  unsigned int max_size = MOVE_MAX + 1;
 
-  if (! SLOW_UNALIGNED_ACCESS
-      || align > MOVE_MAX || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT)
-    align = MOVE_MAX;
+  if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
+      || align > MOVE_MAX * BITS_PER_UNIT || align >= BIGGEST_ALIGNMENT)
+    align = MOVE_MAX * BITS_PER_UNIT;
 
   while (max_size > 1)
     {
@@ -1544,9 +1514,7 @@ move_by_pieces_ninsns (l, align)
        break;
 
       icode = mov_optab->handlers[(int) mode].insn_code;
-      if (icode != CODE_FOR_nothing
-         && align >= MIN (BIGGEST_ALIGNMENT / BITS_PER_UNIT,
-                          GET_MODE_SIZE (mode)))
+      if (icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode))
        n_insns += l / GET_MODE_SIZE (mode), l %= GET_MODE_SIZE (mode);
 
       max_size = GET_MODE_SIZE (mode);
@@ -1561,7 +1529,7 @@ move_by_pieces_ninsns (l, align)
 
 static void
 move_by_pieces_1 (genfun, mode, data)
-     rtx (*genfun) PROTO ((rtx, ...));
+     rtx (*genfun) PARAMS ((rtx, ...));
      enum machine_mode mode;
      struct move_by_pieces *data;
 {
@@ -1578,6 +1546,7 @@ move_by_pieces_1 (genfun, mode, data)
                                         plus_constant (data->to_addr,
                                                        data->offset))));
       MEM_IN_STRUCT_P (to1) = data->to_struct;
+      RTX_UNCHANGING_P (to1) = data->to_readonly;
 
       from1
        = (data->autinc_from
@@ -1586,6 +1555,7 @@ move_by_pieces_1 (genfun, mode, data)
                                       plus_constant (data->from_addr,
                                                      data->offset))));
       MEM_IN_STRUCT_P (from1) = data->from_struct;
+      RTX_UNCHANGING_P (from1) = data->from_readonly;
 
       if (HAVE_PRE_DECREMENT && data->explicit_inc_to < 0)
        emit_insn (gen_add2_insn (data->to_addr, GEN_INT (-size)));
@@ -1611,8 +1581,7 @@ move_by_pieces_1 (genfun, mode, data)
    Both X and Y must be MEM rtx's (perhaps inside VOLATILE)
    with mode BLKmode.
    SIZE is an rtx that says how long they are.
-   ALIGN is the maximum alignment we can assume they have,
-   measured in bytes. 
+   ALIGN is the maximum alignment we can assume they have.
 
    Return the address of the new block, if memcpy is called and returns it,
    0 otherwise.  */
@@ -1621,7 +1590,7 @@ rtx
 emit_block_move (x, y, size, align)
      rtx x, y;
      rtx size;
-     int align;
+     unsigned int align;
 {
   rtx retval = 0;
 #ifdef TARGET_MEM_FUNCTIONS
@@ -1654,13 +1623,14 @@ emit_block_move (x, y, size, align)
         including more than one in the machine description unless
         the more limited one has some advantage.  */
 
-      rtx opalign = GEN_INT (align);
+      rtx opalign = GEN_INT (align / BITS_PER_UNIT);
       enum machine_mode mode;
 
       for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT); mode != VOIDmode;
           mode = GET_MODE_WIDER_MODE (mode))
        {
          enum insn_code code = movstr_optab[(int) mode];
+         insn_operand_predicate_fn pred;
 
          if (code != CODE_FOR_nothing
              /* We don't need MODE to be narrower than BITS_PER_HOST_WIDE_INT
@@ -1671,21 +1641,20 @@ emit_block_move (x, y, size, align)
                   && ((unsigned HOST_WIDE_INT) INTVAL (size)
                       <= (GET_MODE_MASK (mode) >> 1)))
                  || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
-             && (insn_operand_predicate[(int) code][0] == 0
-                 || (*insn_operand_predicate[(int) code][0]) (x, BLKmode))
-             && (insn_operand_predicate[(int) code][1] == 0
-                 || (*insn_operand_predicate[(int) code][1]) (y, BLKmode))
-             && (insn_operand_predicate[(int) code][3] == 0
-                 || (*insn_operand_predicate[(int) code][3]) (opalign,
-                                                              VOIDmode)))
+             && ((pred = insn_data[(int) code].operand[0].predicate) == 0
+                 || (*pred) (x, BLKmode))
+             && ((pred = insn_data[(int) code].operand[1].predicate) == 0
+                 || (*pred) (y, BLKmode))
+             && ((pred = insn_data[(int) code].operand[3].predicate) == 0
+                 || (*pred) (opalign, VOIDmode)))
            {
              rtx op2;
              rtx last = get_last_insn ();
              rtx pat;
 
              op2 = convert_to_mode (mode, size, 1);
-             if (insn_operand_predicate[(int) code][2] != 0
-                 && ! (*insn_operand_predicate[(int) code][2]) (op2, mode))
+             pred = insn_data[(int) code].operand[2].predicate;
+             if (pred != 0 && ! (*pred) (op2, mode))
                op2 = copy_to_mode_reg (mode, op2);
 
              pat = GEN_FCN ((int) code) (x, y, op2, opalign);
@@ -1699,6 +1668,37 @@ emit_block_move (x, y, size, align)
            }
        }
 
+      /* X, Y, or SIZE may have been passed through protect_from_queue.
+
+        It is unsafe to save the value generated by protect_from_queue
+        and reuse it later.  Consider what happens if emit_queue is
+        called before the return value from protect_from_queue is used.
+
+        Expansion of the CALL_EXPR below will call emit_queue before
+        we are finished emitting RTL for argument setup.  So if we are
+        not careful we could get the wrong value for an argument.
+
+        To avoid this problem we go ahead and emit code to copy X, Y &
+        SIZE into new pseudos.  We can then place those new pseudos
+        into an RTL_EXPR and use them later, even after a call to
+        emit_queue. 
+
+        Note this is not strictly needed for library calls since they
+        do not call emit_queue before loading their arguments.  However,
+        we may need to have library calls call emit_queue in the future
+        since failing to do so could cause problems for targets which
+        define SMALL_REGISTER_CLASSES and pass arguments in registers.  */
+      x = copy_to_mode_reg (Pmode, XEXP (x, 0));
+      y = copy_to_mode_reg (Pmode, XEXP (y, 0));
+
+#ifdef TARGET_MEM_FUNCTIONS
+      size = copy_to_mode_reg (TYPE_MODE (sizetype), size);
+#else
+      size = convert_to_mode (TYPE_MODE (integer_type_node), size,
+                             TREE_UNSIGNED (integer_type_node));
+      size = copy_to_mode_reg (TYPE_MODE (integer_type_node), size);
+#endif
+
 #ifdef TARGET_MEM_FUNCTIONS
       /* It is incorrect to use the libcall calling conventions to call
         memcpy in this context.
@@ -1723,6 +1723,7 @@ emit_block_move (x, y, size, align)
          fntype = build_pointer_type (void_type_node);
          fntype = build_function_type (fntype, NULL_TREE);
          fn = build_decl (FUNCTION_DECL, fn, fntype);
+         ggc_add_tree_root (&fn, 1);
          DECL_EXTERNAL (fn) = 1;
          TREE_PUBLIC (fn) = 1;
          DECL_ARTIFICIAL (fn) = 1;
@@ -1737,12 +1738,10 @@ emit_block_move (x, y, size, align)
         the last is a size_t byte count for the copy.  */
       arg_list
        = build_tree_list (NULL_TREE,
-                           make_tree (build_pointer_type (void_type_node),
-                                      XEXP (x, 0)));
+                          make_tree (build_pointer_type (void_type_node), x));
       TREE_CHAIN (arg_list)
        = build_tree_list (NULL_TREE,
-                          make_tree (build_pointer_type (void_type_node),
-                                     XEXP (y, 0)));
+                          make_tree (build_pointer_type (void_type_node), y));
       TREE_CHAIN (TREE_CHAIN (arg_list))
         = build_tree_list (NULL_TREE, make_tree (sizetype, size));
       TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
@@ -1756,8 +1755,7 @@ emit_block_move (x, y, size, align)
       retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
 #else
       emit_library_call (bcopy_libfunc, 0,
-                        VOIDmode, 3, XEXP (y, 0), Pmode,
-                        XEXP (x, 0), Pmode,
+                        VOIDmode, 3, y, Pmode, x, Pmode,
                         convert_to_mode (TYPE_MODE (integer_type_node), size,
                                          TREE_UNSIGNED (integer_type_node)),
                         TYPE_MODE (integer_type_node));
@@ -1901,7 +1899,8 @@ move_block_from_reg (regno, x, nregs, size)
 void
 emit_group_load (dst, orig_src, ssize, align)
      rtx dst, orig_src;
-     int align, ssize;
+     unsigned int align;
+     int ssize;
 {
   rtx *tmps, src;
   int start, i;
@@ -1923,7 +1922,10 @@ emit_group_load (dst, orig_src, ssize, align)
   src = orig_src;
   if (GET_CODE (src) != MEM)
     {
-      src = gen_reg_rtx (GET_MODE (orig_src));
+      if (GET_CODE (src) == VOIDmode)
+       src = gen_reg_rtx (GET_MODE (dst));
+      else
+       src = gen_reg_rtx (GET_MODE (orig_src));
       emit_move_insn (src, orig_src);
     }
 
@@ -1931,8 +1933,8 @@ emit_group_load (dst, orig_src, ssize, align)
   for (i = start; i < XVECLEN (dst, 0); i++)
     {
       enum machine_mode mode = GET_MODE (XEXP (XVECEXP (dst, 0, i), 0));
-      int bytepos = INTVAL (XEXP (XVECEXP (dst, 0, i), 1));
-      int bytelen = GET_MODE_SIZE (mode);
+      HOST_WIDE_INT bytepos = INTVAL (XEXP (XVECEXP (dst, 0, i), 1));
+      unsigned int bytelen = GET_MODE_SIZE (mode);
       int shift = 0;
 
       /* Handle trailing fragments that run over the size of the struct.  */
@@ -1941,13 +1943,13 @@ emit_group_load (dst, orig_src, ssize, align)
          shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
          bytelen = ssize - bytepos;
          if (bytelen <= 0)
-           abort();
+           abort ();
        }
 
       /* Optimize the access just a bit.  */
       if (GET_CODE (src) == MEM
-         && align*BITS_PER_UNIT >= GET_MODE_ALIGNMENT (mode)
-         && bytepos*BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
+         && align >= GET_MODE_ALIGNMENT (mode)
+         && bytepos * BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
          && bytelen == GET_MODE_SIZE (mode))
        {
          tmps[i] = gen_reg_rtx (mode);
@@ -1956,19 +1958,27 @@ emit_group_load (dst, orig_src, ssize, align)
                                          plus_constant (XEXP (src, 0),
                                                         bytepos)));
        }
-      else
+      else if (GET_CODE (src) == CONCAT)
        {
-         tmps[i] = extract_bit_field (src, bytelen*BITS_PER_UNIT,
-                                      bytepos*BITS_PER_UNIT, 1, NULL_RTX,
-                                      mode, mode, align, ssize);
+         if (bytepos == 0
+             && bytelen == GET_MODE_SIZE (GET_MODE (XEXP (src, 0))))
+           tmps[i] = XEXP (src, 0);
+         else if (bytepos == GET_MODE_SIZE (GET_MODE (XEXP (src, 0)))
+                  && bytelen == GET_MODE_SIZE (GET_MODE (XEXP (src, 1))))
+           tmps[i] = XEXP (src, 1);
+         else
+           abort ();
        }
+      else
+       tmps[i] = extract_bit_field (src, bytelen * BITS_PER_UNIT,
+                                    bytepos * BITS_PER_UNIT, 1, NULL_RTX,
+                                    mode, mode, align, ssize);
 
       if (BYTES_BIG_ENDIAN && shift)
-       {
-         expand_binop (mode, ashl_optab, tmps[i], GEN_INT (shift),
-                       tmps[i], 0, OPTAB_WIDEN);
-       }
+       expand_binop (mode, ashl_optab, tmps[i], GEN_INT (shift),
+                     tmps[i], 0, OPTAB_WIDEN);
     }
+
   emit_queue();
 
   /* Copy the extracted pieces into the proper (probable) hard regs.  */
@@ -1983,7 +1993,8 @@ emit_group_load (dst, orig_src, ssize, align)
 void
 emit_group_store (orig_dst, src, ssize, align)
      rtx orig_dst, src;
-     int ssize, align;
+     int ssize;
+     unsigned int align;
 {
   rtx *tmps, dst;
   int start, i;
@@ -2049,9 +2060,9 @@ emit_group_store (orig_dst, src, ssize, align)
   /* Process the pieces.  */
   for (i = start; i < XVECLEN (src, 0); i++)
     {
-      int bytepos = INTVAL (XEXP (XVECEXP (src, 0, i), 1));
+      HOST_WIDE_INT bytepos = INTVAL (XEXP (XVECEXP (src, 0, i), 1));
       enum machine_mode mode = GET_MODE (tmps[i]);
-      int bytelen = GET_MODE_SIZE (mode);
+      unsigned int bytelen = GET_MODE_SIZE (mode);
 
       /* Handle trailing fragments that run over the size of the struct.  */
       if (ssize >= 0 && bytepos + bytelen > ssize)
@@ -2067,21 +2078,18 @@ emit_group_store (orig_dst, src, ssize, align)
 
       /* Optimize the access just a bit.  */
       if (GET_CODE (dst) == MEM
-         && align*BITS_PER_UNIT >= GET_MODE_ALIGNMENT (mode)
-         && bytepos*BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
+         && align >= GET_MODE_ALIGNMENT (mode)
+         && bytepos * BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
          && bytelen == GET_MODE_SIZE (mode))
-       {
-         emit_move_insn (change_address (dst, mode,
-                                         plus_constant (XEXP (dst, 0),
-                                                        bytepos)),
-                         tmps[i]);
-       }
+       emit_move_insn (change_address (dst, mode,
+                                       plus_constant (XEXP (dst, 0),
+                                                      bytepos)),
+                       tmps[i]);
       else
-       {
-         store_bit_field (dst, bytelen*BITS_PER_UNIT, bytepos*BITS_PER_UNIT,
+       store_bit_field (dst, bytelen * BITS_PER_UNIT, bytepos * BITS_PER_UNIT,
                           mode, tmps[i], align, ssize);
-       }
     }
+
   emit_queue();
 
   /* Copy from the pseudo into the (probable) hard reg.  */
@@ -2096,78 +2104,72 @@ emit_group_store (orig_dst, src, ssize, align)
    The primary purpose of this routine is to handle functions
    that return BLKmode structures in registers.  Some machines
    (the PA for example) want to return all small structures
-   in registers regardless of the structure's alignment.
-  */
+   in registers regardless of the structure's alignment. */
 
 rtx
-copy_blkmode_from_reg(tgtblk,srcreg,type)
+copy_blkmode_from_reg (tgtblk, srcreg, type)
      rtx tgtblk;
      rtx srcreg;
      tree type;
 {
-      int bytes = int_size_in_bytes (type);
-      rtx src = NULL, dst = NULL;
-      int bitsize = MIN (TYPE_ALIGN (type), (unsigned int) BITS_PER_WORD);
-      int bitpos, xbitpos, big_endian_correction = 0;
-      
-      if (tgtblk == 0)
-       {
-         tgtblk = assign_stack_temp (BLKmode, bytes, 0);
-         MEM_SET_IN_STRUCT_P (tgtblk, AGGREGATE_TYPE_P (type));
-         preserve_temp_slots (tgtblk);
-       }
+  unsigned HOST_WIDE_INT bytes = int_size_in_bytes (type);
+  rtx src = NULL, dst = NULL;
+  unsigned HOST_WIDE_INT bitsize = MIN (TYPE_ALIGN (type), BITS_PER_WORD);
+  unsigned HOST_WIDE_INT bitpos, xbitpos, big_endian_correction = 0;
+
+  if (tgtblk == 0)
+    {
+      tgtblk = assign_stack_temp (BLKmode, bytes, 0);
+      MEM_SET_IN_STRUCT_P (tgtblk, AGGREGATE_TYPE_P (type));
+      preserve_temp_slots (tgtblk);
+    }
       
-      /* This code assumes srcreg is at least a full word.  If it isn't,
-        copy it into a new pseudo which is a full word.  */
-      if (GET_MODE (srcreg) != BLKmode
-         && GET_MODE_SIZE (GET_MODE (srcreg)) < UNITS_PER_WORD)
-       srcreg = convert_to_mode (word_mode, srcreg,
-                                 TREE_UNSIGNED (type));
-
-      /* Structures whose size is not a multiple of a word are aligned
-        to the least significant byte (to the right).  On a BYTES_BIG_ENDIAN
-        machine, this means we must skip the empty high order bytes when
-        calculating the bit offset.  */
-      if (BYTES_BIG_ENDIAN && bytes % UNITS_PER_WORD)
-       big_endian_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
-                                                 * BITS_PER_UNIT));
-
-      /* Copy the structure BITSIZE bites at a time.
-
-        We could probably emit more efficient code for machines
-        which do not use strict alignment, but it doesn't seem
-        worth the effort at the current time.  */
-      for (bitpos = 0, xbitpos = big_endian_correction;
-          bitpos < bytes * BITS_PER_UNIT;
-          bitpos += bitsize, xbitpos += bitsize)
-       {
-
-         /* We need a new source operand each time xbitpos is on a 
-            word boundary and when xbitpos == big_endian_correction
-            (the first time through).  */
-         if (xbitpos % BITS_PER_WORD == 0
-             || xbitpos == big_endian_correction)
-           src = operand_subword_force (srcreg,
-                                        xbitpos / BITS_PER_WORD, 
-                                        BLKmode);
-
-         /* We need a new destination operand each time bitpos is on
-            a word boundary.  */
-         if (bitpos % BITS_PER_WORD == 0)
-           dst = operand_subword (tgtblk, bitpos / BITS_PER_WORD, 1, BLKmode);
+  /* This code assumes srcreg is at least a full word.  If it isn't,
+     copy it into a new pseudo which is a full word.  */
+  if (GET_MODE (srcreg) != BLKmode
+      && GET_MODE_SIZE (GET_MODE (srcreg)) < UNITS_PER_WORD)
+    srcreg = convert_to_mode (word_mode, srcreg, TREE_UNSIGNED (type));
+
+  /* Structures whose size is not a multiple of a word are aligned
+     to the least significant byte (to the right).  On a BYTES_BIG_ENDIAN
+     machine, this means we must skip the empty high order bytes when
+     calculating the bit offset.  */
+  if (BYTES_BIG_ENDIAN && bytes % UNITS_PER_WORD)
+    big_endian_correction
+      = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD) * BITS_PER_UNIT));
+
+  /* Copy the structure BITSIZE bites at a time.
+     
+     We could probably emit more efficient code for machines which do not use
+     strict alignment, but it doesn't seem worth the effort at the current
+     time.  */
+  for (bitpos = 0, xbitpos = big_endian_correction;
+       bitpos < bytes * BITS_PER_UNIT;
+       bitpos += bitsize, xbitpos += bitsize)
+    {
+      /* We need a new source operand each time xbitpos is on a 
+        word boundary and when xbitpos == big_endian_correction
+        (the first time through).  */
+      if (xbitpos % BITS_PER_WORD == 0
+         || xbitpos == big_endian_correction)
+       src = operand_subword_force (srcreg, xbitpos / BITS_PER_WORD, BLKmode);
+
+      /* We need a new destination operand each time bitpos is on
+        a word boundary.  */
+      if (bitpos % BITS_PER_WORD == 0)
+       dst = operand_subword (tgtblk, bitpos / BITS_PER_WORD, 1, BLKmode);
              
-         /* Use xbitpos for the source extraction (right justified) and
-            xbitpos for the destination store (left justified).  */
-         store_bit_field (dst, bitsize, bitpos % BITS_PER_WORD, word_mode,
-                          extract_bit_field (src, bitsize,
-                                             xbitpos % BITS_PER_WORD, 1,
-                                             NULL_RTX, word_mode,
-                                             word_mode,
-                                             bitsize / BITS_PER_UNIT,
-                                             BITS_PER_WORD),
-                          bitsize / BITS_PER_UNIT, BITS_PER_WORD);
-       }
-      return tgtblk;
+      /* Use xbitpos for the source extraction (right justified) and
+        xbitpos for the destination store (left justified).  */
+      store_bit_field (dst, bitsize, bitpos % BITS_PER_WORD, word_mode,
+                      extract_bit_field (src, bitsize,
+                                         xbitpos % BITS_PER_WORD, 1,
+                                         NULL_RTX, word_mode, word_mode,
+                                         bitsize, BITS_PER_WORD),
+                      bitsize, BITS_PER_WORD);
+    }
+
+  return tgtblk;
 }
 
 
@@ -2228,19 +2230,19 @@ use_group_regs (call_fusage, regs)
     }
 }
 \f
-/* Generate several move instructions to clear LEN bytes of block TO.
-   (A MEM rtx with BLKmode).   The caller must pass TO through
-   protect_from_queue before calling. ALIGN (in bytes) is maximum alignment
-   we can assume.  */
+/* Generate several move instructions to clear LEN bytes of block TO.  (A MEM
+   rtx with BLKmode).  The caller must pass TO through protect_from_queue
+   before calling. ALIGN is maximum alignment we can assume.  */
 
 static void
 clear_by_pieces (to, len, align)
      rtx to;
-     int len, align;
+     int len;
+     unsigned int align;
 {
   struct clear_by_pieces data;
   rtx to_addr = XEXP (to, 0);
-  int max_size = MOVE_MAX_PIECES + 1;
+  unsigned int max_size = MOVE_MAX_PIECES + 1;
   enum machine_mode mode = VOIDmode, tmode;
   enum insn_code icode;
 
@@ -2287,9 +2289,9 @@ clear_by_pieces (to, len, align)
        data.to_addr = copy_addr_to_reg (to_addr);
     }
 
-  if (! SLOW_UNALIGNED_ACCESS
-      || align > MOVE_MAX || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT)
-    align = MOVE_MAX;
+  if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
+      || align > MOVE_MAX * BITS_PER_UNIT || align >= BIGGEST_ALIGNMENT)
+    align = MOVE_MAX * BITS_PER_UNIT;
 
   /* First move what we can in the largest integer mode, then go to
      successively smaller modes.  */
@@ -2305,9 +2307,7 @@ clear_by_pieces (to, len, align)
        break;
 
       icode = mov_optab->handlers[(int) mode].insn_code;
-      if (icode != CODE_FOR_nothing
-         && align >= MIN (BIGGEST_ALIGNMENT / BITS_PER_UNIT,
-                          GET_MODE_SIZE (mode)))
+      if (icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode))
        clear_by_pieces_1 (GEN_FCN (icode), mode, &data);
 
       max_size = GET_MODE_SIZE (mode);
@@ -2324,7 +2324,7 @@ clear_by_pieces (to, len, align)
 
 static void
 clear_by_pieces_1 (genfun, mode, data)
-     rtx (*genfun) PROTO ((rtx, ...));
+     rtx (*genfun) PARAMS ((rtx, ...));
      enum machine_mode mode;
      struct clear_by_pieces *data;
 {
@@ -2355,9 +2355,8 @@ clear_by_pieces_1 (genfun, mode, data)
     }
 }
 \f
-/* Write zeros through the storage of OBJECT.
-   If OBJECT has BLKmode, SIZE is its length in bytes and ALIGN is
-   the maximum alignment we can is has, measured in bytes.
+/* Write zeros through the storage of OBJECT.  If OBJECT has BLKmode, SIZE is
+   its length in bytes and ALIGN is the maximum alignment we can is has.
 
    If we call a function that returns the length of the block, return it.  */
 
@@ -2365,7 +2364,7 @@ rtx
 clear_storage (object, size, align)
      rtx object;
      rtx size;
-     int align;
+     unsigned int align;
 {
 #ifdef TARGET_MEM_FUNCTIONS
   static tree fn;
@@ -2381,20 +2380,20 @@ clear_storage (object, size, align)
       if (GET_CODE (size) == CONST_INT
          && MOVE_BY_PIECES_P (INTVAL (size), align))
        clear_by_pieces (object, INTVAL (size), align);
-
       else
        {
          /* Try the most limited insn first, because there's no point
             including more than one in the machine description unless
             the more limited one has some advantage.  */
 
-         rtx opalign = GEN_INT (align);
+         rtx opalign = GEN_INT (align / BITS_PER_UNIT);
          enum machine_mode mode;
 
          for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT); mode != VOIDmode;
               mode = GET_MODE_WIDER_MODE (mode))
            {
              enum insn_code code = clrstr_optab[(int) mode];
+             insn_operand_predicate_fn pred;
 
              if (code != CODE_FOR_nothing
                  /* We don't need MODE to be narrower than
@@ -2405,21 +2404,18 @@ clear_storage (object, size, align)
                       && ((unsigned HOST_WIDE_INT) INTVAL (size)
                           <= (GET_MODE_MASK (mode) >> 1)))
                      || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
-                 && (insn_operand_predicate[(int) code][0] == 0
-                     || (*insn_operand_predicate[(int) code][0]) (object,
-                                                                  BLKmode))
-                 && (insn_operand_predicate[(int) code][2] == 0
-                     || (*insn_operand_predicate[(int) code][2]) (opalign,
-                                                                  VOIDmode)))
+                 && ((pred = insn_data[(int) code].operand[0].predicate) == 0
+                     || (*pred) (object, BLKmode))
+                 && ((pred = insn_data[(int) code].operand[2].predicate) == 0
+                     || (*pred) (opalign, VOIDmode)))
                {
                  rtx op1;
                  rtx last = get_last_insn ();
                  rtx pat;
 
                  op1 = convert_to_mode (mode, size, 1);
-                 if (insn_operand_predicate[(int) code][1] != 0
-                     && ! (*insn_operand_predicate[(int) code][1]) (op1,
-                                                                    mode))
+                 pred = insn_data[(int) code].operand[1].predicate;
+                 if (pred != 0 && ! (*pred) (op1, mode))
                    op1 = copy_to_mode_reg (mode, op1);
 
                  pat = GEN_FCN ((int) code) (object, op1, opalign);
@@ -2433,69 +2429,98 @@ clear_storage (object, size, align)
                }
            }
 
+         /* OBJECT or SIZE may have been passed through protect_from_queue.
 
-#ifdef TARGET_MEM_FUNCTIONS
-      /* It is incorrect to use the libcall calling conventions to call
-        memset in this context.
+            It is unsafe to save the value generated by protect_from_queue
+            and reuse it later.  Consider what happens if emit_queue is
+            called before the return value from protect_from_queue is used.
 
-        This could be a user call to memset and the user may wish to
-        examine the return value from memset.
+            Expansion of the CALL_EXPR below will call emit_queue before
+            we are finished emitting RTL for argument setup.  So if we are
+            not careful we could get the wrong value for an argument.
 
-        For targets where libcalls and normal calls have different conventions
-        for returning pointers, we could end up generating incorrect code. 
+            To avoid this problem we go ahead and emit code to copy OBJECT
+            and SIZE into new pseudos.  We can then place those new pseudos
+            into an RTL_EXPR and use them later, even after a call to
+            emit_queue.
 
-        So instead of using a libcall sequence we build up a suitable
-        CALL_EXPR and expand the call in the normal fashion.  */
-      if (fn == NULL_TREE)
-       {
-         tree fntype;
+            Note this is not strictly needed for library calls since they
+            do not call emit_queue before loading their arguments.  However,
+            we may need to have library calls call emit_queue in the future
+            since failing to do so could cause problems for targets which
+            define SMALL_REGISTER_CLASSES and pass arguments in registers.  */
+         object = copy_to_mode_reg (Pmode, XEXP (object, 0));
 
-         /* This was copied from except.c, I don't know if all this is
-            necessary in this context or not.  */
-         fn = get_identifier ("memset");
-         push_obstacks_nochange ();
-         end_temporary_allocation ();
-         fntype = build_pointer_type (void_type_node);
-         fntype = build_function_type (fntype, NULL_TREE);
-         fn = build_decl (FUNCTION_DECL, fn, fntype);
-         DECL_EXTERNAL (fn) = 1;
-         TREE_PUBLIC (fn) = 1;
-         DECL_ARTIFICIAL (fn) = 1;
-         make_decl_rtl (fn, NULL_PTR, 1);
-         assemble_external (fn);
-         pop_obstacks ();
-       }
+#ifdef TARGET_MEM_FUNCTIONS
+         size = copy_to_mode_reg (TYPE_MODE (sizetype), size);
+#else
+         size = convert_to_mode (TYPE_MODE (integer_type_node), size,
+                                 TREE_UNSIGNED (integer_type_node));
+         size = copy_to_mode_reg (TYPE_MODE (integer_type_node), size);
+#endif
 
-      /* We need to make an argument list for the function call. 
 
-        memset has three arguments, the first is a void * addresses, the
-        second a integer with the initialization value, the last is a size_t
-        byte count for the copy.  */
-      arg_list
-       = build_tree_list (NULL_TREE,
-                           make_tree (build_pointer_type (void_type_node),
-                                      XEXP (object, 0)));
-      TREE_CHAIN (arg_list)
-       = build_tree_list (NULL_TREE,
-                          make_tree (integer_type_node, const0_rtx));
-      TREE_CHAIN (TREE_CHAIN (arg_list))
-        = build_tree_list (NULL_TREE, make_tree (sizetype, size));
-      TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
+#ifdef TARGET_MEM_FUNCTIONS
+         /* It is incorrect to use the libcall calling conventions to call
+            memset in this context.
 
-      /* Now we have to build up the CALL_EXPR itself.  */
-      call_expr = build1 (ADDR_EXPR, build_pointer_type (TREE_TYPE (fn)), fn);
-      call_expr = build (CALL_EXPR, TREE_TYPE (TREE_TYPE (fn)),
-                        call_expr, arg_list, NULL_TREE);
-      TREE_SIDE_EFFECTS (call_expr) = 1;
+            This could be a user call to memset and the user may wish to
+            examine the return value from memset.
 
-      retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
+            For targets where libcalls and normal calls have different
+            conventions for returning pointers, we could end up generating
+             incorrect code. 
+
+            So instead of using a libcall sequence we build up a suitable
+            CALL_EXPR and expand the call in the normal fashion.  */
+         if (fn == NULL_TREE)
+           {
+             tree fntype;
+
+             /* This was copied from except.c, I don't know if all this is
+                necessary in this context or not.  */
+             fn = get_identifier ("memset");
+             push_obstacks_nochange ();
+             end_temporary_allocation ();
+             fntype = build_pointer_type (void_type_node);
+             fntype = build_function_type (fntype, NULL_TREE);
+             fn = build_decl (FUNCTION_DECL, fn, fntype);
+             ggc_add_tree_root (&fn, 1);
+             DECL_EXTERNAL (fn) = 1;
+             TREE_PUBLIC (fn) = 1;
+             DECL_ARTIFICIAL (fn) = 1;
+             make_decl_rtl (fn, NULL_PTR, 1);
+             assemble_external (fn);
+             pop_obstacks ();
+           }
+
+         /* We need to make an argument list for the function call. 
+
+            memset has three arguments, the first is a void * addresses, the
+            second a integer with the initialization value, the last is a
+            size_t byte count for the copy.  */
+         arg_list
+           = build_tree_list (NULL_TREE,
+                              make_tree (build_pointer_type (void_type_node),
+                                         object));
+         TREE_CHAIN (arg_list)
+           = build_tree_list (NULL_TREE,
+                               make_tree (integer_type_node, const0_rtx));
+         TREE_CHAIN (TREE_CHAIN (arg_list))
+           = build_tree_list (NULL_TREE, make_tree (sizetype, size));
+         TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
+
+         /* Now we have to build up the CALL_EXPR itself.  */
+         call_expr = build1 (ADDR_EXPR,
+                             build_pointer_type (TREE_TYPE (fn)), fn);
+         call_expr = build (CALL_EXPR, TREE_TYPE (TREE_TYPE (fn)),
+                            call_expr, arg_list, NULL_TREE);
+         TREE_SIDE_EFFECTS (call_expr) = 1;
+
+         retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
 #else
          emit_library_call (bzero_libfunc, 0,
-                            VOIDmode, 2,
-                            XEXP (object, 0), Pmode,   
-                            convert_to_mode
-                            (TYPE_MODE (integer_type_node), size,
-                             TREE_UNSIGNED (integer_type_node)),
+                            VOIDmode, 2, object, Pmode, size,
                             TYPE_MODE (integer_type_node));
 #endif
        }
@@ -2563,7 +2588,10 @@ emit_move_insn_1 (x, y)
   enum machine_mode mode = GET_MODE (x);
   enum machine_mode submode;
   enum mode_class class = GET_MODE_CLASS (mode);
-  int i;
+  unsigned int i;
+
+  if (mode >= MAX_MACHINE_MODE)
+      abort ();
 
   if (mov_optab->handlers[(int) mode].insn_code != CODE_FOR_nothing)
     return
@@ -2609,19 +2637,78 @@ emit_move_insn_1 (x, y)
        }
       else
        {
-         /* Show the output dies here.  This is necessary for pseudos;
+         rtx realpart_x, realpart_y;
+         rtx imagpart_x, imagpart_y;
+
+         /* If this is a complex value with each part being smaller than a
+            word, the usual calling sequence will likely pack the pieces into
+            a single register.  Unfortunately, SUBREG of hard registers only
+            deals in terms of words, so we have a problem converting input
+            arguments to the CONCAT of two registers that is used elsewhere
+            for complex values.  If this is before reload, we can copy it into
+            memory and reload.  FIXME, we should see about using extract and
+            insert on integer registers, but complex short and complex char
+            variables should be rarely used.  */
+         if (GET_MODE_BITSIZE (mode) < 2*BITS_PER_WORD
+             && (reload_in_progress | reload_completed) == 0)
+           {
+             int packed_dest_p = (REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER);
+             int packed_src_p  = (REG_P (y) && REGNO (y) < FIRST_PSEUDO_REGISTER);
+
+             if (packed_dest_p || packed_src_p)
+               {
+                 enum mode_class reg_class = ((class == MODE_COMPLEX_FLOAT)
+                                              ? MODE_FLOAT : MODE_INT);
+
+                 enum machine_mode reg_mode = 
+                   mode_for_size (GET_MODE_BITSIZE (mode), reg_class, 1);
+
+                 if (reg_mode != BLKmode)
+                   {
+                     rtx mem = assign_stack_temp (reg_mode,
+                                                  GET_MODE_SIZE (mode), 0);
+
+                     rtx cmem = change_address (mem, mode, NULL_RTX);
+
+                     cfun->cannot_inline = N_("function using short complex types cannot be inline");
+
+                     if (packed_dest_p)
+                       {
+                         rtx sreg = gen_rtx_SUBREG (reg_mode, x, 0);
+                         emit_move_insn_1 (cmem, y);
+                         return emit_move_insn_1 (sreg, mem);
+                       }
+                     else
+                       {
+                         rtx sreg = gen_rtx_SUBREG (reg_mode, y, 0);
+                         emit_move_insn_1 (mem, sreg);
+                         return emit_move_insn_1 (x, cmem);
+                       }
+                   }
+               }
+           }
+
+         realpart_x = gen_realpart (submode, x);
+         realpart_y = gen_realpart (submode, y);
+         imagpart_x = gen_imagpart (submode, x);
+         imagpart_y = gen_imagpart (submode, y);
+
+         /* Show the output dies here.  This is necessary for SUBREGs
+            of pseudos since we cannot track their lifetimes correctly;
             hard regs shouldn't appear here except as return values.
             We never want to emit such a clobber after reload.  */
          if (x != y
-             && ! (reload_in_progress || reload_completed))
+             && ! (reload_in_progress || reload_completed)
+             && (GET_CODE (realpart_x) == SUBREG
+                 || GET_CODE (imagpart_x) == SUBREG))
            {
              emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
            }
 
          emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
-                    (gen_realpart (submode, x), gen_realpart (submode, y)));
+                    (realpart_x, realpart_y));
          emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
-                    (gen_imagpart (submode, x), gen_imagpart (submode, y)));
+                    (imagpart_x, imagpart_y));
        }
 
       return get_last_insn ();
@@ -2633,6 +2720,8 @@ emit_move_insn_1 (x, y)
   else if (GET_MODE_SIZE (mode) > UNITS_PER_WORD)
     {
       rtx last_insn = 0;
+      rtx seq;
+      int need_clobber;
       
 #ifdef PUSH_ROUNDING
 
@@ -2645,15 +2734,9 @@ emit_move_insn_1 (x, y)
        }
 #endif
                             
-      /* Show the output dies here.  This is necessary for pseudos;
-        hard regs shouldn't appear here except as return values.
-        We never want to emit such a clobber after reload.  */
-      if (x != y
-         && ! (reload_in_progress || reload_completed))
-       {
-         emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
-       }
+      start_sequence ();
 
+      need_clobber = 0;
       for (i = 0;
           i < (GET_MODE_SIZE (mode)  + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD;
           i++)
@@ -2675,9 +2758,27 @@ emit_move_insn_1 (x, y)
          if (xpart == 0 || ypart == 0)
            abort ();
 
+         need_clobber |= (GET_CODE (xpart) == SUBREG);
+
          last_insn = emit_move_insn (xpart, ypart);
        }
 
+      seq = gen_sequence ();
+      end_sequence ();
+
+      /* Show the output dies here.  This is necessary for SUBREGs
+        of pseudos since we cannot track their lifetimes correctly;
+        hard regs shouldn't appear here except as return values.
+        We never want to emit such a clobber after reload.  */
+      if (x != y
+         && ! (reload_in_progress || reload_completed)
+         && need_clobber != 0)
+       {
+         emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
+       }
+
+      emit_insn (seq);
+
       return last_insn;
     }
   else
@@ -2716,27 +2817,36 @@ push_block (size, extra, below)
       anti_adjust_stack (temp);
     }
 
-#if defined (STACK_GROWS_DOWNWARD) \
-    || (defined (ARGS_GROW_DOWNWARD) \
-       && !defined (ACCUMULATE_OUTGOING_ARGS))
-
-  /* Return the lowest stack address when STACK or ARGS grow downward and
-     we are not aaccumulating outgoing arguments (the c4x port uses such
-     conventions).  */
-  temp = virtual_outgoing_args_rtx;
-  if (extra != 0 && below)
-    temp = plus_constant (temp, extra);
+#ifndef STACK_GROWS_DOWNWARD
+#ifdef ARGS_GROW_DOWNWARD
+  if (!ACCUMULATE_OUTGOING_ARGS)
 #else
-  if (GET_CODE (size) == CONST_INT)
-    temp = plus_constant (virtual_outgoing_args_rtx,
-                         - INTVAL (size) - (below ? 0 : extra));
-  else if (extra != 0 && !below)
-    temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
-                   negate_rtx (Pmode, plus_constant (size, extra)));
-  else
-    temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
-                   negate_rtx (Pmode, size));
+  if (0)
 #endif
+#else
+  if (1)
+#endif
+    {
+
+      /* Return the lowest stack address when STACK or ARGS grow downward and
+        we are not aaccumulating outgoing arguments (the c4x port uses such
+        conventions).  */
+      temp = virtual_outgoing_args_rtx;
+      if (extra != 0 && below)
+       temp = plus_constant (temp, extra);
+    }
+  else
+    {
+      if (GET_CODE (size) == CONST_INT)
+       temp = plus_constant (virtual_outgoing_args_rtx,
+                             - INTVAL (size) - (below ? 0 : extra));
+      else if (extra != 0 && !below)
+       temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
+                       negate_rtx (Pmode, plus_constant (size, extra)));
+      else
+       temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
+                            negate_rtx (Pmode, size));
+    }
 
   return memory_address (GET_CLASS_NARROWEST_MODE (MODE_INT), temp);
 }
@@ -2773,7 +2883,7 @@ get_push_address (size)
    SIZE is an rtx for the size of data to be copied (in bytes),
    needed only if X is BLKmode.
 
-   ALIGN (in bytes) is maximum alignment we can assume.
+   ALIGN is maximum alignment we can assume.
 
    If PARTIAL and REG are both nonzero, then copy that many of the first
    words of X into registers starting with REG, and push the rest of X.
@@ -2800,18 +2910,20 @@ get_push_address (size)
 
 void
 emit_push_insn (x, mode, type, size, align, partial, reg, extra,
-               args_addr, args_so_far, reg_parm_stack_space)
+               args_addr, args_so_far, reg_parm_stack_space,
+                alignment_pad)
      register rtx x;
      enum machine_mode mode;
      tree type;
      rtx size;
-     int align;
+     unsigned int align;
      int partial;
      rtx reg;
      int extra;
      rtx args_addr;
      rtx args_so_far;
      int reg_parm_stack_space;
+     rtx alignment_pad;
 {
   rtx xinner;
   enum direction stack_direction
@@ -2865,14 +2977,15 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
         and if there is no difficulty with push insns that skip bytes
         on the stack for alignment purposes.  */
       if (args_addr == 0
+         && PUSH_ARGS
          && GET_CODE (size) == CONST_INT
          && skip == 0
          && (MOVE_BY_PIECES_P ((unsigned) INTVAL (size) - used, align))
          /* Here we avoid the case of a structure whose weak alignment
             forces many pushes of a small amount of data,
             and such small pushes do rounding that causes trouble.  */
-         && ((! SLOW_UNALIGNED_ACCESS)
-             || align >= BIGGEST_ALIGNMENT / BITS_PER_UNIT
+         && ((! SLOW_UNALIGNED_ACCESS (word_mode, align))
+             || align >= BIGGEST_ALIGNMENT
              || PUSH_ROUNDING (align) == align)
          && PUSH_ROUNDING (INTVAL (size)) == INTVAL (size))
        {
@@ -2883,6 +2996,7 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
              && where_pad != none && where_pad != stack_direction)
            anti_adjust_stack (GEN_INT (extra));
 
+         stack_pointer_delta += INTVAL (size) - used;
          move_by_pieces (gen_rtx_MEM (BLKmode, gen_push_operand ()), xinner,
                          INTVAL (size) - used, align);
 
@@ -2894,13 +3008,13 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
              temp = get_push_address (INTVAL(size) - used);
              if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
                emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                                  temp, ptr_mode,
-                                  XEXP (xinner, 0), ptr_mode,
+                                  temp, Pmode,
+                                  XEXP (xinner, 0), Pmode,
                                   GEN_INT (INTVAL(size) - used),
                                   TYPE_MODE (sizetype));
              else
                emit_library_call (chkr_set_right_libfunc, 1, VOIDmode, 3,
-                                  temp, ptr_mode,
+                                  temp, Pmode,
                                   GEN_INT (INTVAL(size) - used),
                                   TYPE_MODE (sizetype),
                                   GEN_INT (MEMORY_USE_RW),
@@ -2951,12 +3065,12 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
              target = copy_to_reg (temp);
              if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
                emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                                  target, ptr_mode,
-                                  XEXP (xinner, 0), ptr_mode,
+                                  target, Pmode,
+                                  XEXP (xinner, 0), Pmode,
                                   size, TYPE_MODE (sizetype));
              else
                emit_library_call (chkr_set_right_libfunc, 1, VOIDmode, 3,
-                                  target, ptr_mode,
+                                  target, Pmode,
                                   size, TYPE_MODE (sizetype),
                                   GEN_INT (MEMORY_USE_RW),
                                   TYPE_MODE (integer_type_node));
@@ -2965,7 +3079,7 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
 
          /* TEMP is the address of the block.  Copy the data there.  */
          if (GET_CODE (size) == CONST_INT
-             && (MOVE_BY_PIECES_P ((unsigned) INTVAL (size), align)))
+             && MOVE_BY_PIECES_P ((unsigned) INTVAL (size), align))
            {
              move_by_pieces (gen_rtx_MEM (BLKmode, temp), xinner,
                              INTVAL (size), align);
@@ -2973,7 +3087,7 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
            }
          else
            {
-             rtx opalign = GEN_INT (align);
+             rtx opalign = GEN_INT (align / BITS_PER_UNIT);
              enum machine_mode mode;
              rtx target = gen_rtx_MEM (BLKmode, temp);
 
@@ -2982,29 +3096,26 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
                   mode = GET_MODE_WIDER_MODE (mode))
                {
                  enum insn_code code = movstr_optab[(int) mode];
+                 insn_operand_predicate_fn pred;
 
                  if (code != CODE_FOR_nothing
                      && ((GET_CODE (size) == CONST_INT
                           && ((unsigned HOST_WIDE_INT) INTVAL (size)
                               <= (GET_MODE_MASK (mode) >> 1)))
                          || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
-                     && (insn_operand_predicate[(int) code][0] == 0
-                         || ((*insn_operand_predicate[(int) code][0])
-                             (target, BLKmode)))
-                     && (insn_operand_predicate[(int) code][1] == 0
-                         || ((*insn_operand_predicate[(int) code][1])
-                             (xinner, BLKmode)))
-                     && (insn_operand_predicate[(int) code][3] == 0
-                         || ((*insn_operand_predicate[(int) code][3])
-                             (opalign, VOIDmode))))
+                     && (!(pred = insn_data[(int) code].operand[0].predicate)
+                         || ((*pred) (target, BLKmode)))
+                     && (!(pred = insn_data[(int) code].operand[1].predicate)
+                         || ((*pred) (xinner, BLKmode)))
+                     && (!(pred = insn_data[(int) code].operand[3].predicate)
+                         || ((*pred) (opalign, VOIDmode))))
                    {
                      rtx op2 = convert_to_mode (mode, size, 1);
                      rtx last = get_last_insn ();
                      rtx pat;
 
-                     if (insn_operand_predicate[(int) code][2] != 0
-                         && ! ((*insn_operand_predicate[(int) code][2])
-                               (op2, mode)))
+                     pred = insn_data[(int) code].operand[2].predicate;
+                     if (pred != 0 && ! (*pred) (op2, mode))
                        op2 = copy_to_mode_reg (mode, op2);
 
                      pat = GEN_FCN ((int) code) (target, xinner,
@@ -3020,15 +3131,16 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
                }
            }
 
-#ifndef ACCUMULATE_OUTGOING_ARGS
-         /* If the source is referenced relative to the stack pointer,
-            copy it to another register to stabilize it.  We do not need
-            to do this if we know that we won't be changing sp.  */
+         if (!ACCUMULATE_OUTGOING_ARGS)
+           {
+             /* If the source is referenced relative to the stack pointer,
+                copy it to another register to stabilize it.  We do not need
+                to do this if we know that we won't be changing sp.  */
 
-         if (reg_mentioned_p (virtual_stack_dynamic_rtx, temp)
-             || reg_mentioned_p (virtual_outgoing_args_rtx, temp))
-           temp = copy_to_reg (temp);
-#endif
+             if (reg_mentioned_p (virtual_stack_dynamic_rtx, temp)
+                 || reg_mentioned_p (virtual_outgoing_args_rtx, temp))
+               temp = copy_to_reg (temp);
+           }
 
          /* Make inhibit_defer_pop nonzero around the library call
             to force it to pop the bcopy-arguments right away.  */
@@ -3109,7 +3221,7 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
                          0, args_addr,
                          GEN_INT (args_offset + ((i - not_stack + skip)
                                                  * UNITS_PER_WORD)),
-                         reg_parm_stack_space);
+                         reg_parm_stack_space, alignment_pad);
     }
   else
     {
@@ -3124,8 +3236,11 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
        anti_adjust_stack (GEN_INT (extra));
 
 #ifdef PUSH_ROUNDING
-      if (args_addr == 0)
-       addr = gen_push_operand ();
+      if (args_addr == 0 && PUSH_ARGS)
+       {
+         addr = gen_push_operand ();
+         stack_pointer_delta += PUSH_ROUNDING (GET_MODE_SIZE (mode));
+       }
       else
 #endif
        {
@@ -3150,13 +3265,13 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
 
          if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
            emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                              target, ptr_mode,
-                              XEXP (x, 0), ptr_mode,
+                              target, Pmode,
+                              XEXP (x, 0), Pmode,
                               GEN_INT (GET_MODE_SIZE (mode)),
                               TYPE_MODE (sizetype));
          else
            emit_library_call (chkr_set_right_libfunc, 1, VOIDmode, 3,
-                              target, ptr_mode,
+                              target, Pmode,
                               GEN_INT (GET_MODE_SIZE (mode)),
                               TYPE_MODE (sizetype),
                               GEN_INT (MEMORY_USE_RW),
@@ -3181,6 +3296,9 @@ emit_push_insn (x, mode, type, size, align, partial, reg, extra,
 
   if (extra && args_addr == 0 && where_pad == stack_direction)
     anti_adjust_stack (GEN_INT (extra));
+  if (alignment_pad)
+    anti_adjust_stack (alignment_pad);
 }
 \f
 /* Expand an assignment that stores the value of FROM into TO.
@@ -3198,7 +3316,7 @@ rtx
 expand_assignment (to, from, want_value, suggest_reg)
      tree to, from;
      int want_value;
-     int suggest_reg;
+     int suggest_reg ATTRIBUTE_UNUSED;
 {
   register rtx to_rtx = 0;
   rtx result;
@@ -3221,13 +3339,12 @@ expand_assignment (to, from, want_value, suggest_reg)
       || TREE_CODE (to) == ARRAY_REF)
     {
       enum machine_mode mode1;
-      int bitsize;
-      int bitpos;
+      HOST_WIDE_INT bitsize, bitpos;
       tree offset;
       int unsignedp;
       int volatilep = 0;
       tree tem;
-      int alignment;
+      unsigned int alignment;
 
       push_temp_slots ();
       tem = get_inner_reference (to, &bitsize, &bitpos, &offset, &mode1,
@@ -3264,7 +3381,7 @@ expand_assignment (to, from, want_value, suggest_reg)
              && bitsize
              && (bitpos % bitsize) == 0 
              && (bitsize % GET_MODE_ALIGNMENT (mode1)) == 0
-             && (alignment * BITS_PER_UNIT) == GET_MODE_ALIGNMENT (mode1))
+             && alignment == GET_MODE_ALIGNMENT (mode1))
            {
              rtx temp = change_address (to_rtx, mode1,
                                         plus_constant (XEXP (to_rtx, 0),
@@ -3281,8 +3398,10 @@ expand_assignment (to, from, want_value, suggest_reg)
 
          to_rtx = change_address (to_rtx, VOIDmode,
                                   gen_rtx_PLUS (ptr_mode, XEXP (to_rtx, 0),
-                                                force_reg (ptr_mode, offset_rtx)));
+                                                force_reg (ptr_mode,
+                                                           offset_rtx)));
        }
+
       if (volatilep)
        {
          if (GET_CODE (to_rtx) == MEM)
@@ -3334,33 +3453,54 @@ expand_assignment (to, from, want_value, suggest_reg)
          /* Check the access right of the pointer.  */
          if (size)
            emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                              to_addr, ptr_mode,
+                              to_addr, Pmode,
                               GEN_INT (size), TYPE_MODE (sizetype),
                               GEN_INT (MEMORY_USE_WO),
                               TYPE_MODE (integer_type_node));
        }
 
-      result = store_field (to_rtx, bitsize, bitpos, mode1, from,
-                           (want_value
-                            /* Spurious cast makes HPUX compiler happy.  */
-                            ? (enum machine_mode) TYPE_MODE (TREE_TYPE (to))
-                            : VOIDmode),
-                           unsignedp,
-                           /* Required alignment of containing datum.  */
-                           alignment,
-                           int_size_in_bytes (TREE_TYPE (tem)),
-                           get_alias_set (to));
-      preserve_temp_slots (result);
-      free_temp_slots ();
-      pop_temp_slots ();
+      /* If this is a varying-length object, we must get the address of
+        the source and do an explicit block move.  */
+      if (bitsize < 0)
+       {
+         unsigned int from_align;
+         rtx from_rtx = expand_expr_unaligned (from, &from_align);
+         rtx inner_to_rtx
+           = change_address (to_rtx, VOIDmode,
+                             plus_constant (XEXP (to_rtx, 0),
+                                            bitpos / BITS_PER_UNIT));
+
+         emit_block_move (inner_to_rtx, from_rtx, expr_size (from),
+                          MIN (alignment, from_align));
+         free_temp_slots ();
+         pop_temp_slots ();
+         return to_rtx;
+       }
+      else
+       {
+         result = store_field (to_rtx, bitsize, bitpos, mode1, from,
+                               (want_value
+                                /* Spurious cast for HPUX compiler.  */
+                                ? ((enum machine_mode)
+                                   TYPE_MODE (TREE_TYPE (to)))
+                                : VOIDmode),
+                               unsignedp,
+                               alignment,
+                               int_size_in_bytes (TREE_TYPE (tem)),
+                               get_alias_set (to));
 
-      /* If the value is meaningful, convert RESULT to the proper mode.
-        Otherwise, return nothing.  */
-      return (want_value ? convert_modes (TYPE_MODE (TREE_TYPE (to)),
-                                         TYPE_MODE (TREE_TYPE (from)),
-                                         result,
-                                         TREE_UNSIGNED (TREE_TYPE (to)))
-             : NULL_RTX);
+         preserve_temp_slots (result);
+         free_temp_slots ();
+         pop_temp_slots ();
+
+         /* If the value is meaningful, convert RESULT to the proper mode.
+            Otherwise, return nothing.  */
+         return (want_value ? convert_modes (TYPE_MODE (TREE_TYPE (to)),
+                                             TYPE_MODE (TREE_TYPE (from)),
+                                             result,
+                                             TREE_UNSIGNED (TREE_TYPE (to)))
+                 : NULL_RTX);
+       }
     }
 
   /* If the rhs is a function call and its value is not an aggregate,
@@ -3369,13 +3509,14 @@ expand_assignment (to, from, want_value, suggest_reg)
      val = setjmp (buf) on machines where reference to val
      requires loading up part of an address in a separate insn.
 
-     Don't do this if TO is a VAR_DECL whose DECL_RTL is REG since it might be
-     a promoted variable where the zero- or sign- extension needs to be done.
-     Handling this in the normal way is safe because no computation is done
-     before the call.  */
+     Don't do this if TO is a VAR_DECL or PARM_DECL whose DECL_RTL is REG
+     since it might be a promoted variable where the zero- or sign- extension
+     needs to be done.  Handling this in the normal way is safe because no
+     computation is done before the call.  */
   if (TREE_CODE (from) == CALL_EXPR && ! aggregate_value_p (from)
       && TREE_CODE (TYPE_SIZE (TREE_TYPE (from))) == INTEGER_CST
-      && ! (TREE_CODE (to) == VAR_DECL && GET_CODE (DECL_RTL (to)) == REG))
+      && ! ((TREE_CODE (to) == VAR_DECL || TREE_CODE (to) == PARM_DECL)
+           && GET_CODE (DECL_RTL (to)) == REG))
     {
       rtx value;
 
@@ -3388,12 +3529,19 @@ expand_assignment (to, from, want_value, suggest_reg)
         The Irix 6 ABI has examples of this.  */
       if (GET_CODE (to_rtx) == PARALLEL)
        emit_group_load (to_rtx, value, int_size_in_bytes (TREE_TYPE (from)),
-                        TYPE_ALIGN (TREE_TYPE (from)) / BITS_PER_UNIT);
+                        TYPE_ALIGN (TREE_TYPE (from)));
       else if (GET_MODE (to_rtx) == BLKmode)
        emit_block_move (to_rtx, value, expr_size (from),
-                        TYPE_ALIGN (TREE_TYPE (from)) / BITS_PER_UNIT);
+                        TYPE_ALIGN (TREE_TYPE (from)));
       else
-       emit_move_insn (to_rtx, value);
+       {
+#ifdef POINTERS_EXTEND_UNSIGNED
+         if (TREE_CODE (TREE_TYPE (to)) == REFERENCE_TYPE
+            || TREE_CODE (TREE_TYPE (to)) == POINTER_TYPE)
+           value = convert_memory_address (GET_MODE (to_rtx), value);
+#endif
+         emit_move_insn (to_rtx, value);
+       }
       preserve_temp_slots (to_rtx);
       free_temp_slots ();
       pop_temp_slots ();
@@ -3411,13 +3559,20 @@ expand_assignment (to, from, want_value, suggest_reg)
     }
 
   /* Don't move directly into a return register.  */
-  if (TREE_CODE (to) == RESULT_DECL && GET_CODE (to_rtx) == REG)
+  if (TREE_CODE (to) == RESULT_DECL
+      && (GET_CODE (to_rtx) == REG || GET_CODE (to_rtx) == PARALLEL))
     {
       rtx temp;
 
       push_temp_slots ();
       temp = expand_expr (from, 0, GET_MODE (to_rtx), 0);
-      emit_move_insn (to_rtx, temp);
+
+      if (GET_CODE (to_rtx) == PARALLEL)
+       emit_group_load (to_rtx, temp, int_size_in_bytes (TREE_TYPE (from)),
+                        TYPE_ALIGN (TREE_TYPE (from)));
+      else
+       emit_move_insn (to_rtx, temp);
+
       preserve_temp_slots (to_rtx);
       free_temp_slots ();
       pop_temp_slots ();
@@ -3441,8 +3596,8 @@ expand_assignment (to, from, want_value, suggest_reg)
       /* Copy the rights of the bitmap.  */
       if (current_function_check_memory_usage)
        emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                          XEXP (to_rtx, 0), ptr_mode,
-                          XEXP (from_rtx, 0), ptr_mode,
+                          XEXP (to_rtx, 0), Pmode,
+                          XEXP (from_rtx, 0), Pmode,
                           convert_to_mode (TYPE_MODE (sizetype),
                                            size, TREE_UNSIGNED (sizetype)),
                           TYPE_MODE (sizetype));
@@ -3578,8 +3733,7 @@ store_expr (exp, target, want_value)
        Don't do this if TARGET is volatile because we are supposed
        to write it and then read it.  */
     {
-      temp = expand_expr (exp, cse_not_expected ? NULL_RTX : target,
-                         GET_MODE (target), 0);
+      temp = expand_expr (exp, target, GET_MODE (target), 0);
       if (GET_MODE (temp) != BLKmode && GET_MODE (temp) != VOIDmode)
        temp = copy_to_reg (temp);
       dont_return_target = 1;
@@ -3631,6 +3785,20 @@ store_expr (exp, target, want_value)
 
       convert_move (SUBREG_REG (target), temp,
                    SUBREG_PROMOTED_UNSIGNED_P (target));
+
+      /* If we promoted a constant, change the mode back down to match
+        target.  Otherwise, the caller might get confused by a result whose
+        mode is larger than expected.  */
+
+      if (want_value && GET_MODE (temp) != GET_MODE (target)
+         && GET_MODE (temp) != VOIDmode)
+       {
+         temp = gen_rtx_SUBREG (GET_MODE (target), temp, 0);
+         SUBREG_PROMOTED_VAR_P (temp) = 1;
+         SUBREG_PROMOTED_UNSIGNED_P (temp)
+           = SUBREG_PROMOTED_UNSIGNED_P (target);
+       }
+
       return want_value ? temp : NULL_RTX;
     }
   else
@@ -3667,12 +3835,12 @@ store_expr (exp, target, want_value)
     {
       if (GET_CODE (temp) == MEM)
         emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                          XEXP (target, 0), ptr_mode,
-                          XEXP (temp, 0), ptr_mode,
+                          XEXP (target, 0), Pmode,
+                          XEXP (temp, 0), Pmode,
                           expr_size (exp), TYPE_MODE (sizetype));
       else
         emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                          XEXP (target, 0), ptr_mode, 
+                          XEXP (target, 0), Pmode, 
                           expr_size (exp), TYPE_MODE (sizetype),
                           GEN_INT (MEMORY_USE_WO), 
                           TYPE_MODE (integer_type_node));
@@ -3727,23 +3895,21 @@ store_expr (exp, target, want_value)
          size = expr_size (exp);
          if (GET_CODE (size) == CONST_INT
              && INTVAL (size) < TREE_STRING_LENGTH (exp))
-           emit_block_move (target, temp, size,
-                            TYPE_ALIGN (TREE_TYPE (exp)) / BITS_PER_UNIT);
+           emit_block_move (target, temp, size, TYPE_ALIGN (TREE_TYPE (exp)));
          else
            {
              /* Compute the size of the data to copy from the string.  */
              tree copy_size
                = size_binop (MIN_EXPR,
                              make_tree (sizetype, size),
-                             convert (sizetype,
-                                      build_int_2 (TREE_STRING_LENGTH (exp), 0)));
+                             size_int (TREE_STRING_LENGTH (exp)));
              rtx copy_size_rtx = expand_expr (copy_size, NULL_RTX,
                                               VOIDmode, 0);
              rtx label = 0;
 
              /* Copy that much.  */
              emit_block_move (target, temp, copy_size_rtx,
-                              TYPE_ALIGN (TREE_TYPE (exp)) / BITS_PER_UNIT);
+                              TYPE_ALIGN (TREE_TYPE (exp)));
 
              /* Figure out how much is left in TARGET that we have to clear.
                 Do all calculations in ptr_mode.  */
@@ -3777,7 +3943,7 @@ store_expr (exp, target, want_value)
                  /* Be sure we can write on ADDR.  */
                  if (current_function_check_memory_usage)
                    emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                                      addr, ptr_mode,
+                                      addr, Pmode,
                                       size, TYPE_MODE (sizetype),
                                       GEN_INT (MEMORY_USE_WO), 
                                       TYPE_MODE (integer_type_node));
@@ -3807,10 +3973,10 @@ store_expr (exp, target, want_value)
         The Irix 6 ABI has examples of this.  */
       else if (GET_CODE (target) == PARALLEL)
        emit_group_load (target, temp, int_size_in_bytes (TREE_TYPE (exp)),
-                        TYPE_ALIGN (TREE_TYPE (exp)) / BITS_PER_UNIT);
+                        TYPE_ALIGN (TREE_TYPE (exp)));
       else if (GET_MODE (temp) == BLKmode)
        emit_block_move (target, temp, expr_size (exp),
-                        TYPE_ALIGN (TREE_TYPE (exp)) / BITS_PER_UNIT);
+                        TYPE_ALIGN (TREE_TYPE (exp)));
       else
        emit_move_insn (target, temp);
     }
@@ -3850,7 +4016,7 @@ is_zeros_p (exp)
       return is_zeros_p (TREE_OPERAND (exp, 0));
 
     case INTEGER_CST:
-      return TREE_INT_CST_LOW (exp) == 0 && TREE_INT_CST_HIGH (exp) == 0;
+      return integer_zerop (exp);
 
     case COMPLEX_CST:
       return
@@ -3909,7 +4075,7 @@ mostly_zeros_p (exp)
 /* Helper function for store_constructor.
    TARGET, BITSIZE, BITPOS, MODE, EXP are as for store_field.
    TYPE is the type of the CONSTRUCTOR, not the element type.
-   CLEARED is as for store_constructor.
+   ALIGN and CLEARED are as for store_constructor.
 
    This provides a recursive shortcut back to store_constructor when it isn't
    necessary to go through store_field.  This is so that we can pass through
@@ -3918,11 +4084,13 @@ mostly_zeros_p (exp)
 
 static void
 store_constructor_field (target, bitsize, bitpos,
-                        mode, exp, type, cleared)
+                        mode, exp, type, align, cleared)
      rtx target;
-     int bitsize, bitpos;
+     unsigned HOST_WIDE_INT bitsize;
+     HOST_WIDE_INT bitpos;
      enum machine_mode mode;
      tree exp, type;
+     unsigned int align;
      int cleared;
 {
   if (TREE_CODE (exp) == CONSTRUCTOR
@@ -3933,29 +4101,41 @@ store_constructor_field (target, bitsize, bitpos,
       && (bitpos == 0 || GET_CODE (target) == MEM))
     {
       if (bitpos != 0)
-       target = change_address (target, VOIDmode,
-                                plus_constant (XEXP (target, 0),
-                                               bitpos / BITS_PER_UNIT));
-      store_constructor (exp, target, cleared);
+       target
+         = change_address (target,
+                           GET_MODE (target) == BLKmode
+                           || 0 != (bitpos
+                                    % GET_MODE_ALIGNMENT (GET_MODE (target)))
+                           ? BLKmode : VOIDmode,
+                           plus_constant (XEXP (target, 0),
+                                          bitpos / BITS_PER_UNIT));
+      store_constructor (exp, target, align, cleared, bitsize / BITS_PER_UNIT);
     }
   else
-    store_field (target, bitsize, bitpos, mode, exp,
-                VOIDmode, 0, TYPE_ALIGN (type) / BITS_PER_UNIT,
+    store_field (target, bitsize, bitpos, mode, exp, VOIDmode, 0, align,
                 int_size_in_bytes (type), 0);
 }
 
 /* Store the value of constructor EXP into the rtx TARGET.
    TARGET is either a REG or a MEM.
-   CLEARED is true if TARGET is known to have been zero'd.  */
+   ALIGN is the maximum known alignment for TARGET.
+   CLEARED is true if TARGET is known to have been zero'd.
+   SIZE is the number of bytes of TARGET we are allowed to modify: this
+   may not be the same as the size of EXP if we are assigning to a field
+   which has been packed to exclude padding bits.  */
 
 static void
-store_constructor (exp, target, cleared)
+store_constructor (exp, target, align, cleared, size)
      tree exp;
      rtx target;
+     unsigned int align;
      int cleared;
+     HOST_WIDE_INT size;
 {
   tree type = TREE_TYPE (exp);
-  rtx exp_size = expr_size (exp);
+#ifdef WORD_REGISTER_OPERATIONS
+  HOST_WIDE_INT exp_size = int_size_in_bytes (type);
+#endif
 
   /* We know our target cannot conflict, since safe_from_p has been called.  */
 #if 0
@@ -3965,7 +4145,7 @@ store_constructor (exp, target, cleared)
   if (GET_CODE (target) == REG && REGNO (target) < FIRST_PSEUDO_REGISTER)
     {
       rtx temp = gen_reg_rtx (GET_MODE (target));
-      store_constructor (exp, temp, 0);
+      store_constructor (exp, temp, align, cleared, size);
       emit_move_insn (target, temp);
       return;
     }
@@ -3977,9 +4157,16 @@ store_constructor (exp, target, cleared)
       register tree elt;
 
       /* Inform later passes that the whole union value is dead.  */
-      if (TREE_CODE (type) == UNION_TYPE
-         || TREE_CODE (type) == QUAL_UNION_TYPE)
-       emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
+      if ((TREE_CODE (type) == UNION_TYPE
+          || TREE_CODE (type) == QUAL_UNION_TYPE)
+         && ! cleared)
+       {
+         emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
+
+         /* If the constructor is empty, clear the union.  */
+         if (! CONSTRUCTOR_ELTS (exp)  && ! cleared)
+           clear_storage (target, expr_size (exp), TYPE_ALIGN (type));
+       }
 
       /* If we are building a static constructor into a register,
         set the initial value as zero so we can fold the value into
@@ -3997,17 +4184,17 @@ store_constructor (exp, target, cleared)
       /* If the constructor has fewer fields than the structure
         or if we are initializing the structure to mostly zeros,
         clear the whole structure first.  */
-      else if ((list_length (CONSTRUCTOR_ELTS (exp))
-               != list_length (TYPE_FIELDS (type)))
-              || mostly_zeros_p (exp))
+      else if (size > 0
+              && ((list_length (CONSTRUCTOR_ELTS (exp))
+                   != fields_length (type))
+                  || mostly_zeros_p (exp)))
        {
          if (! cleared)
-           clear_storage (target, expr_size (exp),
-                          TYPE_ALIGN (type) / BITS_PER_UNIT);
+           clear_storage (target, GEN_INT (size), align);
 
          cleared = 1;
        }
-      else
+      else if (! cleared)
        /* Inform later passes that the old value is dead.  */
        emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
 
@@ -4017,12 +4204,14 @@ store_constructor (exp, target, cleared)
       for (elt = CONSTRUCTOR_ELTS (exp); elt; elt = TREE_CHAIN (elt))
        {
          register tree field = TREE_PURPOSE (elt);
+#ifdef WORD_REGISTER_OPERATIONS
          tree value = TREE_VALUE (elt);
+#endif
          register enum machine_mode mode;
-         int bitsize;
-         int bitpos = 0;
+         HOST_WIDE_INT bitsize;
+         HOST_WIDE_INT bitpos = 0;
          int unsignedp;
-         tree pos, constant = 0, offset = 0;
+         tree offset;
          rtx to_rtx = target;
 
          /* Just ignore missing fields.
@@ -4034,24 +4223,26 @@ store_constructor (exp, target, cleared)
          if (cleared && is_zeros_p (TREE_VALUE (elt)))
            continue;
 
-         bitsize = TREE_INT_CST_LOW (DECL_SIZE (field));
+         if (host_integerp (DECL_SIZE (field), 1))
+           bitsize = tree_low_cst (DECL_SIZE (field), 1);
+         else
+           bitsize = -1;
+
          unsignedp = TREE_UNSIGNED (field);
          mode = DECL_MODE (field);
          if (DECL_BIT_FIELD (field))
            mode = VOIDmode;
 
-         pos = DECL_FIELD_BITPOS (field);
-         if (TREE_CODE (pos) == INTEGER_CST)
-           constant = pos;
-         else if (TREE_CODE (pos) == PLUS_EXPR
-                  && TREE_CODE (TREE_OPERAND (pos, 1)) == INTEGER_CST)
-           constant = TREE_OPERAND (pos, 1), offset = TREE_OPERAND (pos, 0);
+         offset = DECL_FIELD_OFFSET (field);
+         if (host_integerp (offset, 0)
+             && host_integerp (bit_position (field), 0))
+           {
+             bitpos = int_bit_position (field);
+             offset = 0;
+           }
          else
-           offset = pos;
-
-         if (constant)
-           bitpos = TREE_INT_CST_LOW (constant);
-
+           bitpos = tree_low_cst (DECL_FIELD_BIT_OFFSET (field), 0);
+                             
          if (offset)
            {
              rtx offset_rtx;
@@ -4060,9 +4251,6 @@ store_constructor (exp, target, cleared)
                offset = build (WITH_RECORD_EXPR, sizetype,
                                offset, make_tree (TREE_TYPE (exp), target));
 
-             offset = size_binop (FLOOR_DIV_EXPR, offset,
-                                  size_int (BITS_PER_UNIT));
-
              offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
              if (GET_CODE (to_rtx) != MEM)
                abort ();
@@ -4079,8 +4267,11 @@ store_constructor (exp, target, cleared)
              to_rtx
                = change_address (to_rtx, VOIDmode,
                                  gen_rtx_PLUS (ptr_mode, XEXP (to_rtx, 0),
-                                          force_reg (ptr_mode, offset_rtx)));
+                                               force_reg (ptr_mode,
+                                                          offset_rtx)));
+             align = DECL_OFFSET_ALIGN (field);
            }
+
          if (TREE_READONLY (field))
            {
              if (GET_CODE (to_rtx) == MEM)
@@ -4094,14 +4285,13 @@ store_constructor (exp, target, cleared)
             start of a word, try to widen it to a full word.
             This special case allows us to output C++ member function
             initializations in a form that the optimizers can understand.  */
-         if (constant
-             && GET_CODE (target) == REG
+         if (GET_CODE (target) == REG
              && bitsize < BITS_PER_WORD
              && bitpos % BITS_PER_WORD == 0
              && GET_MODE_CLASS (mode) == MODE_INT
              && TREE_CODE (value) == INTEGER_CST
-             && GET_CODE (exp_size) == CONST_INT
-             && bitpos + BITS_PER_WORD <= INTVAL (exp_size) * BITS_PER_UNIT)
+             && exp_size >= 0
+             && bitpos + BITS_PER_WORD <= exp_size * BITS_PER_UNIT)
            {
              tree type = TREE_TYPE (value);
              if (TYPE_PRECISION (type) < BITS_PER_WORD)
@@ -4117,8 +4307,8 @@ store_constructor (exp, target, cleared)
              mode = word_mode;
            }
 #endif
-         store_constructor_field (to_rtx, bitsize, bitpos,
-                                  mode, value, type, cleared);
+         store_constructor_field (to_rtx, bitsize, bitpos, mode,
+                                  TREE_VALUE (elt), type, align, cleared);
        }
     }
   else if (TREE_CODE (type) == ARRAY_TYPE)
@@ -4149,18 +4339,21 @@ store_constructor (exp, target, cleared)
            {
              tree index = TREE_PURPOSE (elt);
              HOST_WIDE_INT this_node_count;
+
              if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
                {
                  tree lo_index = TREE_OPERAND (index, 0);
                  tree hi_index = TREE_OPERAND (index, 1);
-                 if (TREE_CODE (lo_index) != INTEGER_CST
-                     || TREE_CODE (hi_index) != INTEGER_CST)
+
+                 if (! host_integerp (lo_index, 1)
+                     || ! host_integerp (hi_index, 1))
                    {
                      need_to_clear = 1;
                      break;
                    }
-                 this_node_count = TREE_INT_CST_LOW (hi_index)
-                   - TREE_INT_CST_LOW (lo_index) + 1;
+
+                 this_node_count = (tree_low_cst (hi_index, 1)
+                                    - tree_low_cst (lo_index, 1) + 1);
                }
              else
                this_node_count = 1;
@@ -4174,11 +4367,10 @@ store_constructor (exp, target, cleared)
              || 4 * zero_count >= 3 * count)
            need_to_clear = 1;
        }
-      if (need_to_clear)
+      if (need_to_clear && size > 0)
        {
          if (! cleared)
-           clear_storage (target, expr_size (exp),
-                          TYPE_ALIGN (type) / BITS_PER_UNIT);
+           clear_storage (target, GEN_INT (size), align);
          cleared = 1;
        }
       else
@@ -4193,19 +4385,25 @@ store_constructor (exp, target, cleared)
           elt = TREE_CHAIN (elt), i++)
        {
          register enum machine_mode mode;
-         int bitsize;
-         int bitpos;
+         HOST_WIDE_INT bitsize;
+         HOST_WIDE_INT bitpos;
          int unsignedp;
          tree value = TREE_VALUE (elt);
+         unsigned int align = TYPE_ALIGN (TREE_TYPE (value));
          tree index = TREE_PURPOSE (elt);
          rtx xtarget = target;
 
          if (cleared && is_zeros_p (value))
            continue;
 
-         mode = TYPE_MODE (elttype);
-         bitsize = GET_MODE_BITSIZE (mode);
          unsignedp = TREE_UNSIGNED (elttype);
+         mode = TYPE_MODE (elttype);
+         if (mode == BLKmode)
+           bitsize = (host_integerp (TYPE_SIZE (elttype), 1)
+                      ? tree_low_cst (TYPE_SIZE (elttype), 1)
+                      : -1);
+         else
+           bitsize = GET_MODE_BITSIZE (mode);
 
          if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
            {
@@ -4217,23 +4415,23 @@ store_constructor (exp, target, cleared)
              tree position;
 
              /* If the range is constant and "small", unroll the loop.  */
-             if (TREE_CODE (lo_index) == INTEGER_CST
-                 && TREE_CODE (hi_index) == INTEGER_CST
-                 && (lo = TREE_INT_CST_LOW (lo_index),
-                     hi = TREE_INT_CST_LOW (hi_index),
+             if (host_integerp (lo_index, 0)
+                 && host_integerp (hi_index, 0)
+                 && (lo = tree_low_cst (lo_index, 0),
+                     hi = tree_low_cst (hi_index, 0),
                      count = hi - lo + 1,
                      (GET_CODE (target) != MEM
                       || count <= 2
-                      || (TREE_CODE (TYPE_SIZE (elttype)) == INTEGER_CST
-                          && TREE_INT_CST_LOW (TYPE_SIZE (elttype)) * count
-                          <= 40 * 8))))
+                      || (host_integerp (TYPE_SIZE (elttype), 1)
+                          && (tree_low_cst (TYPE_SIZE (elttype), 1) * count
+                              <= 40 * 8)))))
                {
                  lo -= minelt;  hi -= minelt;
                  for (; lo <= hi; lo++)
                    {
-                     bitpos = lo * TREE_INT_CST_LOW (TYPE_SIZE (elttype));
-                     store_constructor_field (target, bitsize, bitpos,
-                                              mode, value, type, cleared);
+                     bitpos = lo * tree_low_cst (TYPE_SIZE (elttype), 0);
+                     store_constructor_field (target, bitsize, bitpos, mode,
+                                              value, type, align, cleared);
                    }
                }
              else
@@ -4262,17 +4460,20 @@ store_constructor (exp, target, cleared)
                  loop = expand_start_loop (0);
 
                  /* Assign value to element index.  */
-                 position = size_binop (EXACT_DIV_EXPR, TYPE_SIZE (elttype),
-                                        size_int (BITS_PER_UNIT));
-                 position = size_binop (MULT_EXPR,
-                                        size_binop (MINUS_EXPR, index,
-                                                    TYPE_MIN_VALUE (domain)),
-                                        position);
+                 position
+                   = convert (ssizetype,
+                              fold (build (MINUS_EXPR, TREE_TYPE (index),
+                                           index, TYPE_MIN_VALUE (domain))));
+                 position = size_binop (MULT_EXPR, position,
+                                        convert (ssizetype,
+                                                 TYPE_SIZE_UNIT (elttype)));
+
                  pos_rtx = expand_expr (position, 0, VOIDmode, 0);
                  addr = gen_rtx_PLUS (Pmode, XEXP (target, 0), pos_rtx);
                  xtarget = change_address (target, mode, addr);
                  if (TREE_CODE (value) == CONSTRUCTOR)
-                   store_constructor (value, xtarget, cleared);
+                   store_constructor (value, xtarget, align, cleared,
+                                      bitsize / BITS_PER_UNIT);
                  else
                    store_expr (value, xtarget, 0);
 
@@ -4285,28 +4486,25 @@ store_constructor (exp, target, cleared)
                                           index, integer_one_node), 0, 0);
                  expand_end_loop ();
                  emit_label (loop_end);
-
-                 /* Needed by stupid register allocation. to extend the
-                    lifetime of pseudo-regs used by target past the end
-                    of the loop.  */
-                 emit_insn (gen_rtx_USE (GET_MODE (target), target));
                }
            }
-         else if ((index != 0 && TREE_CODE (index) != INTEGER_CST)
-             || TREE_CODE (TYPE_SIZE (elttype)) != INTEGER_CST)
+         else if ((index != 0 && ! host_integerp (index, 0))
+                  || ! host_integerp (TYPE_SIZE (elttype), 1))
            {
              rtx pos_rtx, addr;
              tree position;
 
              if (index == 0)
-               index = size_int (i);
+               index = ssize_int (1);
 
              if (minelt)
-               index = size_binop (MINUS_EXPR, index,
-                                   TYPE_MIN_VALUE (domain));
-             position = size_binop (EXACT_DIV_EXPR, TYPE_SIZE (elttype),
-                                    size_int (BITS_PER_UNIT));
-             position = size_binop (MULT_EXPR, index, position);
+               index = convert (ssizetype,
+                                fold (build (MINUS_EXPR, index,
+                                             TYPE_MIN_VALUE (domain))));
+
+             position = size_binop (MULT_EXPR, index,
+                                    convert (ssizetype,
+                                             TYPE_SIZE_UNIT (elttype)));
              pos_rtx = expand_expr (position, 0, VOIDmode, 0);
              addr = gen_rtx_PLUS (Pmode, XEXP (target, 0), pos_rtx);
              xtarget = change_address (target, mode, addr);
@@ -4315,20 +4513,22 @@ store_constructor (exp, target, cleared)
          else
            {
              if (index != 0)
-               bitpos = ((TREE_INT_CST_LOW (index) - minelt)
-                         * TREE_INT_CST_LOW (TYPE_SIZE (elttype)));
+               bitpos = ((tree_low_cst (index, 0) - minelt)
+                         * tree_low_cst (TYPE_SIZE (elttype), 1));
              else
-               bitpos = (i * TREE_INT_CST_LOW (TYPE_SIZE (elttype)));
-             store_constructor_field (target, bitsize, bitpos,
-                                      mode, value, type, cleared);
+               bitpos = (i * tree_low_cst (TYPE_SIZE (elttype), 1));
+
+             store_constructor_field (target, bitsize, bitpos, mode, value,
+                                      type, align, cleared);
            }
        }
     }
-  /* set constructor assignments */
+
+  /* Set constructor assignments */
   else if (TREE_CODE (type) == SET_TYPE)
     {
       tree elt = CONSTRUCTOR_ELTS (exp);
-      int nbytes = int_size_in_bytes (type), nbits;
+      unsigned HOST_WIDE_INT nbytes = int_size_in_bytes (type), nbits;
       tree domain = TYPE_DOMAIN (type);
       tree domain_min, domain_max, bitlength;
 
@@ -4343,23 +4543,20 @@ store_constructor (exp, target, cleared)
         bzero/memset), and set the bits we want.  */
        
       /* Check for all zeros.  */
-      if (elt == NULL_TREE)
+      if (elt == NULL_TREE && size > 0)
        {
          if (!cleared)
-           clear_storage (target, expr_size (exp),
-                          TYPE_ALIGN (type) / BITS_PER_UNIT);
+           clear_storage (target, GEN_INT (size), TYPE_ALIGN (type));
          return;
        }
 
       domain_min = convert (sizetype, TYPE_MIN_VALUE (domain));
       domain_max = convert (sizetype, TYPE_MAX_VALUE (domain));
       bitlength = size_binop (PLUS_EXPR,
-                             size_binop (MINUS_EXPR, domain_max, domain_min),
-                             size_one_node);
+                             size_diffop (domain_max, domain_min),
+                             ssize_int (1));
 
-      if (nbytes < 0 || TREE_CODE (bitlength) != INTEGER_CST)
-       abort ();
-      nbits = TREE_INT_CST_LOW (bitlength);
+      nbits = tree_low_cst (bitlength, 1);
 
       /* For "small" sets, or "medium-sized" (up to 32 bytes) sets that
         are "complicated" (more than one range), initialize (the
@@ -4367,13 +4564,14 @@ store_constructor (exp, target, cleared)
       if (GET_MODE (target) != BLKmode || nbits <= 2 * BITS_PER_WORD
          || (nbytes <= 32 && TREE_CHAIN (elt) != NULL_TREE))
        {
-         int set_word_size = TYPE_ALIGN (TREE_TYPE (exp));
+         unsigned int set_word_size = TYPE_ALIGN (TREE_TYPE (exp));
          enum machine_mode mode = mode_for_size (set_word_size, MODE_INT, 1);
          char *bit_buffer = (char *) alloca (nbits);
          HOST_WIDE_INT word = 0;
-         int bit_pos = 0;
-         int ibit = 0;
-         int offset = 0;  /* In bytes from beginning of set.  */
+         unsigned int bit_pos = 0;
+         unsigned int ibit = 0;
+         unsigned int offset = 0;  /* In bytes from beginning of set.  */
+
          elt = get_set_constructor_bits (exp, bit_buffer, nbits);
          for (;;)
            {
@@ -4384,6 +4582,7 @@ store_constructor (exp, target, cleared)
                  else
                    word |= 1 << bit_pos;
                }
+
              bit_pos++;  ibit++;
              if (bit_pos >= set_word_size || ibit == nbits)
                {
@@ -4391,6 +4590,7 @@ store_constructor (exp, target, cleared)
                    {
                      rtx datum = GEN_INT (word);
                      rtx to_rtx;
+
                      /* The assumption here is that it is safe to use
                         XEXP if the set is multi-word, but not if
                         it's single-word.  */
@@ -4405,6 +4605,7 @@ store_constructor (exp, target, cleared)
                        abort ();
                      emit_move_insn (to_rtx, datum);
                    }
+
                  if (ibit == nbits)
                    break;
                  word = 0;
@@ -4414,19 +4615,16 @@ store_constructor (exp, target, cleared)
            }
        }
       else if (!cleared)
-       {
-         /* Don't bother clearing storage if the set is all ones.  */
-         if (TREE_CHAIN (elt) != NULL_TREE
-             || (TREE_PURPOSE (elt) == NULL_TREE
-                 ? nbits != 1
-                 : (TREE_CODE (TREE_VALUE (elt)) != INTEGER_CST
-                    || TREE_CODE (TREE_PURPOSE (elt)) != INTEGER_CST
-                    || (TREE_INT_CST_LOW (TREE_VALUE (elt))
-                        - TREE_INT_CST_LOW (TREE_PURPOSE (elt)) + 1
-                        != nbits))))
-           clear_storage (target, expr_size (exp),
-                          TYPE_ALIGN (type) / BITS_PER_UNIT);
-       }
+       /* Don't bother clearing storage if the set is all ones.  */
+       if (TREE_CHAIN (elt) != NULL_TREE
+           || (TREE_PURPOSE (elt) == NULL_TREE
+               ? nbits != 1
+               : ( ! host_integerp (TREE_VALUE (elt), 0)
+                  || ! host_integerp (TREE_PURPOSE (elt), 0)
+                  || (tree_low_cst (TREE_VALUE (elt), 0)
+                      - tree_low_cst (TREE_PURPOSE (elt), 0) + 1
+                      != (HOST_WIDE_INT) nbits))))
+         clear_storage (target, expr_size (exp), TYPE_ALIGN (type));
          
       for (; elt != NULL_TREE; elt = TREE_CHAIN (elt))
        {
@@ -4437,10 +4635,10 @@ store_constructor (exp, target, cleared)
 #ifdef TARGET_MEM_FUNCTIONS
          HOST_WIDE_INT startb, endb;
 #endif
-         rtx  bitlength_rtx, startbit_rtx, endbit_rtx, targetx;
+         rtx bitlength_rtx, startbit_rtx, endbit_rtx, targetx;
 
          bitlength_rtx = expand_expr (bitlength,
-                           NULL_RTX, MEM, EXPAND_CONST_ADDRESS);
+                                      NULL_RTX, MEM, EXPAND_CONST_ADDRESS);
 
          /* handle non-range tuple element like [ expr ]  */
          if (startbit == NULL_TREE)
@@ -4448,6 +4646,7 @@ store_constructor (exp, target, cleared)
              startbit = save_expr (endbit);
              endbit = startbit;
            }
+
          startbit = convert (sizetype, startbit);
          endbit = convert (sizetype, endbit);
          if (! integer_zerop (domain_min))
@@ -4467,6 +4666,7 @@ store_constructor (exp, target, cleared)
                                           0);
              emit_move_insn (targetx, target);
            }
+
          else if (GET_CODE (target) == MEM)
            targetx = target;
          else
@@ -4492,13 +4692,12 @@ store_constructor (exp, target, cleared)
            }
          else
 #endif
-           {
-             emit_library_call (gen_rtx_SYMBOL_REF (Pmode, "__setbits"),
-                                0, VOIDmode, 4, XEXP (targetx, 0), Pmode,
-                                bitlength_rtx, TYPE_MODE (sizetype),
-                                startbit_rtx, TYPE_MODE (sizetype),
-                                endbit_rtx, TYPE_MODE (sizetype));
-           }
+           emit_library_call (gen_rtx_SYMBOL_REF (Pmode, "__setbits"),
+                              0, VOIDmode, 4, XEXP (targetx, 0), Pmode,
+                              bitlength_rtx, TYPE_MODE (sizetype),
+                              startbit_rtx, TYPE_MODE (sizetype),
+                              endbit_rtx, TYPE_MODE (sizetype));
+
          if (REG_P (target))
            emit_move_insn (target, targetx);
        }
@@ -4520,7 +4719,7 @@ store_constructor (exp, target, cleared)
    has mode VALUE_MODE if that is convenient to do.
    In this case, UNSIGNEDP must be nonzero if the value is an unsigned type.
 
-   ALIGN is the alignment that TARGET is known to have, measured in bytes.
+   ALIGN is the alignment that TARGET is known to have.
    TOTAL_SIZE is the size in bytes of the structure, or -1 if varying.  
 
    ALIAS_SET is the alias set for the destination.  This value will
@@ -4531,13 +4730,14 @@ static rtx
 store_field (target, bitsize, bitpos, mode, exp, value_mode,
             unsignedp, align, total_size, alias_set)
      rtx target;
-     int bitsize, bitpos;
+     HOST_WIDE_INT bitsize;
+     HOST_WIDE_INT bitpos;
      enum machine_mode mode;
      tree exp;
      enum machine_mode value_mode;
      int unsignedp;
-     int align;
-     int total_size;
+     unsigned int align;
+     HOST_WIDE_INT total_size;
      int alias_set;
 {
   HOST_WIDE_INT width_mask = 0;
@@ -4583,6 +4783,15 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
       return blk_object;
     }
 
+  if (GET_CODE (target) == CONCAT)
+    {
+      /* We're storing into a struct containing a single __complex.  */
+
+      if (bitpos != 0)
+       abort ();
+      return store_expr (exp, target, 0);
+    }
+
   /* If the structure is in a register or if the component
      is a bit field, we cannot use addressing to access it.
      Use bit-field techniques or SUBREG to store in it.  */
@@ -4595,9 +4804,18 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
       || GET_CODE (target) == SUBREG
       /* If the field isn't aligned enough to store as an ordinary memref,
         store it as a bit field.  */
-      || (SLOW_UNALIGNED_ACCESS
-         && align * BITS_PER_UNIT < GET_MODE_ALIGNMENT (mode))
-      || (SLOW_UNALIGNED_ACCESS && bitpos % GET_MODE_ALIGNMENT (mode) != 0))
+      || (mode != BLKmode && SLOW_UNALIGNED_ACCESS (mode, align)
+         && (align < GET_MODE_ALIGNMENT (mode)
+             || bitpos % GET_MODE_ALIGNMENT (mode)))
+      || (mode == BLKmode && SLOW_UNALIGNED_ACCESS (mode, align)
+         && (TYPE_ALIGN (TREE_TYPE (exp)) > align
+             || bitpos % TYPE_ALIGN (TREE_TYPE (exp)) != 0))
+      /* If the RHS and field are a constant size and the size of the
+        RHS isn't the same size as the bitfield, we must use bitfield
+        operations.  */
+      || (bitsize >= 0
+         && TREE_CODE (TYPE_SIZE (TREE_TYPE (exp))) == INTEGER_CST
+         && compare_tree_int (TYPE_SIZE (TREE_TYPE (exp)), bitsize) != 0))
     {
       rtx temp = expand_expr (exp, NULL_RTX, VOIDmode, 0);
 
@@ -4624,6 +4842,8 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
         boundary.  If so, we simply do a block copy.  */
       if (GET_MODE (target) == BLKmode && GET_MODE (temp) == BLKmode)
        {
+         unsigned int exp_align = expr_align (exp);
+
          if (GET_CODE (target) != MEM || GET_CODE (temp) != MEM
              || bitpos % BITS_PER_UNIT != 0)
            abort ();
@@ -4632,10 +4852,17 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
                                   plus_constant (XEXP (target, 0),
                                                bitpos / BITS_PER_UNIT));
 
+         /* Make sure that ALIGN is no stricter than the alignment of EXP.  */
+         align = MIN (exp_align, align);
+
+         /* Find an alignment that is consistent with the bit position.  */
+         while ((bitpos % align) != 0)
+           align >>= 1;
+
          emit_block_move (target, temp,
                           GEN_INT ((bitsize + BITS_PER_UNIT - 1)
                                    / BITS_PER_UNIT),
-                          1);
+                          align);
 
          return value_mode == VOIDmode ? const0_rtx : target;
        }
@@ -4707,7 +4934,7 @@ store_field (target, bitsize, bitpos, mode, exp, value_mode,
    giving the variable offset (in units) in *POFFSET.
    This offset is in addition to the bit position.
    If the position is not variable, we store 0 in *POFFSET.
-   We set *PALIGNMENT to the alignment in bytes of the address that will be
+   We set *PALIGNMENT to the alignment of the address that will be
    computed.  This is the alignment of the thing we return if *POFFSET
    is zero, but can be more less strictly aligned if *POFFSET is nonzero.
 
@@ -4726,25 +4953,29 @@ tree
 get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
                     punsignedp, pvolatilep, palignment)
      tree exp;
-     int *pbitsize;
-     int *pbitpos;
+     HOST_WIDE_INT *pbitsize;
+     HOST_WIDE_INT *pbitpos;
      tree *poffset;
      enum machine_mode *pmode;
      int *punsignedp;
      int *pvolatilep;
-     int *palignment;
+     unsigned int *palignment;
 {
-  tree orig_exp = exp;
   tree size_tree = 0;
   enum machine_mode mode = VOIDmode;
-  tree offset = integer_zero_node;
+  tree offset = size_zero_node;
+  tree bit_offset = bitsize_zero_node;
   unsigned int alignment = BIGGEST_ALIGNMENT;
+  tree tem;
 
+  /* First get the mode, signedness, and size.  We do this from just the
+     outermost expression.  */
   if (TREE_CODE (exp) == COMPONENT_REF)
     {
       size_tree = DECL_SIZE (TREE_OPERAND (exp, 1));
       if (! DECL_BIT_FIELD (TREE_OPERAND (exp, 1)))
        mode = DECL_MODE (TREE_OPERAND (exp, 1));
+
       *punsignedp = TREE_UNSIGNED (TREE_OPERAND (exp, 1));
     }
   else if (TREE_CODE (exp) == BIT_FIELD_REF)
@@ -4755,125 +4986,85 @@ get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
   else
     {
       mode = TYPE_MODE (TREE_TYPE (exp));
+      *punsignedp = TREE_UNSIGNED (TREE_TYPE (exp));
+
       if (mode == BLKmode)
        size_tree = TYPE_SIZE (TREE_TYPE (exp));
-
-      *pbitsize = GET_MODE_BITSIZE (mode);
-      *punsignedp = TREE_UNSIGNED (TREE_TYPE (exp));
+      else
+       *pbitsize = GET_MODE_BITSIZE (mode);
     }
       
-  if (size_tree)
+  if (size_tree != 0)
     {
-      if (TREE_CODE (size_tree) != INTEGER_CST)
+      if (! host_integerp (size_tree, 1))
        mode = BLKmode, *pbitsize = -1;
       else
-       *pbitsize = TREE_INT_CST_LOW (size_tree);
+       *pbitsize = tree_low_cst (size_tree, 1);
     }
 
   /* Compute cumulative bit-offset for nested component-refs and array-refs,
      and find the ultimate containing object.  */
-
-  *pbitpos = 0;
-
   while (1)
     {
-      if (TREE_CODE (exp) == COMPONENT_REF || TREE_CODE (exp) == BIT_FIELD_REF)
+      if (TREE_CODE (exp) == BIT_FIELD_REF)
+       bit_offset = size_binop (PLUS_EXPR, bit_offset, TREE_OPERAND (exp, 2));
+      else if (TREE_CODE (exp) == COMPONENT_REF)
        {
-         tree pos = (TREE_CODE (exp) == COMPONENT_REF
-                     ? DECL_FIELD_BITPOS (TREE_OPERAND (exp, 1))
-                     : TREE_OPERAND (exp, 2));
-         tree constant = integer_zero_node, var = pos;
+         tree field = TREE_OPERAND (exp, 1);
+         tree this_offset = DECL_FIELD_OFFSET (field);
 
          /* If this field hasn't been filled in yet, don't go
             past it.  This should only happen when folding expressions
             made during type construction.  */
-         if (pos == 0)
+         if (this_offset == 0)
            break;
+         else if (! TREE_CONSTANT (this_offset)
+                  && contains_placeholder_p (this_offset))
+           this_offset = build (WITH_RECORD_EXPR, sizetype, this_offset, exp);
 
-         /* Assume here that the offset is a multiple of a unit.
-            If not, there should be an explicitly added constant.  */
-         if (TREE_CODE (pos) == PLUS_EXPR
-             && TREE_CODE (TREE_OPERAND (pos, 1)) == INTEGER_CST)
-           constant = TREE_OPERAND (pos, 1), var = TREE_OPERAND (pos, 0);
-         else if (TREE_CODE (pos) == INTEGER_CST)
-           constant = pos, var = integer_zero_node;
+         offset = size_binop (PLUS_EXPR, offset, this_offset);
+         bit_offset = size_binop (PLUS_EXPR, bit_offset,
+                                  DECL_FIELD_BIT_OFFSET (field));
 
-         *pbitpos += TREE_INT_CST_LOW (constant);
-         offset = size_binop (PLUS_EXPR, offset,
-                              size_binop (EXACT_DIV_EXPR, var,
-                                          size_int (BITS_PER_UNIT)));
+         if (! host_integerp (offset, 0))
+           alignment = MIN (alignment, DECL_OFFSET_ALIGN (field));
        }
 
       else if (TREE_CODE (exp) == ARRAY_REF)
        {
-         /* This code is based on the code in case ARRAY_REF in expand_expr
-            below.  We assume here that the size of an array element is
-            always an integral multiple of BITS_PER_UNIT.  */
-
          tree index = TREE_OPERAND (exp, 1);
          tree domain = TYPE_DOMAIN (TREE_TYPE (TREE_OPERAND (exp, 0)));
-         tree low_bound
-           = domain ? TYPE_MIN_VALUE (domain) : integer_zero_node;
-         tree index_type = TREE_TYPE (index);
-         tree xindex;
-
-         if (TYPE_PRECISION (index_type) != TYPE_PRECISION (sizetype))
-           {
-             index = convert (type_for_size (TYPE_PRECISION (sizetype), 0),
-                              index);
-             index_type = TREE_TYPE (index);
-           }
+         tree low_bound = (domain ? TYPE_MIN_VALUE (domain) : 0);
+         tree unit_size = TYPE_SIZE_UNIT (TREE_TYPE (exp));
+
+         /* We assume all arrays have sizes that are a multiple of a byte.
+            First subtract the lower bound, if any, in the type of the
+            index, then convert to sizetype and multiply by the size of the
+            array element.  */
+         if (low_bound != 0 && ! integer_zerop (low_bound))
+           index = fold (build (MINUS_EXPR, TREE_TYPE (index),
+                                index, low_bound));
+
+         /* If the index has a self-referential type, pass it to a
+            WITH_RECORD_EXPR; if the component size is, pass our
+            component to one.  */
+         if (! TREE_CONSTANT (index)
+             && contains_placeholder_p (index))
+           index = build (WITH_RECORD_EXPR, TREE_TYPE (index), index, exp);
+         if (! TREE_CONSTANT (unit_size)
+             && contains_placeholder_p (unit_size))
+           unit_size = build (WITH_RECORD_EXPR, sizetype, unit_size,
+                              TREE_OPERAND (exp, 0));
 
-         /* Optimize the special-case of a zero lower bound.
-            
-            We convert the low_bound to sizetype to avoid some problems
-            with constant folding.  (E.g. suppose the lower bound is 1,
-            and its mode is QI.  Without the conversion,  (ARRAY
-            +(INDEX-(unsigned char)1)) becomes ((ARRAY+(-(unsigned char)1))
-            +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)
-            
-            But sizetype isn't quite right either (especially if
-            the lowbound is negative).  FIXME */
-
-         if (! integer_zerop (low_bound))
-           index = fold (build (MINUS_EXPR, index_type, index,
-                                convert (sizetype, low_bound)));
-
-         if (TREE_CODE (index) == INTEGER_CST)
-           {
-             index = convert (sbitsizetype, index);
-             index_type = TREE_TYPE (index);
-           }
-
-         xindex = fold (build (MULT_EXPR, sbitsizetype, index,
-                               convert (sbitsizetype,
-                                        TYPE_SIZE (TREE_TYPE (exp)))));
-
-         if (TREE_CODE (xindex) == INTEGER_CST
-             && TREE_INT_CST_HIGH (xindex) == 0)
-           *pbitpos += TREE_INT_CST_LOW (xindex);
-         else
-           {
-             /* Either the bit offset calculated above is not constant, or
-                it overflowed.  In either case, redo the multiplication
-                against the size in units.  This is especially important
-                in the non-constant case to avoid a division at runtime.  */
-             xindex = fold (build (MULT_EXPR, ssizetype, index,
-                                    convert (ssizetype,
-                                         TYPE_SIZE_UNIT (TREE_TYPE (exp)))));
-
-             if (contains_placeholder_p (xindex))
-               xindex = build (WITH_RECORD_EXPR, sizetype, xindex, exp);
-
-             offset = size_binop (PLUS_EXPR, offset, xindex);
-           }
+         offset = size_binop (PLUS_EXPR, offset,
+                              size_binop (MULT_EXPR,
+                                          convert (sizetype, index),
+                                          unit_size));
        }
+
       else if (TREE_CODE (exp) != NON_LVALUE_EXPR
               && ! ((TREE_CODE (exp) == NOP_EXPR
                      || TREE_CODE (exp) == CONVERT_EXPR)
-                    && ! (TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE
-                          && (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0)))
-                              != UNION_TYPE))
                     && (TYPE_MODE (TREE_TYPE (exp))
                         == TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))))
        break;
@@ -4884,30 +5075,35 @@ get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
 
       /* If the offset is non-constant already, then we can't assume any
         alignment more than the alignment here.  */
-      if (! integer_zerop (offset))
+      if (! TREE_CONSTANT (offset))
        alignment = MIN (alignment, TYPE_ALIGN (TREE_TYPE (exp)));
 
       exp = TREE_OPERAND (exp, 0);
     }
 
-  if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'd')
+  if (DECL_P (exp))
     alignment = MIN (alignment, DECL_ALIGN (exp));
   else if (TREE_TYPE (exp) != 0)
     alignment = MIN (alignment, TYPE_ALIGN (TREE_TYPE (exp)));
 
-  if (integer_zerop (offset))
-    offset = 0;
-
-  if (offset != 0 && contains_placeholder_p (offset))
-    offset = build (WITH_RECORD_EXPR, sizetype, offset, orig_exp);
+  /* If OFFSET is constant, see if we can return the whole thing as a
+     constant bit position.  Otherwise, split it up.  */
+  if (host_integerp (offset, 0)
+      && 0 != (tem = size_binop (MULT_EXPR, convert (bitsizetype, offset),
+                                bitsize_unit_node))
+      && 0 != (tem = size_binop (PLUS_EXPR, tem, bit_offset))
+      && host_integerp (tem, 0))
+    *pbitpos = tree_low_cst (tem, 0), *poffset = 0;
+  else
+    *pbitpos = tree_low_cst (bit_offset, 0), *poffset = offset;
 
   *pmode = mode;
-  *poffset = offset;
-  *palignment = alignment / BITS_PER_UNIT;
+  *palignment = alignment;
   return exp;
 }
 
 /* Subroutine of expand_exp: compute memory_usage from modifier.  */
+
 static enum memory_use_mode
 get_memory_usage_from_modifier (modifier)
      enum expand_modifier modifier;
@@ -5076,7 +5272,7 @@ init_noncopied_parts (lhs, list)
   for (tail = list; tail; tail = TREE_CHAIN (tail))
     if (TREE_CODE (TREE_VALUE (tail)) == TREE_LIST)
       parts = chainon (parts, init_noncopied_parts (lhs, TREE_VALUE (tail)));
-    else
+    else if (TREE_PURPOSE (tail))
       {
        tree part = TREE_VALUE (tail);
        tree part_type = TREE_TYPE (part);
@@ -5114,7 +5310,7 @@ safe_from_p (x, exp, top_p)
         So we assume here that something at a higher level has prevented a
         clash.  This is somewhat bogus, but the best we can do.  Only
         do this when X is BLKmode and when we are at the top level.  */
-      || (top_p && TREE_TYPE (exp) != 0 && TYPE_SIZE (TREE_TYPE (exp)) != 0
+      || (top_p && TREE_TYPE (exp) != 0 && COMPLETE_TYPE_P (TREE_TYPE (exp))
          && TREE_CODE (TYPE_SIZE (TREE_TYPE (exp))) != INTEGER_CST
          && (TREE_CODE (TREE_TYPE (exp)) != ARRAY_TYPE
              || TYPE_ARRAY_MAX_SIZE (TREE_TYPE (exp)) == NULL_TREE
@@ -5362,9 +5558,13 @@ void
 check_max_integer_computation_mode (exp)
     tree exp;
 {
-  enum tree_code code = TREE_CODE (exp);
+  enum tree_code code;
   enum machine_mode mode;
 
+  /* Strip any NOPs that don't change the mode.  */
+  STRIP_NOPS (exp);
+  code = TREE_CODE (exp);
+
   /* We must allow conversions of constants to MAX_INTEGER_COMPUTATION_MODE.  */
   if (code == NOP_EXPR
       && TREE_CODE (TREE_OPERAND (exp, 0)) == INTEGER_CST)
@@ -5408,6 +5608,26 @@ check_max_integer_computation_mode (exp)
 #endif
 
 \f
+/* Utility function used by expand_expr to see if TYPE, a RECORD_TYPE,
+   has any readonly fields.  If any of the fields have types that
+   contain readonly fields, return true as well.  */
+
+static int
+readonly_fields_p (type)
+     tree type;
+{
+  tree field;
+
+  for (field = TYPE_FIELDS (type); field != 0; field = TREE_CHAIN (field))
+    if (TREE_CODE (field) == FIELD_DECL 
+       && (TREE_READONLY (field)
+           || (TREE_CODE (TREE_TYPE (field)) == RECORD_TYPE
+               && readonly_fields_p (TREE_TYPE (field)))))
+      return 1;
+
+  return 0;
+}
+\f
 /* expand_expr: generate code for computing expression EXP.
    An rtx for the computed value is returned.  The value is never null.
    In the case of a void EXP, const0_rtx is returned.
@@ -5450,9 +5670,6 @@ expand_expr (exp, target, tmode, modifier)
      enum machine_mode tmode;
      enum expand_modifier modifier;
 {
-  /* Chain of pending expressions for PLACEHOLDER_EXPR to replace.
-     This is static so it will be accessible to our recursive callees.  */
-  static tree placeholder_list = 0;
   register rtx op0, op1, temp;
   tree type = TREE_TYPE (exp);
   int unsignedp = TREE_UNSIGNED (type);
@@ -5511,10 +5728,12 @@ expand_expr (exp, target, tmode, modifier)
       if (! TREE_SIDE_EFFECTS (exp))
        return const0_rtx;
 
-      /* Ensure we reference a volatile object even if value is ignored.  */
+      /* Ensure we reference a volatile object even if value is ignored, but
+        don't do this if all we are doing is taking its address.  */
       if (TREE_THIS_VOLATILE (exp)
          && TREE_CODE (exp) != FUNCTION_DECL
-         && mode != VOIDmode && mode != BLKmode)
+         && mode != VOIDmode && mode != BLKmode
+         && modifier != EXPAND_CONST_ADDRESS)
        {
          temp = expand_expr (exp, NULL_RTX, VOIDmode, ro_modifier);
          if (GET_CODE (temp) == MEM)
@@ -5522,11 +5741,12 @@ expand_expr (exp, target, tmode, modifier)
          return const0_rtx;
        }
 
-      if (TREE_CODE_CLASS (code) == '1')
+      if (TREE_CODE_CLASS (code) == '1' || code == COMPONENT_REF
+         || code == INDIRECT_REF || code == BUFFER_REF)
        return expand_expr (TREE_OPERAND (exp, 0), const0_rtx,
                            VOIDmode, ro_modifier);
-      else if (TREE_CODE_CLASS (code) == '2'
-              || TREE_CODE_CLASS (code) == '<')
+      else if (TREE_CODE_CLASS (code) == '2' || TREE_CODE_CLASS (code) == '<'
+            || code == ARRAY_REF)
        {
          expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode, ro_modifier);
          expand_expr (TREE_OPERAND (exp, 1), const0_rtx, VOIDmode, ro_modifier);
@@ -5538,12 +5758,24 @@ expand_expr (exp, target, tmode, modifier)
           the first.  */
        return expand_expr (TREE_OPERAND (exp, 0), const0_rtx,
                            VOIDmode, ro_modifier);
-
+      else if (code == BIT_FIELD_REF)
+       {
+         expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode, ro_modifier);
+         expand_expr (TREE_OPERAND (exp, 1), const0_rtx, VOIDmode, ro_modifier);
+         expand_expr (TREE_OPERAND (exp, 2), const0_rtx, VOIDmode, ro_modifier);
+         return const0_rtx;
+       }
+;
       target = 0;
     }
 
 #ifdef MAX_INTEGER_COMPUTATION_MODE
+  /* Only check stuff here if the mode we want is different from the mode
+     of the expression; if it's the same, check_max_integer_computiation_mode
+     will handle it.  Do we really need to check this stuff at all?  */
+
   if (target
+      && GET_MODE (target) != mode
       && TREE_CODE (exp) != INTEGER_CST
       && TREE_CODE (exp) != PARM_DECL
       && TREE_CODE (exp) != ARRAY_REF
@@ -5551,7 +5783,8 @@ expand_expr (exp, target, tmode, modifier)
       && TREE_CODE (exp) != BIT_FIELD_REF
       && TREE_CODE (exp) != INDIRECT_REF
       && TREE_CODE (exp) != CALL_EXPR
-      && TREE_CODE (exp) != VAR_DECL)
+      && TREE_CODE (exp) != VAR_DECL
+      && TREE_CODE (exp) != RTL_EXPR)
     {
       enum machine_mode mode = GET_MODE (target);
 
@@ -5560,7 +5793,8 @@ expand_expr (exp, target, tmode, modifier)
        fatal ("unsupported wide integer operation");
     }
 
-  if (TREE_CODE (exp) != INTEGER_CST
+  if (tmode != mode
+      && TREE_CODE (exp) != INTEGER_CST
       && TREE_CODE (exp) != PARM_DECL
       && TREE_CODE (exp) != ARRAY_REF
       && TREE_CODE (exp) != COMPONENT_REF
@@ -5568,6 +5802,7 @@ expand_expr (exp, target, tmode, modifier)
       && TREE_CODE (exp) != INDIRECT_REF
       && TREE_CODE (exp) != VAR_DECL
       && TREE_CODE (exp) != CALL_EXPR
+      && TREE_CODE (exp) != RTL_EXPR
       && GET_MODE_CLASS (tmode) == MODE_INT
       && tmode > MAX_INTEGER_COMPUTATION_MODE)
     fatal ("unsupported wide integer operation");
@@ -5599,9 +5834,9 @@ expand_expr (exp, target, tmode, modifier)
            push_obstacks (p->function_obstack,
                           p->function_maybepermanent_obstack);
 
-           p->forced_labels = gen_rtx_EXPR_LIST (VOIDmode,
-                                                 label_rtx (exp),
-                                                 p->forced_labels);
+           p->expr->x_forced_labels
+             = gen_rtx_EXPR_LIST (VOIDmode, label_rtx (exp),
+                                  p->expr->x_forced_labels);
            pop_obstacks ();
          }
        else
@@ -5611,6 +5846,7 @@ expand_expr (exp, target, tmode, modifier)
                                                 label_rtx (exp),
                                                 forced_labels);
          }
+
        temp = gen_rtx_MEM (FUNCTION_MODE,
                            gen_rtx_LABEL_REF (Pmode, label_rtx (exp)));
        if (function != current_function_decl
@@ -5631,7 +5867,7 @@ expand_expr (exp, target, tmode, modifier)
     case VAR_DECL:
       /* If a static var's type was incomplete when the decl was written,
         but the type is complete now, lay out the decl now.  */
-      if (DECL_SIZE (exp) == 0 && TYPE_SIZE (TREE_TYPE (exp)) != 0
+      if (DECL_SIZE (exp) == 0 && COMPLETE_TYPE_P (TREE_TYPE (exp))
          && (TREE_STATIC (exp) || DECL_EXTERNAL (exp)))
        {
          push_obstacks_nochange ();
@@ -5649,7 +5885,8 @@ expand_expr (exp, target, tmode, modifier)
         memory protection).
 
         Aggregates are not checked here; they're handled elsewhere.  */
-      if (current_function_check_memory_usage && code == VAR_DECL
+      if (cfun && current_function_check_memory_usage
+         && code == VAR_DECL
          && GET_CODE (DECL_RTL (exp)) == MEM
          && ! AGGREGATE_TYPE_P (TREE_TYPE (exp)))
        {
@@ -5658,7 +5895,7 @@ expand_expr (exp, target, tmode, modifier)
 
          if (memory_usage != MEMORY_USE_DONT)
            emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                              XEXP (DECL_RTL (exp), 0), ptr_mode,
+                              XEXP (DECL_RTL (exp), 0), Pmode,
                               GEN_INT (int_size_in_bytes (type)),
                               TYPE_MODE (sizetype),
                               GEN_INT (memory_usage),
@@ -5745,8 +5982,7 @@ expand_expr (exp, target, tmode, modifier)
       if (temp != 0)
        {
          if (GET_CODE (temp) == MEM && GET_CODE (XEXP (temp, 0)) == REG)
-           mark_reg_pointer (XEXP (temp, 0),
-                             DECL_ALIGN (exp) / BITS_PER_UNIT);
+           mark_reg_pointer (XEXP (temp, 0), DECL_ALIGN (exp));
 
          return temp;
        }
@@ -5774,8 +6010,7 @@ expand_expr (exp, target, tmode, modifier)
 
     case INTEGER_CST:
       return immed_double_const (TREE_INT_CST_LOW (exp),
-                                TREE_INT_CST_HIGH (exp),
-                                mode);
+                                TREE_INT_CST_HIGH (exp), mode);
 
     case CONST_DECL:
       return expand_expr (DECL_INITIAL (exp), target, VOIDmode,
@@ -6038,7 +6273,7 @@ expand_expr (exp, target, tmode, modifier)
 
        /* Need to open a binding contour here because
           if there are any cleanups they must be contained here.  */
-       expand_start_bindings (0);
+       expand_start_bindings (2);
 
        /* Mark the corresponding BLOCK for output in its proper place.  */
        if (TREE_OPERAND (exp, 2) != 0
@@ -6099,14 +6334,15 @@ expand_expr (exp, target, tmode, modifier)
                && ((mode == BLKmode
                     && ! (target != 0 && safe_from_p (target, exp, 1)))
                    || TREE_ADDRESSABLE (exp)
-                   || (TREE_CODE (TYPE_SIZE (type)) == INTEGER_CST
-                       && (!MOVE_BY_PIECES_P 
-                             (TREE_INT_CST_LOW (TYPE_SIZE (type))/BITS_PER_UNIT,
-                            TYPE_ALIGN (type) / BITS_PER_UNIT))
+                   || (host_integerp (TYPE_SIZE_UNIT (type), 1)
+                       && (! MOVE_BY_PIECES_P 
+                           (tree_low_cst (TYPE_SIZE_UNIT (type), 1),
+                            TYPE_ALIGN (type)))
                        && ! mostly_zeros_p (exp))))
               || (modifier == EXPAND_INITIALIZER && TREE_CONSTANT (exp)))
        {
          rtx constructor = output_constant_def (exp);
+
          if (modifier != EXPAND_CONST_ADDRESS
              && modifier != EXPAND_INITIALIZER
              && modifier != EXPAND_SUM
@@ -6140,7 +6376,8 @@ expand_expr (exp, target, tmode, modifier)
              RTX_UNCHANGING_P (target) = 1;
            }
 
-         store_constructor (exp, target, 0);
+         store_constructor (exp, target, TYPE_ALIGN (TREE_TYPE (exp)), 0,
+                            int_size_in_bytes (TREE_TYPE (exp)));
          return target;
        }
 
@@ -6150,23 +6387,23 @@ expand_expr (exp, target, tmode, modifier)
        tree exp2;
        tree index;
        tree string = string_constant (exp1, &index);
-       int i;
  
        /* Try to optimize reads from const strings.  */
        if (string
            && TREE_CODE (string) == STRING_CST
            && TREE_CODE (index) == INTEGER_CST
-           && !TREE_INT_CST_HIGH (index)
-           && (i = TREE_INT_CST_LOW (index)) < TREE_STRING_LENGTH (string)
+           && compare_tree_int (index, TREE_STRING_LENGTH (string)) < 0
            && GET_MODE_CLASS (mode) == MODE_INT
            && GET_MODE_SIZE (mode) == 1
            && modifier != EXPAND_MEMORY_USE_WO)
-         return GEN_INT (TREE_STRING_POINTER (string)[i]);
+         return
+           GEN_INT (TREE_STRING_POINTER (string)[TREE_INT_CST_LOW (index)]);
 
        op0 = expand_expr (exp1, NULL_RTX, VOIDmode, EXPAND_SUM);
        op0 = memory_address (mode, op0);
 
-       if (current_function_check_memory_usage && !AGGREGATE_TYPE_P (TREE_TYPE (exp)))
+       if (cfun && current_function_check_memory_usage
+           && ! AGGREGATE_TYPE_P (TREE_TYPE (exp)))
          {
            enum memory_use_mode memory_usage;
            memory_usage = get_memory_usage_from_modifier (modifier);
@@ -6175,7 +6412,7 @@ expand_expr (exp, target, tmode, modifier)
              {
                in_check_memory_usage = 1;
                emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                                  op0, ptr_mode,
+                                  op0, Pmode,
                                   GEN_INT (int_size_in_bytes (type)),
                                   TYPE_MODE (sizetype),
                                   GEN_INT (memory_usage),
@@ -6205,6 +6442,14 @@ expand_expr (exp, target, tmode, modifier)
           never change.  Languages where it can never change should
           also set TREE_STATIC.  */
        RTX_UNCHANGING_P (temp) = TREE_READONLY (exp) & TREE_STATIC (exp);
+
+       /* If we are writing to this object and its type is a record with
+          readonly fields, we must mark it as readonly so it will
+          conflict with readonly references to those fields.  */
+       if (modifier == EXPAND_MEMORY_USE_WO
+           && TREE_CODE (type) == RECORD_TYPE && readonly_fields_p (type))
+         RTX_UNCHANGING_P (temp) = 1;
+
        return temp;
       }
 
@@ -6216,8 +6461,7 @@ expand_expr (exp, target, tmode, modifier)
        tree array = TREE_OPERAND (exp, 0);
        tree domain = TYPE_DOMAIN (TREE_TYPE (array));
        tree low_bound = domain ? TYPE_MIN_VALUE (domain) : integer_zero_node;
-       tree index = TREE_OPERAND (exp, 1);
-       tree index_type = TREE_TYPE (index);
+       tree index = convert (sizetype, TREE_OPERAND (exp, 1));
        HOST_WIDE_INT i;
 
        /* Optimize the special-case of a zero lower bound.
@@ -6226,14 +6470,10 @@ expand_expr (exp, target, tmode, modifier)
           with constant folding.  (E.g. suppose the lower bound is 1,
           and its mode is QI.  Without the conversion,  (ARRAY
           +(INDEX-(unsigned char)1)) becomes ((ARRAY+(-(unsigned char)1))
-          +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)
-
-          But sizetype isn't quite right either (especially if
-          the lowbound is negative).  FIXME */
+          +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)  */
 
        if (! integer_zerop (low_bound))
-         index = fold (build (MINUS_EXPR, index_type, index,
-                              convert (sizetype, low_bound)));
+         index = size_diffop (index, convert (sizetype, low_bound));
 
        /* Fold an expression like: "foo"[2].
           This is not done in fold so it won't happen inside &.
@@ -6242,31 +6482,33 @@ expand_expr (exp, target, tmode, modifier)
 
        if (TREE_CODE (array) == STRING_CST
            && TREE_CODE (index) == INTEGER_CST
-           && !TREE_INT_CST_HIGH (index)
-           && (i = TREE_INT_CST_LOW (index)) < TREE_STRING_LENGTH (array)
+           && compare_tree_int (index, TREE_STRING_LENGTH (array)) < 0
            && GET_MODE_CLASS (mode) == MODE_INT
            && GET_MODE_SIZE (mode) == 1)
-         return GEN_INT (TREE_STRING_POINTER (array)[i]);
+         return
+           GEN_INT (TREE_STRING_POINTER (array)[TREE_INT_CST_LOW (index)]);
 
        /* If this is a constant index into a constant array,
           just get the value from the array.  Handle both the cases when
           we have an explicit constructor and when our operand is a variable
           that was declared const.  */
 
-       if (TREE_CODE (array) == CONSTRUCTOR && ! TREE_SIDE_EFFECTS (array))
+       if (TREE_CODE (array) == CONSTRUCTOR && ! TREE_SIDE_EFFECTS (array)
+           && TREE_CODE (index) == INTEGER_CST
+           && 0 > compare_tree_int (index, 
+                                    list_length (CONSTRUCTOR_ELTS
+                                                 (TREE_OPERAND (exp, 0)))))
          {
-           if (TREE_CODE (index) == INTEGER_CST
-               && TREE_INT_CST_HIGH (index) == 0)
-             {
-               tree elem = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0));
-
-               i = TREE_INT_CST_LOW (index);
-               while (elem && i--)
-                 elem = TREE_CHAIN (elem);
-               if (elem)
-                 return expand_expr (fold (TREE_VALUE (elem)), target,
-                                     tmode, ro_modifier);
-             }
+           tree elem;
+
+           for (elem = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)),
+                i = TREE_INT_CST_LOW (index);
+                elem != 0 && i != 0; i--, elem = TREE_CHAIN (elem))
+             ;
+
+           if (elem)
+             return expand_expr (fold (TREE_VALUE (elem)), target,
+                                 tmode, ro_modifier);
          }
          
        else if (optimize >= 1
@@ -6278,22 +6520,23 @@ expand_expr (exp, target, tmode, modifier)
              {
                tree init = DECL_INITIAL (array);
 
-               i = TREE_INT_CST_LOW (index);
                if (TREE_CODE (init) == CONSTRUCTOR)
                  {
-                   tree elem = CONSTRUCTOR_ELTS (init);
+                   tree elem;
+
+                   for (elem = CONSTRUCTOR_ELTS (init);
+                        (elem
+                         && !tree_int_cst_equal (TREE_PURPOSE (elem), index));
+                        elem = TREE_CHAIN (elem))
+                     ;
 
-                   while (elem
-                          && !tree_int_cst_equal (TREE_PURPOSE (elem), index))
-                     elem = TREE_CHAIN (elem);
                    if (elem)
                      return expand_expr (fold (TREE_VALUE (elem)), target,
                                          tmode, ro_modifier);
                  }
                else if (TREE_CODE (init) == STRING_CST
-                        && TREE_INT_CST_HIGH (index) == 0
-                        && (TREE_INT_CST_LOW (index)
-                            < TREE_STRING_LENGTH (init)))
+                        && 0 > compare_tree_int (index,
+                                                 TREE_STRING_LENGTH (init)))
                  return (GEN_INT
                          (TREE_STRING_POINTER
                           (init)[TREE_INT_CST_LOW (index)]));
@@ -6334,7 +6577,8 @@ expand_expr (exp, target, tmode, modifier)
                op0 =  expand_expr (TREE_VALUE (elt), target, tmode, modifier);
                if (DECL_BIT_FIELD (TREE_PURPOSE (elt)))
                  {
-                   int bitsize = DECL_FIELD_SIZE (TREE_PURPOSE (elt));
+                   HOST_WIDE_INT bitsize
+                     = TREE_INT_CST_LOW (DECL_SIZE (TREE_PURPOSE (elt)));
 
                    if (TREE_UNSIGNED (TREE_TYPE (TREE_PURPOSE (elt))))
                      {
@@ -6362,11 +6606,10 @@ expand_expr (exp, target, tmode, modifier)
 
       {
        enum machine_mode mode1;
-       int bitsize;
-       int bitpos;
+       HOST_WIDE_INT bitsize, bitpos;
        tree offset;
        int volatilep = 0;
-       int alignment;
+       unsigned int alignment;
        tree tem = get_inner_reference (exp, &bitsize, &bitpos, &offset,
                                        &mode1, &unsignedp, &volatilep,
                                        &alignment);
@@ -6387,15 +6630,17 @@ expand_expr (exp, target, tmode, modifier)
                                != INTEGER_CST)
                            ? target : NULL_RTX),
                           VOIDmode,
-                          modifier == EXPAND_INITIALIZER
+                          (modifier == EXPAND_INITIALIZER
+                           || modifier == EXPAND_CONST_ADDRESS)
                           ? modifier : EXPAND_NORMAL);
 
        /* If this is a constant, put it into a register if it is a
-          legitimate constant and memory if it isn't.  */
+          legitimate constant and OFFSET is 0 and memory if it isn't.  */
        if (CONSTANT_P (op0))
          {
            enum machine_mode mode = TYPE_MODE (TREE_TYPE (tem));
-           if (mode != BLKmode && LEGITIMATE_CONSTANT_P (op0))
+           if (mode != BLKmode && LEGITIMATE_CONSTANT_P (op0)
+               && offset == 0)
              op0 = force_reg (mode, op0);
            else
              op0 = validize_mem (force_const_mem (mode, op0));
@@ -6405,6 +6650,20 @@ expand_expr (exp, target, tmode, modifier)
          {
            rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
 
+           /* If this object is in memory, put it into a register.
+              This case can't occur in C, but can in Ada if we have
+              unchecked conversion of an expression from a scalar type to
+              an array or record type.  */
+           if (GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
+               || GET_CODE (op0) == CONCAT || GET_CODE (op0) == ADDRESSOF)
+             {
+               rtx memloc = assign_temp (TREE_TYPE (tem), 1, 1, 1);
+
+               mark_temp_addr_taken (memloc);
+               emit_move_insn (memloc, op0);
+               op0 = memloc;
+             }
+
            if (GET_CODE (op0) != MEM)
              abort ();
 
@@ -6417,12 +6676,15 @@ expand_expr (exp, target, tmode, modifier)
 #endif
              }
 
+           /* A constant address in OP0 can have VOIDmode, we must not try
+              to call force_reg for that case.  Avoid that case.  */
            if (GET_CODE (op0) == MEM
                && GET_MODE (op0) == BLKmode
-               && bitsize
+               && GET_MODE (XEXP (op0, 0)) != VOIDmode
+               && bitsize != 0
                && (bitpos % bitsize) == 0 
                && (bitsize % GET_MODE_ALIGNMENT (mode1)) == 0
-               && (alignment * BITS_PER_UNIT) == GET_MODE_ALIGNMENT (mode1))
+               && alignment == GET_MODE_ALIGNMENT (mode1))
              {
                rtx temp = change_address (op0, mode1,
                                           plus_constant (XEXP (op0, 0),
@@ -6440,7 +6702,8 @@ expand_expr (exp, target, tmode, modifier)
 
            op0 = change_address (op0, VOIDmode,
                                  gen_rtx_PLUS (ptr_mode, XEXP (op0, 0),
-                                               force_reg (ptr_mode, offset_rtx)));
+                                               force_reg (ptr_mode,
+                                                          offset_rtx)));
          }
 
        /* Don't forget about volatility even if this is a bitfield.  */
@@ -6467,7 +6730,7 @@ expand_expr (exp, target, tmode, modifier)
                /* Check the access right of the pointer.  */
                if (size > BITS_PER_UNIT)
                  emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                                    to, ptr_mode,
+                                    to, Pmode,
                                     GEN_INT (size / BITS_PER_UNIT),
                                     TYPE_MODE (sizetype),
                                     GEN_INT (memory_usage), 
@@ -6492,13 +6755,32 @@ expand_expr (exp, target, tmode, modifier)
                     && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT)
                    /* If the field isn't aligned enough to fetch as a memref,
                       fetch it as a bit field.  */
-                   || (SLOW_UNALIGNED_ACCESS
-                       && ((TYPE_ALIGN (TREE_TYPE (tem)) < (unsigned int) GET_MODE_ALIGNMENT (mode))
-                           || (bitpos % GET_MODE_ALIGNMENT (mode) != 0))))))
+                   || (mode1 != BLKmode
+                       && SLOW_UNALIGNED_ACCESS (mode1, alignment)
+                       && ((TYPE_ALIGN (TREE_TYPE (tem))
+                            < GET_MODE_ALIGNMENT (mode))
+                           || (bitpos % GET_MODE_ALIGNMENT (mode) != 0)))
+                   /* If the type and the field are a constant size and the
+                      size of the type isn't the same size as the bitfield,
+                      we must use bitfield operations.  */
+                   || ((bitsize >= 0
+                        && (TREE_CODE (TYPE_SIZE (TREE_TYPE (exp)))
+                            == INTEGER_CST)
+                        && 0 != compare_tree_int (TYPE_SIZE (TREE_TYPE (exp)),
+                                                  bitsize)))))
+           || (modifier != EXPAND_CONST_ADDRESS
+               && modifier != EXPAND_INITIALIZER
+               && mode == BLKmode
+               && SLOW_UNALIGNED_ACCESS (mode, alignment)
+               && (TYPE_ALIGN (type) > alignment
+                   || bitpos % TYPE_ALIGN (type) != 0)))
          {
            enum machine_mode ext_mode = mode;
 
-           if (ext_mode == BLKmode)
+           if (ext_mode == BLKmode
+               && ! (target != 0 && GET_CODE (op0) == MEM
+                     && GET_CODE (target) == MEM
+                     && bitpos % BITS_PER_UNIT == 0))
              ext_mode = mode_for_size (bitsize, MODE_INT, 1);
 
            if (ext_mode == BLKmode)
@@ -6519,7 +6801,7 @@ expand_expr (exp, target, tmode, modifier)
                emit_block_move (target, op0,
                                 GEN_INT ((bitsize + BITS_PER_UNIT - 1)
                                          / BITS_PER_UNIT),
-                                1);
+                                BITS_PER_UNIT);
                
                return target;
              }
@@ -6576,7 +6858,7 @@ expand_expr (exp, target, tmode, modifier)
 
        if (GET_CODE (op0) == MEM)
          MEM_ALIAS_SET (op0) = get_alias_set (exp);
-
        if (GET_CODE (XEXP (op0, 0)) == REG)
          mark_reg_pointer (XEXP (op0, 0), alignment);
 
@@ -6722,7 +7004,7 @@ expand_expr (exp, target, tmode, modifier)
       {
        /* Start a new binding layer that will keep track of all cleanup
           actions to be performed.  */
-       expand_start_bindings (0);
+       expand_start_bindings (2);
 
        target_temp_slot_level = temp_slot_level;
 
@@ -6757,6 +7039,16 @@ expand_expr (exp, target, tmode, modifier)
       if (TREE_CODE (type) == UNION_TYPE)
        {
          tree valtype = TREE_TYPE (TREE_OPERAND (exp, 0));
+
+         /* If both input and output are BLKmode, this conversion
+            isn't actually doing anything unless we need to make the
+            alignment stricter.  */
+         if (mode == BLKmode && TYPE_MODE (valtype) == BLKmode
+             && (TYPE_ALIGN (type) <= TYPE_ALIGN (valtype)
+                 || TYPE_ALIGN (type) >= BIGGEST_ALIGNMENT))
+           return expand_expr (TREE_OPERAND (exp, 0), target, tmode,
+                               modifier);
+
          if (target == 0)
            {
              if (mode != BLKmode)
@@ -6772,11 +7064,14 @@ expand_expr (exp, target, tmode, modifier)
 
          else if (GET_CODE (target) == REG)
            /* Store this field into a union of the proper type.  */
-           store_field (target, GET_MODE_BITSIZE (TYPE_MODE (valtype)), 0,
-                        TYPE_MODE (valtype), TREE_OPERAND (exp, 0),
-                        VOIDmode, 0, 1,
-                        int_size_in_bytes (TREE_TYPE (TREE_OPERAND (exp, 0))),
-                        0);
+           store_field (target,
+                        MIN ((int_size_in_bytes (TREE_TYPE
+                                                 (TREE_OPERAND (exp, 0)))
+                              * BITS_PER_UNIT),
+                             GET_MODE_BITSIZE (mode)),
+                        0, TYPE_MODE (valtype), TREE_OPERAND (exp, 0),
+                        VOIDmode, 0, BITS_PER_UNIT,
+                        int_size_in_bytes (type), 0);
          else
            abort ();
 
@@ -6866,9 +7161,19 @@ expand_expr (exp, target, tmode, modifier)
              && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_WIDE_INT
              && TREE_CONSTANT (TREE_OPERAND (exp, 1)))
            {
+             rtx constant_part;
+
              op1 = expand_expr (TREE_OPERAND (exp, 1), subtarget, VOIDmode,
                                 EXPAND_SUM);
-             op1 = plus_constant (op1, TREE_INT_CST_LOW (TREE_OPERAND (exp, 0)));
+             /* Use immed_double_const to ensure that the constant is
+                truncated according to the mode of OP1, then sign extended
+                to a HOST_WIDE_INT.  Using the constant directly can result
+                in non-canonical RTL in a 64x32 cross compile.  */
+             constant_part
+               = immed_double_const (TREE_INT_CST_LOW (TREE_OPERAND (exp, 0)),
+                                     (HOST_WIDE_INT) 0,
+                                     TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 1))));
+             op1 = plus_constant (op1, INTVAL (constant_part));
              if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
                op1 = force_operand (op1, target);
              return op1;
@@ -6878,6 +7183,8 @@ expand_expr (exp, target, tmode, modifier)
                   && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_INT
                   && TREE_CONSTANT (TREE_OPERAND (exp, 0)))
            {
+             rtx constant_part;
+
              op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode,
                                 EXPAND_SUM);
              if (! CONSTANT_P (op0))
@@ -6890,7 +7197,15 @@ expand_expr (exp, target, tmode, modifier)
                    goto binop2;
                  goto both_summands;
                }
-             op0 = plus_constant (op0, TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)));
+             /* Use immed_double_const to ensure that the constant is
+                truncated according to the mode of OP1, then sign extended
+                to a HOST_WIDE_INT.  Using the constant directly can result
+                in non-canonical RTL in a 64x32 cross compile.  */
+             constant_part
+               = immed_double_const (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)),
+                                     (HOST_WIDE_INT) 0,
+                                     TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))));
+             op0 = plus_constant (op0, INTVAL (constant_part));
              if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
                op0 = force_operand (op0, target);
              return op0;
@@ -6987,21 +7302,11 @@ expand_expr (exp, target, tmode, modifier)
          tree negated = fold (build1 (NEGATE_EXPR, type,
                                       TREE_OPERAND (exp, 1)));
 
-         /* Deal with the case where we can't negate the constant
-            in TYPE.  */
          if (TREE_UNSIGNED (type) || TREE_OVERFLOW (negated))
-           {
-             tree newtype = signed_type (type);
-             tree newop0 = convert (newtype, TREE_OPERAND (exp, 0));
-             tree newop1 = convert (newtype, TREE_OPERAND (exp, 1));
-             tree newneg = fold (build1 (NEGATE_EXPR, newtype, newop1));
-
-             if (! TREE_OVERFLOW (newneg))
-               return expand_expr (convert (type, 
-                                            build (PLUS_EXPR, newtype,
-                                                   newop0, newneg)),
-                                   target, tmode, ro_modifier);
-           }
+           /* If we can't negate the constant in TYPE, leave it alone and
+              expand_binop will negate it for us.  We used to try to do it
+              here in the signed version of TYPE, but that doesn't work
+              on POINTER_TYPEs.  */;
          else
            {
              exp = build (PLUS_EXPR, type, TREE_OPERAND (exp, 0), negated);
@@ -7036,19 +7341,23 @@ expand_expr (exp, target, tmode, modifier)
          /* Apply distributive law if OP0 is x+c.  */
          if (GET_CODE (op0) == PLUS
              && GET_CODE (XEXP (op0, 1)) == CONST_INT)
-           return gen_rtx_PLUS (mode,
-                                gen_rtx_MULT (mode, XEXP (op0, 0),
-                                              GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)))),
-                           GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))
-                                    * INTVAL (XEXP (op0, 1))));
+           return
+             gen_rtx_PLUS
+               (mode,
+                gen_rtx_MULT
+                (mode, XEXP (op0, 0),
+                 GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)))),
+                GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))
+                         * INTVAL (XEXP (op0, 1))));
 
          if (GET_CODE (op0) != REG)
            op0 = force_operand (op0, NULL_RTX);
          if (GET_CODE (op0) != REG)
            op0 = copy_to_mode_reg (mode, op0);
 
-         return gen_rtx_MULT (mode, op0,
-                              GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))));
+         return
+           gen_rtx_MULT (mode, op0,
+                         GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))));
        }
 
       if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
@@ -7243,7 +7552,8 @@ expand_expr (exp, target, tmode, modifier)
 
       /* If this mode is an integer too wide to compare properly,
         compare word by word.  Rely on cse to optimize constant cases.  */
-      if (GET_MODE_CLASS (mode) == MODE_INT && !can_compare_p (mode))
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (GE, mode, ccp_jump))
        {
          if (code == MAX_EXPR)
            do_jump_by_parts_greater_rtx (mode, TREE_UNSIGNED (type),
@@ -7251,29 +7561,15 @@ expand_expr (exp, target, tmode, modifier)
          else
            do_jump_by_parts_greater_rtx (mode, TREE_UNSIGNED (type),
                                          op1, target, NULL_RTX, op0);
-         emit_move_insn (target, op1);
        }
       else
        {
-         if (code == MAX_EXPR)
-           temp = (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 1)))
-                   ? compare_from_rtx (target, op1, GEU, 1, mode, NULL_RTX, 0)
-                   : compare_from_rtx (target, op1, GE, 0, mode, NULL_RTX, 0));
-         else
-           temp = (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 1)))
-                   ? compare_from_rtx (target, op1, LEU, 1, mode, NULL_RTX, 0)
-                   : compare_from_rtx (target, op1, LE, 0, mode, NULL_RTX, 0));
-         if (temp == const0_rtx)
-           emit_move_insn (target, op1);
-         else if (temp != const_true_rtx)
-           {
-             if (bcc_gen_fctn[(int) GET_CODE (temp)] != 0)
-               emit_jump_insn ((*bcc_gen_fctn[(int) GET_CODE (temp)]) (op0));
-             else
-               abort ();
-             emit_move_insn (target, op1);
-           }
+         int unsignedp = TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 1)));
+         do_compare_rtx_and_jump (target, op1, code == MAX_EXPR ? GE : LE,
+                                  unsignedp, mode, NULL_RTX, 0, NULL_RTX,
+                                  op0);
        }
+      emit_move_insn (target, op1);
       emit_label (op0);
       return target;
 
@@ -7338,6 +7634,13 @@ expand_expr (exp, target, tmode, modifier)
     case GE_EXPR:
     case EQ_EXPR:
     case NE_EXPR:
+    case UNORDERED_EXPR:
+    case ORDERED_EXPR:
+    case UNLT_EXPR:
+    case UNLE_EXPR:
+    case UNGT_EXPR:
+    case UNGE_EXPR:
+    case UNEQ_EXPR:
       preexpand_calls (exp);
       temp = do_store_flag (exp, target, tmode != VOIDmode ? tmode : mode, 0);
       if (temp != 0)
@@ -7661,7 +7964,11 @@ expand_expr (exp, target, tmode, modifier)
            jumpifnot (TREE_OPERAND (exp, 0), op0);
 
            start_cleanup_deferral ();
-           if (temp != 0)
+           
+           /* One branch of the cond can be void, if it never returns. For
+               example A ? throw : E  */
+           if (temp != 0
+               && TREE_TYPE (TREE_OPERAND (exp, 1)) != void_type_node)
              store_expr (TREE_OPERAND (exp, 1), temp, 0);
            else
              expand_expr (TREE_OPERAND (exp, 1),
@@ -7672,7 +7979,8 @@ expand_expr (exp, target, tmode, modifier)
            emit_barrier ();
            emit_label (op0);
            start_cleanup_deferral ();
-           if (temp != 0)
+           if (temp != 0
+               && TREE_TYPE (TREE_OPERAND (exp, 2)) != void_type_node)
              store_expr (TREE_OPERAND (exp, 2), temp, 0);
            else
              expand_expr (TREE_OPERAND (exp, 2),
@@ -7709,6 +8017,11 @@ expand_expr (exp, target, tmode, modifier)
        if (! ignore)
          target = original_target;
 
+       /* Set this here so that if we get a target that refers to a
+          register variable that's already been used, put_reg_into_stack
+          knows that it should fix up those uses.  */     
+       TREE_USED (slot) = 1;
+
        if (target == 0)
          {
            if (DECL_RTL (slot) != 0)
@@ -7778,7 +8091,6 @@ expand_expr (exp, target, tmode, modifier)
        /* Mark it as expanded.  */
        TREE_OPERAND (exp, 1) = NULL_TREE;
 
-       TREE_USED (slot) = 1;
        store_expr (exp1, target, 0);
 
        expand_decl_cleanup (NULL_TREE, cleanups);
@@ -7843,8 +8155,8 @@ expand_expr (exp, target, tmode, modifier)
                || TREE_CODE (rhs) == BIT_AND_EXPR)
            && TREE_OPERAND (rhs, 0) == lhs
            && TREE_CODE (TREE_OPERAND (rhs, 1)) == COMPONENT_REF
-           && TREE_INT_CST_LOW (DECL_SIZE (TREE_OPERAND (lhs, 1))) == 1
-           && TREE_INT_CST_LOW (DECL_SIZE (TREE_OPERAND (TREE_OPERAND (rhs, 1), 1))) == 1)
+           && integer_onep (DECL_SIZE (TREE_OPERAND (lhs, 1)))
+           && integer_onep (DECL_SIZE (TREE_OPERAND (TREE_OPERAND (rhs, 1), 1))))
          {
            rtx label = gen_label_rtx ();
 
@@ -7927,10 +8239,9 @@ expand_expr (exp, target, tmode, modifier)
 
          op0 = protect_from_queue (op0, 0);
 
-         /* We would like the object in memory.  If it is a constant,
-            we can have it be statically allocated into memory.  For
-            a non-constant (REG, SUBREG or CONCAT), we need to allocate some
-            memory and store the value into it.  */
+         /* We would like the object in memory.  If it is a constant, we can
+            have it be statically allocated into memory.  For a non-constant,
+            we need to allocate some memory and store the value into it.  */
 
          if (CONSTANT_P (op0))
            op0 = force_const_mem (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))),
@@ -7976,7 +8287,7 @@ expand_expr (exp, target, tmode, modifier)
 
       if (GET_CODE (op0) == REG
          && ! REG_USERVAR_P (op0))
-       mark_reg_pointer (op0, TYPE_ALIGN (TREE_TYPE (type)) / BITS_PER_UNIT);
+       mark_reg_pointer (op0, TYPE_ALIGN (TREE_TYPE (type)));
 
       /* If we might have had a temp slot, add an equivalent address
         for it.  */
@@ -8100,7 +8411,7 @@ expand_expr (exp, target, tmode, modifier)
 
        /* Start a new binding layer that will keep track of all cleanup
           actions to be performed.  */
-       expand_start_bindings (0);
+       expand_start_bindings (2);
 
        target_temp_slot_level = temp_slot_level;
 
@@ -8142,6 +8453,9 @@ expand_expr (exp, target, tmode, modifier)
        return const0_rtx;
       }
 
+    case VA_ARG_EXPR:
+      return expand_builtin_va_arg (TREE_OPERAND (exp, 0), type);
+
     default:
       return (*lang_expand_expr) (exp, original_target, tmode, modifier);
     }
@@ -8161,1965 +8475,356 @@ expand_expr (exp, target, tmode, modifier)
     abort ();
   return temp;
 }
-
-
 \f
-/* Return the alignment in bits of EXP, a pointer valued expression.
-   But don't return more than MAX_ALIGN no matter what.
-   The alignment returned is, by default, the alignment of the thing that
-   EXP points to (if it is not a POINTER_TYPE, 0 is returned).
-
-   Otherwise, look at the expression to see if we can do better, i.e., if the
-   expression is actually pointing at an object whose alignment is tighter.  */
+/* Similar to expand_expr, except that we don't specify a target, target
+   mode, or modifier and we return the alignment of the inner type.  This is
+   used in cases where it is not necessary to align the result to the
+   alignment of its type as long as we know the alignment of the result, for
+   example for comparisons of BLKmode values.  */
 
-static int
-get_pointer_alignment (exp, max_align)
-     tree exp;
-     unsigned max_align;
+static rtx
+expand_expr_unaligned (exp, palign)
+     register tree exp;
+     unsigned int *palign;
 {
-  unsigned align, inner;
+  register rtx op0;
+  tree type = TREE_TYPE (exp);
+  register enum machine_mode mode = TYPE_MODE (type);
 
-  if (TREE_CODE (TREE_TYPE (exp)) != POINTER_TYPE)
-    return 0;
+  /* Default the alignment we return to that of the type.  */
+  *palign = TYPE_ALIGN (type);
 
-  align = TYPE_ALIGN (TREE_TYPE (TREE_TYPE (exp)));
-  align = MIN (align, max_align);
+  /* The only cases in which we do anything special is if the resulting mode
+     is BLKmode.  */
+  if (mode != BLKmode)
+    return expand_expr (exp, NULL_RTX, VOIDmode, EXPAND_NORMAL);
 
-  while (1)
+  switch (TREE_CODE (exp))
     {
-      switch (TREE_CODE (exp))
-       {
-       case NOP_EXPR:
-       case CONVERT_EXPR:
-       case NON_LVALUE_EXPR:
-         exp = TREE_OPERAND (exp, 0);
-         if (TREE_CODE (TREE_TYPE (exp)) != POINTER_TYPE)
-           return align;
-         inner = TYPE_ALIGN (TREE_TYPE (TREE_TYPE (exp)));
-         align = MIN (inner, max_align);
-         break;
-
-       case PLUS_EXPR:
-         /* If sum of pointer + int, restrict our maximum alignment to that
-            imposed by the integer.  If not, we can't do any better than
-            ALIGN.  */
-         if (TREE_CODE (TREE_OPERAND (exp, 1)) != INTEGER_CST)
-           return align;
+    case CONVERT_EXPR:
+    case NOP_EXPR:
+    case NON_LVALUE_EXPR:
+      /* Conversions between BLKmode values don't change the underlying
+         alignment or value.  */
+      if (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == BLKmode)
+       return expand_expr_unaligned (TREE_OPERAND (exp, 0), palign);
+      break;
 
-         while (((TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)) * BITS_PER_UNIT)
-                 & (max_align - 1))
-                != 0)
-           max_align >>= 1;
+    case ARRAY_REF:
+      /* Much of the code for this case is copied directly from expand_expr.
+        We need to duplicate it here because we will do something different
+        in the fall-through case, so we need to handle the same exceptions
+        it does.  */
+      {
+       tree array = TREE_OPERAND (exp, 0);
+       tree domain = TYPE_DOMAIN (TREE_TYPE (array));
+       tree low_bound = domain ? TYPE_MIN_VALUE (domain) : integer_zero_node;
+       tree index = convert (sizetype, TREE_OPERAND (exp, 1));
+       HOST_WIDE_INT i;
 
-         exp = TREE_OPERAND (exp, 0);
-         break;
+       if (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) != ARRAY_TYPE)
+         abort ();
 
-       case ADDR_EXPR:
-         /* See what we are pointing at and look at its alignment.  */
-         exp = TREE_OPERAND (exp, 0);
-         if (TREE_CODE (exp) == FUNCTION_DECL)
-           align = FUNCTION_BOUNDARY;
-         else if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'd')
-           align = DECL_ALIGN (exp);
-#ifdef CONSTANT_ALIGNMENT
-         else if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'c')
-           align = CONSTANT_ALIGNMENT (exp, align);
-#endif
-         return MIN (align, max_align);
+       /* Optimize the special-case of a zero lower bound.
 
-       default:
-         return align;
-       }
-    }
-}
-\f
-/* Return the tree node and offset if a given argument corresponds to
-   a string constant.  */
+          We convert the low_bound to sizetype to avoid some problems
+          with constant folding.  (E.g. suppose the lower bound is 1,
+          and its mode is QI.  Without the conversion,  (ARRAY
+          +(INDEX-(unsigned char)1)) becomes ((ARRAY+(-(unsigned char)1))
+          +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)  */
 
-static tree
-string_constant (arg, ptr_offset)
-     tree arg;
-     tree *ptr_offset;
-{
-  STRIP_NOPS (arg);
+       if (! integer_zerop (low_bound))
+         index = size_diffop (index, convert (sizetype, low_bound));
 
-  if (TREE_CODE (arg) == ADDR_EXPR
-      && TREE_CODE (TREE_OPERAND (arg, 0)) == STRING_CST)
-    {
-      *ptr_offset = integer_zero_node;
-      return TREE_OPERAND (arg, 0);
-    }
-  else if (TREE_CODE (arg) == PLUS_EXPR)
-    {
-      tree arg0 = TREE_OPERAND (arg, 0);
-      tree arg1 = TREE_OPERAND (arg, 1);
+       /* If this is a constant index into a constant array,
+          just get the value from the array.  Handle both the cases when
+          we have an explicit constructor and when our operand is a variable
+          that was declared const.  */
 
-      STRIP_NOPS (arg0);
-      STRIP_NOPS (arg1);
+       if (TREE_CODE (array) == CONSTRUCTOR && ! TREE_SIDE_EFFECTS (array)
+           && 0 > compare_tree_int (index, 
+                                    list_length (CONSTRUCTOR_ELTS
+                                                 (TREE_OPERAND (exp, 0)))))
+         {
+           tree elem;
 
-      if (TREE_CODE (arg0) == ADDR_EXPR
-         && TREE_CODE (TREE_OPERAND (arg0, 0)) == STRING_CST)
-       {
-         *ptr_offset = arg1;
-         return TREE_OPERAND (arg0, 0);
-       }
-      else if (TREE_CODE (arg1) == ADDR_EXPR
-              && TREE_CODE (TREE_OPERAND (arg1, 0)) == STRING_CST)
-       {
-         *ptr_offset = arg0;
-         return TREE_OPERAND (arg1, 0);
-       }
-    }
+           for (elem = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)),
+                i = TREE_INT_CST_LOW (index);
+                elem != 0 && i != 0; i--, elem = TREE_CHAIN (elem))
+             ;
 
-  return 0;
-}
+           if (elem)
+             return expand_expr_unaligned (fold (TREE_VALUE (elem)), palign);
+         }
+         
+       else if (optimize >= 1
+                && TREE_READONLY (array) && ! TREE_SIDE_EFFECTS (array)
+                && TREE_CODE (array) == VAR_DECL && DECL_INITIAL (array)
+                && TREE_CODE (DECL_INITIAL (array)) != ERROR_MARK)
+         {
+           if (TREE_CODE (index) == INTEGER_CST)
+             {
+               tree init = DECL_INITIAL (array);
 
-/* Compute the length of a C string.  TREE_STRING_LENGTH is not the right
-   way, because it could contain a zero byte in the middle.
-   TREE_STRING_LENGTH is the size of the character array, not the string.
+               if (TREE_CODE (init) == CONSTRUCTOR)
+                 {
+                   tree elem;
 
-   Unfortunately, string_constant can't access the values of const char
-   arrays with initializers, so neither can we do so here.  */
+                   for (elem = CONSTRUCTOR_ELTS (init);
+                        ! tree_int_cst_equal (TREE_PURPOSE (elem), index);
+                        elem = TREE_CHAIN (elem))
+                     ;
 
-static tree
-c_strlen (src)
-     tree src;
-{
-  tree offset_node;
-  int offset, max;
-  char *ptr;
+                   if (elem)
+                     return expand_expr_unaligned (fold (TREE_VALUE (elem)),
+                                                   palign);
+                 }
+             }
+         }
+      }
 
-  src = string_constant (src, &offset_node);
-  if (src == 0)
-    return 0;
-  max = TREE_STRING_LENGTH (src);
-  ptr = TREE_STRING_POINTER (src);
-  if (offset_node && TREE_CODE (offset_node) != INTEGER_CST)
-    {
-      /* If the string has an internal zero byte (e.g., "foo\0bar"), we can't
-        compute the offset to the following null if we don't know where to
-        start searching for it.  */
-      int i;
-      for (i = 0; i < max; i++)
-       if (ptr[i] == 0)
-         return 0;
-      /* We don't know the starting offset, but we do know that the string
-        has no internal zero bytes.  We can assume that the offset falls
-        within the bounds of the string; otherwise, the programmer deserves
-        what he gets.  Subtract the offset from the length of the string,
-        and return that.  */
-      /* This would perhaps not be valid if we were dealing with named
-         arrays in addition to literal string constants.  */
-      return size_binop (MINUS_EXPR, size_int (max), offset_node);
-    }
-
-  /* We have a known offset into the string.  Start searching there for
-     a null character.  */
-  if (offset_node == 0)
-    offset = 0;
-  else
-    {
-      /* Did we get a long long offset?  If so, punt.  */
-      if (TREE_INT_CST_HIGH (offset_node) != 0)
-       return 0;
-      offset = TREE_INT_CST_LOW (offset_node);
-    }
-  /* If the offset is known to be out of bounds, warn, and call strlen at
-     runtime.  */
-  if (offset < 0 || offset > max)
-    {
-      warning ("offset outside bounds of constant string");
-      return 0;
-    }
-  /* Use strlen to search for the first zero byte.  Since any strings
-     constructed with build_string will have nulls appended, we win even
-     if we get handed something like (char[4])"abcd".
+      /* ... fall through ... */
 
-     Since OFFSET is our starting index into the string, no further
-     calculation is needed.  */
-  return size_int (strlen (ptr + offset));
-}
+    case COMPONENT_REF:
+    case BIT_FIELD_REF:
+      /* If the operand is a CONSTRUCTOR, we can just extract the
+        appropriate field if it is present.  Don't do this if we have
+        already written the data since we want to refer to that copy
+        and varasm.c assumes that's what we'll do.  */
+      if (TREE_CODE (exp) != ARRAY_REF
+         && TREE_CODE (TREE_OPERAND (exp, 0)) == CONSTRUCTOR
+         && TREE_CST_RTL (TREE_OPERAND (exp, 0)) == 0)
+       {
+         tree elt;
 
-rtx
-expand_builtin_return_addr (fndecl_code, count, tem)
-     enum built_in_function fndecl_code;
-     int count;
-     rtx tem;
-{
-  int i;
+         for (elt = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)); elt;
+              elt = TREE_CHAIN (elt))
+           if (TREE_PURPOSE (elt) == TREE_OPERAND (exp, 1))
+             /* Note that unlike the case in expand_expr, we know this is
+                BLKmode and hence not an integer.  */
+             return expand_expr_unaligned (TREE_VALUE (elt), palign);
+       }
 
-  /* Some machines need special handling before we can access
-     arbitrary frames.  For example, on the sparc, we must first flush
-     all register windows to the stack.  */
-#ifdef SETUP_FRAME_ADDRESSES
-  if (count > 0)
-    SETUP_FRAME_ADDRESSES ();
-#endif
+      {
+       enum machine_mode mode1;
+       HOST_WIDE_INT bitsize, bitpos;
+       tree offset;
+       int volatilep = 0;
+       unsigned int alignment;
+       int unsignedp;
+       tree tem = get_inner_reference (exp, &bitsize, &bitpos, &offset,
+                                       &mode1, &unsignedp, &volatilep,
+                                       &alignment);
 
-  /* On the sparc, the return address is not in the frame, it is in a
-     register.  There is no way to access it off of the current frame
-     pointer, but it can be accessed off the previous frame pointer by
-     reading the value from the register window save area.  */
-#ifdef RETURN_ADDR_IN_PREVIOUS_FRAME
-  if (fndecl_code == BUILT_IN_RETURN_ADDRESS)
-    count--;
-#endif
+       /* If we got back the original object, something is wrong.  Perhaps
+          we are evaluating an expression too early.  In any event, don't
+          infinitely recurse.  */
+       if (tem == exp)
+         abort ();
 
-  /* Scan back COUNT frames to the specified frame.  */
-  for (i = 0; i < count; i++)
-    {
-      /* Assume the dynamic chain pointer is in the word that the
-        frame address points to, unless otherwise specified.  */
-#ifdef DYNAMIC_CHAIN_ADDRESS
-      tem = DYNAMIC_CHAIN_ADDRESS (tem);
-#endif
-      tem = memory_address (Pmode, tem);
-      tem = copy_to_reg (gen_rtx_MEM (Pmode, tem));
-    }
+       op0 = expand_expr (tem, NULL_RTX, VOIDmode, EXPAND_NORMAL);
 
-  /* For __builtin_frame_address, return what we've got.  */
-  if (fndecl_code == BUILT_IN_FRAME_ADDRESS)
-    return tem;
+       /* If this is a constant, put it into a register if it is a
+          legitimate constant and OFFSET is 0 and memory if it isn't.  */
+       if (CONSTANT_P (op0))
+         {
+           enum machine_mode inner_mode = TYPE_MODE (TREE_TYPE (tem));
 
-  /* For __builtin_return_address, Get the return address from that
-     frame.  */
-#ifdef RETURN_ADDR_RTX
-  tem = RETURN_ADDR_RTX (count, tem);
-#else
-  tem = memory_address (Pmode,
-                       plus_constant (tem, GET_MODE_SIZE (Pmode)));
-  tem = gen_rtx_MEM (Pmode, tem);
-#endif
-  return tem;
-}
+           if (inner_mode != BLKmode && LEGITIMATE_CONSTANT_P (op0)
+               && offset == 0)
+             op0 = force_reg (inner_mode, op0);
+           else
+             op0 = validize_mem (force_const_mem (inner_mode, op0));
+         }
 
-/* __builtin_setjmp is passed a pointer to an array of five words (not
-   all will be used on all machines).  It operates similarly to the C
-   library function of the same name, but is more efficient.  Much of
-   the code below (and for longjmp) is copied from the handling of
-   non-local gotos.
+       if (offset != 0)
+         {
+           rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
 
-   NOTE: This is intended for use by GNAT and the exception handling
-   scheme in the compiler and will only work in the method used by
-   them.  */
+           /* If this object is in a register, put it into memory.
+              This case can't occur in C, but can in Ada if we have
+              unchecked conversion of an expression from a scalar type to
+              an array or record type.  */
+           if (GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
+               || GET_CODE (op0) == CONCAT || GET_CODE (op0) == ADDRESSOF)
+             {
+               rtx memloc = assign_temp (TREE_TYPE (tem), 1, 1, 1);
 
-rtx
-expand_builtin_setjmp (buf_addr, target, first_label, next_label)
-     rtx buf_addr;
-     rtx target;
-     rtx first_label, next_label;
-{
-  rtx lab1 = gen_label_rtx ();
-  enum machine_mode sa_mode = STACK_SAVEAREA_MODE (SAVE_NONLOCAL);
-  enum machine_mode value_mode;
-  rtx stack_save;
+               mark_temp_addr_taken (memloc);
+               emit_move_insn (memloc, op0);
+               op0 = memloc;
+             }
 
-  value_mode = TYPE_MODE (integer_type_node);
+           if (GET_CODE (op0) != MEM)
+             abort ();
 
+           if (GET_MODE (offset_rtx) != ptr_mode)
+             {
 #ifdef POINTERS_EXTEND_UNSIGNED
-  buf_addr = convert_memory_address (Pmode, buf_addr);
+               offset_rtx = convert_memory_address (ptr_mode, offset_rtx);
+#else
+               offset_rtx = convert_to_mode (ptr_mode, offset_rtx, 0);
 #endif
+             }
 
-  buf_addr = force_reg (Pmode, buf_addr);
-
-  if (target == 0 || GET_CODE (target) != REG
-      || REGNO (target) < FIRST_PSEUDO_REGISTER)
-    target = gen_reg_rtx (value_mode);
+           op0 = change_address (op0, VOIDmode,
+                                 gen_rtx_PLUS (ptr_mode, XEXP (op0, 0),
+                                               force_reg (ptr_mode,
+                                                          offset_rtx)));
+         }
 
-  emit_queue ();
-
-  /* We store the frame pointer and the address of lab1 in the buffer
-     and use the rest of it for the stack save area, which is
-     machine-dependent.  */
-
-#ifndef BUILTIN_SETJMP_FRAME_VALUE
-#define BUILTIN_SETJMP_FRAME_VALUE virtual_stack_vars_rtx
-#endif
-
-  emit_move_insn (gen_rtx_MEM (Pmode, buf_addr),
-                 BUILTIN_SETJMP_FRAME_VALUE);
-  emit_move_insn (validize_mem
-                 (gen_rtx_MEM (Pmode,
-                               plus_constant (buf_addr,
-                                              GET_MODE_SIZE (Pmode)))),
-                 force_reg (Pmode, gen_rtx_LABEL_REF (Pmode, lab1)));
-
-  stack_save = gen_rtx_MEM (sa_mode,
-                           plus_constant (buf_addr,
-                                          2 * GET_MODE_SIZE (Pmode)));
-  emit_stack_save (SAVE_NONLOCAL, &stack_save, NULL_RTX);
-
-  /* If there is further processing to do, do it.  */
-#ifdef HAVE_builtin_setjmp_setup
-  if (HAVE_builtin_setjmp_setup)
-    emit_insn (gen_builtin_setjmp_setup (buf_addr));
-#endif
-
-  /* Set TARGET to zero and branch to the first-time-through label.  */
-  emit_move_insn (target, const0_rtx);
-  emit_jump_insn (gen_jump (first_label));
-  emit_barrier ();
-  emit_label (lab1);
-
-  /* Tell flow about the strange goings on.  Putting `lab1' on
-     `nonlocal_goto_handler_labels' to indicates that function
-     calls may traverse the arc back to this label.  */
-
-  current_function_has_nonlocal_label = 1;
-  nonlocal_goto_handler_labels =
-    gen_rtx_EXPR_LIST (VOIDmode, lab1, nonlocal_goto_handler_labels);
-
-  /* Clobber the FP when we get here, so we have to make sure it's
-     marked as used by this function.  */
-  emit_insn (gen_rtx_USE (VOIDmode, hard_frame_pointer_rtx));
-
-  /* Mark the static chain as clobbered here so life information
-     doesn't get messed up for it.  */
-  emit_insn (gen_rtx_CLOBBER (VOIDmode, static_chain_rtx));
-
-  /* Now put in the code to restore the frame pointer, and argument
-     pointer, if needed.  The code below is from expand_end_bindings
-     in stmt.c; see detailed documentation there.  */
-#ifdef HAVE_nonlocal_goto
-  if (! HAVE_nonlocal_goto)
-#endif
-    emit_move_insn (virtual_stack_vars_rtx, hard_frame_pointer_rtx);
-
-#if ARG_POINTER_REGNUM != HARD_FRAME_POINTER_REGNUM
-  if (fixed_regs[ARG_POINTER_REGNUM])
-    {
-#ifdef ELIMINABLE_REGS
-      size_t i;
-      static struct elims {int from, to;} elim_regs[] = ELIMINABLE_REGS;
-
-      for (i = 0; i < sizeof elim_regs / sizeof elim_regs[0]; i++)
-       if (elim_regs[i].from == ARG_POINTER_REGNUM
-           && elim_regs[i].to == HARD_FRAME_POINTER_REGNUM)
-         break;
-
-      if (i == sizeof elim_regs / sizeof elim_regs [0])
-#endif
-       {
-         /* Now restore our arg pointer from the address at which it
-            was saved in our stack frame.
-            If there hasn't be space allocated for it yet, make
-            some now.  */
-         if (arg_pointer_save_area == 0)
-           arg_pointer_save_area
-             = assign_stack_local (Pmode, GET_MODE_SIZE (Pmode), 0);
-         emit_move_insn (virtual_incoming_args_rtx,
-                         copy_to_reg (arg_pointer_save_area));
-       }
-    }
-#endif
-
-#ifdef HAVE_builtin_setjmp_receiver
-  if (HAVE_builtin_setjmp_receiver)
-    emit_insn (gen_builtin_setjmp_receiver (lab1));
-  else
-#endif
-#ifdef HAVE_nonlocal_goto_receiver
-    if (HAVE_nonlocal_goto_receiver)
-      emit_insn (gen_nonlocal_goto_receiver ());
-    else
-#endif
-      {
-       ; /* Nothing */
-      }
-
-  /* Set TARGET, and branch to the next-time-through label.  */
-  emit_move_insn (target, const1_rtx);
-  emit_jump_insn (gen_jump (next_label));
-  emit_barrier ();
-
-  return target;
-}
-
-void
-expand_builtin_longjmp (buf_addr, value)
-     rtx buf_addr, value;
-{
-  rtx fp, lab, stack;
-  enum machine_mode sa_mode = STACK_SAVEAREA_MODE (SAVE_NONLOCAL);
-
-#ifdef POINTERS_EXTEND_UNSIGNED
-  buf_addr = convert_memory_address (Pmode, buf_addr);
-#endif
-  buf_addr = force_reg (Pmode, buf_addr);
-
-  /* We used to store value in static_chain_rtx, but that fails if pointers
-     are smaller than integers.  We instead require that the user must pass
-     a second argument of 1, because that is what builtin_setjmp will
-     return.  This also makes EH slightly more efficient, since we are no
-     longer copying around a value that we don't care about.  */
-  if (value != const1_rtx)
-    abort ();
-
-#ifdef HAVE_builtin_longjmp
-  if (HAVE_builtin_longjmp)
-    emit_insn (gen_builtin_longjmp (buf_addr));
-  else
-#endif
-    {
-      fp = gen_rtx_MEM (Pmode, buf_addr);
-      lab = gen_rtx_MEM (Pmode, plus_constant (buf_addr,
-                                              GET_MODE_SIZE (Pmode)));
-
-      stack = gen_rtx_MEM (sa_mode, plus_constant (buf_addr,
-                                                  2 * GET_MODE_SIZE (Pmode)));
-
-      /* Pick up FP, label, and SP from the block and jump.  This code is
-        from expand_goto in stmt.c; see there for detailed comments.  */
-#if HAVE_nonlocal_goto
-      if (HAVE_nonlocal_goto)
-       /* We have to pass a value to the nonlocal_goto pattern that will
-          get copied into the static_chain pointer, but it does not matter
-          what that value is, because builtin_setjmp does not use it.  */
-       emit_insn (gen_nonlocal_goto (value, fp, stack, lab));
-      else
-#endif
-       {
-         lab = copy_to_reg (lab);
-
-         emit_move_insn (hard_frame_pointer_rtx, fp);
-         emit_stack_restore (SAVE_NONLOCAL, stack, NULL_RTX);
-
-         emit_insn (gen_rtx_USE (VOIDmode, hard_frame_pointer_rtx));
-         emit_insn (gen_rtx_USE (VOIDmode, stack_pointer_rtx));
-         emit_indirect_jump (lab);
-       }
-    }
-}
-
-static rtx
-get_memory_rtx (exp)
-     tree exp;
-{
-  rtx mem;
-  int is_aggregate;
-
-  mem = gen_rtx_MEM (BLKmode,
-                    memory_address (BLKmode,
-                                    expand_expr (exp, NULL_RTX,
-                                                 ptr_mode, EXPAND_SUM)));
-
-  RTX_UNCHANGING_P (mem) = TREE_READONLY (exp);
-
-  /* Figure out the type of the object pointed to.  Set MEM_IN_STRUCT_P
-     if the value is the address of a structure or if the expression is
-     cast to a pointer to structure type.  */
-  is_aggregate = 0;
-
-  while (TREE_CODE (exp) == NOP_EXPR)
-    {
-      tree cast_type = TREE_TYPE (exp);
-      if (TREE_CODE (cast_type) == POINTER_TYPE
-         && AGGREGATE_TYPE_P (TREE_TYPE (cast_type)))
-       {
-         is_aggregate = 1;
-         break;
-       }
-      exp = TREE_OPERAND (exp, 0);
-    }
-
-  if (is_aggregate == 0)
-    {
-      tree type;
-
-      if (TREE_CODE (exp) == ADDR_EXPR)
-       /* If this is the address of an object, check whether the
-          object is an array.  */
-       type = TREE_TYPE (TREE_OPERAND (exp, 0));
-      else
-       type = TREE_TYPE (TREE_TYPE (exp));
-      is_aggregate = AGGREGATE_TYPE_P (type);
-    }
-
-  MEM_SET_IN_STRUCT_P (mem, is_aggregate);
-  return mem;
-}
-
-\f
-/* Expand an expression EXP that calls a built-in function,
-   with result going to TARGET if that's convenient
-   (and in mode MODE if that's convenient).
-   SUBTARGET may be used as the target for computing one of EXP's operands.
-   IGNORE is nonzero if the value is to be ignored.  */
-
-#define CALLED_AS_BUILT_IN(NODE) \
-   (!strncmp (IDENTIFIER_POINTER (DECL_NAME (NODE)), "__builtin_", 10))
-
-static rtx
-expand_builtin (exp, target, subtarget, mode, ignore)
-     tree exp;
-     rtx target;
-     rtx subtarget;
-     enum machine_mode mode;
-     int ignore;
-{
-  tree fndecl = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
-  tree arglist = TREE_OPERAND (exp, 1);
-  rtx op0;
-  rtx lab1, insns;
-  enum machine_mode value_mode = TYPE_MODE (TREE_TYPE (exp));
-  optab builtin_optab;
-
-  switch (DECL_FUNCTION_CODE (fndecl))
-    {
-    case BUILT_IN_ABS:
-    case BUILT_IN_LABS:
-    case BUILT_IN_FABS:
-      /* build_function_call changes these into ABS_EXPR.  */
-      abort ();
-
-    case BUILT_IN_SIN:
-    case BUILT_IN_COS:
-      /* Treat these like sqrt, but only if the user asks for them.  */
-      if (! flag_fast_math)
-       break;
-    case BUILT_IN_FSQRT:
-      /* If not optimizing, call the library function.  */
-      if (! optimize)
-       break;
-
-      if (arglist == 0
-         /* Arg could be wrong type if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != REAL_TYPE)
-       break;
-
-      /* Stabilize and compute the argument.  */
-      if (TREE_CODE (TREE_VALUE (arglist)) != VAR_DECL
-         && TREE_CODE (TREE_VALUE (arglist)) != PARM_DECL)
-       {
-         exp = copy_node (exp);
-         arglist = copy_node (arglist);
-         TREE_OPERAND (exp, 1) = arglist;
-         TREE_VALUE (arglist) = save_expr (TREE_VALUE (arglist));
-       }
-      op0 = expand_expr (TREE_VALUE (arglist), subtarget, VOIDmode, 0);
-
-      /* Make a suitable register to place result in.  */
-      target = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
-
-      emit_queue ();
-      start_sequence ();
-
-      switch (DECL_FUNCTION_CODE (fndecl))
-       {
-       case BUILT_IN_SIN:
-         builtin_optab = sin_optab; break;
-       case BUILT_IN_COS:
-         builtin_optab = cos_optab; break;
-       case BUILT_IN_FSQRT:
-         builtin_optab = sqrt_optab; break;
-       default:
-         abort ();
-       }
-
-      /* Compute into TARGET.
-        Set TARGET to wherever the result comes back.  */
-      target = expand_unop (TYPE_MODE (TREE_TYPE (TREE_VALUE (arglist))),
-                           builtin_optab, op0, target, 0);
-
-      /* If we were unable to expand via the builtin, stop the
-        sequence (without outputting the insns) and break, causing
-        a call to the library function.  */
-      if (target == 0)
-       {
-         end_sequence ();
-         break;
-        }
-
-      /* Check the results by default.  But if flag_fast_math is turned on,
-        then assume sqrt will always be called with valid arguments.  */
-
-      if (! flag_fast_math)
-       {
-         /* Don't define the builtin FP instructions
-            if your machine is not IEEE.  */
-         if (TARGET_FLOAT_FORMAT != IEEE_FLOAT_FORMAT)
-           abort ();
-
-         lab1 = gen_label_rtx ();
-
-         /* Test the result; if it is NaN, set errno=EDOM because
-            the argument was not in the domain.  */
-         emit_cmp_and_jump_insns (target, target, EQ, 0, GET_MODE (target),
-                                  0, 0, lab1);
-
-#ifdef TARGET_EDOM
-         {
-#ifdef GEN_ERRNO_RTX
-           rtx errno_rtx = GEN_ERRNO_RTX;
-#else
-           rtx errno_rtx
-             = gen_rtx_MEM (word_mode, gen_rtx_SYMBOL_REF (Pmode, "errno"));
-#endif
-
-           emit_move_insn (errno_rtx, GEN_INT (TARGET_EDOM));
-         }
-#else
-         /* We can't set errno=EDOM directly; let the library call do it.
-            Pop the arguments right away in case the call gets deleted.  */
-         NO_DEFER_POP;
-         expand_call (exp, target, 0);
-         OK_DEFER_POP;
-#endif
-
-         emit_label (lab1);
-       }
-
-      /* Output the entire sequence.  */
-      insns = get_insns ();
-      end_sequence ();
-      emit_insns (insns);
-      return target;
-
-    case BUILT_IN_FMOD:
-      break;
-
-      /* __builtin_apply_args returns block of memory allocated on
-        the stack into which is stored the arg pointer, structure
-        value address, static chain, and all the registers that might
-        possibly be used in performing a function call.  The code is
-        moved to the start of the function so the incoming values are
-        saved.  */
-    case BUILT_IN_APPLY_ARGS:
-      /* Don't do __builtin_apply_args more than once in a function.
-        Save the result of the first call and reuse it.  */
-      if (apply_args_value != 0)
-       return apply_args_value;
-      {
-       /* When this function is called, it means that registers must be
-          saved on entry to this function.  So we migrate the
-          call to the first insn of this function.  */
-       rtx temp;
-       rtx seq;
-
-       start_sequence ();
-       temp = expand_builtin_apply_args ();
-       seq = get_insns ();
-       end_sequence ();
-
-       apply_args_value = temp;
-
-       /* Put the sequence after the NOTE that starts the function.
-          If this is inside a SEQUENCE, make the outer-level insn
-          chain current, so the code is placed at the start of the
-          function.  */
-       push_topmost_sequence ();
-       emit_insns_before (seq, NEXT_INSN (get_insns ()));
-       pop_topmost_sequence ();
-       return temp;
-      }
-
-      /* __builtin_apply (FUNCTION, ARGUMENTS, ARGSIZE) invokes
-        FUNCTION with a copy of the parameters described by
-        ARGUMENTS, and ARGSIZE.  It returns a block of memory
-        allocated on the stack into which is stored all the registers
-        that might possibly be used for returning the result of a
-        function.  ARGUMENTS is the value returned by
-        __builtin_apply_args.  ARGSIZE is the number of bytes of
-        arguments that must be copied.  ??? How should this value be
-        computed?  We'll also need a safe worst case value for varargs
-        functions.  */
-    case BUILT_IN_APPLY:
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || ! POINTER_TYPE_P (TREE_TYPE (TREE_VALUE (arglist)))
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist))))) != INTEGER_TYPE)
-       return const0_rtx;
-      else
-       {
-         int i;
-         tree t;
-         rtx ops[3];
-
-         for (t = arglist, i = 0; t; t = TREE_CHAIN (t), i++)
-           ops[i] = expand_expr (TREE_VALUE (t), NULL_RTX, VOIDmode, 0);
-
-         return expand_builtin_apply (ops[0], ops[1], ops[2]);
-       }
-
-      /* __builtin_return (RESULT) causes the function to return the
-        value described by RESULT.  RESULT is address of the block of
-        memory returned by __builtin_apply.  */
-    case BUILT_IN_RETURN:
-      if (arglist
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         && TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) == POINTER_TYPE)
-       expand_builtin_return (expand_expr (TREE_VALUE (arglist),
-                                           NULL_RTX, VOIDmode, 0));
-      return const0_rtx;
-
-    case BUILT_IN_SAVEREGS:
-      /* Don't do __builtin_saveregs more than once in a function.
-        Save the result of the first call and reuse it.  */
-      if (saveregs_value != 0)
-       return saveregs_value;
-      {
-       /* When this function is called, it means that registers must be
-          saved on entry to this function.  So we migrate the
-          call to the first insn of this function.  */
-       rtx temp;
-       rtx seq;
-
-       /* Now really call the function.  `expand_call' does not call
-          expand_builtin, so there is no danger of infinite recursion here.  */
-       start_sequence ();
-
-#ifdef EXPAND_BUILTIN_SAVEREGS
-       /* Do whatever the machine needs done in this case.  */
-       temp = EXPAND_BUILTIN_SAVEREGS (arglist);
-#else
-       /* The register where the function returns its value
-          is likely to have something else in it, such as an argument.
-          So preserve that register around the call.  */
-
-       if (value_mode != VOIDmode)
-         {
-           rtx valreg = hard_libcall_value (value_mode);
-           rtx saved_valreg = gen_reg_rtx (value_mode);
-
-           emit_move_insn (saved_valreg, valreg);
-           temp = expand_call (exp, target, ignore);
-           emit_move_insn (valreg, saved_valreg);
-         }
-       else
-         /* Generate the call, putting the value in a pseudo.  */
-         temp = expand_call (exp, target, ignore);
-#endif
-
-       seq = get_insns ();
-       end_sequence ();
-
-       saveregs_value = temp;
-
-       /* Put the sequence after the NOTE that starts the function.
-          If this is inside a SEQUENCE, make the outer-level insn
-          chain current, so the code is placed at the start of the
-          function.  */
-       push_topmost_sequence ();
-       emit_insns_before (seq, NEXT_INSN (get_insns ()));
-       pop_topmost_sequence ();
-       return temp;
-      }
-
-      /* __builtin_args_info (N) returns word N of the arg space info
-        for the current function.  The number and meanings of words
-        is controlled by the definition of CUMULATIVE_ARGS.  */
-    case BUILT_IN_ARGS_INFO:
-      {
-       int nwords = sizeof (CUMULATIVE_ARGS) / sizeof (int);
-       int *word_ptr = (int *) &current_function_args_info;
-#if 0  
-       /* These are used by the code below that is if 0'ed away */
-       int i;
-       tree type, elts, result;
-#endif
-
-       if (sizeof (CUMULATIVE_ARGS) % sizeof (int) != 0)
-         fatal ("CUMULATIVE_ARGS type defined badly; see %s, line %d",
-                __FILE__, __LINE__);
-
-       if (arglist != 0)
-         {
-           tree arg = TREE_VALUE (arglist);
-           if (TREE_CODE (arg) != INTEGER_CST)
-             error ("argument of `__builtin_args_info' must be constant");
-           else
-             {
-               int wordnum = TREE_INT_CST_LOW (arg);
-
-               if (wordnum < 0 || wordnum >= nwords || TREE_INT_CST_HIGH (arg))
-                 error ("argument of `__builtin_args_info' out of range");
-               else
-                 return GEN_INT (word_ptr[wordnum]);
-             }
-         }
-       else
-         error ("missing argument in `__builtin_args_info'");
-
-       return const0_rtx;
-
-#if 0
-       for (i = 0; i < nwords; i++)
-         elts = tree_cons (NULL_TREE, build_int_2 (word_ptr[i], 0));
-
-       type = build_array_type (integer_type_node,
-                                build_index_type (build_int_2 (nwords, 0)));
-       result = build (CONSTRUCTOR, type, NULL_TREE, nreverse (elts));
-       TREE_CONSTANT (result) = 1;
-       TREE_STATIC (result) = 1;
-       result = build (INDIRECT_REF, build_pointer_type (type), result);
-       TREE_CONSTANT (result) = 1;
-       return expand_expr (result, NULL_RTX, VOIDmode, EXPAND_MEMORY_USE_BAD);
-#endif
-      }
-
-      /* Return the address of the first anonymous stack arg.  */
-    case BUILT_IN_NEXT_ARG:
-      {
-       tree fntype = TREE_TYPE (current_function_decl);
-
-       if ((TYPE_ARG_TYPES (fntype) == 0
-            || (TREE_VALUE (tree_last (TYPE_ARG_TYPES (fntype)))
-                == void_type_node))
-           && ! current_function_varargs)
-         {
-           error ("`va_start' used in function with fixed args");
-           return const0_rtx;
-         }
-
-       if (arglist)
-         {
-           tree last_parm = tree_last (DECL_ARGUMENTS (current_function_decl));
-           tree arg = TREE_VALUE (arglist);
-
-           /* Strip off all nops for the sake of the comparison.  This
-              is not quite the same as STRIP_NOPS.  It does more.  
-              We must also strip off INDIRECT_EXPR for C++ reference
-              parameters.  */
-           while (TREE_CODE (arg) == NOP_EXPR
-                  || TREE_CODE (arg) == CONVERT_EXPR
-                  || TREE_CODE (arg) == NON_LVALUE_EXPR
-                  || TREE_CODE (arg) == INDIRECT_REF)
-             arg = TREE_OPERAND (arg, 0);
-           if (arg != last_parm)
-             warning ("second parameter of `va_start' not last named argument");
-         }
-       else if (! current_function_varargs)
-         /* Evidently an out of date version of <stdarg.h>; can't validate
-            va_start's second argument, but can still work as intended.  */
-         warning ("`__builtin_next_arg' called without an argument");
-      }
-
-      return expand_binop (Pmode, add_optab,
-                          current_function_internal_arg_pointer,
-                          current_function_arg_offset_rtx,
-                          NULL_RTX, 0, OPTAB_LIB_WIDEN);
-
-    case BUILT_IN_CLASSIFY_TYPE:
-      if (arglist != 0)
-       {
-         tree type = TREE_TYPE (TREE_VALUE (arglist));
-         enum tree_code code = TREE_CODE (type);
-         if (code == VOID_TYPE)
-           return GEN_INT (void_type_class);
-         if (code == INTEGER_TYPE)
-           return GEN_INT (integer_type_class);
-         if (code == CHAR_TYPE)
-           return GEN_INT (char_type_class);
-         if (code == ENUMERAL_TYPE)
-           return GEN_INT (enumeral_type_class);
-         if (code == BOOLEAN_TYPE)
-           return GEN_INT (boolean_type_class);
-         if (code == POINTER_TYPE)
-           return GEN_INT (pointer_type_class);
-         if (code == REFERENCE_TYPE)
-           return GEN_INT (reference_type_class);
-         if (code == OFFSET_TYPE)
-           return GEN_INT (offset_type_class);
-         if (code == REAL_TYPE)
-           return GEN_INT (real_type_class);
-         if (code == COMPLEX_TYPE)
-           return GEN_INT (complex_type_class);
-         if (code == FUNCTION_TYPE)
-           return GEN_INT (function_type_class);
-         if (code == METHOD_TYPE)
-           return GEN_INT (method_type_class);
-         if (code == RECORD_TYPE)
-           return GEN_INT (record_type_class);
-         if (code == UNION_TYPE || code == QUAL_UNION_TYPE)
-           return GEN_INT (union_type_class);
-         if (code == ARRAY_TYPE)
-           {
-             if (TYPE_STRING_FLAG (type))
-               return GEN_INT (string_type_class);
-             else
-               return GEN_INT (array_type_class);
-           }
-         if (code == SET_TYPE)
-           return GEN_INT (set_type_class);
-         if (code == FILE_TYPE)
-           return GEN_INT (file_type_class);
-         if (code == LANG_TYPE)
-           return GEN_INT (lang_type_class);
-       }
-      return GEN_INT (no_type_class);
-
-    case BUILT_IN_CONSTANT_P:
-      if (arglist == 0)
-       return const0_rtx;
-      else
-       {
-         tree arg = TREE_VALUE (arglist);
-         rtx tmp;
-
-         /* We return 1 for a numeric type that's known to be a constant
-            value at compile-time or for an aggregate type that's a
-            literal constant.  */
-         STRIP_NOPS (arg);
-
-         /* If we know this is a constant, emit the constant of one.  */
-         if (TREE_CODE_CLASS (TREE_CODE (arg)) == 'c'
-             || (TREE_CODE (arg) == CONSTRUCTOR
-                 && TREE_CONSTANT (arg))
-             || (TREE_CODE (arg) == ADDR_EXPR
-                 && TREE_CODE (TREE_OPERAND (arg, 0)) == STRING_CST))
-           return const1_rtx;
-
-         /* If we aren't going to be running CSE or this expression
-            has side effects, show we don't know it to be a constant.
-            Likewise if it's a pointer or aggregate type since in those
-            case we only want literals, since those are only optimized
-            when generating RTL, not later.  */
-         if (TREE_SIDE_EFFECTS (arg) || cse_not_expected
-             || AGGREGATE_TYPE_P (TREE_TYPE (arg))
-             || POINTER_TYPE_P (TREE_TYPE (arg)))
-           return const0_rtx;
-
-         /* Otherwise, emit (constant_p_rtx (ARG)) and let CSE get a
-            chance to see if it can deduce whether ARG is constant.  */
-
-         tmp = expand_expr (arg, NULL_RTX, VOIDmode, 0);
-         tmp = gen_rtx_CONSTANT_P_RTX (value_mode, tmp);
-         return tmp;
-       }
-
-    case BUILT_IN_FRAME_ADDRESS:
-      /* The argument must be a nonnegative integer constant.
-        It counts the number of frames to scan up the stack.
-        The value is the address of that frame.  */
-    case BUILT_IN_RETURN_ADDRESS:
-      /* The argument must be a nonnegative integer constant.
-        It counts the number of frames to scan up the stack.
-        The value is the return address saved in that frame.  */
-      if (arglist == 0)
-       /* Warning about missing arg was already issued.  */
-       return const0_rtx;
-      else if (TREE_CODE (TREE_VALUE (arglist)) != INTEGER_CST
-              || tree_int_cst_sgn (TREE_VALUE (arglist)) < 0)
-       {
-         if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_FRAME_ADDRESS)
-           error ("invalid arg to `__builtin_frame_address'");
-         else
-           error ("invalid arg to `__builtin_return_address'");
-         return const0_rtx;
-       }
-      else
-       {
-         rtx tem = expand_builtin_return_addr (DECL_FUNCTION_CODE (fndecl),
-                                               TREE_INT_CST_LOW (TREE_VALUE (arglist)),
-                                               hard_frame_pointer_rtx);
-
-         /* Some ports cannot access arbitrary stack frames.  */
-         if (tem == NULL)
-           {
-             if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_FRAME_ADDRESS)
-               warning ("unsupported arg to `__builtin_frame_address'");
-             else
-               warning ("unsupported arg to `__builtin_return_address'");
-             return const0_rtx;
-           }
-
-         /* For __builtin_frame_address, return what we've got.  */
-         if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_FRAME_ADDRESS)
-           return tem;
-
-         if (GET_CODE (tem) != REG
-             && ! CONSTANT_P (tem))
-           tem = copy_to_mode_reg (Pmode, tem);
-         return tem;
-       }
-
-    /* Returns the address of the area where the structure is returned.
-       0 otherwise.  */
-    case BUILT_IN_AGGREGATE_INCOMING_ADDRESS:
-      if (arglist != 0
-          || ! AGGREGATE_TYPE_P (TREE_TYPE (TREE_TYPE (current_function_decl)))
-          || GET_CODE (DECL_RTL (DECL_RESULT (current_function_decl))) != MEM)
-        return const0_rtx;
-      else
-        return XEXP (DECL_RTL (DECL_RESULT (current_function_decl)), 0);
-
-    case BUILT_IN_ALLOCA:
-      if (arglist == 0
-         /* Arg could be non-integer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != INTEGER_TYPE)
-       break;
-
-      /* Compute the argument.  */
-      op0 = expand_expr (TREE_VALUE (arglist), NULL_RTX, VOIDmode, 0);
-
-      /* Allocate the desired space.  */
-      return allocate_dynamic_stack_space (op0, target, BITS_PER_UNIT);
-
-    case BUILT_IN_FFS:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-integer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != INTEGER_TYPE)
-       break;
-
-      /* Compute the argument.  */
-      op0 = expand_expr (TREE_VALUE (arglist), subtarget, VOIDmode, 0);
-      /* Compute ffs, into TARGET if possible.
-        Set TARGET to wherever the result comes back.  */
-      target = expand_unop (TYPE_MODE (TREE_TYPE (TREE_VALUE (arglist))),
-                           ffs_optab, op0, target, 1);
-      if (target == 0)
-       abort ();
-      return target;
-
-    case BUILT_IN_STRLEN:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE)
-       break;
-      else
-       {
-         tree src = TREE_VALUE (arglist);
-         tree len = c_strlen (src);
-
-         int align
-           = get_pointer_alignment (src, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-
-         rtx result, src_rtx, char_rtx;
-         enum machine_mode insn_mode = value_mode, char_mode;
-         enum insn_code icode;
-
-         /* If the length is known, just return it.  */
-         if (len != 0)
-           return expand_expr (len, target, mode, EXPAND_MEMORY_USE_BAD);
-
-         /* If SRC is not a pointer type, don't do this operation inline.  */
-         if (align == 0)
-           break;
-
-         /* Call a function if we can't compute strlen in the right mode.  */
-
-         while (insn_mode != VOIDmode)
-           {
-             icode = strlen_optab->handlers[(int) insn_mode].insn_code;
-             if (icode != CODE_FOR_nothing)
-               break;
-
-             insn_mode = GET_MODE_WIDER_MODE (insn_mode);
-           }
-         if (insn_mode == VOIDmode)
-           break;
-
-         /* Make a place to write the result of the instruction.  */
-         result = target;
-         if (! (result != 0
-                && GET_CODE (result) == REG
-                && GET_MODE (result) == insn_mode
-                && REGNO (result) >= FIRST_PSEUDO_REGISTER))
-           result = gen_reg_rtx (insn_mode);
-
-         /* Make sure the operands are acceptable to the predicates.  */
-
-         if (! (*insn_operand_predicate[(int)icode][0]) (result, insn_mode))
-           result = gen_reg_rtx (insn_mode);
-         src_rtx = memory_address (BLKmode,
-                                   expand_expr (src, NULL_RTX, ptr_mode,
-                                                EXPAND_NORMAL));
-
-         if (! (*insn_operand_predicate[(int)icode][1]) (src_rtx, Pmode))
-           src_rtx = copy_to_mode_reg (Pmode, src_rtx);
-
-         /* Check the string is readable and has an end.  */
-         if (current_function_check_memory_usage)
-           emit_library_call (chkr_check_str_libfunc, 1, VOIDmode, 2,
-                              src_rtx, ptr_mode,
-                              GEN_INT (MEMORY_USE_RO),
-                              TYPE_MODE (integer_type_node));
-
-         char_rtx = const0_rtx;
-         char_mode = insn_operand_mode[(int)icode][2];
-         if (! (*insn_operand_predicate[(int)icode][2]) (char_rtx, char_mode))
-           char_rtx = copy_to_mode_reg (char_mode, char_rtx);
-
-         emit_insn (GEN_FCN (icode) (result,
-                                     gen_rtx_MEM (BLKmode, src_rtx),
-                                     char_rtx, GEN_INT (align)));
-
-         /* Return the value in the proper mode for this function.  */
-         if (GET_MODE (result) == value_mode)
-           return result;
-         else if (target != 0)
-           {
-             convert_move (target, result, 0);
-             return target;
-           }
-         else
-           return convert_to_mode (value_mode, result, 0);
-       }
-
-    case BUILT_IN_STRCPY:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE)
-       break;
-      else
-       {
-         tree len = c_strlen (TREE_VALUE (TREE_CHAIN (arglist)));
-
-         if (len == 0)
-           break;
-
-         len = size_binop (PLUS_EXPR, len, integer_one_node);
-
-         chainon (arglist, build_tree_list (NULL_TREE, len));
-       }
-
-      /* Drops in.  */
-    case BUILT_IN_MEMCPY:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || (TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist))))
-             != POINTER_TYPE)
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || (TREE_CODE (TREE_TYPE (TREE_VALUE
-                                   (TREE_CHAIN (TREE_CHAIN (arglist)))))
-             != INTEGER_TYPE))
-       break;
-      else
-       {
-         tree dest = TREE_VALUE (arglist);
-         tree src = TREE_VALUE (TREE_CHAIN (arglist));
-         tree len = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist)));
-
-         int src_align
-           = get_pointer_alignment (src, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-         int dest_align
-           = get_pointer_alignment (dest, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-         rtx dest_mem, src_mem, dest_addr, len_rtx;
-
-         /* If either SRC or DEST is not a pointer type, don't do
-            this operation in-line.  */
-         if (src_align == 0 || dest_align == 0)
-           {
-             if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_STRCPY)
-               TREE_CHAIN (TREE_CHAIN (arglist)) = 0;
-             break;
-           }
-
-         dest_mem = get_memory_rtx (dest);
-         src_mem = get_memory_rtx (src);
-         len_rtx = expand_expr (len, NULL_RTX, VOIDmode, 0);
-
-         /* Just copy the rights of SRC to the rights of DEST.  */
-         if (current_function_check_memory_usage)
-           emit_library_call (chkr_copy_bitmap_libfunc, 1, VOIDmode, 3,
-                              XEXP (dest_mem, 0), ptr_mode,
-                              XEXP (src_mem, 0), ptr_mode,
-                              len_rtx, TYPE_MODE (sizetype));
-
-         /* Copy word part most expediently.  */
-         dest_addr
-           = emit_block_move (dest_mem, src_mem, len_rtx,
-                              MIN (src_align, dest_align));
-
-         if (dest_addr == 0)
-           dest_addr = force_operand (XEXP (dest_mem, 0), NULL_RTX);
-
-         return dest_addr;
-       }
-
-    case BUILT_IN_MEMSET:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || (TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist))))
-             != INTEGER_TYPE)
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || (INTEGER_TYPE
-             != (TREE_CODE (TREE_TYPE
-                            (TREE_VALUE
-                             (TREE_CHAIN (TREE_CHAIN (arglist))))))))
-       break;
-      else
-       {
-         tree dest = TREE_VALUE (arglist);
-         tree val = TREE_VALUE (TREE_CHAIN (arglist));
-         tree len = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist)));
-
-         int dest_align
-           = get_pointer_alignment (dest, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-         rtx dest_mem, dest_addr, len_rtx;
-
-         /* If DEST is not a pointer type, don't do this 
-            operation in-line.  */
-         if (dest_align == 0)
-           break;
-
-         /* If the arguments have side-effects, then we can only evaluate
-            them at most once.  The following code evaluates them twice if
-            they are not constants because we break out to expand_call
-            in that case.  They can't be constants if they have side-effects
-            so we can check for that first.  Alternatively, we could call
-            save_expr to make multiple evaluation safe.  */
-         if (TREE_SIDE_EFFECTS (val) || TREE_SIDE_EFFECTS (len))
-           break;
-
-         /* If VAL is not 0, don't do this operation in-line. */
-         if (expand_expr (val, NULL_RTX, VOIDmode, 0) != const0_rtx)
-           break;
-
-         /* If LEN does not expand to a constant, don't do this
-            operation in-line.  */
-         len_rtx = expand_expr (len, NULL_RTX, VOIDmode, 0);
-         if (GET_CODE (len_rtx) != CONST_INT)
-           break;
-
-         dest_mem = get_memory_rtx (dest);
-          
-         /* Just check DST is writable and mark it as readable.  */
-         if (current_function_check_memory_usage)
-           emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
-                              XEXP (dest_mem, 0), ptr_mode,
-                              len_rtx, TYPE_MODE (sizetype),
-                              GEN_INT (MEMORY_USE_WO),
-                              TYPE_MODE (integer_type_node));
-
-
-         dest_addr = clear_storage (dest_mem, len_rtx, dest_align);
-
-         if (dest_addr == 0)
-           dest_addr = force_operand (XEXP (dest_mem, 0), NULL_RTX);
-
-         return dest_addr;
-       }
-
-/* These comparison functions need an instruction that returns an actual
-   index.  An ordinary compare that just sets the condition codes
-   is not enough.  */
-#ifdef HAVE_cmpstrsi
-    case BUILT_IN_STRCMP:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      /* If we need to check memory accesses, call the library function.  */
-      if (current_function_check_memory_usage)
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE)
-       break;
-      else if (!HAVE_cmpstrsi)
-       break;
-      {
-       tree arg1 = TREE_VALUE (arglist);
-       tree arg2 = TREE_VALUE (TREE_CHAIN (arglist));
-       tree len, len2;
-
-       len = c_strlen (arg1);
-       if (len)
-         len = size_binop (PLUS_EXPR, integer_one_node, len);
-       len2 = c_strlen (arg2);
-       if (len2)
-         len2 = size_binop (PLUS_EXPR, integer_one_node, len2);
-
-       /* If we don't have a constant length for the first, use the length
-          of the second, if we know it.  We don't require a constant for
-          this case; some cost analysis could be done if both are available
-          but neither is constant.  For now, assume they're equally cheap.
-
-          If both strings have constant lengths, use the smaller.  This
-          could arise if optimization results in strcpy being called with
-          two fixed strings, or if the code was machine-generated.  We should
-          add some code to the `memcmp' handler below to deal with such
-          situations, someday.  */
-       if (!len || TREE_CODE (len) != INTEGER_CST)
-         {
-           if (len2)
-             len = len2;
-           else if (len == 0)
-             break;
-         }
-       else if (len2 && TREE_CODE (len2) == INTEGER_CST)
-         {
-           if (tree_int_cst_lt (len2, len))
-             len = len2;
-         }
-
-       chainon (arglist, build_tree_list (NULL_TREE, len));
-      }
-
-      /* Drops in.  */
-    case BUILT_IN_MEMCMP:
-      /* If not optimizing, call the library function.  */
-      if (!optimize && ! CALLED_AS_BUILT_IN (fndecl))
-       break;
-
-      /* If we need to check memory accesses, call the library function.  */
-      if (current_function_check_memory_usage)
-       break;
-
-      if (arglist == 0
-         /* Arg could be non-pointer if user redeclared this fcn wrong.  */
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE
-         || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (arglist)))) != POINTER_TYPE
-         || TREE_CHAIN (TREE_CHAIN (arglist)) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist))))) != INTEGER_TYPE)
-       break;
-      else if (!HAVE_cmpstrsi)
-       break;
-      {
-       tree arg1 = TREE_VALUE (arglist);
-       tree arg2 = TREE_VALUE (TREE_CHAIN (arglist));
-       tree len = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist)));
-       rtx result;
-
-       int arg1_align
-         = get_pointer_alignment (arg1, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-       int arg2_align
-         = get_pointer_alignment (arg2, BIGGEST_ALIGNMENT) / BITS_PER_UNIT;
-       enum machine_mode insn_mode
-         = insn_operand_mode[(int) CODE_FOR_cmpstrsi][0];
-
-       /* If we don't have POINTER_TYPE, call the function.  */
-       if (arg1_align == 0 || arg2_align == 0)
-         {
-           if (DECL_FUNCTION_CODE (fndecl) == BUILT_IN_STRCMP)
-             TREE_CHAIN (TREE_CHAIN (arglist)) = 0;
-           break;
-         }
-
-       /* Make a place to write the result of the instruction.  */
-       result = target;
-       if (! (result != 0
-              && GET_CODE (result) == REG && GET_MODE (result) == insn_mode
-              && REGNO (result) >= FIRST_PSEUDO_REGISTER))
-         result = gen_reg_rtx (insn_mode);
-
-       emit_insn (gen_cmpstrsi (result, get_memory_rtx (arg1),
-                                get_memory_rtx (arg2),
-                                expand_expr (len, NULL_RTX, VOIDmode, 0),
-                                GEN_INT (MIN (arg1_align, arg2_align))));
-
-       /* Return the value in the proper mode for this function.  */
-       mode = TYPE_MODE (TREE_TYPE (exp));
-       if (GET_MODE (result) == mode)
-         return result;
-       else if (target != 0)
-         {
-           convert_move (target, result, 0);
-           return target;
-         }
-       else
-         return convert_to_mode (mode, result, 0);
-      }        
-#else
-    case BUILT_IN_STRCMP:
-    case BUILT_IN_MEMCMP:
-      break;
-#endif
-
-    case BUILT_IN_SETJMP:
-      if (arglist == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE)
-       break;
-      else
-       {
-         rtx buf_addr = expand_expr (TREE_VALUE (arglist), subtarget,
-                                     VOIDmode, 0);
-         rtx lab = gen_label_rtx ();
-         rtx ret = expand_builtin_setjmp (buf_addr, target, lab, lab);
-         emit_label (lab);
-         return ret;
-       }
-
-      /* __builtin_longjmp is passed a pointer to an array of five words.
-        It's similar to the C library longjmp function but works with
-        __builtin_setjmp above.  */
-    case BUILT_IN_LONGJMP:
-      if (arglist == 0 || TREE_CHAIN (arglist) == 0
-         || TREE_CODE (TREE_TYPE (TREE_VALUE (arglist))) != POINTER_TYPE)
-       break;
-      else
-       {
-         rtx buf_addr = expand_expr (TREE_VALUE (arglist), subtarget,
-                                     VOIDmode, 0);
-         rtx value = expand_expr (TREE_VALUE (TREE_CHAIN (arglist)),
-                                  NULL_RTX, VOIDmode, 0);
-
-         if (value != const1_rtx)
-           {
-             error ("__builtin_longjmp second argument must be 1");
-             return const0_rtx;
-           }
-
-         expand_builtin_longjmp (buf_addr, value);
-         return const0_rtx;
-       }
-
-    case BUILT_IN_TRAP:
-#ifdef HAVE_trap
-      if (HAVE_trap)
-       emit_insn (gen_trap ());
-      else
-#endif
-       error ("__builtin_trap not supported by this target");
-      emit_barrier ();
-      return const0_rtx;
-
-      /* Various hooks for the DWARF 2 __throw routine.  */
-    case BUILT_IN_UNWIND_INIT:
-      expand_builtin_unwind_init ();
-      return const0_rtx;
-    case BUILT_IN_DWARF_CFA:
-      return virtual_cfa_rtx;
-#ifdef DWARF2_UNWIND_INFO
-    case BUILT_IN_DWARF_FP_REGNUM:
-      return expand_builtin_dwarf_fp_regnum ();
-    case BUILT_IN_DWARF_REG_SIZE:
-      return expand_builtin_dwarf_reg_size (TREE_VALUE (arglist), target);
-#endif
-    case BUILT_IN_FROB_RETURN_ADDR:
-      return expand_builtin_frob_return_addr (TREE_VALUE (arglist));
-    case BUILT_IN_EXTRACT_RETURN_ADDR:
-      return expand_builtin_extract_return_addr (TREE_VALUE (arglist));
-    case BUILT_IN_EH_RETURN:
-      expand_builtin_eh_return (TREE_VALUE (arglist),
-                               TREE_VALUE (TREE_CHAIN (arglist)),
-                               TREE_VALUE (TREE_CHAIN (TREE_CHAIN (arglist))));
-      return const0_rtx;
-
-    default:                   /* just do library call, if unknown builtin */
-      error ("built-in function `%s' not currently supported",
-            IDENTIFIER_POINTER (DECL_NAME (fndecl)));
-    }
-
-  /* The switch statement above can drop through to cause the function
-     to be called normally.  */
-
-  return expand_call (exp, target, ignore);
-}
-\f
-/* Built-in functions to perform an untyped call and return.  */
-
-/* For each register that may be used for calling a function, this
-   gives a mode used to copy the register's value.  VOIDmode indicates
-   the register is not used for calling a function.  If the machine
-   has register windows, this gives only the outbound registers.
-   INCOMING_REGNO gives the corresponding inbound register.  */
-static enum machine_mode apply_args_mode[FIRST_PSEUDO_REGISTER];
-
-/* For each register that may be used for returning values, this gives
-   a mode used to copy the register's value.  VOIDmode indicates the
-   register is not used for returning values.  If the machine has
-   register windows, this gives only the outbound registers.
-   INCOMING_REGNO gives the corresponding inbound register.  */
-static enum machine_mode apply_result_mode[FIRST_PSEUDO_REGISTER];
-
-/* For each register that may be used for calling a function, this
-   gives the offset of that register into the block returned by
-   __builtin_apply_args.  0 indicates that the register is not
-   used for calling a function.  */
-static int apply_args_reg_offset[FIRST_PSEUDO_REGISTER];
-
-/* Return the offset of register REGNO into the block returned by 
-   __builtin_apply_args.  This is not declared static, since it is
-   needed in objc-act.c.  */
-
-int 
-apply_args_register_offset (regno)
-     int regno;
-{
-  apply_args_size ();
-
-  /* Arguments are always put in outgoing registers (in the argument
-     block) if such make sense.  */
-#ifdef OUTGOING_REGNO
-  regno = OUTGOING_REGNO(regno);
-#endif
-  return apply_args_reg_offset[regno];
-}
-
-/* Return the size required for the block returned by __builtin_apply_args,
-   and initialize apply_args_mode.  */
-
-static int
-apply_args_size ()
-{
-  static int size = -1;
-  int align, regno;
-  enum machine_mode mode;
-
-  /* The values computed by this function never change.  */
-  if (size < 0)
-    {
-      /* The first value is the incoming arg-pointer.  */
-      size = GET_MODE_SIZE (Pmode);
-
-      /* The second value is the structure value address unless this is
-        passed as an "invisible" first argument.  */
-      if (struct_value_rtx)
-       size += GET_MODE_SIZE (Pmode);
-
-      for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-       if (FUNCTION_ARG_REGNO_P (regno))
-         {
-           /* Search for the proper mode for copying this register's
-              value.  I'm not sure this is right, but it works so far.  */
-           enum machine_mode best_mode = VOIDmode;
-
-           for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT);
-                mode != VOIDmode;
-                mode = GET_MODE_WIDER_MODE (mode))
-             if (HARD_REGNO_MODE_OK (regno, mode)
-                 && HARD_REGNO_NREGS (regno, mode) == 1)
-               best_mode = mode;
-
-           if (best_mode == VOIDmode)
-             for (mode = GET_CLASS_NARROWEST_MODE (MODE_FLOAT);
-                  mode != VOIDmode;
-                  mode = GET_MODE_WIDER_MODE (mode))
-               if (HARD_REGNO_MODE_OK (regno, mode)
-                   && (mov_optab->handlers[(int) mode].insn_code
-                       != CODE_FOR_nothing))
-                 best_mode = mode;
-
-           mode = best_mode;
-           if (mode == VOIDmode)
-             abort ();
-
-           align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-           if (size % align != 0)
-             size = CEIL (size, align) * align;
-           apply_args_reg_offset[regno] = size;
-           size += GET_MODE_SIZE (mode);
-           apply_args_mode[regno] = mode;
-         }
-       else
-         {
-           apply_args_mode[regno] = VOIDmode;
-           apply_args_reg_offset[regno] = 0;
-         }
-    }
-  return size;
-}
-
-/* Return the size required for the block returned by __builtin_apply,
-   and initialize apply_result_mode.  */
-
-static int
-apply_result_size ()
-{
-  static int size = -1;
-  int align, regno;
-  enum machine_mode mode;
-
-  /* The values computed by this function never change.  */
-  if (size < 0)
-    {
-      size = 0;
-
-      for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-       if (FUNCTION_VALUE_REGNO_P (regno))
+       /* Don't forget about volatility even if this is a bitfield.  */
+       if (GET_CODE (op0) == MEM && volatilep && ! MEM_VOLATILE_P (op0))
          {
-           /* Search for the proper mode for copying this register's
-              value.  I'm not sure this is right, but it works so far.  */
-           enum machine_mode best_mode = VOIDmode;
-
-           for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT);
-                mode != TImode;
-                mode = GET_MODE_WIDER_MODE (mode))
-             if (HARD_REGNO_MODE_OK (regno, mode))
-               best_mode = mode;
-
-           if (best_mode == VOIDmode)
-             for (mode = GET_CLASS_NARROWEST_MODE (MODE_FLOAT);
-                  mode != VOIDmode;
-                  mode = GET_MODE_WIDER_MODE (mode))
-               if (HARD_REGNO_MODE_OK (regno, mode)
-                   && (mov_optab->handlers[(int) mode].insn_code
-                       != CODE_FOR_nothing))
-                 best_mode = mode;
-
-           mode = best_mode;
-           if (mode == VOIDmode)
-             abort ();
-
-           align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-           if (size % align != 0)
-             size = CEIL (size, align) * align;
-           size += GET_MODE_SIZE (mode);
-           apply_result_mode[regno] = mode;
+           op0 = copy_rtx (op0);
+           MEM_VOLATILE_P (op0) = 1;
          }
-       else
-         apply_result_mode[regno] = VOIDmode;
 
-      /* Allow targets that use untyped_call and untyped_return to override
-        the size so that machine-specific information can be stored here.  */
-#ifdef APPLY_RESULT_SIZE
-      size = APPLY_RESULT_SIZE;
-#endif
-    }
-  return size;
-}
+       /* Check the access.  */
+       if (current_function_check_memory_usage && GET_CODE (op0) == MEM)
+          {
+           rtx to;
+           int size;
+
+           to = plus_constant (XEXP (op0, 0), (bitpos / BITS_PER_UNIT));
+           size = (bitpos % BITS_PER_UNIT) + bitsize + BITS_PER_UNIT - 1;
+
+           /* Check the access right of the pointer.  */
+           if (size > BITS_PER_UNIT)
+             emit_library_call (chkr_check_addr_libfunc, 1, VOIDmode, 3,
+                                to, ptr_mode, GEN_INT (size / BITS_PER_UNIT),
+                                TYPE_MODE (sizetype),
+                                GEN_INT (MEMORY_USE_RO), 
+                                TYPE_MODE (integer_type_node));
+         }
 
-#if defined (HAVE_untyped_call) || defined (HAVE_untyped_return)
-/* Create a vector describing the result block RESULT.  If SAVEP is true,
-   the result block is used to save the values; otherwise it is used to
-   restore the values.  */
+       /* In cases where an aligned union has an unaligned object
+          as a field, we might be extracting a BLKmode value from
+          an integer-mode (e.g., SImode) object.  Handle this case
+          by doing the extract into an object as wide as the field
+          (which we know to be the width of a basic mode), then
+          storing into memory, and changing the mode to BLKmode.
+          If we ultimately want the address (EXPAND_CONST_ADDRESS or
+          EXPAND_INITIALIZER), then we must not copy to a temporary.  */
+       if (mode1 == VOIDmode
+           || GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
+           || (SLOW_UNALIGNED_ACCESS (mode1, alignment)
+               && (TYPE_ALIGN (type) > alignment
+                   || bitpos % TYPE_ALIGN (type) != 0)))
+         {
+           enum machine_mode ext_mode = mode_for_size (bitsize, MODE_INT, 1);
 
-static rtx
-result_vector (savep, result)
-     int savep;
-     rtx result;
-{
-  int regno, size, align, nelts;
-  enum machine_mode mode;
-  rtx reg, mem;
-  rtx *savevec = (rtx *) alloca (FIRST_PSEUDO_REGISTER * sizeof (rtx));
-  
-  size = nelts = 0;
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_result_mode[regno]) != VOIDmode)
-      {
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
-       reg = gen_rtx_REG (mode, savep ? regno : INCOMING_REGNO (regno));
-       mem = change_address (result, mode,
-                             plus_constant (XEXP (result, 0), size));
-       savevec[nelts++] = (savep
-                           ? gen_rtx_SET (VOIDmode, mem, reg)
-                           : gen_rtx_SET (VOIDmode, reg, mem));
-       size += GET_MODE_SIZE (mode);
-      }
-  return gen_rtx_PARALLEL (VOIDmode, gen_rtvec_v (nelts, savevec));
-}
-#endif /* HAVE_untyped_call or HAVE_untyped_return */
+           if (ext_mode == BLKmode)
+             {
+               /* In this case, BITPOS must start at a byte boundary.  */
+               if (GET_CODE (op0) != MEM
+                   || bitpos % BITS_PER_UNIT != 0)
+                 abort ();
 
-/* Save the state required to perform an untyped call with the same
-   arguments as were passed to the current function.  */
+               op0 = change_address (op0, VOIDmode,
+                                     plus_constant (XEXP (op0, 0),
+                                                    bitpos / BITS_PER_UNIT));
+             }
+           else
+             {
+               rtx new = assign_stack_temp (ext_mode,
+                                            bitsize / BITS_PER_UNIT, 0);
 
-static rtx
-expand_builtin_apply_args ()
-{
-  rtx registers;
-  int size, align, regno;
-  enum machine_mode mode;
+               op0 = extract_bit_field (validize_mem (op0), bitsize, bitpos,
+                                        unsignedp, NULL_RTX, ext_mode,
+                                        ext_mode, alignment,
+                                        int_size_in_bytes (TREE_TYPE (tem)));
 
-  /* Create a block where the arg-pointer, structure value address,
-     and argument registers can be saved.  */
-  registers = assign_stack_local (BLKmode, apply_args_size (), -1);
+               /* If the result is a record type and BITSIZE is narrower than
+                  the mode of OP0, an integral mode, and this is a big endian
+                  machine, we must put the field into the high-order bits.  */
+               if (TREE_CODE (type) == RECORD_TYPE && BYTES_BIG_ENDIAN
+                   && GET_MODE_CLASS (GET_MODE (op0)) == MODE_INT
+                   && bitsize < GET_MODE_BITSIZE (GET_MODE (op0)))
+                 op0 = expand_shift (LSHIFT_EXPR, GET_MODE (op0), op0,
+                                     size_int (GET_MODE_BITSIZE
+                                               (GET_MODE (op0))
+                                               - bitsize),
+                                     op0, 1);
 
-  /* Walk past the arg-pointer and structure value address.  */
-  size = GET_MODE_SIZE (Pmode);
-  if (struct_value_rtx)
-    size += GET_MODE_SIZE (Pmode);
 
-  /* Save each register used in calling a function to the block.  */
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_args_mode[regno]) != VOIDmode)
-      {
-       rtx tem;
+               emit_move_insn (new, op0);
+               op0 = copy_rtx (new);
+               PUT_MODE (op0, BLKmode);
+             }
+         }
+       else
+         /* Get a reference to just this component.  */
+         op0 = change_address (op0, mode1,
+                                 plus_constant (XEXP (op0, 0),
+                                                (bitpos / BITS_PER_UNIT)));
 
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
+       MEM_ALIAS_SET (op0) = get_alias_set (exp);
 
-       tem = gen_rtx_REG (mode, INCOMING_REGNO (regno));
+       /* Adjust the alignment in case the bit position is not
+          a multiple of the alignment of the inner object.  */
+       while (bitpos % alignment != 0)
+         alignment >>= 1;
 
-#ifdef STACK_REGS
-        /* For reg-stack.c's stack register household.
-          Compare with a similar piece of code in function.c.  */
+       if (GET_CODE (XEXP (op0, 0)) == REG)
+         mark_reg_pointer (XEXP (op0, 0), alignment);
 
-        emit_insn (gen_rtx_USE (mode, tem));
-#endif
+       MEM_IN_STRUCT_P (op0) = 1;
+       MEM_VOLATILE_P (op0) |= volatilep;
 
-       emit_move_insn (change_address (registers, mode,
-                                       plus_constant (XEXP (registers, 0),
-                                                      size)),
-                       tem);
-       size += GET_MODE_SIZE (mode);
+       *palign = alignment;
+       return op0;
       }
 
-  /* Save the arg pointer to the block.  */
-  emit_move_insn (change_address (registers, Pmode, XEXP (registers, 0)),
-                 copy_to_reg (virtual_incoming_args_rtx));
-  size = GET_MODE_SIZE (Pmode);
+    default:
+      break;
 
-  /* Save the structure value address unless this is passed as an
-     "invisible" first argument.  */
-  if (struct_value_incoming_rtx)
-    {
-      emit_move_insn (change_address (registers, Pmode,
-                                     plus_constant (XEXP (registers, 0),
-                                                    size)),
-                     copy_to_reg (struct_value_incoming_rtx));
-      size += GET_MODE_SIZE (Pmode);
     }
 
-  /* Return the address of the block.  */
-  return copy_addr_to_reg (XEXP (registers, 0));
+  return expand_expr (exp, NULL_RTX, VOIDmode, EXPAND_NORMAL);
 }
+\f
+/* Return the tree node if a ARG corresponds to a string constant or zero
+   if it doesn't.  If we return non-zero, set *PTR_OFFSET to the offset
+   in bytes within the string that ARG is accessing.  The type of the
+   offset will be `sizetype'.  */
 
-/* Perform an untyped call and save the state required to perform an
-   untyped return of whatever value was returned by the given function.  */
-
-static rtx
-expand_builtin_apply (function, arguments, argsize)
-     rtx function, arguments, argsize;
+tree
+string_constant (arg, ptr_offset)
+     tree arg;
+     tree *ptr_offset;
 {
-  int size, align, regno;
-  enum machine_mode mode;
-  rtx incoming_args, result, reg, dest, call_insn;
-  rtx old_stack_level = 0;
-  rtx call_fusage = 0;
-
-  /* Create a block where the return registers can be saved.  */
-  result = assign_stack_local (BLKmode, apply_result_size (), -1);
-
-  /* ??? The argsize value should be adjusted here.  */
-
-  /* Fetch the arg pointer from the ARGUMENTS block.  */
-  incoming_args = gen_reg_rtx (Pmode);
-  emit_move_insn (incoming_args,
-                 gen_rtx_MEM (Pmode, arguments));
-#ifndef STACK_GROWS_DOWNWARD
-  incoming_args = expand_binop (Pmode, sub_optab, incoming_args, argsize,
-                               incoming_args, 0, OPTAB_LIB_WIDEN);
-#endif
-
-  /* Perform postincrements before actually calling the function.  */
-  emit_queue ();
-
-  /* Push a new argument block and copy the arguments.  */
-  do_pending_stack_adjust ();
-
-  /* Save the stack with nonlocal if available */
-#ifdef HAVE_save_stack_nonlocal
-  if (HAVE_save_stack_nonlocal)
-    emit_stack_save (SAVE_NONLOCAL, &old_stack_level, NULL_RTX);
-  else
-#endif
-    emit_stack_save (SAVE_BLOCK, &old_stack_level, NULL_RTX);
-
-  /* Push a block of memory onto the stack to store the memory arguments.
-     Save the address in a register, and copy the memory arguments.  ??? I
-     haven't figured out how the calling convention macros effect this,
-     but it's likely that the source and/or destination addresses in
-     the block copy will need updating in machine specific ways.  */
-  dest = allocate_dynamic_stack_space (argsize, 0, 0);
-  emit_block_move (gen_rtx_MEM (BLKmode, dest),
-                  gen_rtx_MEM (BLKmode, incoming_args),
-                  argsize,
-                  PARM_BOUNDARY / BITS_PER_UNIT);
-
-  /* Refer to the argument block.  */
-  apply_args_size ();
-  arguments = gen_rtx_MEM (BLKmode, arguments);
-
-  /* Walk past the arg-pointer and structure value address.  */
-  size = GET_MODE_SIZE (Pmode);
-  if (struct_value_rtx)
-    size += GET_MODE_SIZE (Pmode);
-
-  /* Restore each of the registers previously saved.  Make USE insns
-     for each of these registers for use in making the call.  */
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_args_mode[regno]) != VOIDmode)
-      {
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
-       reg = gen_rtx_REG (mode, regno);
-       emit_move_insn (reg,
-                       change_address (arguments, mode,
-                                       plus_constant (XEXP (arguments, 0),
-                                                      size)));
-
-       use_reg (&call_fusage, reg);
-       size += GET_MODE_SIZE (mode);
-      }
+  STRIP_NOPS (arg);
 
-  /* Restore the structure value address unless this is passed as an
-     "invisible" first argument.  */
-  size = GET_MODE_SIZE (Pmode);
-  if (struct_value_rtx)
-    {
-      rtx value = gen_reg_rtx (Pmode);
-      emit_move_insn (value,
-                     change_address (arguments, Pmode,
-                                     plus_constant (XEXP (arguments, 0),
-                                                    size)));
-      emit_move_insn (struct_value_rtx, value);
-      if (GET_CODE (struct_value_rtx) == REG)
-         use_reg (&call_fusage, struct_value_rtx);
-      size += GET_MODE_SIZE (Pmode);
-    }
-
-  /* All arguments and registers used for the call are set up by now!  */
-  function = prepare_call_address (function, NULL_TREE, &call_fusage, 0);
-
-  /* Ensure address is valid.  SYMBOL_REF is already valid, so no need,
-     and we don't want to load it into a register as an optimization,
-     because prepare_call_address already did it if it should be done.  */
-  if (GET_CODE (function) != SYMBOL_REF)
-    function = memory_address (FUNCTION_MODE, function);
-
-  /* Generate the actual call instruction and save the return value.  */
-#ifdef HAVE_untyped_call
-  if (HAVE_untyped_call)
-    emit_call_insn (gen_untyped_call (gen_rtx_MEM (FUNCTION_MODE, function),
-                                     result, result_vector (1, result)));
-  else
-#endif
-#ifdef HAVE_call_value
-  if (HAVE_call_value)
+  if (TREE_CODE (arg) == ADDR_EXPR
+      && TREE_CODE (TREE_OPERAND (arg, 0)) == STRING_CST)
     {
-      rtx valreg = 0;
-
-      /* Locate the unique return register.  It is not possible to
-        express a call that sets more than one return register using
-        call_value; use untyped_call for that.  In fact, untyped_call
-        only needs to save the return registers in the given block.  */
-      for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-       if ((mode = apply_result_mode[regno]) != VOIDmode)
-         {
-           if (valreg)
-             abort (); /* HAVE_untyped_call required.  */
-           valreg = gen_rtx_REG (mode, regno);
-         }
-
-      emit_call_insn (gen_call_value (valreg,
-                                     gen_rtx_MEM (FUNCTION_MODE, function),
-                                     const0_rtx, NULL_RTX, const0_rtx));
-
-      emit_move_insn (change_address (result, GET_MODE (valreg),
-                                     XEXP (result, 0)),
-                     valreg);
+      *ptr_offset = size_zero_node;
+      return TREE_OPERAND (arg, 0);
     }
-  else
-#endif
-    abort ();
-
-  /* Find the CALL insn we just emitted.  */
-  for (call_insn = get_last_insn ();
-       call_insn && GET_CODE (call_insn) != CALL_INSN;
-       call_insn = PREV_INSN (call_insn))
-    ;
-
-  if (! call_insn)
-    abort ();
-
-  /* Put the register usage information on the CALL.  If there is already
-     some usage information, put ours at the end.  */
-  if (CALL_INSN_FUNCTION_USAGE (call_insn))
+  else if (TREE_CODE (arg) == PLUS_EXPR)
     {
-      rtx link;
-
-      for (link = CALL_INSN_FUNCTION_USAGE (call_insn); XEXP (link, 1) != 0;
-          link = XEXP (link, 1))
-       ;
-
-      XEXP (link, 1) = call_fusage;
-    }
-  else
-    CALL_INSN_FUNCTION_USAGE (call_insn) = call_fusage;
-
-  /* Restore the stack.  */
-#ifdef HAVE_save_stack_nonlocal
-  if (HAVE_save_stack_nonlocal)
-    emit_stack_restore (SAVE_NONLOCAL, old_stack_level, NULL_RTX);
-  else
-#endif
-    emit_stack_restore (SAVE_BLOCK, old_stack_level, NULL_RTX);
-
-  /* Return the address of the result block.  */
-  return copy_addr_to_reg (XEXP (result, 0));
-}
-
-/* Perform an untyped return.  */
-
-static void
-expand_builtin_return (result)
-     rtx result;
-{
-  int size, align, regno;
-  enum machine_mode mode;
-  rtx reg;
-  rtx call_fusage = 0;
+      tree arg0 = TREE_OPERAND (arg, 0);
+      tree arg1 = TREE_OPERAND (arg, 1);
 
-  apply_result_size ();
-  result = gen_rtx_MEM (BLKmode, result);
+      STRIP_NOPS (arg0);
+      STRIP_NOPS (arg1);
 
-#ifdef HAVE_untyped_return
-  if (HAVE_untyped_return)
-    {
-      emit_jump_insn (gen_untyped_return (result, result_vector (0, result)));
-      emit_barrier ();
-      return;
+      if (TREE_CODE (arg0) == ADDR_EXPR
+         && TREE_CODE (TREE_OPERAND (arg0, 0)) == STRING_CST)
+       {
+         *ptr_offset = convert (sizetype, arg1);
+         return TREE_OPERAND (arg0, 0);
+       }
+      else if (TREE_CODE (arg1) == ADDR_EXPR
+              && TREE_CODE (TREE_OPERAND (arg1, 0)) == STRING_CST)
+       {
+         *ptr_offset = convert (sizetype, arg0);
+         return TREE_OPERAND (arg1, 0);
+       }
     }
-#endif
-
-  /* Restore the return value and note that each value is used.  */
-  size = 0;
-  for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
-    if ((mode = apply_result_mode[regno]) != VOIDmode)
-      {
-       align = GET_MODE_ALIGNMENT (mode) / BITS_PER_UNIT;
-       if (size % align != 0)
-         size = CEIL (size, align) * align;
-       reg = gen_rtx_REG (mode, INCOMING_REGNO (regno));
-       emit_move_insn (reg,
-                       change_address (result, mode,
-                                       plus_constant (XEXP (result, 0),
-                                                      size)));
-
-       push_to_sequence (call_fusage);
-       emit_insn (gen_rtx_USE (VOIDmode, reg));
-       call_fusage = get_insns ();
-       end_sequence ();
-       size += GET_MODE_SIZE (mode);
-      }
-
-  /* Put the USE insns before the return.  */
-  emit_insns (call_fusage);
 
-  /* Return whatever values was restored by jumping directly to the end
-     of the function.  */
-  expand_null_return ();
+  return 0;
 }
 \f
 /* Expand code for a post- or pre- increment or decrement
@@ -10219,9 +8924,9 @@ expand_increment (exp, post, ignore)
       if (icode != (int) CODE_FOR_nothing
          /* Make sure that OP0 is valid for operands 0 and 1
             of the insn we want to queue.  */
-         && (*insn_operand_predicate[icode][0]) (op0, mode)
-         && (*insn_operand_predicate[icode][1]) (op0, mode)
-         && (*insn_operand_predicate[icode][2]) (op1, mode))
+         && (*insn_data[icode].operand[0].predicate) (op0, mode)
+         && (*insn_data[icode].operand[1].predicate) (op0, mode)
+         && (*insn_data[icode].operand[2].predicate) (op1, mode))
        single_insn = 1;
     }
 
@@ -10275,10 +8980,10 @@ expand_increment (exp, post, ignore)
       if (icode != (int) CODE_FOR_nothing
          /* Make sure that OP0 is valid for operands 0 and 1
             of the insn we want to queue.  */
-         && (*insn_operand_predicate[icode][0]) (op0, mode)
-         && (*insn_operand_predicate[icode][1]) (op0, mode))
+         && (*insn_data[icode].operand[0].predicate) (op0, mode)
+         && (*insn_data[icode].operand[1].predicate) (op0, mode))
        {
-         if (! (*insn_operand_predicate[icode][2]) (op1, mode))
+         if (! (*insn_data[icode].operand[2].predicate) (op1, mode))
            op1 = force_reg (mode, op1);
 
          return enqueue_insn (op0, GEN_FCN (icode) (op0, op0, op1));
@@ -10292,7 +8997,7 @@ expand_increment (exp, post, ignore)
 
          op0 = change_address (op0, VOIDmode, addr);
          temp = force_reg (GET_MODE (op0), op0);
-         if (! (*insn_operand_predicate[icode][2]) (op1, mode))
+         if (! (*insn_data[icode].operand[2].predicate) (op1, mode))
            op1 = force_reg (mode, op1);
 
          /* The increment queue is LIFO, thus we have to `queue'
@@ -10393,10 +9098,17 @@ preexpand_calls (exp)
   for (i = 0; i < nops; i++)
     if (TREE_OPERAND (exp, i) != 0)
       {
-       type = TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, i)));
-       if (type == 'e' || type == '<' || type == '1' || type == '2'
-           || type == 'r')
-         preexpand_calls (TREE_OPERAND (exp, i));
+       if (TREE_CODE (exp) == TARGET_EXPR && i == 2)
+         /* We don't need to preexpand the cleanup for a TARGET_EXPR.
+            It doesn't happen before the call is made.  */
+         ;
+       else
+         {
+           type = TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, i)));
+           if (type == 'e' || type == '<' || type == '1' || type == '2'
+               || type == 'r')
+             preexpand_calls (TREE_OPERAND (exp, i));
+         }
       }
 }
 \f
@@ -10424,7 +9136,10 @@ clear_pending_stack_adjust ()
       && EXIT_IGNORE_STACK
       && ! (DECL_INLINE (current_function_decl) && ! flag_no_inline)
       && ! flag_inline_functions)
-    pending_stack_adjust = 0;
+    {
+      stack_pointer_delta -= pending_stack_adjust,
+      pending_stack_adjust = 0;
+    }
 #endif
 }
 
@@ -10488,7 +9203,6 @@ do_jump (exp, if_false_label, if_true_label)
      These cases set DROP_THROUGH_LABEL nonzero.  */
   rtx drop_through_label = 0;
   rtx temp;
-  rtx comparison = 0;
   int i;
   tree type;
   enum machine_mode mode;
@@ -10540,6 +9254,15 @@ do_jump (exp, if_false_label, if_true_label)
       do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
       break;
 
+    case WITH_RECORD_EXPR:
+      /* Put the object on the placeholder list, recurse through our first
+        operand, and pop the list.  */
+      placeholder_list = tree_cons (TREE_OPERAND (exp, 1), NULL_TREE,
+                                   placeholder_list);
+      do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
+      placeholder_list = TREE_CHAIN (placeholder_list);
+      break;
+
 #if 0
       /* This is never less insns than evaluating the PLUS_EXPR followed by
         a test and can be longer if the test is eliminated.  */
@@ -10554,10 +9277,10 @@ do_jump (exp, if_false_label, if_true_label)
 
     case MINUS_EXPR:
       /* Non-zero iff operands of minus differ.  */
-      comparison = compare (build (NE_EXPR, TREE_TYPE (exp),
-                                  TREE_OPERAND (exp, 0),
-                                  TREE_OPERAND (exp, 1)),
-                           NE, NE);
+      do_compare_and_jump (build (NE_EXPR, TREE_TYPE (exp),
+                                 TREE_OPERAND (exp, 0),
+                                 TREE_OPERAND (exp, 1)),
+                          NE, NE, if_false_label, if_true_label);
       break;
 
     case BIT_AND_EXPR:
@@ -10571,7 +9294,7 @@ do_jump (exp, if_false_label, if_true_label)
       if (! SLOW_BYTE_ACCESS
          && TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST
          && TYPE_PRECISION (TREE_TYPE (exp)) <= HOST_BITS_PER_WIDE_INT
-         && (i = floor_log2 (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)))) >= 0
+         && (i = tree_floor_log2 (TREE_OPERAND (exp, 1))) >= 0
          && (mode = mode_for_size (i + 1, MODE_INT, 0)) != BLKmode
          && (type = type_for_mode (mode, 1)) != 0
          && TYPE_PRECISION (type) < TYPE_PRECISION (TREE_TYPE (exp))
@@ -10620,18 +9343,18 @@ do_jump (exp, if_false_label, if_true_label)
     case BIT_FIELD_REF:
     case ARRAY_REF:
       {
-       int bitsize, bitpos, unsignedp;
+       HOST_WIDE_INT bitsize, bitpos;
+       int unsignedp;
        enum machine_mode mode;
        tree type;
        tree offset;
        int volatilep = 0;
-       int alignment;
+       unsigned int alignment;
 
        /* Get description of this reference.  We don't actually care
           about the underlying object here.  */
-       get_inner_reference (exp, &bitsize, &bitpos, &offset,
-                            &mode, &unsignedp, &volatilep,
-                            &alignment);
+       get_inner_reference (exp, &bitsize, &bitpos, &offset, &mode,
+                            &unsignedp, &volatilep, &alignment);
 
        type = type_for_size (bitsize, unsignedp);
        if (! SLOW_BYTE_ACCESS
@@ -10713,10 +9436,10 @@ do_jump (exp, if_false_label, if_true_label)
          do_jump (TREE_OPERAND (exp, 0), if_true_label, if_false_label);
 
        else if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_INT
-                && !can_compare_p (TYPE_MODE (inner_type)))
+                && !can_compare_p (EQ, TYPE_MODE (inner_type), ccp_jump))
          do_jump_by_parts_equality (exp, if_false_label, if_true_label);
        else
-         comparison = compare (exp, EQ, EQ);
+         do_compare_and_jump (exp, EQ, EQ, if_false_label, if_true_label);
        break;
       }
 
@@ -10753,47 +9476,120 @@ do_jump (exp, if_false_label, if_true_label)
          do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
 
        else if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_INT
-                && !can_compare_p (TYPE_MODE (inner_type)))
+                && !can_compare_p (NE, TYPE_MODE (inner_type), ccp_jump))
          do_jump_by_parts_equality (exp, if_true_label, if_false_label);
        else
-         comparison = compare (exp, NE, NE);
+         do_compare_and_jump (exp, NE, NE, if_false_label, if_true_label);
        break;
       }
 
     case LT_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (LT, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 1, if_false_label, if_true_label);
       else
-       comparison = compare (exp, LT, LTU);
+       do_compare_and_jump (exp, LT, LTU, if_false_label, if_true_label);
       break;
 
     case LE_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (LE, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 0, if_true_label, if_false_label);
       else
-       comparison = compare (exp, LE, LEU);
+       do_compare_and_jump (exp, LE, LEU, if_false_label, if_true_label);
       break;
 
     case GT_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (GT, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 0, if_false_label, if_true_label);
       else
-       comparison = compare (exp, GT, GTU);
+       do_compare_and_jump (exp, GT, GTU, if_false_label, if_true_label);
       break;
 
     case GE_EXPR:
-      if ((GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-          == MODE_INT)
-         && !can_compare_p (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
+      mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+      if (GET_MODE_CLASS (mode) == MODE_INT
+         && ! can_compare_p (GE, mode, ccp_jump))
        do_jump_by_parts_greater (exp, 1, if_true_label, if_false_label);
       else
-       comparison = compare (exp, GE, GEU);
+       do_compare_and_jump (exp, GE, GEU, if_false_label, if_true_label);
+      break;
+
+    case UNORDERED_EXPR:
+    case ORDERED_EXPR:
+      {
+       enum rtx_code cmp, rcmp;
+       int do_rev;
+
+       if (code == UNORDERED_EXPR)
+         cmp = UNORDERED, rcmp = ORDERED;
+       else
+         cmp = ORDERED, rcmp = UNORDERED;
+        mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+
+       do_rev = 0;
+       if (! can_compare_p (cmp, mode, ccp_jump)
+           && (can_compare_p (rcmp, mode, ccp_jump)
+               /* If the target doesn't provide either UNORDERED or ORDERED
+                  comparisons, canonicalize on UNORDERED for the library.  */
+               || rcmp == UNORDERED))
+         do_rev = 1;
+
+        if (! do_rev)
+         do_compare_and_jump (exp, cmp, cmp, if_false_label, if_true_label);
+       else
+         do_compare_and_jump (exp, rcmp, rcmp, if_true_label, if_false_label);
+      }
+      break;
+
+    {
+      enum rtx_code rcode1;
+      enum tree_code tcode2;
+
+      case UNLT_EXPR:
+       rcode1 = UNLT;
+       tcode2 = LT_EXPR;
+       goto unordered_bcc;
+      case UNLE_EXPR:
+       rcode1 = UNLE;
+       tcode2 = LE_EXPR;
+       goto unordered_bcc;
+      case UNGT_EXPR:
+       rcode1 = UNGT;
+       tcode2 = GT_EXPR;
+       goto unordered_bcc;
+      case UNGE_EXPR:
+       rcode1 = UNGE;
+       tcode2 = GE_EXPR;
+       goto unordered_bcc;
+      case UNEQ_EXPR:
+       rcode1 = UNEQ;
+       tcode2 = EQ_EXPR;
+       goto unordered_bcc;
+
+      unordered_bcc:
+        mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+       if (can_compare_p (rcode1, mode, ccp_jump))
+         do_compare_and_jump (exp, rcode1, rcode1, if_false_label,
+                              if_true_label);
+       else
+         {
+           tree op0 = save_expr (TREE_OPERAND (exp, 0));
+           tree op1 = save_expr (TREE_OPERAND (exp, 1));
+           tree cmp0, cmp1;
+
+           /* If the target doesn't support combined unordered 
+              compares, decompose into UNORDERED + comparison.  */
+           cmp0 = fold (build (UNORDERED_EXPR, TREE_TYPE (exp), op0, op1));
+           cmp1 = fold (build (tcode2, TREE_TYPE (exp), op0, op1));
+           exp = build (TRUTH_ORIF_EXPR, TREE_TYPE (exp), cmp0, cmp1);
+           do_jump (exp, if_false_label, if_true_label);
+         }
+      }
       break;
 
     default:
@@ -10809,117 +9605,55 @@ do_jump (exp, if_false_label, if_true_label)
        temp = copy_to_reg (temp);
 #endif
       do_pending_stack_adjust ();
-      if (GET_CODE (temp) == CONST_INT)
-       comparison = (temp == const0_rtx ? const0_rtx : const_true_rtx);
-      else if (GET_CODE (temp) == LABEL_REF)
-       comparison = const_true_rtx;
-      else if (GET_MODE_CLASS (GET_MODE (temp)) == MODE_INT
-              && !can_compare_p (GET_MODE (temp)))
-       /* Note swapping the labels gives us not-equal.  */
-       do_jump_by_parts_equality_rtx (temp, if_true_label, if_false_label);
-      else if (GET_MODE (temp) != VOIDmode)
-       comparison = compare_from_rtx (temp, CONST0_RTX (GET_MODE (temp)),
-                                      NE, TREE_UNSIGNED (TREE_TYPE (exp)),
-                                      GET_MODE (temp), NULL_RTX, 0);
-      else
-       abort ();
-    }
-
-  /* Do any postincrements in the expression that was tested.  */
-  emit_queue ();
-
-  /* If COMPARISON is nonzero here, it is an rtx that can be substituted
-     straight into a conditional jump instruction as the jump condition.
-     Otherwise, all the work has been done already.  */
-
-  if (comparison == const_true_rtx)
-    {
-      if (if_true_label)
-       emit_jump (if_true_label);
-    }
-  else if (comparison == const0_rtx)
-    {
-      if (if_false_label)
-       emit_jump (if_false_label);
-    }
-  else if (comparison)
-    do_jump_for_compare (comparison, if_false_label, if_true_label);
-
-  if (drop_through_label)
-    {
-      /* If do_jump produces code that might be jumped around,
-        do any stack adjusts from that code, before the place
-        where control merges in.  */
-      do_pending_stack_adjust ();
-      emit_label (drop_through_label);
-    }
-}
-\f
-/* Given a comparison expression EXP for values too wide to be compared
-   with one insn, test the comparison and jump to the appropriate label.
-   The code of EXP is ignored; we always test GT if SWAP is 0,
-   and LT if SWAP is 1.  */
-
-static void
-do_jump_by_parts_greater (exp, swap, if_false_label, if_true_label)
-     tree exp;
-     int swap;
-     rtx if_false_label, if_true_label;
-{
-  rtx op0 = expand_expr (TREE_OPERAND (exp, swap), NULL_RTX, VOIDmode, 0);
-  rtx op1 = expand_expr (TREE_OPERAND (exp, !swap), NULL_RTX, VOIDmode, 0);
-  enum machine_mode mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
-  int nwords = (GET_MODE_SIZE (mode) / UNITS_PER_WORD);
-  rtx drop_through_label = 0;
-  int unsignedp = TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0)));
-  int i;
-
-  if (! if_true_label || ! if_false_label)
-    drop_through_label = gen_label_rtx ();
-  if (! if_true_label)
-    if_true_label = drop_through_label;
-  if (! if_false_label)
-    if_false_label = drop_through_label;
-
-  /* Compare a word at a time, high order first.  */
-  for (i = 0; i < nwords; i++)
-    {
-      rtx comp;
-      rtx op0_word, op1_word;
+      /* Do any postincrements in the expression that was tested.  */
+      emit_queue ();
 
-      if (WORDS_BIG_ENDIAN)
-       {
-         op0_word = operand_subword_force (op0, i, mode);
-         op1_word = operand_subword_force (op1, i, mode);
-       }
-      else
+      if (GET_CODE (temp) == CONST_INT || GET_CODE (temp) == LABEL_REF)
        {
-         op0_word = operand_subword_force (op0, nwords - 1 - i, mode);
-         op1_word = operand_subword_force (op1, nwords - 1 - i, mode);
-       }
-
-      /* All but high-order word must be compared as unsigned.  */
-      comp = compare_from_rtx (op0_word, op1_word,
-                              (unsignedp || i > 0) ? GTU : GT,
-                              unsignedp, word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_true_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_true_label);
-
-      /* Consider lower words only if these are equal.  */
-      comp = compare_from_rtx (op0_word, op1_word, NE, unsignedp, word_mode,
-                              NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_false_label);
+         rtx target = temp == const0_rtx ? if_false_label : if_true_label;
+         if (target)
+           emit_jump (target);
+       }
+      else if (GET_MODE_CLASS (GET_MODE (temp)) == MODE_INT
+              && ! can_compare_p (NE, GET_MODE (temp), ccp_jump))
+       /* Note swapping the labels gives us not-equal.  */
+       do_jump_by_parts_equality_rtx (temp, if_true_label, if_false_label);
+      else if (GET_MODE (temp) != VOIDmode)
+       do_compare_rtx_and_jump (temp, CONST0_RTX (GET_MODE (temp)),
+                                NE, TREE_UNSIGNED (TREE_TYPE (exp)),
+                                GET_MODE (temp), NULL_RTX, 0,
+                                if_false_label, if_true_label);
+      else
+       abort ();
     }
 
-  if (if_false_label)
-    emit_jump (if_false_label);
   if (drop_through_label)
-    emit_label (drop_through_label);
+    {
+      /* If do_jump produces code that might be jumped around,
+        do any stack adjusts from that code, before the place
+        where control merges in.  */
+      do_pending_stack_adjust ();
+      emit_label (drop_through_label);
+    }
+}
+\f
+/* Given a comparison expression EXP for values too wide to be compared
+   with one insn, test the comparison and jump to the appropriate label.
+   The code of EXP is ignored; we always test GT if SWAP is 0,
+   and LT if SWAP is 1.  */
+
+static void
+do_jump_by_parts_greater (exp, swap, if_false_label, if_true_label)
+     tree exp;
+     int swap;
+     rtx if_false_label, if_true_label;
+{
+  rtx op0 = expand_expr (TREE_OPERAND (exp, swap), NULL_RTX, VOIDmode, 0);
+  rtx op1 = expand_expr (TREE_OPERAND (exp, !swap), NULL_RTX, VOIDmode, 0);
+  enum machine_mode mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
+  int unsignedp = TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0)));
+
+  do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true_label);
 }
 
 /* Compare OP0 with OP1, word at a time, in mode MODE.
@@ -10947,7 +9681,6 @@ do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true
   /* Compare a word at a time, high order first.  */
   for (i = 0; i < nwords; i++)
     {
-      rtx comp;
       rtx op0_word, op1_word;
 
       if (WORDS_BIG_ENDIAN)
@@ -10962,21 +9695,13 @@ do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true
        }
 
       /* All but high-order word must be compared as unsigned.  */
-      comp = compare_from_rtx (op0_word, op1_word,
-                              (unsignedp || i > 0) ? GTU : GT,
-                              unsignedp, word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_true_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_true_label);
+      do_compare_rtx_and_jump (op0_word, op1_word, GT,
+                              (unsignedp || i > 0), word_mode, NULL_RTX, 0,
+                              NULL_RTX, if_true_label);
 
       /* Consider lower words only if these are equal.  */
-      comp = compare_from_rtx (op0_word, op1_word, NE, unsignedp, word_mode,
-                              NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, NULL_RTX, if_false_label);
+      do_compare_rtx_and_jump (op0_word, op1_word, NE, unsignedp, word_mode,
+                              NULL_RTX, 0, NULL_RTX, if_false_label);
     }
 
   if (if_false_label)
@@ -11004,16 +9729,11 @@ do_jump_by_parts_equality (exp, if_false_label, if_true_label)
     drop_through_label = if_false_label = gen_label_rtx ();
 
   for (i = 0; i < nwords; i++)
-    {
-      rtx comp = compare_from_rtx (operand_subword_force (op0, i, mode),
-                                  operand_subword_force (op1, i, mode),
-                                  EQ, TREE_UNSIGNED (TREE_TYPE (exp)),
-                                  word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, if_false_label, NULL_RTX);
-    }
+    do_compare_rtx_and_jump (operand_subword_force (op0, i, mode),
+                            operand_subword_force (op1, i, mode),
+                            EQ, TREE_UNSIGNED (TREE_TYPE (exp)),
+                            word_mode, NULL_RTX, 0, if_false_label,
+                            NULL_RTX);
 
   if (if_true_label)
     emit_jump (if_true_label);
@@ -11049,15 +9769,8 @@ do_jump_by_parts_equality_rtx (op0, if_false_label, if_true_label)
 
   if (part != 0)
     {
-      rtx comp = compare_from_rtx (part, const0_rtx, EQ, 1, word_mode,
-                                  NULL_RTX, 0);
-
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp == const0_rtx)
-       emit_jump (if_true_label);
-      else
-       do_jump_for_compare (comp, if_false_label, if_true_label);
+      do_compare_rtx_and_jump (part, const0_rtx, EQ, 1, word_mode,
+                              NULL_RTX, 0, if_false_label, if_true_label);
 
       return;
     }
@@ -11067,15 +9780,9 @@ do_jump_by_parts_equality_rtx (op0, if_false_label, if_true_label)
     drop_through_label = if_false_label = gen_label_rtx ();
 
   for (i = 0; i < nwords; i++)
-    {
-      rtx comp = compare_from_rtx (operand_subword_force (op0, i,
-                                                         GET_MODE (op0)),
-                                  const0_rtx, EQ, 1, word_mode, NULL_RTX, 0);
-      if (comp == const_true_rtx)
-       emit_jump (if_false_label);
-      else if (comp != const0_rtx)
-       do_jump_for_compare (comp, if_false_label, NULL_RTX);
-    }
+    do_compare_rtx_and_jump (operand_subword_force (op0, i, GET_MODE (op0)),
+                            const0_rtx, EQ, 1, word_mode, NULL_RTX, 0,
+                            if_false_label, NULL_RTX);
 
   if (if_true_label)
     emit_jump (if_true_label);
@@ -11083,160 +9790,84 @@ do_jump_by_parts_equality_rtx (op0, if_false_label, if_true_label)
   if (drop_through_label)
     emit_label (drop_through_label);
 }
-
-/* Given a comparison expression in rtl form, output conditional branches to
-   IF_TRUE_LABEL, IF_FALSE_LABEL, or both.  */
-
-static void
-do_jump_for_compare (comparison, if_false_label, if_true_label)
-     rtx comparison, if_false_label, if_true_label;
-{
-  if (if_true_label)
-    {
-      if (bcc_gen_fctn[(int) GET_CODE (comparison)] != 0)
-       emit_jump_insn ((*bcc_gen_fctn[(int) GET_CODE (comparison)])
-                         (if_true_label));
-      else
-       abort ();
-
-      if (if_false_label)
-       emit_jump (if_false_label);
-    }
-  else if (if_false_label)
-    {
-      rtx first = get_last_insn (), insn, branch;
-      int br_count;
-
-      /* Output the branch with the opposite condition.  Then try to invert
-        what is generated.  If more than one insn is a branch, or if the
-        branch is not the last insn written, abort. If we can't invert
-        the branch, emit make a true label, redirect this jump to that,
-        emit a jump to the false label and define the true label.  */
-      /* ??? Note that we wouldn't have to do any of this nonsense if
-        we passed both labels into a combined compare-and-branch. 
-        Ah well, jump threading does a good job of repairing the damage.  */
-
-      if (bcc_gen_fctn[(int) GET_CODE (comparison)] != 0)
-       emit_jump_insn ((*bcc_gen_fctn[(int) GET_CODE (comparison)])
-                         (if_false_label));
-      else
-       abort ();
-
-      /* Here we get the first insn that was just emitted.  It used to be the
-        case that, on some machines, emitting the branch would discard
-        the previous compare insn and emit a replacement.  This isn't
-        done anymore, but abort if we see that FIRST is deleted.  */
-
-      if (first == 0)
-       first = get_insns ();
-      else if (INSN_DELETED_P (first))
-       abort ();
-      else
-       first = NEXT_INSN (first);
-
-      /* Look for multiple branches in this sequence, as might be generated
-        for a multi-word integer comparison.  */
-
-      br_count = 0;
-      branch = NULL_RTX;
-      for (insn = first; insn ; insn = NEXT_INSN (insn))
-       if (GET_CODE (insn) == JUMP_INSN)
-         {
-           branch = insn;
-           br_count += 1;
-         }
-
-      /* If we've got one branch at the end of the sequence,
-        we can try to reverse it.  */
-
-      if (br_count == 1 && NEXT_INSN (branch) == NULL_RTX)
-       {
-         rtx insn_label;
-         insn_label = XEXP (condjump_label (branch), 0);
-         JUMP_LABEL (branch) = insn_label;
-
-         if (insn_label != if_false_label)
-           abort ();
-
-         if (invert_jump (branch, if_false_label))
-           return;
-       }
-
-      /* Multiple branches, or reversion failed.  Convert to branches
-        around an unconditional jump.  */
-
-      if_true_label = gen_label_rtx ();
-      for (insn = first; insn; insn = NEXT_INSN (insn))
-       if (GET_CODE (insn) == JUMP_INSN)
-         {
-           rtx insn_label;
-           insn_label = XEXP (condjump_label (insn), 0);
-           JUMP_LABEL (insn) = insn_label;
-
-           if (insn_label == if_false_label)
-             redirect_jump (insn, if_true_label);
-         }
-       emit_jump (if_false_label);
-       emit_label (if_true_label);
-    }
-}
 \f
-/* Generate code for a comparison expression EXP
+/* Generate code for a comparison of OP0 and OP1 with rtx code CODE.
    (including code to compute the values to be compared)
    and set (CC0) according to the result.
-   SIGNED_CODE should be the rtx operation for this comparison for
-   signed data; UNSIGNED_CODE, likewise for use if data is unsigned.
+   The decision as to signed or unsigned comparison must be made by the caller.
 
    We force a stack adjustment unless there are currently
-   things pushed on the stack that aren't yet used.  */
+   things pushed on the stack that aren't yet used.
 
-static rtx
-compare (exp, signed_code, unsigned_code)
-     register tree exp;
-     enum rtx_code signed_code, unsigned_code;
+   If MODE is BLKmode, SIZE is an RTX giving the size of the objects being
+   compared.
+
+   If ALIGN is non-zero, it is the alignment of this type; if zero, the
+   size of MODE should be used.  */
+
+rtx
+compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
+     register rtx op0, op1;
+     enum rtx_code code;
+     int unsignedp;
+     enum machine_mode mode;
+     rtx size;
+     unsigned int align;
 {
-  register rtx op0
-    = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, VOIDmode, 0);
-  register rtx op1
-    = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
-  register tree type = TREE_TYPE (TREE_OPERAND (exp, 0));
-  register enum machine_mode mode = TYPE_MODE (type);
-  int unsignedp = TREE_UNSIGNED (type);
-  enum rtx_code code = unsignedp ? unsigned_code : signed_code;
+  rtx tem;
 
-#ifdef HAVE_canonicalize_funcptr_for_compare
-  /* If function pointers need to be "canonicalized" before they can
-     be reliably compared, then canonicalize them.  */
-  if (HAVE_canonicalize_funcptr_for_compare
-      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == POINTER_TYPE
-      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))))
-         == FUNCTION_TYPE))
-    {
-      rtx new_op0 = gen_reg_rtx (mode);
+  /* If one operand is constant, make it the second one.  Only do this
+     if the other operand is not constant as well.  */
 
-      emit_insn (gen_canonicalize_funcptr_for_compare (new_op0, op0));
-      op0 = new_op0;
+  if ((CONSTANT_P (op0) && ! CONSTANT_P (op1))
+      || (GET_CODE (op0) == CONST_INT && GET_CODE (op1) != CONST_INT))
+    {
+      tem = op0;
+      op0 = op1;
+      op1 = tem;
+      code = swap_condition (code);
     }
 
-  if (HAVE_canonicalize_funcptr_for_compare
-      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 1))) == POINTER_TYPE
-      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 1))))
-         == FUNCTION_TYPE))
+  if (flag_force_mem)
     {
-      rtx new_op1 = gen_reg_rtx (mode);
+      op0 = force_not_mem (op0);
+      op1 = force_not_mem (op1);
+    }
 
-      emit_insn (gen_canonicalize_funcptr_for_compare (new_op1, op1));
-      op1 = new_op1;
+  do_pending_stack_adjust ();
+
+  if (GET_CODE (op0) == CONST_INT && GET_CODE (op1) == CONST_INT
+      && (tem = simplify_relational_operation (code, mode, op0, op1)) != 0)
+    return tem;
+
+#if 0
+  /* There's no need to do this now that combine.c can eliminate lots of
+     sign extensions.  This can be less efficient in certain cases on other
+     machines.  */
+
+  /* If this is a signed equality comparison, we can do it as an
+     unsigned comparison since zero-extension is cheaper than sign
+     extension and comparisons with zero are done as unsigned.  This is
+     the case even on machines that can do fast sign extension, since
+     zero-extension is easier to combine with other operations than
+     sign-extension is.  If we are comparing against a constant, we must
+     convert it to what it would look like unsigned.  */
+  if ((code == EQ || code == NE) && ! unsignedp
+      && GET_MODE_BITSIZE (GET_MODE (op0)) <= HOST_BITS_PER_WIDE_INT)
+    {
+      if (GET_CODE (op1) == CONST_INT
+         && (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0))) != INTVAL (op1))
+       op1 = GEN_INT (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0)));
+      unsignedp = 1;
     }
 #endif
+       
+  emit_cmp_insn (op0, op1, code, size, mode, unsignedp, align);
 
-  return compare_from_rtx (op0, op1, code, unsignedp, mode,
-                          ((mode == BLKmode)
-                           ? expr_size (TREE_OPERAND (exp, 0)) : NULL_RTX),
-                          TYPE_ALIGN (TREE_TYPE (exp)) / BITS_PER_UNIT);
+  return gen_rtx_fmt_ee (code, VOIDmode, cc0_rtx, const0_rtx);
 }
 
-/* Like compare but expects the values to compare as two rtx's.
+/* Like do_compare_and_jump but expects the values to compare as two rtx's.
    The decision as to signed or unsigned comparison must be made by the caller.
 
    If MODE is BLKmode, SIZE is an RTX giving the size of the objects being
@@ -11245,16 +9876,28 @@ compare (exp, signed_code, unsigned_code)
    If ALIGN is non-zero, it is the alignment of this type; if zero, the
    size of MODE should be used.  */
 
-rtx
-compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
+void
+do_compare_rtx_and_jump (op0, op1, code, unsignedp, mode, size, align,
+                        if_false_label, if_true_label)
      register rtx op0, op1;
      enum rtx_code code;
      int unsignedp;
      enum machine_mode mode;
      rtx size;
-     int align;
+     unsigned int align;
+     rtx if_false_label, if_true_label;
 {
   rtx tem;
+  int dummy_true_label = 0;
+
+  /* Reverse the comparison if that is safe and we want to jump if it is
+     false.  */
+  if (! if_true_label && ! FLOAT_MODE_P (mode))
+    {
+      if_true_label = if_false_label;
+      if_false_label = 0;
+      code = reverse_condition (code);
+    }
 
   /* If one operand is constant, make it the second one.  Only do this
      if the other operand is not constant as well.  */
@@ -11278,7 +9921,19 @@ compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
 
   if (GET_CODE (op0) == CONST_INT && GET_CODE (op1) == CONST_INT
       && (tem = simplify_relational_operation (code, mode, op0, op1)) != 0)
-    return tem;
+    {
+      if (tem == const_true_rtx)
+       {
+         if (if_true_label)
+           emit_jump (if_true_label);
+       }
+      else
+       {
+         if (if_false_label)
+           emit_jump (if_false_label);
+       }
+      return;
+    }
 
 #if 0
   /* There's no need to do this now that combine.c can eliminate lots of
@@ -11301,10 +9956,91 @@ compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
       unsignedp = 1;
     }
 #endif
-       
-  emit_cmp_insn (op0, op1, code, size, mode, unsignedp, align);
 
-  return gen_rtx_fmt_ee (code, VOIDmode, cc0_rtx, const0_rtx);
+  if (! if_true_label)
+    {
+      dummy_true_label = 1;
+      if_true_label = gen_label_rtx ();
+    }
+
+  emit_cmp_and_jump_insns (op0, op1, code, size, mode, unsignedp, align,
+                          if_true_label);
+
+  if (if_false_label)
+    emit_jump (if_false_label);
+  if (dummy_true_label)
+    emit_label (if_true_label);
+}
+
+/* Generate code for a comparison expression EXP (including code to compute
+   the values to be compared) and a conditional jump to IF_FALSE_LABEL and/or
+   IF_TRUE_LABEL.  One of the labels can be NULL_RTX, in which case the
+   generated code will drop through.
+   SIGNED_CODE should be the rtx operation for this comparison for
+   signed data; UNSIGNED_CODE, likewise for use if data is unsigned.
+
+   We force a stack adjustment unless there are currently
+   things pushed on the stack that aren't yet used.  */
+
+static void
+do_compare_and_jump (exp, signed_code, unsigned_code, if_false_label,
+                    if_true_label)
+     register tree exp;
+     enum rtx_code signed_code, unsigned_code;
+     rtx if_false_label, if_true_label;
+{
+  unsigned int align0, align1;
+  register rtx op0, op1;
+  register tree type;
+  register enum machine_mode mode;
+  int unsignedp;
+  enum rtx_code code;
+
+  /* Don't crash if the comparison was erroneous.  */
+  op0 = expand_expr_unaligned (TREE_OPERAND (exp, 0), &align0);
+  if (TREE_CODE (TREE_OPERAND (exp, 0)) == ERROR_MARK)
+    return;
+
+  op1 = expand_expr_unaligned (TREE_OPERAND (exp, 1), &align1);
+  type = TREE_TYPE (TREE_OPERAND (exp, 0));
+  mode = TYPE_MODE (type);
+  unsignedp = TREE_UNSIGNED (type);
+  code = unsignedp ? unsigned_code : signed_code;
+
+#ifdef HAVE_canonicalize_funcptr_for_compare
+  /* If function pointers need to be "canonicalized" before they can
+     be reliably compared, then canonicalize them.  */
+  if (HAVE_canonicalize_funcptr_for_compare
+      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == POINTER_TYPE
+      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))))
+         == FUNCTION_TYPE))
+    {
+      rtx new_op0 = gen_reg_rtx (mode);
+
+      emit_insn (gen_canonicalize_funcptr_for_compare (new_op0, op0));
+      op0 = new_op0;
+    }
+
+  if (HAVE_canonicalize_funcptr_for_compare
+      && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 1))) == POINTER_TYPE
+      && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 1))))
+         == FUNCTION_TYPE))
+    {
+      rtx new_op1 = gen_reg_rtx (mode);
+
+      emit_insn (gen_canonicalize_funcptr_for_compare (new_op1, op1));
+      op1 = new_op1;
+    }
+#endif
+
+  /* Do any postincrements in the expression that was tested.  */
+  emit_queue ();
+
+  do_compare_rtx_and_jump (op0, op1, code, unsignedp, mode,
+                          ((mode == BLKmode)
+                           ? expr_size (TREE_OPERAND (exp, 0)) : NULL_RTX),
+                          MIN (align0, align1),
+                          if_false_label, if_true_label);
 }
 \f
 /* Generate code to calculate EXP using a store-flag instruction
@@ -11419,6 +10155,29 @@ do_store_flag (exp, target, mode, only_cheap)
       else
        code = unsignedp ? GEU : GE;
       break;
+
+    case UNORDERED_EXPR:
+      code = UNORDERED;
+      break;
+    case ORDERED_EXPR:
+      code = ORDERED;
+      break;
+    case UNLT_EXPR:
+      code = UNLT;
+      break;
+    case UNLE_EXPR:
+      code = UNLE;
+      break;
+    case UNGT_EXPR:
+      code = UNGT;
+      break;
+    case UNGE_EXPR:
+      code = UNGE;
+      break;
+    case UNEQ_EXPR:
+      code = UNEQ;
+      break;
+
     default:
       abort ();
     }
@@ -11450,8 +10209,9 @@ do_store_flag (exp, target, mode, only_cheap)
       if (TREE_CODE (inner) == RSHIFT_EXPR
          && TREE_CODE (TREE_OPERAND (inner, 1)) == INTEGER_CST
          && TREE_INT_CST_HIGH (TREE_OPERAND (inner, 1)) == 0
-         && (bitnum + TREE_INT_CST_LOW (TREE_OPERAND (inner, 1))
-             < TYPE_PRECISION (type)))
+         && bitnum < TYPE_PRECISION (type)
+         && 0 > compare_tree_int (TREE_OPERAND (inner, 1),
+                                  bitnum - TYPE_PRECISION (type)))
        {
          bitnum += TREE_INT_CST_LOW (TREE_OPERAND (inner, 1));
          inner = TREE_OPERAND (inner, 0);
@@ -11494,11 +10254,12 @@ do_store_flag (exp, target, mode, only_cheap)
     }
 
   /* Now see if we are likely to be able to do this.  Return if not.  */
-  if (! can_compare_p (operand_mode))
+  if (! can_compare_p (code, operand_mode, ccp_store_flag))
     return 0;
+
   icode = setcc_gen_code[(int) code];
   if (icode == CODE_FOR_nothing
-      || (only_cheap && insn_operand_mode[(int) icode][0] != mode))
+      || (only_cheap && insn_data[(int) icode].operand[0].mode != mode))
     {
       /* We can only do this if it is one of the special cases that
         can be handled without an scc insn.  */