OSDN Git Service

Wed May 6 06:35:38 1998 Robert Lipe <robertl@dgii.com>
[pf3gnuchains/gcc-fork.git] / gcc / calls.c
index 7b4589f..16a0346 100644 (file)
@@ -1,5 +1,5 @@
 /* Convert function calls to rtl insns, for GNU C compiler.
-   Copyright (C) 1989, 1992, 1993, 1994 Free Software Foundation, Inc.
+   Copyright (C) 1989, 92-97, 1998 Free Software Foundation, Inc.
 
 This file is part of GNU CC.
 
@@ -15,19 +15,23 @@ GNU General Public License for more details.
 
 You should have received a copy of the GNU General Public License
 along with GNU CC; see the file COPYING.  If not, write to
-the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.  */
+the Free Software Foundation, 59 Temple Place - Suite 330,
+Boston, MA 02111-1307, USA.  */
 
 #include "config.h"
-#include "rtl.h"
-#include "tree.h"
-#include "flags.h"
-#include "expr.h"
 #ifdef __STDC__
 #include <stdarg.h>
 #else
 #include <varargs.h>
 #endif
+#include "system.h"
+#include "rtl.h"
+#include "tree.h"
+#include "flags.h"
+#include "expr.h"
+#include "regs.h"
 #include "insn-flags.h"
+#include "toplev.h"
 
 /* Decide whether a function's arguments should be processed
    from first to last or from last to first.
@@ -59,7 +63,7 @@ struct arg_data
   /* Initially-compute RTL value for argument; only for const functions.  */
   rtx initial_value;
   /* Register to pass this argument in, 0 if passed on stack, or an
-     EXPR_LIST if the arg is to be copied into multiple different
+     PARALLEL if the arg is to be copied into multiple non-contiguous
      registers.  */
   rtx reg;
   /* If REG was promoted from the actual mode of the argument expression,
@@ -94,14 +98,12 @@ struct arg_data
   /* Place that this stack area has been saved, if needed.  */
   rtx save_area;
 #endif
-#ifdef STRICT_ALIGNMENT
   /* If an argument's alignment does not permit direct copying into registers,
      copy in smaller-sized pieces into pseudos.  These are stored in a
      block pointed to by this field.  The next field says how many
      word-sized pseudos we made.  */
   rtx *aligned_regs;
   int n_aligned_regs;
-#endif
 };
 
 #ifdef ACCUMULATE_OUTGOING_ARGS
@@ -124,8 +126,9 @@ int stack_arg_under_construction;
 
 static int calls_function      PROTO((tree, int));
 static int calls_function_1    PROTO((tree, int));
-static void emit_call_1                PROTO((rtx, tree, int, int, rtx, rtx, int,
-                                      rtx, int));
+static void emit_call_1                PROTO((rtx, tree, tree, HOST_WIDE_INT,
+                                      HOST_WIDE_INT, rtx, rtx,
+                                      int, rtx, int));
 static void store_one_arg      PROTO ((struct arg_data *, rtx, int, int,
                                        tree, int));
 \f
@@ -157,27 +160,37 @@ calls_function_1 (exp, which)
      int which;
 {
   register int i;
-  int type = TREE_CODE_CLASS (TREE_CODE (exp));
-  int length = tree_code_length[(int) TREE_CODE (exp)];
+  enum tree_code code = TREE_CODE (exp);
+  int type = TREE_CODE_CLASS (code);
+  int length = tree_code_length[(int) code];
 
-  /* Only expressions and references can contain calls.  */
+  /* If this code is language-specific, we don't know what it will do.  */
+  if ((int) code >= NUM_TREE_CODES)
+    return 1;
 
+  /* Only expressions and references can contain calls.  */
   if (type != 'e' && type != '<' && type != '1' && type != '2' && type != 'r'
       && type != 'b')
     return 0;
 
-  switch (TREE_CODE (exp))
+  switch (code)
     {
     case CALL_EXPR:
       if (which == 0)
        return 1;
       else if (TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR
               && (TREE_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
-                  == FUNCTION_DECL)
-              && DECL_BUILT_IN (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
-              && (DECL_FUNCTION_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
-                  == BUILT_IN_ALLOCA))
-       return 1;
+                  == FUNCTION_DECL))
+       {
+         tree fndecl = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
+
+         if ((DECL_BUILT_IN (fndecl)
+              && DECL_FUNCTION_CODE (fndecl) == BUILT_IN_ALLOCA)
+             || (DECL_SAVED_INSNS (fndecl)
+                 && (FUNCTION_FLAGS (DECL_SAVED_INSNS (fndecl))
+                     & FUNCTION_FLAGS_CALLS_ALLOCA)))
+           return 1;
+       }
 
       /* Third operand is RTL.  */
       length = 2;
@@ -223,6 +236,9 @@ calls_function_1 (exp, which)
 
     case RTL_EXPR:
       return 0;
+      
+    default:
+      break;
     }
 
   for (i = 0; i < length; i++)
@@ -237,28 +253,32 @@ calls_function_1 (exp, which)
    and return that as an rtx.  Also load the static chain register
    if FNDECL is a nested function.
 
-   USE_INSNS points to a variable holding a chain of USE insns
-   to which a USE of the static chain
-   register should be added, if required.  */
+   CALL_FUSAGE points to a variable holding the prospective
+   CALL_INSN_FUNCTION_USAGE information.  */
 
 rtx
-prepare_call_address (funexp, fndecl, use_insns)
+prepare_call_address (funexp, fndecl, call_fusage, reg_parm_seen)
      rtx funexp;
      tree fndecl;
-     rtx *use_insns;
+     rtx *call_fusage;
+     int reg_parm_seen;
 {
   rtx static_chain_value = 0;
 
   funexp = protect_from_queue (funexp, 0);
 
   if (fndecl != 0)
-    /* Get possible static chain value for nested function in C. */
+    /* Get possible static chain value for nested function in C.  */
     static_chain_value = lookup_static_chain (fndecl);
 
   /* Make a valid memory address and copy constants thru pseudo-regs,
      but not for a constant address if -fno-function-cse.  */
   if (GET_CODE (funexp) != SYMBOL_REF)
-    funexp = memory_address (FUNCTION_MODE, funexp);
+    /* If we are using registers for parameters, force the
+       function address into a register now.  */
+    funexp = ((SMALL_REGISTER_CLASSES && reg_parm_seen)
+             ? force_not_mem (memory_address (FUNCTION_MODE, funexp))
+             : memory_address (FUNCTION_MODE, funexp));
   else
     {
 #ifndef NO_FUNCTION_CSE
@@ -274,12 +294,8 @@ prepare_call_address (funexp, fndecl, use_insns)
     {
       emit_move_insn (static_chain_rtx, static_chain_value);
 
-      /* Put the USE insn in the chain we were passed.  It will later be
-        output immediately in front of the CALL insn.  */
-      push_to_sequence (*use_insns);
-      emit_insn (gen_rtx (USE, VOIDmode, static_chain_rtx));
-      *use_insns = get_insns ();
-      end_sequence ();
+      if (GET_CODE (static_chain_rtx) == REG)
+       use_reg (call_fusage, static_chain_rtx);
     }
 
   return funexp;
@@ -289,10 +305,15 @@ prepare_call_address (funexp, fndecl, use_insns)
    and optionally pop the results.
    The CALL_INSN is the first insn generated.
 
-   FUNTYPE is the data type of the function, or, for a library call,
-   the identifier for the name of the call.  This is given to the
+   FNDECL is the declaration node of the function.  This is given to the
    macro RETURN_POPS_ARGS to determine whether this function pops its own args.
 
+   FUNTYPE is the data type of the function.  This is given to the macro
+   RETURN_POPS_ARGS to determine whether this function pops its own args.
+   We used to allow an identifier for library functions, but that doesn't
+   work when the return type is an aggregate type and the calling convention
+   says that the pointer to this aggregate is to be popped by the callee.
+
    STACK_SIZE is the number of bytes of arguments on the stack,
    rounded up to STACK_BOUNDARY; zero if the size is variable.
    This is both to put into the call insn and
@@ -316,28 +337,32 @@ prepare_call_address (funexp, fndecl, use_insns)
    the args to this call were processed.
    We restore `inhibit_defer_pop' to that value.
 
-   USE_INSNS is a chain of USE insns to be emitted immediately before
-   the actual CALL insn.
+   CALL_FUSAGE is either empty or an EXPR_LIST of USE expressions that
+   denote registers used by the called function.
 
    IS_CONST is true if this is a `const' call.  */
 
 static void
-emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
-            valreg, old_inhibit_defer_pop, use_insns, is_const)
+emit_call_1 (funexp, fndecl, funtype, stack_size, struct_value_size, 
+             next_arg_reg, valreg, old_inhibit_defer_pop, call_fusage,
+            is_const)
      rtx funexp;
+     tree fndecl;
      tree funtype;
-     int stack_size;
-     int struct_value_size;
+     HOST_WIDE_INT stack_size;
+     HOST_WIDE_INT struct_value_size;
      rtx next_arg_reg;
      rtx valreg;
      int old_inhibit_defer_pop;
-     rtx use_insns;
+     rtx call_fusage;
      int is_const;
 {
   rtx stack_size_rtx = GEN_INT (stack_size);
   rtx struct_value_size_rtx = GEN_INT (struct_value_size);
   rtx call_insn;
+#ifndef ACCUMULATE_OUTGOING_ARGS
   int already_popped = 0;
+#endif
 
   /* Ensure address is valid.  SYMBOL_REF is already valid, so no need,
      and we don't want to load it into a register as an optimization,
@@ -348,19 +373,21 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
 #ifndef ACCUMULATE_OUTGOING_ARGS
 #if defined (HAVE_call_pop) && defined (HAVE_call_value_pop)
   if (HAVE_call_pop && HAVE_call_value_pop
-      && (RETURN_POPS_ARGS (funtype, stack_size) > 0 || stack_size == 0))
+      && (RETURN_POPS_ARGS (fndecl, funtype, stack_size) > 0 
+          || stack_size == 0))
     {
-      rtx n_pop = GEN_INT (RETURN_POPS_ARGS (funtype, stack_size));
+      rtx n_pop = GEN_INT (RETURN_POPS_ARGS (fndecl, funtype, stack_size));
       rtx pat;
 
       /* If this subroutine pops its own args, record that in the call insn
         if possible, for the sake of frame pointer elimination.  */
+
       if (valreg)
        pat = gen_call_value_pop (valreg,
-                                 gen_rtx (MEM, FUNCTION_MODE, funexp),
+                                 gen_rtx_MEM (FUNCTION_MODE, funexp),
                                  stack_size_rtx, next_arg_reg, n_pop);
       else
-       pat = gen_call_pop (gen_rtx (MEM, FUNCTION_MODE, funexp),
+       pat = gen_call_pop (gen_rtx_MEM (FUNCTION_MODE, funexp),
                            stack_size_rtx, next_arg_reg, n_pop);
 
       emit_call_insn (pat);
@@ -375,11 +402,11 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
     {
       if (valreg)
        emit_call_insn (gen_call_value (valreg,
-                                       gen_rtx (MEM, FUNCTION_MODE, funexp),
+                                       gen_rtx_MEM (FUNCTION_MODE, funexp),
                                        stack_size_rtx, next_arg_reg,
                                        NULL_RTX));
       else
-       emit_call_insn (gen_call (gen_rtx (MEM, FUNCTION_MODE, funexp),
+       emit_call_insn (gen_call (gen_rtx_MEM (FUNCTION_MODE, funexp),
                                  stack_size_rtx, next_arg_reg,
                                  struct_value_size_rtx));
     }
@@ -387,7 +414,7 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
 #endif
     abort ();
 
-  /* Find the CALL insn we just emitted and write the USE insns before it.  */
+  /* Find the CALL insn we just emitted.  */
   for (call_insn = get_last_insn ();
        call_insn && GET_CODE (call_insn) != CALL_INSN;
        call_insn = PREV_INSN (call_insn))
@@ -396,8 +423,20 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
   if (! call_insn)
     abort ();
 
-  /* Put the USE insns before the CALL.  */
-  emit_insns_before (use_insns, call_insn);
+  /* Put the register usage information on the CALL.  If there is already
+     some usage information, put ours at the end.  */
+  if (CALL_INSN_FUNCTION_USAGE (call_insn))
+    {
+      rtx link;
+
+      for (link = CALL_INSN_FUNCTION_USAGE (call_insn); XEXP (link, 1) != 0;
+          link = XEXP (link, 1))
+       ;
+
+      XEXP (link, 1) = call_fusage;
+    }
+  else
+    CALL_INSN_FUNCTION_USAGE (call_insn) = call_fusage;
 
   /* If this is a const call, then set the insn's unchanging bit.  */
   if (is_const)
@@ -415,11 +454,14 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
      If returning from the subroutine does pop the args, indicate that the
      stack pointer will be changed.  */
 
-  if (stack_size != 0 && RETURN_POPS_ARGS (funtype, stack_size) > 0)
+  if (stack_size != 0 && RETURN_POPS_ARGS (fndecl, funtype, stack_size) > 0)
     {
       if (!already_popped)
-       emit_insn (gen_rtx (CLOBBER, VOIDmode, stack_pointer_rtx));
-      stack_size -= RETURN_POPS_ARGS (funtype, stack_size);
+       CALL_INSN_FUNCTION_USAGE (call_insn)
+         = gen_rtx_EXPR_LIST (VOIDmode,
+                              gen_rtx_CLOBBER (VOIDmode, stack_pointer_rtx),
+                              CALL_INSN_FUNCTION_USAGE (call_insn));
+      stack_size -= RETURN_POPS_ARGS (fndecl, funtype, stack_size);
       stack_size_rtx = GEN_INT (stack_size);
     }
 
@@ -449,8 +491,6 @@ expand_call (exp, target, ignore)
   tree actparms = TREE_OPERAND (exp, 1);
   /* RTX for the function to be called.  */
   rtx funexp;
-  /* Tree node for the function to be called (not the address!).  */
-  tree funtree;
   /* Data type of the function.  */
   tree funtype;
   /* Declaration of the function being called,
@@ -471,7 +511,7 @@ expand_call (exp, target, ignore)
   /* Size of aggregate value wanted, or zero if none wanted
      or if we are using the non-reentrant PCC calling convention
      or expecting the value in registers.  */
-  int struct_value_size = 0;
+  HOST_WIDE_INT struct_value_size = 0;
   /* Nonzero if called function returns an aggregate in memory PCC style,
      by returning the address of where to find it.  */
   int pcc_struct_value = 0;
@@ -498,7 +538,6 @@ expand_call (exp, target, ignore)
   /* Nonzero if a reg parm has been scanned.  */
   int reg_parm_seen;
   /* Nonzero if this is an indirect function call.  */
-  int current_call_is_indirect = 0;
 
   /* Nonzero if we must avoid push-insns in the args for this call. 
      If stack space is allocated for register parameters, but not by the
@@ -506,15 +545,11 @@ expand_call (exp, target, ignore)
      So the entire argument block must then be preallocated (i.e., we
      ignore PUSH_ROUNDING in that case).  */
 
-#if defined(REG_PARM_STACK_SPACE) && ! defined(OUTGOING_REG_PARM_STACK_SPACE)
-  int must_preallocate = 1;
-#else
 #ifdef PUSH_ROUNDING
   int must_preallocate = 0;
 #else
   int must_preallocate = 1;
 #endif
-#endif
 
   /* Size of the stack reserved for parameter registers.  */
   int reg_parm_stack_space = 0;
@@ -527,6 +562,8 @@ expand_call (exp, target, ignore)
 
   /* Nonzero if it is plausible that this is a call to alloca.  */
   int may_be_alloca;
+  /* Nonzero if this is a call to malloc or a related function. */
+  int is_malloc;
   /* Nonzero if this is a call to setjmp or a related function.  */
   int returns_twice;
   /* Nonzero if this is a call to `longjmp'.  */
@@ -548,17 +585,23 @@ expand_call (exp, target, ignore)
 #ifdef ACCUMULATE_OUTGOING_ARGS
   int initial_highest_arg_in_use = highest_outgoing_arg_in_use;
   char *initial_stack_usage_map = stack_usage_map;
+  int old_stack_arg_under_construction;
 #endif
 
   rtx old_stack_level = 0;
   int old_pending_adj = 0;
-  int old_stack_arg_under_construction;
   int old_inhibit_defer_pop = inhibit_defer_pop;
-  tree old_cleanups = cleanups_this_call;
-  rtx use_insns = 0;
+  rtx call_fusage = 0;
   register tree p;
   register int i, j;
 
+  /* The value of the function call can be put in a hard register.  But
+     if -fcheck-memory-usage, code which invokes functions (and thus
+     damages some hard registers) can be inserted before using the value.
+     So, target is always a pseudo-register in that case.  */
+  if (flag_check_memory_usage)
+    target = 0;
+
   /* See if we can find a DECL-node for the actual function.
      As a result, decide whether this is a call to an integrable function.  */
 
@@ -572,7 +615,9 @@ expand_call (exp, target, ignore)
        {
          if (!flag_no_inline
              && fndecl != current_function_decl
-             && DECL_SAVED_INSNS (fndecl))
+             && DECL_INLINE (fndecl)
+             && DECL_SAVED_INSNS (fndecl)
+             && RTX_INTEGRATED_P (DECL_SAVED_INSNS (fndecl)))
            is_integrable = 1;
          else if (! TREE_ADDRESSABLE (fndecl))
            {
@@ -581,8 +626,12 @@ expand_call (exp, target, ignore)
 
                 Use abstraction instead of setting TREE_ADDRESSABLE
                 directly.  */
-             if (DECL_INLINE (fndecl) && warn_inline && !flag_no_inline)
-               warning_with_decl (fndecl, "can't inline call to `%s'");
+             if (DECL_INLINE (fndecl) && warn_inline && !flag_no_inline
+                 && optimize > 0)
+               {
+                 warning_with_decl (fndecl, "can't inline call to `%s'");
+                 warning ("called from here");
+               }
              mark_addressable (fndecl);
            }
 
@@ -611,13 +660,14 @@ expand_call (exp, target, ignore)
 #endif
 #endif
 
+#if defined(PUSH_ROUNDING) && ! defined(OUTGOING_REG_PARM_STACK_SPACE)
+  if (reg_parm_stack_space > 0)
+    must_preallocate = 1;
+#endif
+
   /* Warn if this value is an aggregate type,
      regardless of which calling convention we are using for it.  */
-  if (warn_aggregate_return
-      && (TREE_CODE (TREE_TYPE (exp)) == RECORD_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == QUAL_UNION_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == ARRAY_TYPE))
+  if (warn_aggregate_return && AGGREGATE_TYPE_P (TREE_TYPE (exp)))
     warning ("function call has aggregate value");
 
   /* Set up a place to return a structure.  */
@@ -631,27 +681,41 @@ expand_call (exp, target, ignore)
 #ifdef PCC_STATIC_STRUCT_RETURN
       {
        pcc_struct_value = 1;
-       is_integrable = 0;  /* Easier than making that case work right.  */
+       /* Easier than making that case work right.  */
+       if (is_integrable)
+         {
+           /* In case this is a static function, note that it has been
+              used.  */
+           if (! TREE_ADDRESSABLE (fndecl))
+             mark_addressable (fndecl);
+           is_integrable = 0;
+         }
       }
 #else /* not PCC_STATIC_STRUCT_RETURN */
       {
        struct_value_size = int_size_in_bytes (TREE_TYPE (exp));
 
-       if (struct_value_size < 0)
-         abort ();
-
        if (target && GET_CODE (target) == MEM)
          structure_value_addr = XEXP (target, 0);
        else
          {
-           /* Assign a temporary on the stack to hold the value.  */
+           /* Assign a temporary to hold the value.  */
+           tree d;
 
            /* For variable-sized objects, we must be called with a target
               specified.  If we were to allocate space on the stack here,
               we would have no way of knowing when to free it.  */
 
-           structure_value_addr
-             = XEXP (assign_stack_temp (BLKmode, struct_value_size, 1), 0);
+           if (struct_value_size < 0)
+             abort ();
+
+           /* This DECL is just something to feed to mark_addressable;
+              it doesn't get pushed.  */
+           d = build_decl (VAR_DECL, NULL_TREE, TREE_TYPE (exp));
+           DECL_RTL (d) = assign_temp (TREE_TYPE (exp), 1, 0, 1);
+           mark_addressable (d);
+           structure_value_addr = XEXP (DECL_RTL (d), 0);
+           TREE_USED (d) = 1;
            target = 0;
          }
       }
@@ -663,22 +727,17 @@ expand_call (exp, target, ignore)
   if (is_integrable)
     {
       rtx temp;
+#ifdef ACCUMULATE_OUTGOING_ARGS
       rtx before_call = get_last_insn ();
+#endif
 
       temp = expand_inline_function (fndecl, actparms, target,
                                     ignore, TREE_TYPE (exp),
                                     structure_value_addr);
 
       /* If inlining succeeded, return.  */
-      if ((HOST_WIDE_INT) temp != -1)
+      if (temp != (rtx) (HOST_WIDE_INT) -1)
        {
-         /* Perform all cleanups needed for the arguments of this call
-            (i.e. destructors in C++).  It is ok if these destructors
-            clobber RETURN_VALUE_REG, because the only time we care about
-            this is when TARGET is that register.  But in C++, we take
-            care to never return that register directly.  */
-         expand_cleanups_to (old_cleanups);
-
 #ifdef ACCUMULATE_OUTGOING_ARGS
          /* If the outgoing argument list must be preserved, push
             the stack before executing the inlined function if it
@@ -690,7 +749,9 @@ expand_call (exp, target, ignore)
 
          if (stack_arg_under_construction || i >= 0)
            {
-             rtx insn = NEXT_INSN (before_call), seq;
+             rtx first_insn
+               = before_call ? NEXT_INSN (before_call) : get_insns ();
+             rtx insn, seq;
 
              /* Look for a call in the inline function code.
                 If OUTGOING_ARGS_SIZE (DECL_SAVED_INSNS (fndecl)) is
@@ -698,7 +759,7 @@ expand_call (exp, target, ignore)
                 to scan the insns.  */
 
              if (OUTGOING_ARGS_SIZE (DECL_SAVED_INSNS (fndecl)) == 0)
-               for (; insn; insn = NEXT_INSN (insn))
+               for (insn = first_insn; insn; insn = NEXT_INSN (insn))
                  if (GET_CODE (insn) == CALL_INSN)
                    break;
 
@@ -712,25 +773,25 @@ expand_call (exp, target, ignore)
                     outgoing argument list in addition to the requested
                     space, but there is no way to ask for stack space such
                     that an argument list of a certain length can be
-                    safely constructed.  */
+                    safely constructed. 
 
-                 int adjust = OUTGOING_ARGS_SIZE (DECL_SAVED_INSNS (fndecl));
-#ifdef REG_PARM_STACK_SPACE
-                 /* Add the stack space reserved for register arguments
-                    in the inline function.  What is really needed is the
+                    Add the stack space reserved for register arguments, if
+                    any, in the inline function.  What is really needed is the
                     largest value of reg_parm_stack_space in the inline
                     function, but that is not available.  Using the current
                     value of reg_parm_stack_space is wrong, but gives
                     correct results on all supported machines.  */
-                 adjust += reg_parm_stack_space;
-#endif
+
+                 int adjust = (OUTGOING_ARGS_SIZE (DECL_SAVED_INSNS (fndecl))
+                               + reg_parm_stack_space);
+
                  start_sequence ();
                  emit_stack_save (SAVE_BLOCK, &old_stack_level, NULL_RTX);
                  allocate_dynamic_stack_space (GEN_INT (adjust),
                                                NULL_RTX, BITS_PER_UNIT);
                  seq = get_insns ();
                  end_sequence ();
-                 emit_insns_before (seq, NEXT_INSN (before_call));
+                 emit_insns_before (seq, first_insn);
                  emit_stack_restore (SAVE_BLOCK, old_stack_level, NULL_RTX);
                }
            }
@@ -748,8 +809,11 @@ expand_call (exp, target, ignore)
         separately after all.  If function was declared inline,
         give a warning.  */
       if (DECL_INLINE (fndecl) && warn_inline && !flag_no_inline
-         && ! TREE_ADDRESSABLE (fndecl))
-       warning_with_decl (fndecl, "can't inline call to `%s'");
+         && optimize > 0 && ! TREE_ADDRESSABLE (fndecl))
+       {
+         warning_with_decl (fndecl, "inlining failed in call to `%s'");
+         warning ("called from here");
+       }
       mark_addressable (fndecl);
     }
 
@@ -763,29 +827,20 @@ expand_call (exp, target, ignore)
   if (fndecl && DECL_NAME (fndecl))
     name = IDENTIFIER_POINTER (DECL_NAME (fndecl));
 
-  /* On some machines (such as the PA) indirect calls have a different
-     calling convention than normal calls.  FUNCTION_ARG in the target
-     description can look at current_call_is_indirect to determine which
-     calling convention to use.  */
-  current_call_is_indirect = (fndecl == 0);
-#if 0
-    = TREE_CODE (TREE_OPERAND (exp, 0)) == NON_LVALUE_EXPR ? 1 : 0;
-#endif
-
 #if 0
   /* Unless it's a call to a specific function that isn't alloca,
      if it has one argument, we must assume it might be alloca.  */
 
-  may_be_alloca =
-    (!(fndecl != 0 && strcmp (name, "alloca"))
-     && actparms != 0
-     && TREE_CHAIN (actparms) == 0);
+  may_be_alloca
+    (!(fndecl != 0 && strcmp (name, "alloca"))
+       && actparms != 0
+       && TREE_CHAIN (actparms) == 0);
 #else
   /* We assume that alloca will always be called by name.  It
      makes no sense to pass it as a pointer-to-function to
      anything that does not understand its behavior.  */
-  may_be_alloca =
-    (name && ((IDENTIFIER_LENGTH (DECL_NAME (fndecl)) == 6
+  may_be_alloca
+    (name && ((IDENTIFIER_LENGTH (DECL_NAME (fndecl)) == 6
                 && name[0] == 'a'
                 && ! strcmp (name, "alloca"))
                || (IDENTIFIER_LENGTH (DECL_NAME (fndecl)) == 16
@@ -798,8 +853,13 @@ expand_call (exp, target, ignore)
 
   returns_twice = 0;
   is_longjmp = 0;
+  is_malloc = 0;
 
-  if (name != 0 && IDENTIFIER_LENGTH (DECL_NAME (fndecl)) <= 15)
+  if (name != 0 && IDENTIFIER_LENGTH (DECL_NAME (fndecl)) <= 17
+      /* Exclude functions not at the file scope, or not `extern',
+        since they are not the magic functions we would otherwise
+        think they are.  */
+      && DECL_CONTEXT (fndecl) == NULL_TREE && TREE_PUBLIC (fndecl))
     {
       char *tname = name;
 
@@ -837,6 +897,18 @@ expand_call (exp, target, ignore)
       else if (tname[0] == 'l' && tname[1] == 'o'
               && ! strcmp (tname, "longjmp"))
        is_longjmp = 1;
+      /* XXX should have "malloc" attribute on functions instead
+        of recognizing them by name.  */
+      else if (! strcmp (tname, "malloc")
+              || ! strcmp (tname, "calloc")
+              || ! strcmp (tname, "realloc")
+              /* Note use of NAME rather than TNAME here.  These functions
+                 are only reserved when preceded with __.  */
+              || ! strcmp (name, "__vn")       /* mangled __builtin_vec_new */
+              || ! strcmp (name, "__nw")       /* mangled __builtin_new */
+              || ! strcmp (name, "__builtin_new")
+              || ! strcmp (name, "__builtin_vec_new"))
+       is_malloc = 1;
     }
 
   if (may_be_alloca)
@@ -860,22 +932,30 @@ expand_call (exp, target, ignore)
      we make.  */
   push_temp_slots ();
 
-  /* Start updating where the next arg would go.  */
-  INIT_CUMULATIVE_ARGS (args_so_far, funtype, NULL_RTX);
+  /* Start updating where the next arg would go.
+
+     On some machines (such as the PA) indirect calls have a different
+     calling convention than normal calls.  The last argument in
+     INIT_CUMULATIVE_ARGS tells the backend if this is an indirect call
+     or not.  */
+  INIT_CUMULATIVE_ARGS (args_so_far, funtype, NULL_RTX, (fndecl == 0));
 
   /* If struct_value_rtx is 0, it means pass the address
      as if it were an extra parameter.  */
   if (structure_value_addr && struct_value_rtx == 0)
     {
+      /* If structure_value_addr is a REG other than
+        virtual_outgoing_args_rtx, we can use always use it.  If it
+        is not a REG, we must always copy it into a register.
+        If it is virtual_outgoing_args_rtx, we must copy it to another
+        register in some cases.  */
+      rtx temp = (GET_CODE (structure_value_addr) != REG
 #ifdef ACCUMULATE_OUTGOING_ARGS
-      /* If the stack will be adjusted, make sure the structure address
-        does not refer to virtual_outgoing_args_rtx.  */
-      rtx temp = (stack_arg_under_construction
-                 ? copy_addr_to_reg (structure_value_addr)
-                 : force_reg (Pmode, structure_value_addr));
-#else
-      rtx temp = force_reg (Pmode, structure_value_addr);
+                 || (stack_arg_under_construction
+                     && structure_value_addr == virtual_outgoing_args_rtx)
 #endif
+                 ? copy_addr_to_reg (structure_value_addr)
+                 : structure_value_addr);
 
       actparms
        = tree_cons (error_mark_node,
@@ -891,37 +971,45 @@ expand_call (exp, target, ignore)
 
   /* Compute number of named args.
      Normally, don't include the last named arg if anonymous args follow.
-     (If no anonymous args follow, the result of list_length
-     is actually one too large.)
+     We do include the last named arg if STRICT_ARGUMENT_NAMING is nonzero.
+     (If no anonymous args follow, the result of list_length is actually
+     one too large.  This is harmless.)
 
-     If SETUP_INCOMING_VARARGS is defined, this machine will be able to
-     place unnamed args that were passed in registers into the stack.  So
-     treat all args as named.  This allows the insns emitting for a specific
-     argument list to be independent of the function declaration.
+     If SETUP_INCOMING_VARARGS is defined and STRICT_ARGUMENT_NAMING is zero,
+     this machine will be able to place unnamed args that were passed in
+     registers into the stack.  So treat all args as named.  This allows the
+     insns emitting for a specific argument list to be independent of the
+     function declaration.
 
      If SETUP_INCOMING_VARARGS is not defined, we do not have any reliable
      way to pass unnamed args in registers, so we must force them into
      memory.  */
+
+  if ((STRICT_ARGUMENT_NAMING
 #ifndef SETUP_INCOMING_VARARGS
-  if (TYPE_ARG_TYPES (funtype) != 0)
+       || 1
+#endif
+       )
+      && TYPE_ARG_TYPES (funtype) != 0)
     n_named_args
-      = list_length (TYPE_ARG_TYPES (funtype)) - 1
-       /* Count the struct value address, if it is passed as a parm.  */
-       + structure_value_addr_parm;
+      = (list_length (TYPE_ARG_TYPES (funtype))
+        /* Don't include the last named arg.  */
+        - (STRICT_ARGUMENT_NAMING ? 0 : 1)
+        /* Count the struct value address, if it is passed as a parm.  */
+        + structure_value_addr_parm);
   else
-#endif
     /* If we know nothing, treat all args as named.  */
     n_named_args = num_actuals;
 
   /* Make a vector to hold all the information about each arg.  */
   args = (struct arg_data *) alloca (num_actuals * sizeof (struct arg_data));
-  bzero (args, num_actuals * sizeof (struct arg_data));
+  bzero ((char *) args, num_actuals * sizeof (struct arg_data));
 
   args_size.constant = 0;
   args_size.var = 0;
 
   /* In this loop, we consider args in the order they are written.
-     We fill up ARGS from the front of from the back if necessary
+     We fill up ARGS from the front or from the back if necessary
      so that in any case the first arg to be pushed ends up at the front.  */
 
 #ifdef PUSH_ARGS_REVERSED
@@ -936,6 +1024,7 @@ expand_call (exp, target, ignore)
   for (p = actparms, argpos = 0; p; p = TREE_CHAIN (p), i += inc, argpos++)
     {
       tree type = TREE_TYPE (TREE_VALUE (p));
+      int unsignedp;
       enum machine_mode mode;
 
       args[i].tree_value = TREE_VALUE (p);
@@ -944,6 +1033,12 @@ expand_call (exp, target, ignore)
       if (type == error_mark_node || TYPE_SIZE (type) == 0)
        args[i].tree_value = integer_zero_node, type = integer_type_node;
 
+      /* If TYPE is a transparent union, pass things the way we would
+        pass the first field of the union.  We have already verified that
+        the modes are the same.  */
+      if (TYPE_TRANSPARENT_UNION (type))
+       type = TREE_TYPE (TYPE_FIELDS (type));
+
       /* Decide where to pass this arg.
 
         args[i].reg is nonzero if all or part is passed in registers.
@@ -961,19 +1056,26 @@ expand_call (exp, target, ignore)
       /* See if this argument should be passed by invisible reference.  */
       if ((TREE_CODE (TYPE_SIZE (type)) != INTEGER_CST
           && contains_placeholder_p (TYPE_SIZE (type)))
+         || TREE_ADDRESSABLE (type)
 #ifdef FUNCTION_ARG_PASS_BY_REFERENCE
          || FUNCTION_ARG_PASS_BY_REFERENCE (args_so_far, TYPE_MODE (type),
                                             type, argpos < n_named_args)
 #endif
          )
        {
+         /* If we're compiling a thunk, pass through invisible
+             references instead of making a copy.  */
+         if (current_function_is_thunk
 #ifdef FUNCTION_ARG_CALLEE_COPIES
-         if (FUNCTION_ARG_CALLEE_COPIES (args_so_far, TYPE_MODE (type), type,
-                                         argpos < n_named_args)
-             /* If it's in a register, we must make a copy of it too.  */
-             /* ??? Is this a sufficient test?  Is there a better one? */
-             && !(TREE_CODE (args[i].tree_value) == VAR_DECL
-                  && REG_P (DECL_RTL (args[i].tree_value))))
+             || (FUNCTION_ARG_CALLEE_COPIES (args_so_far, TYPE_MODE (type),
+                                            type, argpos < n_named_args)
+                 /* If it's in a register, we must make a copy of it too.  */
+                 /* ??? Is this a sufficient test?  Is there a better one? */
+                 && !(TREE_CODE (args[i].tree_value) == VAR_DECL
+                      && REG_P (DECL_RTL (args[i].tree_value)))
+                 && ! TREE_ADDRESSABLE (type))
+#endif
+             )
            {
              args[i].tree_value = build1 (ADDR_EXPR,
                                           build_pointer_type (type),
@@ -981,14 +1083,17 @@ expand_call (exp, target, ignore)
              type = build_pointer_type (type);
            }
          else
-#endif
            {
              /* We make a copy of the object and pass the address to the
                 function being called.  */
              rtx copy;
 
              if (TYPE_SIZE (type) == 0
-                 || TREE_CODE (TYPE_SIZE (type)) != INTEGER_CST)
+                 || TREE_CODE (TYPE_SIZE (type)) != INTEGER_CST
+                 || (flag_stack_check && ! STACK_CHECK_BUILTIN
+                     && (TREE_INT_CST_HIGH (TYPE_SIZE (type)) != 0
+                         || (TREE_INT_CST_LOW (TYPE_SIZE (type))
+                             > STACK_CHECK_MAX_VAR_SIZE * BITS_PER_UNIT))))
                {
                  /* This is a variable-sized object.  Make space on the stack
                     for it.  */
@@ -1001,24 +1106,21 @@ expand_call (exp, target, ignore)
                      pending_stack_adjust = 0;
                    }
 
-                 copy = gen_rtx (MEM, BLKmode,
-                                 allocate_dynamic_stack_space (size_rtx,
-                                                               NULL_RTX,
-                                                               TYPE_ALIGN (type)));
+                 copy = gen_rtx_MEM (BLKmode,
+                                     allocate_dynamic_stack_space (size_rtx,
+                                                                   NULL_RTX,
+                                                                   TYPE_ALIGN (type)));
                }
              else
                {
                  int size = int_size_in_bytes (type);
-                 copy = assign_stack_temp (TYPE_MODE (type), size, 1);
+                 copy = assign_stack_temp (TYPE_MODE (type), size, 0);
                }
 
-             MEM_IN_STRUCT_P (copy)
-               = (TREE_CODE (type) == RECORD_TYPE
-                  || TREE_CODE (type) == UNION_TYPE
-                  || TREE_CODE (type) == QUAL_UNION_TYPE
-                  || TREE_CODE (type) == ARRAY_TYPE);
+             MEM_IN_STRUCT_P (copy) = AGGREGATE_TYPE_P (type);
 
              store_expr (args[i].tree_value, copy, 0);
+             is_const = 0;
 
              args[i].tree_value = build1 (ADDR_EXPR,
                                           build_pointer_type (type),
@@ -1028,20 +1130,13 @@ expand_call (exp, target, ignore)
        }
 
       mode = TYPE_MODE (type);
+      unsignedp = TREE_UNSIGNED (type);
 
 #ifdef PROMOTE_FUNCTION_ARGS
-      /* Compute the mode in which the arg is actually to be extended to.  */
-      if (TREE_CODE (type) == INTEGER_TYPE || TREE_CODE (type) == ENUMERAL_TYPE
-         || TREE_CODE (type) == BOOLEAN_TYPE || TREE_CODE (type) == CHAR_TYPE
-         || TREE_CODE (type) == REAL_TYPE || TREE_CODE (type) == POINTER_TYPE
-         || TREE_CODE (type) == OFFSET_TYPE)
-       {
-         int unsignedp = TREE_UNSIGNED (type);
-         PROMOTE_MODE (mode, unsignedp, type);
-         args[i].unsignedp = unsignedp;
-       }
+      mode = promote_mode (type, mode, &unsignedp, 1);
 #endif
 
+      args[i].unsignedp = unsignedp;
       args[i].mode = mode;
       args[i].reg = FUNCTION_ARG (args_so_far, mode, type,
                                  argpos < n_named_args);
@@ -1054,12 +1149,12 @@ expand_call (exp, target, ignore)
 
       args[i].pass_on_stack = MUST_PASS_IN_STACK (mode, type);
 
-      /* If FUNCTION_ARG returned an (expr_list (nil) FOO), it means that
-        we are to pass this arg in the register(s) designated by FOO, but
-        also to pass it in the stack.  */
-      if (args[i].reg && GET_CODE (args[i].reg) == EXPR_LIST
-         && XEXP (args[i].reg, 0) == 0)
-       args[i].pass_on_stack = 1, args[i].reg = XEXP (args[i].reg, 1);
+      /* If FUNCTION_ARG returned a (parallel [(expr_list (nil) ...) ...]),
+        it means that we are to pass this arg in the register(s) designated
+        by the PARALLEL, but also to pass it in the stack.  */
+      if (args[i].reg && GET_CODE (args[i].reg) == PARALLEL
+         && XEXP (XVECEXP (args[i].reg, 0, 0), 0) == 0)
+       args[i].pass_on_stack = 1;
 
       /* If this is an addressable type, we must preallocate the stack
         since we must evaluate the object into its final location.
@@ -1077,9 +1172,7 @@ expand_call (exp, target, ignore)
 
       /* Compute the stack-size of this argument.  */
       if (args[i].reg == 0 || args[i].partial != 0
-#ifdef REG_PARM_STACK_SPACE
          || reg_parm_stack_space > 0
-#endif
          || args[i].pass_on_stack)
        locate_and_pad_parm (mode, type,
 #ifdef STACK_PARMS_IN_REG_PARM_AREA
@@ -1094,14 +1187,12 @@ expand_call (exp, target, ignore)
       args[i].slot_offset = args_size;
 #endif
 
-#ifndef REG_PARM_STACK_SPACE
       /* If a part of the arg was put into registers,
         don't include that part in the amount pushed.  */
-      if (! args[i].pass_on_stack)
+      if (reg_parm_stack_space == 0 && ! args[i].pass_on_stack)
        args[i].size.constant -= ((args[i].partial * UNITS_PER_WORD)
                                  / (PARM_BOUNDARY / BITS_PER_UNIT)
                                  * (PARM_BOUNDARY / BITS_PER_UNIT));
-#endif
       
       /* Update ARGS_SIZE, the total stack space for args so far.  */
 
@@ -1158,12 +1249,11 @@ expand_call (exp, target, ignore)
        args_size.var = round_up (args_size.var, STACK_BYTES);
 #endif
 
-#ifdef REG_PARM_STACK_SPACE
       if (reg_parm_stack_space > 0)
        {
          args_size.var
            = size_binop (MAX_EXPR, args_size.var,
-                         size_int (REG_PARM_STACK_SPACE (fndecl)));
+                         size_int (reg_parm_stack_space));
 
 #ifndef OUTGOING_REG_PARM_STACK_SPACE
          /* The area corresponding to register parameters is not to count in
@@ -1173,7 +1263,6 @@ expand_call (exp, target, ignore)
                          size_int (reg_parm_stack_space));
 #endif
        }
-#endif
     }
   else
     {
@@ -1182,17 +1271,17 @@ expand_call (exp, target, ignore)
                             / STACK_BYTES) * STACK_BYTES);
 #endif
 
-#ifdef REG_PARM_STACK_SPACE
       args_size.constant = MAX (args_size.constant,
                                reg_parm_stack_space);
+
 #ifdef MAYBE_REG_PARM_STACK_SPACE
       if (reg_parm_stack_space == 0)
        args_size.constant = 0;
 #endif
+
 #ifndef OUTGOING_REG_PARM_STACK_SPACE
       args_size.constant -= reg_parm_stack_space;
 #endif
-#endif
     }
 
   /* See if we have or want to preallocate stack space.
@@ -1274,26 +1363,35 @@ expand_call (exp, target, ignore)
        || (must_preallocate && (args_size.var != 0 || args_size.constant != 0)
            && calls_function (args[i].tree_value, 0)))
       {
+       /* If this is an addressable type, we cannot pre-evaluate it.  */
+       if (TREE_ADDRESSABLE (TREE_TYPE (args[i].tree_value)))
+         abort ();
+
        push_temp_slots ();
 
        args[i].initial_value = args[i].value
          = expand_expr (args[i].tree_value, NULL_RTX, VOIDmode, 0);
 
-       if (GET_MODE (args[i].value ) != VOIDmode
-           && GET_MODE (args[i].value) != args[i].mode)
-         args[i].value = convert_to_mode (args[i].mode, args[i].value,
-                                          args[i].unsignedp);
        preserve_temp_slots (args[i].value);
        pop_temp_slots ();
 
        /* ANSI doesn't require a sequence point here,
           but PCC has one, so this will avoid some problems.  */
        emit_queue ();
+
+       args[i].initial_value = args[i].value
+         = protect_from_queue (args[i].initial_value, 0);
+
+       if (TYPE_MODE (TREE_TYPE (args[i].tree_value)) != args[i].mode)
+         args[i].value
+           = convert_modes (args[i].mode, 
+                            TYPE_MODE (TREE_TYPE (args[i].tree_value)),
+                            args[i].value, args[i].unsignedp);
       }
 
   /* Now we are about to start emitting insns that can be deleted
      if a libcall is deleted.  */
-  if (is_const)
+  if (is_const || is_malloc)
     start_sequence ();
 
   /* If we have no actual push instructions, or shouldn't use them,
@@ -1316,105 +1414,111 @@ expand_call (exp, target, ignore)
        }
       argblock = push_block (ARGS_SIZE_RTX (args_size), 0, 0);
     }
-  else if (must_preallocate)
+  else
     {
       /* Note that we must go through the motions of allocating an argument
         block even if the size is zero because we may be storing args
         in the area reserved for register arguments, which may be part of
         the stack frame.  */
-      int needed = args_size.constant;
-
-#ifdef ACCUMULATE_OUTGOING_ARGS
-      /* Store the maximum argument space used.  It will be pushed by the
-        prologue.
 
-        Since the stack pointer will never be pushed, it is possible for
-        the evaluation of a parm to clobber something we have already
-        written to the stack.  Since most function calls on RISC machines
-        do not use the stack, this is uncommon, but must work correctly.
-        
-        Therefore, we save any area of the stack that was already written
-        and that we are using.  Here we set up to do this by making a new
-        stack usage map from the old one.  The actual save will be done
-        by store_one_arg. 
+      int needed = args_size.constant;
 
-        Another approach might be to try to reorder the argument
-        evaluations to avoid this conflicting stack usage.  */
+      /* Store the maximum argument space used.  It will be pushed by
+        the prologue (if ACCUMULATE_OUTGOING_ARGS, or stack overflow
+        checking).  */
 
       if (needed > current_function_outgoing_args_size)
        current_function_outgoing_args_size = needed;
 
-#if defined(REG_PARM_STACK_SPACE) && ! defined(OUTGOING_REG_PARM_STACK_SPACE)
-      /* Since we will be writing into the entire argument area, the
-        map must be allocated for its entire size, not just the part that
-        is the responsibility of the caller.  */
-      needed += reg_parm_stack_space;
+      if (must_preallocate)
+       {
+#ifdef ACCUMULATE_OUTGOING_ARGS
+         /* Since the stack pointer will never be pushed, it is possible for
+            the evaluation of a parm to clobber something we have already
+            written to the stack.  Since most function calls on RISC machines
+            do not use the stack, this is uncommon, but must work correctly.
+
+            Therefore, we save any area of the stack that was already written
+            and that we are using.  Here we set up to do this by making a new
+            stack usage map from the old one.  The actual save will be done
+            by store_one_arg. 
+
+            Another approach might be to try to reorder the argument
+            evaluations to avoid this conflicting stack usage.  */
+
+#ifndef OUTGOING_REG_PARM_STACK_SPACE
+         /* Since we will be writing into the entire argument area, the
+            map must be allocated for its entire size, not just the part that
+            is the responsibility of the caller.  */
+         needed += reg_parm_stack_space;
 #endif
 
 #ifdef ARGS_GROW_DOWNWARD
-      highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
-                                        needed + 1);
+         highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                            needed + 1);
 #else
-      highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use, needed);
+         highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                            needed);
 #endif
-      stack_usage_map = (char *) alloca (highest_outgoing_arg_in_use);
+         stack_usage_map = (char *) alloca (highest_outgoing_arg_in_use);
 
-      if (initial_highest_arg_in_use)
-       bcopy (initial_stack_usage_map, stack_usage_map,
-              initial_highest_arg_in_use);
+         if (initial_highest_arg_in_use)
+           bcopy (initial_stack_usage_map, stack_usage_map,
+                  initial_highest_arg_in_use);
 
-      if (initial_highest_arg_in_use != highest_outgoing_arg_in_use)
-       bzero (&stack_usage_map[initial_highest_arg_in_use],
-              highest_outgoing_arg_in_use - initial_highest_arg_in_use);
-      needed = 0;
+         if (initial_highest_arg_in_use != highest_outgoing_arg_in_use)
+           bzero (&stack_usage_map[initial_highest_arg_in_use],
+                  highest_outgoing_arg_in_use - initial_highest_arg_in_use);
+         needed = 0;
 
-      /* The address of the outgoing argument list must not be copied to a
-        register here, because argblock would be left pointing to the
-        wrong place after the call to allocate_dynamic_stack_space below. */
+         /* The address of the outgoing argument list must not be copied to a
+            register here, because argblock would be left pointing to the
+            wrong place after the call to allocate_dynamic_stack_space below.
+            */
 
-      argblock = virtual_outgoing_args_rtx;
+         argblock = virtual_outgoing_args_rtx;
 
 #else /* not ACCUMULATE_OUTGOING_ARGS */
-      if (inhibit_defer_pop == 0)
-       {
-         /* Try to reuse some or all of the pending_stack_adjust
-            to get this space.  Maybe we can avoid any pushing.  */
-         if (needed > pending_stack_adjust)
+         if (inhibit_defer_pop == 0)
            {
-             needed -= pending_stack_adjust;
-             pending_stack_adjust = 0;
+             /* Try to reuse some or all of the pending_stack_adjust
+                to get this space.  Maybe we can avoid any pushing.  */
+             if (needed > pending_stack_adjust)
+               {
+                 needed -= pending_stack_adjust;
+                 pending_stack_adjust = 0;
+               }
+             else
+               {
+                 pending_stack_adjust -= needed;
+                 needed = 0;
+               }
            }
+         /* Special case this because overhead of `push_block' in this
+            case is non-trivial.  */
+         if (needed == 0)
+           argblock = virtual_outgoing_args_rtx;
          else
-           {
-             pending_stack_adjust -= needed;
-             needed = 0;
-           }
-       }
-      /* Special case this because overhead of `push_block' in this
-        case is non-trivial.  */
-      if (needed == 0)
-       argblock = virtual_outgoing_args_rtx;
-      else
-       argblock = push_block (GEN_INT (needed), 0, 0);
-
-      /* We only really need to call `copy_to_reg' in the case where push
-        insns are going to be used to pass ARGBLOCK to a function
-        call in ARGS.  In that case, the stack pointer changes value
-        from the allocation point to the call point, and hence
-        the value of VIRTUAL_OUTGOING_ARGS_RTX changes as well.
-        But might as well always do it.  */
-      argblock = copy_to_reg (argblock);
+           argblock = push_block (GEN_INT (needed), 0, 0);
+
+         /* We only really need to call `copy_to_reg' in the case where push
+            insns are going to be used to pass ARGBLOCK to a function
+            call in ARGS.  In that case, the stack pointer changes value
+            from the allocation point to the call point, and hence
+            the value of VIRTUAL_OUTGOING_ARGS_RTX changes as well.
+            But might as well always do it.  */
+         argblock = copy_to_reg (argblock);
 #endif /* not ACCUMULATE_OUTGOING_ARGS */
+       }
     }
 
-
 #ifdef ACCUMULATE_OUTGOING_ARGS
   /* The save/restore code in store_one_arg handles all cases except one:
      a constructor call (including a C function returning a BLKmode struct)
      to initialize an argument.  */
   if (stack_arg_under_construction)
     {
-#if defined(REG_PARM_STACK_SPACE) && ! defined(OUTGOING_REG_PARM_STACK_SPACE)
+#ifndef OUTGOING_REG_PARM_STACK_SPACE
       rtx push_size = GEN_INT (reg_parm_stack_space + args_size.constant);
 #else
       rtx push_size = GEN_INT (args_size.constant);
@@ -1471,23 +1575,20 @@ expand_call (exp, target, ignore)
          if (GET_CODE (offset) == CONST_INT)
            addr = plus_constant (arg_reg, INTVAL (offset));
          else
-           addr = gen_rtx (PLUS, Pmode, arg_reg, offset);
+           addr = gen_rtx_PLUS (Pmode, arg_reg, offset);
 
          addr = plus_constant (addr, arg_offset);
-         args[i].stack = gen_rtx (MEM, args[i].mode, addr);
+         args[i].stack = gen_rtx_MEM (args[i].mode, addr);
          MEM_IN_STRUCT_P (args[i].stack)
-           = (TREE_CODE (TREE_TYPE (args[i].tree_value)) == RECORD_TYPE
-              || TREE_CODE (TREE_TYPE (args[i].tree_value)) == UNION_TYPE
-              || TREE_CODE (TREE_TYPE (args[i].tree_value)) == QUAL_UNION_TYPE
-              || TREE_CODE (TREE_TYPE (args[i].tree_value)) == ARRAY_TYPE);
+           = AGGREGATE_TYPE_P (TREE_TYPE (args[i].tree_value));
 
          if (GET_CODE (slot_offset) == CONST_INT)
            addr = plus_constant (arg_reg, INTVAL (slot_offset));
          else
-           addr = gen_rtx (PLUS, Pmode, arg_reg, slot_offset);
+           addr = gen_rtx_PLUS (Pmode, arg_reg, slot_offset);
 
          addr = plus_constant (addr, arg_offset);
-         args[i].stack_slot = gen_rtx (MEM, args[i].mode, addr);
+         args[i].stack_slot = gen_rtx_MEM (args[i].mode, addr);
        }
     }
                                               
@@ -1526,6 +1627,12 @@ expand_call (exp, target, ignore)
       push_temp_slots ();
       funexp = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, VOIDmode, 0);
       pop_temp_slots ();       /* FUNEXP can't be BLKmode */
+
+      /* Check the function is executable.  */
+      if (flag_check_memory_usage)
+       emit_library_call (chkr_check_exec_libfunc, 1,
+                          VOIDmode, 1,
+                          funexp, ptr_mode);
       emit_queue ();
     }
 
@@ -1542,7 +1649,7 @@ expand_call (exp, target, ignore)
     }
 
   /* Precompute all register parameters.  It isn't safe to compute anything
-     once we have started filling any specific hard regs. */
+     once we have started filling any specific hard regs.  */
   reg_parm_seen = 0;
   for (i = 0; i < num_actuals; i++)
     if (args[i].reg != 0 && ! args[i].pass_on_stack)
@@ -1573,18 +1680,24 @@ expand_call (exp, target, ignore)
 
        /* If the value is expensive, and we are inside an appropriately 
           short loop, put the value into a pseudo and then put the pseudo
-          into the hard reg.  */
+          into the hard reg.
+
+          For small register classes, also do this if this call uses
+          register parameters.  This is to avoid reload conflicts while
+          loading the parameters registers.  */
 
        if ((! (GET_CODE (args[i].value) == REG
                || (GET_CODE (args[i].value) == SUBREG
                    && GET_CODE (SUBREG_REG (args[i].value)) == REG)))
            && args[i].mode != BLKmode
            && rtx_cost (args[i].value, SET) > 2
-           && preserve_subexpressions_p ())
+           && ((SMALL_REGISTER_CLASSES && reg_parm_seen)
+               || preserve_subexpressions_p ()))
          args[i].value = copy_to_mode_reg (args[i].mode, args[i].value);
       }
 
 #if defined(ACCUMULATE_OUTGOING_ARGS) && defined(REG_PARM_STACK_SPACE)
+
   /* The argument list is the property of the called routine and it
      may clobber it.  If the fixed area has been used for previous
      parameters, we must save and restore it.
@@ -1619,20 +1732,21 @@ expand_call (exp, target, ignore)
                               BIGGEST_ALIGNMENT / UNITS_PER_WORD) - 1)))
        save_mode = BLKmode;
 
-      stack_area = gen_rtx (MEM, save_mode,
-                           memory_address (save_mode,
-                                           
 #ifdef ARGS_GROW_DOWNWARD
-                                           plus_constant (argblock,
-                                                          - high_to_save)
+      stack_area = gen_rtx_MEM (save_mode,
+                               memory_address (save_mode,
+                                               plus_constant (argblock,
+                                                              - high_to_save)));
 #else
-                                           plus_constant (argblock,
-                                                          low_to_save)
+      stack_area = gen_rtx_MEM (save_mode,
+                               memory_address (save_mode,
+                                               plus_constant (argblock,
+                                                              low_to_save)));
 #endif
-                                           ));
       if (save_mode == BLKmode)
        {
-         save_area = assign_stack_temp (BLKmode, num_to_save, 1);
+         save_area = assign_stack_temp (BLKmode, num_to_save, 0);
+         MEM_IN_STRUCT_P (save_area) = 0;
          emit_block_move (validize_mem (save_area), stack_area,
                           GEN_INT (num_to_save),
                           PARM_BOUNDARY / BITS_PER_UNIT);
@@ -1657,68 +1771,73 @@ expand_call (exp, target, ignore)
       store_one_arg (&args[i], argblock, may_be_alloca,
                     args_size.var != 0, fndecl, reg_parm_stack_space);
 
-#ifdef STRICT_ALIGNMENT
   /* If we have a parm that is passed in registers but not in memory
      and whose alignment does not permit a direct copy into registers,
      make a group of pseudos that correspond to each register that we
      will later fill.  */
 
-  for (i = 0; i < num_actuals; i++)
-    if (args[i].reg != 0 && ! args[i].pass_on_stack
+  if (STRICT_ALIGNMENT)
+    for (i = 0; i < num_actuals; i++)
+      if (args[i].reg != 0 && ! args[i].pass_on_stack
        && args[i].mode == BLKmode
-       && (TYPE_ALIGN (TREE_TYPE (args[i].tree_value))
-           < MIN (BIGGEST_ALIGNMENT, BITS_PER_WORD)))
-      {
-       int bytes = int_size_in_bytes (TREE_TYPE (args[i].tree_value));
-       int big_endian_correction = 0;
+         && (TYPE_ALIGN (TREE_TYPE (args[i].tree_value))
+             < MIN (BIGGEST_ALIGNMENT, BITS_PER_WORD)))
+       {
+         int bytes = int_size_in_bytes (TREE_TYPE (args[i].tree_value));
+         int big_endian_correction = 0;
 
-       args[i].n_aligned_regs
-         = args[i].partial ? args[i].partial
-           : (bytes + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD;
+         args[i].n_aligned_regs
+           = args[i].partial ? args[i].partial
+             : (bytes + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD;
 
-       args[i].aligned_regs = (rtx *) alloca (sizeof (rtx)
-                                              * args[i].n_aligned_regs);
+         args[i].aligned_regs = (rtx *) alloca (sizeof (rtx)
+                                                * args[i].n_aligned_regs);
 
-       /* Structures smaller than a word are aligned to the least signifcant
-          byte (to the right).  On a BYTES_BIG_ENDIAN machine, this means we
-          must skip the empty high order bytes when calculating the bit
-          offset.  */
-       if (BYTES_BIG_ENDIAN && bytes < UNITS_PER_WORD)
-         big_endian_correction = (BITS_PER_WORD  - (bytes * BITS_PER_UNIT));
+         /* Structures smaller than a word are aligned to the least
+            significant byte (to the right).  On a BYTES_BIG_ENDIAN machine,
+            this means we must skip the empty high order bytes when
+            calculating the bit offset.  */
+         if (BYTES_BIG_ENDIAN && bytes < UNITS_PER_WORD)
+           big_endian_correction = (BITS_PER_WORD  - (bytes * BITS_PER_UNIT));
 
-       for (j = 0; j < args[i].n_aligned_regs; j++)
-         {
-           rtx reg = gen_reg_rtx (word_mode);
-           rtx word = operand_subword_force (args[i].value, j, BLKmode);
-           int bitsize = TYPE_ALIGN (TREE_TYPE (args[i].tree_value));
-           int bitpos;
-
-           args[i].aligned_regs[j] = reg;
-
-           /* Clobber REG and move each partword into it.  Ensure we don't
-              go past the end of the structure.  Note that the loop below
-              works because we've already verified that padding
-              and endianness are compatible.  */
-
-           emit_insn (gen_rtx (CLOBBER, VOIDmode, reg));
-
-           for (bitpos = 0;
-                bitpos < BITS_PER_WORD && bytes > 0;
-                bitpos += bitsize, bytes -= bitsize / BITS_PER_UNIT)
-             {
-               int xbitpos = bitpos + big_endian_correction;
-
-               store_bit_field (reg, bitsize, xbitpos, word_mode,
-                                extract_bit_field (word, bitsize, bitpos, 1,
-                                                   NULL_RTX, word_mode,
-                                                   word_mode,
-                                                   bitsize / BITS_PER_UNIT,
-                                                   BITS_PER_WORD),
-                                bitsize / BITS_PER_UNIT, BITS_PER_WORD);
-             }
-         }
-      }
-#endif
+         for (j = 0; j < args[i].n_aligned_regs; j++)
+           {
+             rtx reg = gen_reg_rtx (word_mode);
+             rtx word = operand_subword_force (args[i].value, j, BLKmode);
+             int bitsize = TYPE_ALIGN (TREE_TYPE (args[i].tree_value));
+             int bitpos;
+
+             args[i].aligned_regs[j] = reg;
+
+             /* Clobber REG and move each partword into it.  Ensure we don't
+                go past the end of the structure.  Note that the loop below
+                works because we've already verified that padding
+                and endianness are compatible.
+
+                We use to emit a clobber here but that doesn't let later
+                passes optimize the instructions we emit.  By storing 0 into
+                the register later passes know the first AND to zero out the
+                bitfield being set in the register is unnecessary.  The store
+                of 0 will be deleted as will at least the first AND.  */
+
+             emit_move_insn (reg, const0_rtx);
+
+             for (bitpos = 0;
+                  bitpos < BITS_PER_WORD && bytes > 0;
+                  bitpos += bitsize, bytes -= bitsize / BITS_PER_UNIT)
+               {
+                 int xbitpos = bitpos + big_endian_correction;
+
+                 store_bit_field (reg, bitsize, xbitpos, word_mode,
+                                  extract_bit_field (word, bitsize, bitpos, 1,
+                                                     NULL_RTX, word_mode,
+                                                     word_mode,
+                                                     bitsize / BITS_PER_UNIT,
+                                                     BITS_PER_WORD),
+                                  bitsize / BITS_PER_UNIT, BITS_PER_WORD);
+               }
+           }
+       }
 
   /* Now store any partially-in-registers parm.
      This is the last place a block-move can happen.  */
@@ -1753,38 +1872,41 @@ expand_call (exp, target, ignore)
                      force_reg (Pmode,
                                 force_operand (structure_value_addr,
                                                NULL_RTX)));
+
+      /* Mark the memory for the aggregate as write-only.  */
+      if (flag_check_memory_usage)
+       emit_library_call (chkr_set_right_libfunc, 1,
+                          VOIDmode, 3,
+                          structure_value_addr, ptr_mode, 
+                          GEN_INT (struct_value_size), TYPE_MODE (sizetype),
+                          GEN_INT (MEMORY_USE_WO),
+                          TYPE_MODE (integer_type_node));
+
       if (GET_CODE (struct_value_rtx) == REG)
-       {
-         push_to_sequence (use_insns);
-         emit_insn (gen_rtx (USE, VOIDmode, struct_value_rtx));
-         use_insns = get_insns ();
-         end_sequence ();
-       }
+         use_reg (&call_fusage, struct_value_rtx);
     }
 
+  funexp = prepare_call_address (funexp, fndecl, &call_fusage, reg_parm_seen);
+
   /* Now do the register loads required for any wholly-register parms or any
      parms which are passed both on the stack and in a register.  Their
      expressions were already evaluated. 
 
      Mark all register-parms as living through the call, putting these USE
-     insns in a list headed by USE_INSNS.  */
+     insns in the CALL_INSN_FUNCTION_USAGE field.  */
 
+#ifdef LOAD_ARGS_REVERSED
+  for (i = num_actuals - 1; i >= 0; i--)
+#else
   for (i = 0; i < num_actuals; i++)
+#endif
     {
-      rtx list = args[i].reg;
+      rtx reg = args[i].reg;
       int partial = args[i].partial;
+      int nregs;
 
-      while (list)
+      if (reg)
        {
-         rtx reg;
-         int nregs;
-
-         /* Process each register that needs to get this arg.  */
-         if (GET_CODE (list) == EXPR_LIST)
-           reg = XEXP (list, 0), list = XEXP (list, 1);
-         else
-           reg = list, list = 0;
-
          /* Set to non-negative if must move a word at a time, even if just
             one word (e.g, partial == 1 && mode == DFmode).  Set to -1 if
             we just use a normal move insn.  This value can be zero if the
@@ -1795,39 +1917,40 @@ expand_call (exp, target, ignore)
                          + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD)
                      : -1));
 
+         /* Handle calls that pass values in multiple non-contiguous
+            locations.  The Irix 6 ABI has examples of this.  */
+
+         if (GET_CODE (reg) == PARALLEL)
+           emit_group_load (reg, args[i].value);
+
          /* If simple case, just do move.  If normal partial, store_one_arg
             has already loaded the register for us.  In all other cases,
             load the register(s) from memory.  */
 
-         if (nregs == -1)
+         else if (nregs == -1)
            emit_move_insn (reg, args[i].value);
 
-#ifdef STRICT_ALIGNMENT
          /* If we have pre-computed the values to put in the registers in
             the case of non-aligned structures, copy them in now.  */
 
          else if (args[i].n_aligned_regs != 0)
            for (j = 0; j < args[i].n_aligned_regs; j++)
-             emit_move_insn (gen_rtx (REG, word_mode, REGNO (reg) + j),
+             emit_move_insn (gen_rtx_REG (word_mode, REGNO (reg) + j),
                              args[i].aligned_regs[j]);
-#endif
 
-         else if (args[i].partial == 0 || args[i].pass_on_stack)
+         else if (partial == 0 || args[i].pass_on_stack)
            move_block_to_reg (REGNO (reg),
                               validize_mem (args[i].value), nregs,
                               args[i].mode);
-       
-         push_to_sequence (use_insns);
-         if (nregs == -1)
-           emit_insn (gen_rtx (USE, VOIDmode, reg));
-         else
-           use_regs (REGNO (reg), nregs);
-         use_insns = get_insns ();
-         end_sequence ();
 
-         /* PARTIAL referred only to the first register, so clear it for the
-            next time.  */
-         partial = 0;
+         /* Handle calls that pass values in multiple non-contiguous
+            locations.  The Irix 6 ABI has examples of this.  */
+         if (GET_CODE (reg) == PARALLEL)
+           use_group_regs (&call_fusage, reg);
+         else if (nregs == -1)
+           use_reg (&call_fusage, reg);
+         else
+           use_regs (&call_fusage, REGNO (reg), nregs == 0 ? 1 : nregs);
        }
     }
 
@@ -1836,32 +1959,38 @@ expand_call (exp, target, ignore)
 
   /* All arguments and registers used for the call must be set up by now!  */
 
-  funexp = prepare_call_address (funexp, fndecl, &use_insns);
-
   /* Generate the actual call instruction.  */
-  emit_call_1 (funexp, funtype, args_size.constant, struct_value_size,
+  emit_call_1 (funexp, fndecl, funtype, args_size.constant, struct_value_size,
               FUNCTION_ARG (args_so_far, VOIDmode, void_type_node, 1),
-              valreg, old_inhibit_defer_pop, use_insns, is_const);
+              valreg, old_inhibit_defer_pop, call_fusage, is_const);
 
   /* If call is cse'able, make appropriate pair of reg-notes around it.
      Test valreg so we don't crash; may safely ignore `const'
-     if return type is void.  */
-  if (is_const && valreg != 0)
+     if return type is void.  Disable for PARALLEL return values, because
+     we have no way to move such values into a pseudo register.  */
+  if (is_const && valreg != 0 && GET_CODE (valreg) != PARALLEL)
     {
       rtx note = 0;
       rtx temp = gen_reg_rtx (GET_MODE (valreg));
       rtx insns;
 
+      /* Mark the return value as a pointer if needed.  */
+      if (TREE_CODE (TREE_TYPE (exp)) == POINTER_TYPE)
+       {
+         tree pointed_to = TREE_TYPE (TREE_TYPE (exp));
+         mark_reg_pointer (temp, TYPE_ALIGN (pointed_to) / BITS_PER_UNIT);
+       }
+
       /* Construct an "equal form" for the value which mentions all the
         arguments in order as well as the function name.  */
 #ifdef PUSH_ARGS_REVERSED
       for (i = 0; i < num_actuals; i++)
-       note = gen_rtx (EXPR_LIST, VOIDmode, args[i].initial_value, note);
+       note = gen_rtx_EXPR_LIST (VOIDmode, args[i].initial_value, note);
 #else
       for (i = num_actuals - 1; i >= 0; i--)
-       note = gen_rtx (EXPR_LIST, VOIDmode, args[i].initial_value, note);
+       note = gen_rtx_EXPR_LIST (VOIDmode, args[i].initial_value, note);
 #endif
-      note = gen_rtx (EXPR_LIST, VOIDmode, funexp, note);
+      note = gen_rtx_EXPR_LIST (VOIDmode, funexp, note);
 
       insns = get_insns ();
       end_sequence ();
@@ -1870,6 +1999,37 @@ expand_call (exp, target, ignore)
 
       valreg = temp;
     }
+  else if (is_const)
+    {
+      /* Otherwise, just write out the sequence without a note.  */
+      rtx insns = get_insns ();
+
+      end_sequence ();
+      emit_insns (insns);
+    }
+  else if (is_malloc)
+    {
+      rtx temp = gen_reg_rtx (GET_MODE (valreg));
+      rtx last, insns;
+
+      /* The return value from a malloc-like function is a pointer. */
+      if (TREE_CODE (TREE_TYPE (exp)) == POINTER_TYPE)
+       mark_reg_pointer (temp, BIGGEST_ALIGNMENT / BITS_PER_UNIT);
+
+      emit_move_insn (temp, valreg);
+
+      /* The return value from a malloc-like function can not alias
+        anything else.  */
+      last = get_last_insn ();
+      REG_NOTES (last) = 
+       gen_rtx_EXPR_LIST (REG_NOALIAS, temp, REG_NOTES (last));
+
+      /* Write out the sequence.  */
+      insns = get_insns ();
+      end_sequence ();
+      emit_insns (insns);
+      valreg = temp;
+    }
 
   /* For calls to `setjmp', etc., inform flow.c it should complain
      if nonvolatile values are live.  */
@@ -1893,8 +2053,9 @@ expand_call (exp, target, ignore)
 
   /* If value type not void, return an rtx for the value.  */
 
-  /* If there are cleanups to be called, don't use a hard reg as target.  */
-  if (cleanups_this_call != old_cleanups
+  /* If there are cleanups to be called, don't use a hard reg as target.
+     We need to double check this and see if it matters anymore.  */
+  if (any_pending_cleanups (1)
       && target && REG_P (target)
       && REGNO (target) < FIRST_PSEUDO_REGISTER)
     target = 0;
@@ -1908,52 +2069,34 @@ expand_call (exp, target, ignore)
     {
       if (target == 0 || GET_CODE (target) != MEM)
        {
-         target = gen_rtx (MEM, TYPE_MODE (TREE_TYPE (exp)),
-                           memory_address (TYPE_MODE (TREE_TYPE (exp)),
-                                           structure_value_addr));
-         MEM_IN_STRUCT_P (target)
-           = (TREE_CODE (TREE_TYPE (exp)) == ARRAY_TYPE
-              || TREE_CODE (TREE_TYPE (exp)) == RECORD_TYPE
-              || TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE
-              || TREE_CODE (TREE_TYPE (exp)) == QUAL_UNION_TYPE);
+         target = gen_rtx_MEM (TYPE_MODE (TREE_TYPE (exp)),
+                               memory_address (TYPE_MODE (TREE_TYPE (exp)),
+                                               structure_value_addr));
+         MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
        }
     }
   else if (pcc_struct_value)
     {
+      /* This is the special C++ case where we need to
+        know what the true target was.  We take care to
+        never use this value more than once in one expression.  */
+      target = gen_rtx_MEM (TYPE_MODE (TREE_TYPE (exp)),
+                           copy_to_reg (valreg));
+      MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
+    }
+  /* Handle calls that return values in multiple non-contiguous locations.
+     The Irix 6 ABI has examples of this.  */
+  else if (GET_CODE (valreg) == PARALLEL)
+    {
       if (target == 0)
        {
-         /* We used leave the value in the location that it is
-            returned in, but that causes problems if it is used more
-            than once in one expression.  Rather than trying to track
-            when a copy is required, we always copy when TARGET is
-            not specified.  This calling sequence is only used on
-            a few machines and TARGET is usually nonzero.  */
-         if (TYPE_MODE (TREE_TYPE (exp)) == BLKmode)
-           {
-             target = assign_stack_temp (BLKmode,
-                                         int_size_in_bytes (TREE_TYPE (exp)),
-                                         0);
-
-             MEM_IN_STRUCT_P (target)
-               = (TREE_CODE (TREE_TYPE (exp)) == ARRAY_TYPE
-                  || TREE_CODE (TREE_TYPE (exp)) == RECORD_TYPE
-                  || TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE
-                  || TREE_CODE (TREE_TYPE (exp)) == QUAL_UNION_TYPE);
-
-             /* Save this temp slot around the pop below.  */
-             preserve_temp_slots (target);
-           }
-         else
-           target = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
+         int bytes = int_size_in_bytes (TREE_TYPE (exp));
+         target = assign_stack_temp (TYPE_MODE (TREE_TYPE (exp)), bytes, 0);
+         MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
+         preserve_temp_slots (target);
        }
 
-      if (TYPE_MODE (TREE_TYPE (exp)) != BLKmode)
-       emit_move_insn (target, gen_rtx (MEM, TYPE_MODE (TREE_TYPE (exp)),
-                                        copy_to_reg (valreg)));
-      else
-       emit_block_move (target, gen_rtx (MEM, BLKmode, copy_to_reg (valreg)),
-                        expr_size (exp),
-                        TYPE_ALIGN (TREE_TYPE (exp)) / BITS_PER_UNIT);
+      emit_group_store (target, valreg);
     }
   else if (target && GET_MODE (target) == TYPE_MODE (TREE_TYPE (exp))
           && GET_MODE (target) == GET_MODE (valreg))
@@ -1964,6 +2107,76 @@ expand_call (exp, target, ignore)
        If they refer to the same register, this move will be a no-op, except
        when function inlining is being done.  */
     emit_move_insn (target, valreg);
+  else if (TYPE_MODE (TREE_TYPE (exp)) == BLKmode)
+    {
+      /* Some machines (the PA for example) want to return all small
+        structures in registers regardless of the structure's alignment.
+        
+        Deal with them explicitly by copying from the return registers
+        into the target MEM locations.  */
+      int bytes = int_size_in_bytes (TREE_TYPE (exp));
+      rtx src, dst;
+      int bitsize = MIN (TYPE_ALIGN (TREE_TYPE (exp)), BITS_PER_WORD);
+      int bitpos, xbitpos, big_endian_correction = 0;
+      
+      if (target == 0)
+       {
+         target = assign_stack_temp (BLKmode, bytes, 0);
+         MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
+         preserve_temp_slots (target);
+       }
+
+      /* This code assumes valreg is at least a full word.  If it isn't,
+        copy it into a new pseudo which is a full word.  */
+      if (GET_MODE (valreg) != BLKmode
+         && GET_MODE_SIZE (GET_MODE (valreg)) < UNITS_PER_WORD)
+       valreg = convert_to_mode (word_mode, valreg,
+                                 TREE_UNSIGNED (TREE_TYPE (exp)));
+
+      /* Structures whose size is not a multiple of a word are aligned
+        to the least significant byte (to the right).  On a BYTES_BIG_ENDIAN
+        machine, this means we must skip the empty high order bytes when
+        calculating the bit offset.  */
+      if (BYTES_BIG_ENDIAN && bytes % UNITS_PER_WORD)
+       big_endian_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
+                                                 * BITS_PER_UNIT));
+
+      /* Copy the structure BITSIZE bites at a time.
+
+        We could probably emit more efficient code for machines
+        which do not use strict alignment, but it doesn't seem
+        worth the effort at the current time.  */
+      for (bitpos = 0, xbitpos = big_endian_correction;
+          bitpos < bytes * BITS_PER_UNIT;
+          bitpos += bitsize, xbitpos += bitsize)
+       {
+
+         /* We need a new source operand each time xbitpos is on a 
+            word boundary and when xbitpos == big_endian_correction
+            (the first time through).  */
+         if (xbitpos % BITS_PER_WORD == 0
+             || xbitpos == big_endian_correction)
+           src = operand_subword_force (valreg,
+                                        xbitpos / BITS_PER_WORD, 
+                                        BLKmode);
+
+         /* We need a new destination operand each time bitpos is on
+            a word boundary.  */
+         if (bitpos % BITS_PER_WORD == 0)
+           dst = operand_subword (target, bitpos / BITS_PER_WORD, 1, BLKmode);
+             
+         /* Use xbitpos for the source extraction (right justified) and
+            xbitpos for the destination store (left justified).  */
+         store_bit_field (dst, bitsize, bitpos % BITS_PER_WORD, word_mode,
+                          extract_bit_field (src, bitsize,
+                                             xbitpos % BITS_PER_WORD, 1,
+                                             NULL_RTX, word_mode,
+                                             word_mode,
+                                             bitsize / BITS_PER_UNIT,
+                                             BITS_PER_WORD),
+                          bitsize / BITS_PER_UNIT, BITS_PER_WORD);
+       }
+    }
   else
     target = copy_to_reg (valreg);
 
@@ -1971,36 +2184,23 @@ expand_call (exp, target, ignore)
   /* If we promoted this return value, make the proper SUBREG.  TARGET
      might be const0_rtx here, so be careful.  */
   if (GET_CODE (target) == REG
+      && TYPE_MODE (TREE_TYPE (exp)) != BLKmode
       && GET_MODE (target) != TYPE_MODE (TREE_TYPE (exp)))
     {
-      enum machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
-      int unsignedp = TREE_UNSIGNED (TREE_TYPE (exp));
-
-      if (TREE_CODE (TREE_TYPE (exp)) == INTEGER_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == ENUMERAL_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == BOOLEAN_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == CHAR_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == REAL_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == POINTER_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == OFFSET_TYPE)
-       {
-         PROMOTE_MODE (mode, unsignedp, TREE_TYPE (exp));
-       }
+      tree type = TREE_TYPE (exp);
+      int unsignedp = TREE_UNSIGNED (type);
 
-      /* If we didn't promote as expected, something is wrong.  */
-      if (mode != GET_MODE (target))
+      /* If we don't promote as expected, something is wrong.  */
+      if (GET_MODE (target)
+         != promote_mode (type, TYPE_MODE (type), &unsignedp, 1))
        abort ();
 
-      target = gen_rtx (SUBREG, TYPE_MODE (TREE_TYPE (exp)), target, 0);
+      target = gen_rtx_SUBREG (TYPE_MODE (type), target, 0);
       SUBREG_PROMOTED_VAR_P (target) = 1;
       SUBREG_PROMOTED_UNSIGNED_P (target) = unsignedp;
     }
 #endif
 
-  /* Perform all cleanups needed for the arguments of this call
-     (i.e. destructors in C++).  */
-  expand_cleanups_to (old_cleanups);
-
   /* If size of args is variable or this was a constructor call for a stack
      argument, restore saved stack-pointer value.  */
 
@@ -2021,15 +2221,19 @@ expand_call (exp, target, ignore)
       if (save_area)
        {
          enum machine_mode save_mode = GET_MODE (save_area);
-         rtx stack_area
-           = gen_rtx (MEM, save_mode,
-                      memory_address (save_mode,
 #ifdef ARGS_GROW_DOWNWARD
-                                      plus_constant (argblock, - high_to_save)
+         rtx stack_area
+           = gen_rtx_MEM (save_mode,
+                          memory_address (save_mode,
+                                          plus_constant (argblock,
+                                                         - high_to_save)));
 #else
-                                      plus_constant (argblock, low_to_save)
+         rtx stack_area
+           = gen_rtx_MEM (save_mode,
+                          memory_address (save_mode,
+                                          plus_constant (argblock,
+                                                         low_to_save)));
 #endif
-                                      ));
 
          if (save_mode != BLKmode)
            emit_move_insn (stack_area, save_area);
@@ -2046,9 +2250,9 @@ expand_call (exp, target, ignore)
          {
            enum machine_mode save_mode = GET_MODE (args[i].save_area);
            rtx stack_area
-             = gen_rtx (MEM, save_mode,
-                        memory_address (save_mode,
-                                        XEXP (args[i].stack_slot, 0)));
+             = gen_rtx_MEM (save_mode,
+                            memory_address (save_mode,
+                                            XEXP (args[i].stack_slot, 0)));
 
            if (save_mode != BLKmode)
              emit_move_insn (stack_area, args[i].save_area);
@@ -2065,7 +2269,7 @@ expand_call (exp, target, ignore)
 
   /* If this was alloca, record the new stack level for nonlocal gotos.  
      Check for the handler slots since we might not have a save area
-     for non-local gotos. */
+     for non-local gotos.  */
 
   if (may_be_alloca && nonlocal_goto_handler_slot != 0)
     emit_stack_save (SAVE_NONLOCAL, &nonlocal_goto_stack_level, NULL_RTX);
@@ -2117,12 +2321,32 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
   rtx argblock = 0;
   CUMULATIVE_ARGS args_so_far;
   struct arg { rtx value; enum machine_mode mode; rtx reg; int partial;
-              struct args_size offset; struct args_size size; };
+              struct args_size offset; struct args_size size; rtx save_area; };
   struct arg *argvec;
   int old_inhibit_defer_pop = inhibit_defer_pop;
-  rtx use_insns;
-  /* library calls are never indirect calls.  */
-  int current_call_is_indirect = 0;
+  rtx call_fusage = 0;
+  int reg_parm_stack_space = 0;
+#if defined(ACCUMULATE_OUTGOING_ARGS) && defined(REG_PARM_STACK_SPACE)
+  /* Define the boundary of the register parm stack space that needs to be
+     save, if any.  */
+  int low_to_save = -1, high_to_save;
+  rtx save_area = 0;            /* Place that it is saved */
+#endif
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
+  int initial_highest_arg_in_use = highest_outgoing_arg_in_use;
+  char *initial_stack_usage_map = stack_usage_map;
+  int needed;
+#endif
+
+#ifdef REG_PARM_STACK_SPACE
+  /* Size of the stack reserved for parameter registers.  */
+#ifdef MAYBE_REG_PARM_STACK_SPACE
+  reg_parm_stack_space = MAYBE_REG_PARM_STACK_SPACE;
+#else
+  reg_parm_stack_space = REG_PARM_STACK_SPACE (fndecl);
+#endif
+#endif
 
   VA_START (p, nargs);
 
@@ -2143,8 +2367,10 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
      library functions shouldn't have many args.  */
 
   argvec = (struct arg *) alloca (nargs * sizeof (struct arg));
+  bzero ((char *) argvec, nargs * sizeof (struct arg));
 
-  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun);
+
+  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun, 0);
 
   args_size.constant = 0;
   args_size.var = 0;
@@ -2166,7 +2392,7 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
         Pass it as a double instead.  */
 #ifdef LIBGCC_NEEDS_DOUBLE
       if (LIBGCC_NEEDS_DOUBLE && mode == SFmode)
-       val = convert_to_mode (DFmode, val, 0), mode = DFmode;
+       val = convert_modes (DFmode, SFmode, val, 0), mode = DFmode;
 #endif
 
       /* There's no need to call protect_from_queue, because
@@ -2184,7 +2410,7 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
             be viewed as just an efficiency improvement.  */
          rtx slot = assign_stack_temp (mode, GET_MODE_SIZE (mode), 0);
          emit_move_insn (slot, val);
-         val = XEXP (slot, 0);
+         val = force_operand (XEXP (slot, 0), NULL_RTX);
          mode = Pmode;
        }
 #endif
@@ -2193,7 +2419,7 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
       argvec[count].mode = mode;
 
       argvec[count].reg = FUNCTION_ARG (args_so_far, mode, NULL_TREE, 1);
-      if (argvec[count].reg && GET_CODE (argvec[count].reg) == EXPR_LIST)
+      if (argvec[count].reg && GET_CODE (argvec[count].reg) == PARALLEL)
        abort ();
 #ifdef FUNCTION_ARG_PARTIAL_NREGS
       argvec[count].partial
@@ -2210,35 +2436,22 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
       if (argvec[count].size.var)
        abort ();
 
-#ifndef REG_PARM_STACK_SPACE
-      if (argvec[count].partial)
+      if (reg_parm_stack_space == 0 && argvec[count].partial)
        argvec[count].size.constant -= argvec[count].partial * UNITS_PER_WORD;
-#endif
 
       if (argvec[count].reg == 0 || argvec[count].partial != 0
-#ifdef REG_PARM_STACK_SPACE
-         || 1
-#endif
-         )
+         || reg_parm_stack_space > 0)
        args_size.constant += argvec[count].size.constant;
 
-#ifdef ACCUMULATE_OUTGOING_ARGS
-      /* If this arg is actually passed on the stack, it might be
-        clobbering something we already put there (this library call might
-        be inside the evaluation of an argument to a function whose call
-        requires the stack).  This will only occur when the library call
-        has sufficient args to run out of argument registers.  Abort in
-        this case; if this ever occurs, code must be added to save and
-        restore the arg slot.  */
-
-      if (argvec[count].reg == 0 || argvec[count].partial != 0)
-       abort ();
-#endif
-
-      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree)0, 1);
+      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree) 0, 1);
     }
   va_end (p);
 
+#ifdef FINAL_REG_PARM_STACK_SPACE
+  reg_parm_stack_space = FINAL_REG_PARM_STACK_SPACE (args_size.constant,
+                                                    args_size.var);
+#endif
+      
   /* If this machine requires an external definition for library
      functions, write one out.  */
   assemble_external_libcall (fun);
@@ -2249,23 +2462,67 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
                         / STACK_BYTES) * STACK_BYTES);
 #endif
 
-#ifdef REG_PARM_STACK_SPACE
   args_size.constant = MAX (args_size.constant,
-                           REG_PARM_STACK_SPACE (NULL_TREE));
+                           reg_parm_stack_space);
+
 #ifndef OUTGOING_REG_PARM_STACK_SPACE
-  args_size.constant -= REG_PARM_STACK_SPACE (NULL_TREE);
-#endif
+  args_size.constant -= reg_parm_stack_space;
 #endif
 
-#ifdef ACCUMULATE_OUTGOING_ARGS
   if (args_size.constant > current_function_outgoing_args_size)
     current_function_outgoing_args_size = args_size.constant;
-  args_size.constant = 0;
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
+  /* Since the stack pointer will never be pushed, it is possible for
+     the evaluation of a parm to clobber something we have already
+     written to the stack.  Since most function calls on RISC machines
+     do not use the stack, this is uncommon, but must work correctly.
+
+     Therefore, we save any area of the stack that was already written
+     and that we are using.  Here we set up to do this by making a new
+     stack usage map from the old one.
+
+     Another approach might be to try to reorder the argument
+     evaluations to avoid this conflicting stack usage.  */
+
+  needed = args_size.constant;
+
+#ifndef OUTGOING_REG_PARM_STACK_SPACE
+  /* Since we will be writing into the entire argument area, the
+     map must be allocated for its entire size, not just the part that
+     is the responsibility of the caller.  */
+  needed += reg_parm_stack_space;
+#endif
+
+#ifdef ARGS_GROW_DOWNWARD
+  highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                    needed + 1);
+#else
+  highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                    needed);
 #endif
+  stack_usage_map = (char *) alloca (highest_outgoing_arg_in_use);
+
+  if (initial_highest_arg_in_use)
+    bcopy (initial_stack_usage_map, stack_usage_map,
+          initial_highest_arg_in_use);
 
+  if (initial_highest_arg_in_use != highest_outgoing_arg_in_use)
+    bzero (&stack_usage_map[initial_highest_arg_in_use],
+          highest_outgoing_arg_in_use - initial_highest_arg_in_use);
+  needed = 0;
+
+  /* The address of the outgoing argument list must not be copied to a
+     register here, because argblock would be left pointing to the
+     wrong place after the call to allocate_dynamic_stack_space below.
+     */
+
+  argblock = virtual_outgoing_args_rtx;
+#else /* not ACCUMULATE_OUTGOING_ARGS */
 #ifndef PUSH_ROUNDING
   argblock = push_block (GEN_INT (args_size.constant), 0, 0);
 #endif
+#endif
 
 #ifdef PUSH_ARGS_REVERSED
 #ifdef STACK_BOUNDARY
@@ -2285,19 +2542,131 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
   argnum = 0;
 #endif
 
+#if defined(ACCUMULATE_OUTGOING_ARGS) && defined(REG_PARM_STACK_SPACE)
+  /* The argument list is the property of the called routine and it
+     may clobber it.  If the fixed area has been used for previous
+     parameters, we must save and restore it.
+
+     Here we compute the boundary of the that needs to be saved, if any.  */
+
+#ifdef ARGS_GROW_DOWNWARD
+  for (count = 0; count < reg_parm_stack_space + 1; count++)
+#else
+  for (count = 0; count < reg_parm_stack_space; count++)
+#endif
+    {
+      if (count >=  highest_outgoing_arg_in_use
+         || stack_usage_map[count] == 0)
+       continue;
+
+      if (low_to_save == -1)
+       low_to_save = count;
+
+      high_to_save = count;
+    }
+
+  if (low_to_save >= 0)
+    {
+      int num_to_save = high_to_save - low_to_save + 1;
+      enum machine_mode save_mode
+       = mode_for_size (num_to_save * BITS_PER_UNIT, MODE_INT, 1);
+      rtx stack_area;
+
+      /* If we don't have the required alignment, must do this in BLKmode.  */
+      if ((low_to_save & (MIN (GET_MODE_SIZE (save_mode),
+                              BIGGEST_ALIGNMENT / UNITS_PER_WORD) - 1)))
+       save_mode = BLKmode;
+
+#ifdef ARGS_GROW_DOWNWARD
+      stack_area = gen_rtx_MEM (save_mode,
+                               memory_address (save_mode,
+                                               plus_constant (argblock,
+                                                              - high_to_save)));
+#else
+      stack_area = gen_rtx_MEM (save_mode,
+                               memory_address (save_mode,
+                                               plus_constant (argblock,
+                                                              low_to_save)));
+#endif
+      if (save_mode == BLKmode)
+       {
+         save_area = assign_stack_temp (BLKmode, num_to_save, 0);
+         MEM_IN_STRUCT_P (save_area) = 0;
+         emit_block_move (validize_mem (save_area), stack_area,
+                          GEN_INT (num_to_save),
+                          PARM_BOUNDARY / BITS_PER_UNIT);
+       }
+      else
+       {
+         save_area = gen_reg_rtx (save_mode);
+         emit_move_insn (save_area, stack_area);
+       }
+    }
+#endif
+         
   /* Push the args that need to be pushed.  */
 
+  /* ARGNUM indexes the ARGVEC array in the order in which the arguments
+     are to be pushed.  */
   for (count = 0; count < nargs; count++, argnum += inc)
     {
       register enum machine_mode mode = argvec[argnum].mode;
       register rtx val = argvec[argnum].value;
       rtx reg = argvec[argnum].reg;
       int partial = argvec[argnum].partial;
+#ifdef ACCUMULATE_OUTGOING_ARGS
+      int lower_bound, upper_bound, i;
+#endif
 
       if (! (reg != 0 && partial == 0))
-       emit_push_insn (val, mode, NULL_TREE, NULL_RTX, 0, partial, reg, 0,
-                       argblock, GEN_INT (argvec[count].offset.constant));
-      NO_DEFER_POP;
+       {
+#ifdef ACCUMULATE_OUTGOING_ARGS
+         /* If this is being stored into a pre-allocated, fixed-size, stack
+            area, save any previous data at that location.  */
+
+#ifdef ARGS_GROW_DOWNWARD
+         /* stack_slot is negative, but we want to index stack_usage_map
+            with positive values.  */
+         upper_bound = -argvec[argnum].offset.constant + 1;
+         lower_bound = upper_bound - argvec[argnum].size.constant;
+#else
+         lower_bound = argvec[argnum].offset.constant;
+         upper_bound = lower_bound + argvec[argnum].size.constant;
+#endif
+
+         for (i = lower_bound; i < upper_bound; i++)
+           if (stack_usage_map[i]
+               /* Don't store things in the fixed argument area at this point;
+                  it has already been saved.  */
+               && i > reg_parm_stack_space)
+             break;
+
+         if (i != upper_bound)
+           {
+             /* We need to make a save area.  See what mode we can make it. */
+             enum machine_mode save_mode
+               = mode_for_size (argvec[argnum].size.constant * BITS_PER_UNIT,
+                                MODE_INT, 1);
+             rtx stack_area
+               = gen_rtx_MEM (save_mode,
+                              memory_address (save_mode,
+                                              plus_constant (argblock, argvec[argnum].offset.constant)));
+             argvec[argnum].save_area = gen_reg_rtx (save_mode);
+             emit_move_insn (argvec[argnum].save_area, stack_area);
+           }
+#endif
+         emit_push_insn (val, mode, NULL_TREE, NULL_RTX, 0, partial, reg, 0,
+                         argblock, GEN_INT (argvec[argnum].offset.constant),
+                         reg_parm_stack_space);
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
+         /* Now mark the segment we just used.  */
+         for (i = lower_bound; i < upper_bound; i++)
+           stack_usage_map[i] = 1;
+#endif
+
+         NO_DEFER_POP;
+       }
     }
 
 #ifndef PUSH_ARGS_REVERSED
@@ -2316,11 +2685,14 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
   argnum = 0;
 #endif
 
+  fun = prepare_call_address (fun, NULL_TREE, &call_fusage, 0);
+
   /* Now load any reg parms into their regs.  */
 
+  /* ARGNUM indexes the ARGVEC array in the order in which the arguments
+     are to be pushed.  */
   for (count = 0; count < nargs; count++, argnum += inc)
     {
-      register enum machine_mode mode = argvec[argnum].mode;
       register rtx val = argvec[argnum].value;
       rtx reg = argvec[argnum].reg;
       int partial = argvec[argnum].partial;
@@ -2335,15 +2707,9 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
     emit_queue ();
 
   /* Any regs containing parms remain in use through the call.  */
-  start_sequence ();
   for (count = 0; count < nargs; count++)
     if (argvec[count].reg != 0)
-      emit_insn (gen_rtx (USE, VOIDmode, argvec[count].reg));
-
-  use_insns = get_insns ();
-  end_sequence ();
-
-  fun = prepare_call_address (fun, NULL_TREE, &use_insns);
+       use_reg (&call_fusage, argvec[count].reg);
 
   /* Don't allow popping to be deferred, since then
      cse'ing of library calls could delete a call and leave the pop.  */
@@ -2352,15 +2718,68 @@ emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
   /* We pass the old value of inhibit_defer_pop + 1 to emit_call_1, which
      will set inhibit_defer_pop to that value.  */
 
-  emit_call_1 (fun, get_identifier (XSTR (orgfun, 0)), args_size.constant, 0,
+  /* The return type is needed to decide how many bytes the function pops.
+     Signedness plays no role in that, so for simplicity, we pretend it's
+     always signed.  We also assume that the list of arguments passed has
+     no impact, so we pretend it is unknown.  */
+
+  emit_call_1 (fun, 
+               get_identifier (XSTR (orgfun, 0)), 
+              build_function_type (outmode == VOIDmode ? void_type_node
+                                   : type_for_mode (outmode, 0), NULL_TREE),
+               args_size.constant, 0,
               FUNCTION_ARG (args_so_far, VOIDmode, void_type_node, 1),
               outmode != VOIDmode ? hard_libcall_value (outmode) : NULL_RTX,
-              old_inhibit_defer_pop + 1, use_insns, no_queue);
+              old_inhibit_defer_pop + 1, call_fusage, no_queue);
 
   pop_temp_slots ();
 
   /* Now restore inhibit_defer_pop to its actual original value.  */
   OK_DEFER_POP;
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
+#ifdef REG_PARM_STACK_SPACE
+  if (save_area)
+    {
+      enum machine_mode save_mode = GET_MODE (save_area);
+#ifdef ARGS_GROW_DOWNWARD
+      rtx stack_area
+       = gen_rtx_MEM (save_mode,
+                      memory_address (save_mode,
+                                      plus_constant (argblock,
+                                                      - high_to_save)));
+#else
+      rtx stack_area
+       = gen_rtx_MEM (save_mode,
+                      memory_address (save_mode,
+                                      plus_constant (argblock, low_to_save)));
+#endif
+
+      if (save_mode != BLKmode)
+       emit_move_insn (stack_area, save_area);
+      else
+       emit_block_move (stack_area, validize_mem (save_area),
+                        GEN_INT (high_to_save - low_to_save + 1),
+                        PARM_BOUNDARY / BITS_PER_UNIT);
+    }
+#endif
+         
+  /* If we saved any argument areas, restore them.  */
+  for (count = 0; count < nargs; count++)
+    if (argvec[count].save_area)
+      {
+       enum machine_mode save_mode = GET_MODE (argvec[count].save_area);
+       rtx stack_area
+         = gen_rtx_MEM (save_mode,
+                        memory_address (save_mode,
+                                        plus_constant (argblock, argvec[count].offset.constant)));
+
+       emit_move_insn (stack_area, argvec[count].save_area);
+      }
+
+  highest_outgoing_arg_in_use = initial_highest_arg_in_use;
+  stack_usage_map = initial_stack_usage_map;
+#endif
 }
 \f
 /* Like emit_library_call except that an extra argument, VALUE,
@@ -2394,15 +2813,39 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
   rtx argblock = 0;
   CUMULATIVE_ARGS args_so_far;
   struct arg { rtx value; enum machine_mode mode; rtx reg; int partial;
-              struct args_size offset; struct args_size size; };
+              struct args_size offset; struct args_size size; rtx save_area; };
   struct arg *argvec;
   int old_inhibit_defer_pop = inhibit_defer_pop;
-  rtx use_insns;
+  rtx call_fusage = 0;
   rtx mem_value = 0;
   int pcc_struct_value = 0;
   int struct_value_size = 0;
-  /* library calls are never indirect calls.  */
-  int current_call_is_indirect = 0;
+  int is_const;
+  int reg_parm_stack_space = 0;
+#ifdef ACCUMULATE_OUTGOING_ARGS
+  int needed;
+#endif
+
+#if defined(ACCUMULATE_OUTGOING_ARGS) && defined(REG_PARM_STACK_SPACE)
+  /* Define the boundary of the register parm stack space that needs to be
+     save, if any.  */
+  int low_to_save = -1, high_to_save;
+  rtx save_area = 0;            /* Place that it is saved */
+#endif
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
+  /* Size of the stack reserved for parameter registers.  */
+  int initial_highest_arg_in_use = highest_outgoing_arg_in_use;
+  char *initial_stack_usage_map = stack_usage_map;
+#endif
+
+#ifdef REG_PARM_STACK_SPACE
+#ifdef MAYBE_REG_PARM_STACK_SPACE
+  reg_parm_stack_space = MAYBE_REG_PARM_STACK_SPACE;
+#else
+  reg_parm_stack_space = REG_PARM_STACK_SPACE (fndecl);
+#endif
+#endif
 
   VA_START (p, nargs);
 
@@ -2414,6 +2857,7 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
   nargs = va_arg (p, int);
 #endif
 
+  is_const = no_queue;
   fun = orgfun;
 
   /* If this kind of value comes back in memory,
@@ -2424,7 +2868,7 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
       rtx pointer_reg
        = hard_function_value (build_pointer_type (type_for_mode (outmode, 0)),
                               0);
-      mem_value = gen_rtx (MEM, outmode, pointer_reg);
+      mem_value = gen_rtx_MEM (outmode, pointer_reg);
       pcc_struct_value = 1;
       if (value == 0)
        value = gen_reg_rtx (outmode);
@@ -2435,6 +2879,9 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
       else
        mem_value = assign_stack_temp (outmode, GET_MODE_SIZE (outmode), 0);
 #endif
+
+      /* This call returns a big structure.  */
+      is_const = 0;
     }
 
   /* ??? Unfinished: must pass the memory address as an argument.  */
@@ -2447,8 +2894,9 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
      library functions shouldn't have many args.  */
 
   argvec = (struct arg *) alloca ((nargs + 1) * sizeof (struct arg));
+  bzero ((char *) argvec, (nargs + 1) * sizeof (struct arg));
 
-  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun);
+  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun, 0);
 
   args_size.constant = 0;
   args_size.var = 0;
@@ -2486,13 +2934,10 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
 
 
       if (argvec[count].reg == 0 || argvec[count].partial != 0
-#ifdef REG_PARM_STACK_SPACE
-         || 1
-#endif
-         )
+         || reg_parm_stack_space > 0)
        args_size.constant += argvec[count].size.constant;
 
-      FUNCTION_ARG_ADVANCE (args_so_far, Pmode, (tree)0, 1);
+      FUNCTION_ARG_ADVANCE (args_so_far, Pmode, (tree) 0, 1);
 
       count++;
     }
@@ -2512,7 +2957,7 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
         Pass it as a double instead.  */
 #ifdef LIBGCC_NEEDS_DOUBLE
       if (LIBGCC_NEEDS_DOUBLE && mode == SFmode)
-       val = convert_to_mode (DFmode, val, 0), mode = DFmode;
+       val = convert_modes (DFmode, SFmode, val, 0), mode = DFmode;
 #endif
 
       /* There's no need to call protect_from_queue, because
@@ -2539,7 +2984,7 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
       argvec[count].mode = mode;
 
       argvec[count].reg = FUNCTION_ARG (args_so_far, mode, NULL_TREE, 1);
-      if (argvec[count].reg && GET_CODE (argvec[count].reg) == EXPR_LIST)
+      if (argvec[count].reg && GET_CODE (argvec[count].reg) == PARALLEL)
        abort ();
 #ifdef FUNCTION_ARG_PARTIAL_NREGS
       argvec[count].partial
@@ -2556,35 +3001,21 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
       if (argvec[count].size.var)
        abort ();
 
-#ifndef REG_PARM_STACK_SPACE
-      if (argvec[count].partial)
+      if (reg_parm_stack_space == 0 && argvec[count].partial)
        argvec[count].size.constant -= argvec[count].partial * UNITS_PER_WORD;
-#endif
 
       if (argvec[count].reg == 0 || argvec[count].partial != 0
-#ifdef REG_PARM_STACK_SPACE
-         || 1
-#endif
-         )
+         || reg_parm_stack_space > 0)
        args_size.constant += argvec[count].size.constant;
 
-#ifdef ACCUMULATE_OUTGOING_ARGS
-      /* If this arg is actually passed on the stack, it might be
-        clobbering something we already put there (this library call might
-        be inside the evaluation of an argument to a function whose call
-        requires the stack).  This will only occur when the library call
-        has sufficient args to run out of argument registers.  Abort in
-        this case; if this ever occurs, code must be added to save and
-        restore the arg slot.  */
-
-      if (argvec[count].reg == 0 || argvec[count].partial != 0)
-       abort ();
-#endif
-
-      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree)0, 1);
+      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree) 0, 1);
     }
   va_end (p);
 
+#ifdef FINAL_REG_PARM_STACK_SPACE
+  reg_parm_stack_space = FINAL_REG_PARM_STACK_SPACE (args_size.constant,
+                                                    args_size.var);
+#endif
   /* If this machine requires an external definition for library
      functions, write one out.  */
   assemble_external_libcall (fun);
@@ -2595,23 +3026,67 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
                         / STACK_BYTES) * STACK_BYTES);
 #endif
 
-#ifdef REG_PARM_STACK_SPACE
   args_size.constant = MAX (args_size.constant,
-                           REG_PARM_STACK_SPACE (NULL_TREE));
+                           reg_parm_stack_space);
+
 #ifndef OUTGOING_REG_PARM_STACK_SPACE
-  args_size.constant -= REG_PARM_STACK_SPACE (NULL_TREE);
-#endif
+  args_size.constant -= reg_parm_stack_space;
 #endif
 
-#ifdef ACCUMULATE_OUTGOING_ARGS
   if (args_size.constant > current_function_outgoing_args_size)
     current_function_outgoing_args_size = args_size.constant;
-  args_size.constant = 0;
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
+  /* Since the stack pointer will never be pushed, it is possible for
+     the evaluation of a parm to clobber something we have already
+     written to the stack.  Since most function calls on RISC machines
+     do not use the stack, this is uncommon, but must work correctly.
+
+     Therefore, we save any area of the stack that was already written
+     and that we are using.  Here we set up to do this by making a new
+     stack usage map from the old one.
+
+     Another approach might be to try to reorder the argument
+     evaluations to avoid this conflicting stack usage.  */
+
+  needed = args_size.constant;
+
+#ifndef OUTGOING_REG_PARM_STACK_SPACE
+  /* Since we will be writing into the entire argument area, the
+     map must be allocated for its entire size, not just the part that
+     is the responsibility of the caller.  */
+  needed += reg_parm_stack_space;
+#endif
+
+#ifdef ARGS_GROW_DOWNWARD
+  highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                    needed + 1);
+#else
+  highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                    needed);
 #endif
+  stack_usage_map = (char *) alloca (highest_outgoing_arg_in_use);
+
+  if (initial_highest_arg_in_use)
+    bcopy (initial_stack_usage_map, stack_usage_map,
+          initial_highest_arg_in_use);
+
+  if (initial_highest_arg_in_use != highest_outgoing_arg_in_use)
+    bzero (&stack_usage_map[initial_highest_arg_in_use],
+          highest_outgoing_arg_in_use - initial_highest_arg_in_use);
+  needed = 0;
 
+  /* The address of the outgoing argument list must not be copied to a
+     register here, because argblock would be left pointing to the
+     wrong place after the call to allocate_dynamic_stack_space below.
+     */
+
+  argblock = virtual_outgoing_args_rtx;
+#else /* not ACCUMULATE_OUTGOING_ARGS */
 #ifndef PUSH_ROUNDING
   argblock = push_block (GEN_INT (args_size.constant), 0, 0);
 #endif
+#endif
 
 #ifdef PUSH_ARGS_REVERSED
 #ifdef STACK_BOUNDARY
@@ -2631,19 +3106,132 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
   argnum = 0;
 #endif
 
+#if defined(ACCUMULATE_OUTGOING_ARGS) && defined(REG_PARM_STACK_SPACE)
+  /* The argument list is the property of the called routine and it
+     may clobber it.  If the fixed area has been used for previous
+     parameters, we must save and restore it.
+
+     Here we compute the boundary of the that needs to be saved, if any.  */
+
+#ifdef ARGS_GROW_DOWNWARD
+  for (count = 0; count < reg_parm_stack_space + 1; count++)
+#else
+  for (count = 0; count < reg_parm_stack_space; count++)
+#endif
+    {
+      if (count >=  highest_outgoing_arg_in_use
+         || stack_usage_map[count] == 0)
+       continue;
+
+      if (low_to_save == -1)
+       low_to_save = count;
+
+      high_to_save = count;
+    }
+
+  if (low_to_save >= 0)
+    {
+      int num_to_save = high_to_save - low_to_save + 1;
+      enum machine_mode save_mode
+       = mode_for_size (num_to_save * BITS_PER_UNIT, MODE_INT, 1);
+      rtx stack_area;
+
+      /* If we don't have the required alignment, must do this in BLKmode.  */
+      if ((low_to_save & (MIN (GET_MODE_SIZE (save_mode),
+                              BIGGEST_ALIGNMENT / UNITS_PER_WORD) - 1)))
+       save_mode = BLKmode;
+
+#ifdef ARGS_GROW_DOWNWARD
+      stack_area = gen_rtx_MEM (save_mode,
+                               memory_address (save_mode,
+                                               plus_constant (argblock,
+                                                              - high_to_save)));
+#else
+      stack_area = gen_rtx_MEM (save_mode,
+                               memory_address (save_mode,
+                                               plus_constant (argblock,
+                                                              low_to_save)));
+#endif
+      if (save_mode == BLKmode)
+       {
+         save_area = assign_stack_temp (BLKmode, num_to_save, 0);
+         MEM_IN_STRUCT_P (save_area) = 0;
+         emit_block_move (validize_mem (save_area), stack_area,
+                          GEN_INT (num_to_save),
+                          PARM_BOUNDARY / BITS_PER_UNIT);
+       }
+      else
+       {
+         save_area = gen_reg_rtx (save_mode);
+         emit_move_insn (save_area, stack_area);
+       }
+    }
+#endif
+         
   /* Push the args that need to be pushed.  */
 
+  /* ARGNUM indexes the ARGVEC array in the order in which the arguments
+     are to be pushed.  */
   for (count = 0; count < nargs; count++, argnum += inc)
     {
       register enum machine_mode mode = argvec[argnum].mode;
       register rtx val = argvec[argnum].value;
       rtx reg = argvec[argnum].reg;
       int partial = argvec[argnum].partial;
+#ifdef ACCUMULATE_OUTGOING_ARGS
+      int lower_bound, upper_bound, i;
+#endif
 
       if (! (reg != 0 && partial == 0))
-       emit_push_insn (val, mode, NULL_TREE, NULL_RTX, 0, partial, reg, 0,
-                       argblock, GEN_INT (argvec[count].offset.constant));
-      NO_DEFER_POP;
+       {
+#ifdef ACCUMULATE_OUTGOING_ARGS
+         /* If this is being stored into a pre-allocated, fixed-size, stack
+            area, save any previous data at that location.  */
+
+#ifdef ARGS_GROW_DOWNWARD
+         /* stack_slot is negative, but we want to index stack_usage_map
+            with positive values.  */
+         upper_bound = -argvec[argnum].offset.constant + 1;
+         lower_bound = upper_bound - argvec[argnum].size.constant;
+#else
+         lower_bound = argvec[argnum].offset.constant;
+         upper_bound = lower_bound + argvec[argnum].size.constant;
+#endif
+
+         for (i = lower_bound; i < upper_bound; i++)
+           if (stack_usage_map[i]
+               /* Don't store things in the fixed argument area at this point;
+                  it has already been saved.  */
+               && i > reg_parm_stack_space)
+             break;
+
+         if (i != upper_bound)
+           {
+             /* We need to make a save area.  See what mode we can make it. */
+             enum machine_mode save_mode
+               = mode_for_size (argvec[argnum].size.constant * BITS_PER_UNIT,
+                                MODE_INT, 1);
+             rtx stack_area
+               = gen_rtx_MEM (save_mode,
+                              memory_address (save_mode,
+                                              plus_constant (argblock,
+                                                             argvec[argnum].offset.constant)));
+             argvec[argnum].save_area = gen_reg_rtx (save_mode);
+             emit_move_insn (argvec[argnum].save_area, stack_area);
+           }
+#endif
+         emit_push_insn (val, mode, NULL_TREE, NULL_RTX, 0, partial, reg, 0,
+                         argblock, GEN_INT (argvec[argnum].offset.constant),
+                         reg_parm_stack_space);
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
+         /* Now mark the segment we just used.  */
+         for (i = lower_bound; i < upper_bound; i++)
+           stack_usage_map[i] = 1;
+#endif
+
+         NO_DEFER_POP;
+       }
     }
 
 #ifndef PUSH_ARGS_REVERSED
@@ -2662,11 +3250,14 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
   argnum = 0;
 #endif
 
+  fun = prepare_call_address (fun, NULL_TREE, &call_fusage, 0);
+
   /* Now load any reg parms into their regs.  */
 
+  /* ARGNUM indexes the ARGVEC array in the order in which the arguments
+     are to be pushed.  */
   for (count = 0; count < nargs; count++, argnum += inc)
     {
-      register enum machine_mode mode = argvec[argnum].mode;
       register rtx val = argvec[argnum].value;
       rtx reg = argvec[argnum].reg;
       int partial = argvec[argnum].partial;
@@ -2683,13 +3274,9 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
 #endif
 
   /* Any regs containing parms remain in use through the call.  */
-  start_sequence ();
   for (count = 0; count < nargs; count++)
     if (argvec[count].reg != 0)
-      emit_insn (gen_rtx (USE, VOIDmode, argvec[count].reg));
-
-  use_insns = get_insns ();
-  end_sequence ();
+       use_reg (&call_fusage, argvec[count].reg);
 
   /* Pass the function the address in which to return a structure value.  */
   if (mem_value != 0 && struct_value_rtx != 0 && ! pcc_struct_value)
@@ -2699,29 +3286,25 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
                                 force_operand (XEXP (mem_value, 0),
                                                NULL_RTX)));
       if (GET_CODE (struct_value_rtx) == REG)
-       {
-         push_to_sequence (use_insns);
-         emit_insn (gen_rtx (USE, VOIDmode, struct_value_rtx));
-         use_insns = get_insns ();
-         end_sequence ();
-       }
+         use_reg (&call_fusage, struct_value_rtx);
     }
 
-  fun = prepare_call_address (fun, NULL_TREE, &use_insns);
-
   /* Don't allow popping to be deferred, since then
      cse'ing of library calls could delete a call and leave the pop.  */
   NO_DEFER_POP;
 
   /* We pass the old value of inhibit_defer_pop + 1 to emit_call_1, which
      will set inhibit_defer_pop to that value.  */
+  /* See the comment in emit_library_call about the function type we build
+     and pass here.  */
 
-  emit_call_1 (fun, get_identifier (XSTR (orgfun, 0)), args_size.constant,
-              struct_value_size,
+  emit_call_1 (fun, 
+               get_identifier (XSTR (orgfun, 0)),
+              build_function_type (type_for_mode (outmode, 0), NULL_TREE),
+               args_size.constant, struct_value_size,
               FUNCTION_ARG (args_so_far, VOIDmode, void_type_node, 1),
-              (outmode != VOIDmode && mem_value == 0
-               ? hard_libcall_value (outmode) : NULL_RTX),
-              old_inhibit_defer_pop + 1, use_insns, no_queue);
+              mem_value == 0 ? hard_libcall_value (outmode) : NULL_RTX,
+              old_inhibit_defer_pop + 1, call_fusage, is_const);
 
   /* Now restore inhibit_defer_pop to its actual original value.  */
   OK_DEFER_POP;
@@ -2744,6 +3327,49 @@ emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
        value = hard_libcall_value (outmode);
     }
 
+#ifdef ACCUMULATE_OUTGOING_ARGS
+#ifdef REG_PARM_STACK_SPACE
+  if (save_area)
+    {
+      enum machine_mode save_mode = GET_MODE (save_area);
+#ifdef ARGS_GROW_DOWNWARD
+      rtx stack_area
+       = gen_rtx_MEM (save_mode,
+                      memory_address (save_mode,
+                                      plus_constant (argblock,
+                                                     - high_to_save)));
+#else
+      rtx stack_area
+       = gen_rtx_MEM (save_mode,
+                      memory_address (save_mode,
+                                      plus_constant (argblock, low_to_save)));
+#endif
+      if (save_mode != BLKmode)
+       emit_move_insn (stack_area, save_area);
+      else
+       emit_block_move (stack_area, validize_mem (save_area),
+                        GEN_INT (high_to_save - low_to_save + 1),
+                            PARM_BOUNDARY / BITS_PER_UNIT);
+    }
+#endif
+         
+  /* If we saved any argument areas, restore them.  */
+  for (count = 0; count < nargs; count++)
+    if (argvec[count].save_area)
+      {
+       enum machine_mode save_mode = GET_MODE (argvec[count].save_area);
+       rtx stack_area
+         = gen_rtx_MEM (save_mode,
+                    memory_address (save_mode, plus_constant (argblock,
+                                    argvec[count].offset.constant)));
+
+       emit_move_insn (stack_area, argvec[count].save_area);
+      }
+
+  highest_outgoing_arg_in_use = initial_highest_arg_in_use;
+  stack_usage_map = initial_stack_usage_map;
+#endif
+
   return value;
 }
 \f
@@ -2777,11 +3403,11 @@ target_for_arg (type, size, args_addr, offset)
     {
       /* I have no idea how to guarantee that this
         will work in the presence of register parameters.  */
-      target = gen_rtx (PLUS, Pmode, args_addr, offset_rtx);
+      target = gen_rtx_PLUS (Pmode, args_addr, offset_rtx);
       target = memory_address (QImode, target);
     }
 
-  return gen_rtx (MEM, BLKmode, target);
+  return gen_rtx_MEM (BLKmode, target);
 }
 #endif
 \f
@@ -2815,7 +3441,9 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
   rtx reg = 0;
   int partial = 0;
   int used = 0;
+#ifdef ACCUMULATE_OUTGOING_ARGS
   int i, lower_bound, upper_bound;
+#endif
 
   if (TREE_CODE (pval) == ERROR_MARK)
     return;
@@ -2830,12 +3458,12 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
   if (argblock && ! variable_size && arg->stack)
     {
 #ifdef ARGS_GROW_DOWNWARD
-      /* stack_slot is negative, but we want to index stack_usage_map */
-      /* with positive values. */
+      /* stack_slot is negative, but we want to index stack_usage_map
+         with positive values.  */
       if (GET_CODE (XEXP (arg->stack_slot, 0)) == PLUS)
        upper_bound = -INTVAL (XEXP (XEXP (arg->stack_slot, 0), 1)) + 1;
       else
-       abort ();
+       upper_bound = 0;
 
       lower_bound = upper_bound - arg->size.constant;
 #else
@@ -2849,12 +3477,9 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
 
       for (i = lower_bound; i < upper_bound; i++)
        if (stack_usage_map[i]
-#ifdef REG_PARM_STACK_SPACE
            /* Don't store things in the fixed argument area at this point;
               it has already been saved.  */
-           && i > reg_parm_stack_space
-#endif
-           )
+           && i > reg_parm_stack_space)
          break;
 
       if (i != upper_bound)
@@ -2863,13 +3488,16 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
          enum machine_mode save_mode
            = mode_for_size (arg->size.constant * BITS_PER_UNIT, MODE_INT, 1);
          rtx stack_area
-           = gen_rtx (MEM, save_mode,
-                      memory_address (save_mode, XEXP (arg->stack_slot, 0)));
+           = gen_rtx_MEM (save_mode,
+                          memory_address (save_mode,
+                                          XEXP (arg->stack_slot, 0)));
 
          if (save_mode == BLKmode)
            {
              arg->save_area = assign_stack_temp (BLKmode,
-                                                 arg->size.constant, 1);
+                                                 arg->size.constant, 0);
+             MEM_IN_STRUCT_P (arg->save_area)
+               = AGGREGATE_TYPE_P (TREE_TYPE (arg->tree_value));
              preserve_temp_slots (arg->save_area);
              emit_block_move (validize_mem (arg->save_area), stack_area,
                               GEN_INT (arg->size.constant),
@@ -2894,19 +3522,11 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
        this case.   */
     abort ();
 
-#ifdef STRICT_ALIGNMENT
   /* If this arg needs special alignment, don't load the registers
      here.  */
   if (arg->n_aligned_regs != 0)
     reg = 0;
-#endif
   
-  /* If this is being partially passed in a register, but multiple locations
-     are specified, we assume that the one partially used is the one that is
-     listed first.  */
-  if (reg && GET_CODE (reg) == EXPR_LIST)
-    reg = XEXP (reg, 0);
-
   /* If this is being passed partially in a register, we can't evaluate
      it directly into its stack slot.  Otherwise, we can.  */
   if (arg->value == 0)
@@ -2942,9 +3562,9 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
       /* If we are promoting object (or for any other reason) the mode
         doesn't agree, convert the mode.  */
 
-      if (GET_MODE (arg->value) != VOIDmode
-         && GET_MODE (arg->value) != arg->mode)
-       arg->value = convert_to_mode (arg->mode, arg->value, arg->unsignedp);
+      if (arg->mode != TYPE_MODE (TREE_TYPE (pval)))
+       arg->value = convert_modes (arg->mode, TYPE_MODE (TREE_TYPE (pval)),
+                                   arg->value, arg->unsignedp);
 
 #ifdef ACCUMULATE_OUTGOING_ARGS
       if (arg->pass_on_stack)
@@ -2958,8 +3578,21 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
     do_pending_stack_adjust ();
 
   if (arg->value == arg->stack)
-    /* If the value is already in the stack slot, we are done.  */
-    ;
+    {
+      /* If the value is already in the stack slot, we are done.  */
+      if (flag_check_memory_usage && GET_CODE (arg->stack) == MEM)
+       {
+         if (arg->mode == BLKmode)
+           abort ();
+
+         emit_library_call (chkr_set_right_libfunc, 1, VOIDmode, 3,
+                            XEXP (arg->stack, 0), ptr_mode, 
+                            GEN_INT (GET_MODE_SIZE (arg->mode)),
+                            TYPE_MODE (sizetype),
+                            GEN_INT (MEMORY_USE_RW),
+                            TYPE_MODE (integer_type_node));
+       }
+    }
   else if (arg->mode != BLKmode)
     {
       register int size;
@@ -2992,9 +3625,9 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
 
       /* This isn't already where we want it on the stack, so put it there.
         This can either be done with push or copy insns.  */
-      emit_push_insn (arg->value, arg->mode, TREE_TYPE (pval), NULL_RTX,
-                     0, partial, reg, used - size,
-                     argblock, ARGS_SIZE_RTX (arg->offset));
+      emit_push_insn (arg->value, arg->mode, TREE_TYPE (pval), NULL_RTX, 0,
+                     partial, reg, used - size, argblock,
+                     ARGS_SIZE_RTX (arg->offset), reg_parm_stack_space);
     }
   else
     {
@@ -3026,7 +3659,8 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
 
       emit_push_insn (arg->value, arg->mode, TREE_TYPE (pval), size_rtx,
                      TYPE_ALIGN (TREE_TYPE (pval)) / BITS_PER_UNIT, partial,
-                     reg, excess, argblock, ARGS_SIZE_RTX (arg->offset));
+                     reg, excess, argblock, ARGS_SIZE_RTX (arg->offset),
+                     reg_parm_stack_space);
     }
 
 
@@ -3047,7 +3681,10 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
      but PCC has one, so this will avoid some problems.  */
   emit_queue ();
 
-  /* Free any temporary slots made in processing this argument.  */
+  /* Free any temporary slots made in processing this argument.  Show
+     that we might have taken the address of something and pushed that
+     as an operand.  */
+  preserve_temp_slots (NULL_RTX);
   free_temp_slots ();
   pop_temp_slots ();