OSDN Git Service

irix6 ctors
[pf3gnuchains/gcc-fork.git] / gcc / calls.c
index 2b024d4..4684394 100644 (file)
@@ -1,5 +1,5 @@
 /* Convert function calls to rtl insns, for GNU C compiler.
-   Copyright (C) 1989, 1992 Free Software Foundation, Inc.
+   Copyright (C) 1989, 92, 93, 94, 95, 1996 Free Software Foundation, Inc.
 
 This file is part of GNU CC.
 
@@ -15,14 +15,19 @@ GNU General Public License for more details.
 
 You should have received a copy of the GNU General Public License
 along with GNU CC; see the file COPYING.  If not, write to
-the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.  */
+the Free Software Foundation, 59 Temple Place - Suite 330,
+Boston, MA 02111-1307, USA.  */
 
 #include "config.h"
 #include "rtl.h"
 #include "tree.h"
 #include "flags.h"
 #include "expr.h"
-#include "gvarargs.h"
+#ifdef __STDC__
+#include <stdarg.h>
+#else
+#include <varargs.h>
+#endif
 #include "insn-flags.h"
 
 /* Decide whether a function's arguments should be processed
@@ -33,7 +38,7 @@ the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.  */
 
 #ifdef PUSH_ROUNDING
 
-#if defined (STACK_GROWS_DOWNWARD) != defined (ARGS_GROW_DOWNARD)
+#if defined (STACK_GROWS_DOWNWARD) != defined (ARGS_GROW_DOWNWARD)
 #define PUSH_ARGS_REVERSED     /* If it's last to first */
 #endif
 
@@ -55,7 +60,7 @@ struct arg_data
   /* Initially-compute RTL value for argument; only for const functions.  */
   rtx initial_value;
   /* Register to pass this argument in, 0 if passed on stack, or an
-     EXPR_LIST if the arg is to be copied into multiple different
+     PARALLEL if the arg is to be copied into multiple non-contiguous
      registers.  */
   rtx reg;
   /* If REG was promoted from the actual mode of the argument expression,
@@ -90,14 +95,12 @@ struct arg_data
   /* Place that this stack area has been saved, if needed.  */
   rtx save_area;
 #endif
-#ifdef STRICT_ALIGNMENT
   /* If an argument's alignment does not permit direct copying into registers,
      copy in smaller-sized pieces into pseudos.  These are stored in a
      block pointed to by this field.  The next field says how many
      word-sized pseudos we made.  */
   rtx *aligned_regs;
   int n_aligned_regs;
-#endif
 };
 
 #ifdef ACCUMULATE_OUTGOING_ARGS
@@ -119,9 +122,9 @@ int stack_arg_under_construction;
 #endif
 
 static int calls_function      PROTO((tree, int));
-static rtx prepare_call_address        PROTO((rtx, tree, rtx *));
-static void emit_call_1                PROTO((rtx, tree, int, int, rtx, rtx, int,
-                                      rtx, int));
+static int calls_function_1    PROTO((tree, int));
+static void emit_call_1                PROTO((rtx, tree, tree, int, int, rtx, rtx,
+                                      int, rtx, int));
 static void store_one_arg      PROTO ((struct arg_data *, rtx, int, int,
                                        tree, int));
 \f
@@ -133,33 +136,57 @@ static void store_one_arg PROTO ((struct arg_data *, rtx, int, int,
    arguments on the stack, but that is too difficult to compute, so we just
    assume any function call might require the stack.  */
 
+static tree calls_function_save_exprs;
+
 static int
 calls_function (exp, which)
      tree exp;
      int which;
 {
+  int val;
+  calls_function_save_exprs = 0;
+  val = calls_function_1 (exp, which);
+  calls_function_save_exprs = 0;
+  return val;
+}
+
+static int
+calls_function_1 (exp, which)
+     tree exp;
+     int which;
+{
   register int i;
-  int type = TREE_CODE_CLASS (TREE_CODE (exp));
-  int length = tree_code_length[(int) TREE_CODE (exp)];
+  enum tree_code code = TREE_CODE (exp);
+  int type = TREE_CODE_CLASS (code);
+  int length = tree_code_length[(int) code];
 
-  /* Only expressions and references can contain calls.  */
+  /* If this code is language-specific, we don't know what it will do.  */
+  if ((int) code >= NUM_TREE_CODES)
+    return 1;
 
+  /* Only expressions and references can contain calls.  */
   if (type != 'e' && type != '<' && type != '1' && type != '2' && type != 'r'
       && type != 'b')
     return 0;
 
-  switch (TREE_CODE (exp))
+  switch (code)
     {
     case CALL_EXPR:
       if (which == 0)
        return 1;
       else if (TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR
               && (TREE_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
-                  == FUNCTION_DECL)
-              && DECL_BUILT_IN (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
-              && (DECL_FUNCTION_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
-                  == BUILT_IN_ALLOCA))
-       return 1;
+                  == FUNCTION_DECL))
+       {
+         tree fndecl = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
+
+         if ((DECL_BUILT_IN (fndecl)
+              && DECL_FUNCTION_CODE (fndecl) == BUILT_IN_ALLOCA)
+             || (DECL_SAVED_INSNS (fndecl)
+                 && (FUNCTION_FLAGS (DECL_SAVED_INSNS (fndecl))
+                     & FUNCTION_FLAGS_CALLS_ALLOCA)))
+           return 1;
+       }
 
       /* Third operand is RTL.  */
       length = 2;
@@ -168,7 +195,12 @@ calls_function (exp, which)
     case SAVE_EXPR:
       if (SAVE_EXPR_RTL (exp) != 0)
        return 0;
-      break;
+      if (value_member (exp, calls_function_save_exprs))
+       return 0;
+      calls_function_save_exprs = tree_cons (NULL_TREE, exp,
+                                            calls_function_save_exprs);
+      return (TREE_OPERAND (exp, 0) != 0
+             && calls_function_1 (TREE_OPERAND (exp, 0), which));
 
     case BLOCK:
       {
@@ -176,7 +208,7 @@ calls_function (exp, which)
 
        for (local = BLOCK_VARS (exp); local; local = TREE_CHAIN (local))
          if (DECL_INITIAL (local) != 0
-             && calls_function (DECL_INITIAL (local), which))
+             && calls_function_1 (DECL_INITIAL (local), which))
            return 1;
       }
       {
@@ -185,7 +217,7 @@ calls_function (exp, which)
        for (subblock = BLOCK_SUBBLOCKS (exp);
             subblock;
             subblock = TREE_CHAIN (subblock))
-         if (calls_function (subblock, which))
+         if (calls_function_1 (subblock, which))
            return 1;
       }
       return 0;
@@ -204,7 +236,7 @@ calls_function (exp, which)
 
   for (i = 0; i < length; i++)
     if (TREE_OPERAND (exp, i) != 0
-       && calls_function (TREE_OPERAND (exp, i), which))
+       && calls_function_1 (TREE_OPERAND (exp, i), which))
       return 1;
 
   return 0;
@@ -214,28 +246,35 @@ calls_function (exp, which)
    and return that as an rtx.  Also load the static chain register
    if FNDECL is a nested function.
 
-   USE_INSNS points to a variable holding a chain of USE insns
-   to which a USE of the static chain
-   register should be added, if required.  */
+   CALL_FUSAGE points to a variable holding the prospective
+   CALL_INSN_FUNCTION_USAGE information.  */
 
-static rtx
-prepare_call_address (funexp, fndecl, use_insns)
+rtx
+prepare_call_address (funexp, fndecl, call_fusage, reg_parm_seen)
      rtx funexp;
      tree fndecl;
-     rtx *use_insns;
+     rtx *call_fusage;
+     int reg_parm_seen;
 {
   rtx static_chain_value = 0;
 
   funexp = protect_from_queue (funexp, 0);
 
   if (fndecl != 0)
-    /* Get possible static chain value for nested function in C. */
+    /* Get possible static chain value for nested function in C.  */
     static_chain_value = lookup_static_chain (fndecl);
 
   /* Make a valid memory address and copy constants thru pseudo-regs,
      but not for a constant address if -fno-function-cse.  */
   if (GET_CODE (funexp) != SYMBOL_REF)
-    funexp = memory_address (FUNCTION_MODE, funexp);
+    funexp =
+#ifdef SMALL_REGISTER_CLASSES
+    /* If we are using registers for parameters, force the
+        function address into a register now.  */
+      reg_parm_seen ? force_not_mem (memory_address (FUNCTION_MODE, funexp))
+                   :
+#endif
+                     memory_address (FUNCTION_MODE, funexp);
   else
     {
 #ifndef NO_FUNCTION_CSE
@@ -251,12 +290,8 @@ prepare_call_address (funexp, fndecl, use_insns)
     {
       emit_move_insn (static_chain_rtx, static_chain_value);
 
-      /* Put the USE insn in the chain we were passed.  It will later be
-        output immediately in front of the CALL insn.  */
-      push_to_sequence (*use_insns);
-      emit_insn (gen_rtx (USE, VOIDmode, static_chain_rtx));
-      *use_insns = get_insns ();
-      end_sequence ();
+      if (GET_CODE (static_chain_rtx) == REG)
+       use_reg (call_fusage, static_chain_rtx);
     }
 
   return funexp;
@@ -266,6 +301,9 @@ prepare_call_address (funexp, fndecl, use_insns)
    and optionally pop the results.
    The CALL_INSN is the first insn generated.
 
+   FNDECL is the declaration node of the function.  This is given ot the
+   macro RETURN_POPS_ARGS to determine whether this function pops its own args.
+
    FUNTYPE is the data type of the function, or, for a library call,
    the identifier for the name of the call.  This is given to the
    macro RETURN_POPS_ARGS to determine whether this function pops its own args.
@@ -293,22 +331,24 @@ prepare_call_address (funexp, fndecl, use_insns)
    the args to this call were processed.
    We restore `inhibit_defer_pop' to that value.
 
-   USE_INSNS is a chain of USE insns to be emitted immediately before
-   the actual CALL insn.
+   CALL_FUSAGE is either empty or an EXPR_LIST of USE expressions that
+   denote registers used by the called function.
 
    IS_CONST is true if this is a `const' call.  */
 
 static void
-emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
-            valreg, old_inhibit_defer_pop, use_insns, is_const)
+emit_call_1 (funexp, fndecl, funtype, stack_size, struct_value_size, 
+             next_arg_reg, valreg, old_inhibit_defer_pop, call_fusage,
+            is_const)
      rtx funexp;
+     tree fndecl;
      tree funtype;
      int stack_size;
      int struct_value_size;
      rtx next_arg_reg;
      rtx valreg;
      int old_inhibit_defer_pop;
-     rtx use_insns;
+     rtx call_fusage;
      int is_const;
 {
   rtx stack_size_rtx = GEN_INT (stack_size);
@@ -325,13 +365,15 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
 #ifndef ACCUMULATE_OUTGOING_ARGS
 #if defined (HAVE_call_pop) && defined (HAVE_call_value_pop)
   if (HAVE_call_pop && HAVE_call_value_pop
-      && (RETURN_POPS_ARGS (funtype, stack_size) > 0 || stack_size == 0))
+      && (RETURN_POPS_ARGS (fndecl, funtype, stack_size) > 0 
+          || stack_size == 0))
     {
-      rtx n_pop = GEN_INT (RETURN_POPS_ARGS (funtype, stack_size));
+      rtx n_pop = GEN_INT (RETURN_POPS_ARGS (fndecl, funtype, stack_size));
       rtx pat;
 
       /* If this subroutine pops its own args, record that in the call insn
         if possible, for the sake of frame pointer elimination.  */
+
       if (valreg)
        pat = gen_call_value_pop (valreg,
                                  gen_rtx (MEM, FUNCTION_MODE, funexp),
@@ -364,7 +406,7 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
 #endif
     abort ();
 
-  /* Find the CALL insn we just emitted and write the USE insns before it.  */
+  /* Find the CALL insn we just emitted.  */
   for (call_insn = get_last_insn ();
        call_insn && GET_CODE (call_insn) != CALL_INSN;
        call_insn = PREV_INSN (call_insn))
@@ -373,8 +415,20 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
   if (! call_insn)
     abort ();
 
-  /* Put the USE insns before the CALL.  */
-  emit_insns_before (use_insns, call_insn);
+  /* Put the register usage information on the CALL.  If there is already
+     some usage information, put ours at the end.  */
+  if (CALL_INSN_FUNCTION_USAGE (call_insn))
+    {
+      rtx link;
+
+      for (link = CALL_INSN_FUNCTION_USAGE (call_insn); XEXP (link, 1) != 0;
+          link = XEXP (link, 1))
+       ;
+
+      XEXP (link, 1) = call_fusage;
+    }
+  else
+    CALL_INSN_FUNCTION_USAGE (call_insn) = call_fusage;
 
   /* If this is a const call, then set the insn's unchanging bit.  */
   if (is_const)
@@ -392,11 +446,14 @@ emit_call_1 (funexp, funtype, stack_size, struct_value_size, next_arg_reg,
      If returning from the subroutine does pop the args, indicate that the
      stack pointer will be changed.  */
 
-  if (stack_size != 0 && RETURN_POPS_ARGS (funtype, stack_size) > 0)
+  if (stack_size != 0 && RETURN_POPS_ARGS (fndecl, funtype, stack_size) > 0)
     {
       if (!already_popped)
-       emit_insn (gen_rtx (CLOBBER, VOIDmode, stack_pointer_rtx));
-      stack_size -= RETURN_POPS_ARGS (funtype, stack_size);
+       CALL_INSN_FUNCTION_USAGE (call_insn) =
+          gen_rtx (EXPR_LIST, VOIDmode,
+                   gen_rtx (CLOBBER, VOIDmode, stack_pointer_rtx),
+                   CALL_INSN_FUNCTION_USAGE (call_insn));
+      stack_size -= RETURN_POPS_ARGS (fndecl, funtype, stack_size);
       stack_size_rtx = GEN_INT (stack_size);
     }
 
@@ -474,6 +531,7 @@ expand_call (exp, target, ignore)
   CUMULATIVE_ARGS args_so_far;
   /* Nonzero if a reg parm has been scanned.  */
   int reg_parm_seen;
+  /* Nonzero if this is an indirect function call.  */
 
   /* Nonzero if we must avoid push-insns in the args for this call. 
      If stack space is allocated for register parameters, but not by the
@@ -526,13 +584,11 @@ expand_call (exp, target, ignore)
 #endif
 
   rtx old_stack_level = 0;
-  int old_pending_adj;
+  int old_pending_adj = 0;
   int old_stack_arg_under_construction;
   int old_inhibit_defer_pop = inhibit_defer_pop;
   tree old_cleanups = cleanups_this_call;
-
-  rtx use_insns = 0;
-
+  rtx call_fusage = 0;
   register tree p;
   register int i, j;
 
@@ -544,17 +600,14 @@ expand_call (exp, target, ignore)
     {
       fndecl = TREE_OPERAND (p, 0);
       if (TREE_CODE (fndecl) != FUNCTION_DECL)
-       {
-         /* May still be a `const' function if it is
-            a call through a pointer-to-const.
-            But we don't handle that.  */
-         fndecl = 0;
-       }
+       fndecl = 0;
       else
        {
          if (!flag_no_inline
              && fndecl != current_function_decl
-             && DECL_SAVED_INSNS (fndecl))
+             && DECL_INLINE (fndecl)
+             && DECL_SAVED_INSNS (fndecl)
+             && RTX_INTEGRATED_P (DECL_SAVED_INSNS (fndecl)))
            is_integrable = 1;
          else if (! TREE_ADDRESSABLE (fndecl))
            {
@@ -563,18 +616,31 @@ expand_call (exp, target, ignore)
 
                 Use abstraction instead of setting TREE_ADDRESSABLE
                 directly.  */
-             if (DECL_INLINE (fndecl) && extra_warnings && !flag_no_inline)
-               warning_with_decl (fndecl, "can't inline call to `%s' which was declared inline");
+             if (DECL_INLINE (fndecl) && warn_inline && !flag_no_inline
+                 && optimize > 0)
+               {
+                 warning_with_decl (fndecl, "can't inline call to `%s'");
+                 warning ("called from here");
+               }
              mark_addressable (fndecl);
            }
 
          if (TREE_READONLY (fndecl) && ! TREE_THIS_VOLATILE (fndecl)
              && TYPE_MODE (TREE_TYPE (exp)) != VOIDmode)
            is_const = 1;
+
+         if (TREE_THIS_VOLATILE (fndecl))
+           is_volatile = 1;
        }
     }
 
-  is_volatile = TYPE_VOLATILE (TREE_TYPE (TREE_TYPE (p)));
+  /* If we don't have specific function to call, see if we have a 
+     constant or `noreturn' function from the type.  */
+  if (fndecl == 0)
+    {
+      is_const = TREE_READONLY (TREE_TYPE (TREE_TYPE (p)));
+      is_volatile = TREE_THIS_VOLATILE (TREE_TYPE (TREE_TYPE (p)));
+    }
 
 #ifdef REG_PARM_STACK_SPACE
 #ifdef MAYBE_REG_PARM_STACK_SPACE
@@ -586,10 +652,7 @@ expand_call (exp, target, ignore)
 
   /* Warn if this value is an aggregate type,
      regardless of which calling convention we are using for it.  */
-  if (warn_aggregate_return
-      && (TREE_CODE (TREE_TYPE (exp)) == RECORD_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == ARRAY_TYPE))
+  if (warn_aggregate_return && AGGREGATE_TYPE_P (TREE_TYPE (exp)))
     warning ("function call has aggregate value");
 
   /* Set up a place to return a structure.  */
@@ -601,34 +664,43 @@ expand_call (exp, target, ignore)
       is_const = 0;
 
 #ifdef PCC_STATIC_STRUCT_RETURN
-      if (flag_pcc_struct_return)
-       {
-         pcc_struct_value = 1;
-         is_integrable = 0;  /* Easier than making that case work right.  */
-       }
-      else
-#endif
-       {
-         struct_value_size = int_size_in_bytes (TREE_TYPE (exp));
+      {
+       pcc_struct_value = 1;
+       /* Easier than making that case work right.  */
+       if (is_integrable)
+         {
+           /* In case this is a static function, note that it has been
+              used.  */
+           if (! TREE_ADDRESSABLE (fndecl))
+             mark_addressable (fndecl);
+           is_integrable = 0;
+         }
+      }
+#else /* not PCC_STATIC_STRUCT_RETURN */
+      {
+       struct_value_size = int_size_in_bytes (TREE_TYPE (exp));
 
-         if (struct_value_size < 0)
-           abort ();
+       if (target && GET_CODE (target) == MEM)
+         structure_value_addr = XEXP (target, 0);
+       else
+         {
+           /* Assign a temporary on the stack to hold the value.  */
 
-         if (target && GET_CODE (target) == MEM)
-           structure_value_addr = XEXP (target, 0);
-         else
-           {
-             /* Assign a temporary on the stack to hold the value.  */
+           /* For variable-sized objects, we must be called with a target
+              specified.  If we were to allocate space on the stack here,
+              we would have no way of knowing when to free it.  */
 
-             /* For variable-sized objects, we must be called with a target
-                specified.  If we were to allocate space on the stack here,
-                we would have no way of knowing when to free it.  */
+           if (struct_value_size < 0)
+             abort ();
 
-             structure_value_addr
-               = XEXP (assign_stack_temp (BLKmode, struct_value_size, 1), 0);
-             target = 0;
-           }
-       }
+           structure_value_addr
+             = XEXP (assign_stack_temp (BLKmode, struct_value_size, 1), 0);
+           MEM_IN_STRUCT_P (structure_value_addr)
+             = AGGREGATE_TYPE_P (TREE_TYPE (exp));
+           target = 0;
+         }
+      }
+#endif /* not PCC_STATIC_STRUCT_RETURN */
     }
 
   /* If called function is inline, try to integrate it.  */
@@ -645,12 +717,16 @@ expand_call (exp, target, ignore)
       /* If inlining succeeded, return.  */
       if ((HOST_WIDE_INT) temp != -1)
        {
-         /* Perform all cleanups needed for the arguments of this call
-            (i.e. destructors in C++).  It is ok if these destructors
-            clobber RETURN_VALUE_REG, because the only time we care about
-            this is when TARGET is that register.  But in C++, we take
-            care to never return that register directly.  */
-         expand_cleanups_to (old_cleanups);
+         if (flag_short_temps)
+           {
+             /* Perform all cleanups needed for the arguments of this
+                call (i.e. destructors in C++).  It is ok if these
+                destructors clobber RETURN_VALUE_REG, because the
+                only time we care about this is when TARGET is that
+                register.  But in C++, we take care to never return
+                that register directly.  */
+             expand_cleanups_to (old_cleanups);
+           }
 
 #ifdef ACCUMULATE_OUTGOING_ARGS
          /* If the outgoing argument list must be preserved, push
@@ -663,7 +739,9 @@ expand_call (exp, target, ignore)
 
          if (stack_arg_under_construction || i >= 0)
            {
-             rtx insn = NEXT_INSN (before_call), seq;
+             rtx first_insn
+               = before_call ? NEXT_INSN (before_call) : get_insns ();
+             rtx insn, seq;
 
              /* Look for a call in the inline function code.
                 If OUTGOING_ARGS_SIZE (DECL_SAVED_INSNS (fndecl)) is
@@ -671,7 +749,7 @@ expand_call (exp, target, ignore)
                 to scan the insns.  */
 
              if (OUTGOING_ARGS_SIZE (DECL_SAVED_INSNS (fndecl)) == 0)
-               for (; insn; insn = NEXT_INSN (insn))
+               for (insn = first_insn; insn; insn = NEXT_INSN (insn))
                  if (GET_CODE (insn) == CALL_INSN)
                    break;
 
@@ -698,12 +776,12 @@ expand_call (exp, target, ignore)
                  adjust += reg_parm_stack_space;
 #endif
                  start_sequence ();
-                 emit_stack_save (SAVE_BLOCK, &old_stack_level, 0);
+                 emit_stack_save (SAVE_BLOCK, &old_stack_level, NULL_RTX);
                  allocate_dynamic_stack_space (GEN_INT (adjust),
                                                NULL_RTX, BITS_PER_UNIT);
                  seq = get_insns ();
                  end_sequence ();
-                 emit_insns_before (seq, NEXT_INSN (before_call));
+                 emit_insns_before (seq, first_insn);
                  emit_stack_restore (SAVE_BLOCK, old_stack_level, NULL_RTX);
                }
            }
@@ -718,7 +796,14 @@ expand_call (exp, target, ignore)
        }
 
       /* If inlining failed, mark FNDECL as needing to be compiled
-        separately after all.  */
+        separately after all.  If function was declared inline,
+        give a warning.  */
+      if (DECL_INLINE (fndecl) && warn_inline && !flag_no_inline
+         && optimize > 0 && ! TREE_ADDRESSABLE (fndecl))
+       {
+         warning_with_decl (fndecl, "inlining failed in call to `%s'");
+         warning ("called from here");
+       }
       mark_addressable (fndecl);
     }
 
@@ -763,8 +848,16 @@ expand_call (exp, target, ignore)
     {
       char *tname = name;
 
+      /* Disregard prefix _, __ or __x.  */
       if (name[0] == '_')
-       tname += ((name[1] == '_' && name[2] == 'x') ? 3 : 1);
+       {
+         if (name[1] == '_' && name[2] == 'x')
+           tname += 3;
+         else if (name[1] == '_')
+           tname += 2;
+         else
+           tname += 1;
+       }
 
       if (tname[0] == 's')
        {
@@ -808,26 +901,34 @@ expand_call (exp, target, ignore)
     abort ();
   funtype = TREE_TYPE (funtype);
 
-  /* Push the temporary stack slot level so that we can free temporaries used
-     by each of the arguments separately.  */
+  /* Push the temporary stack slot level so that we can free any temporaries
+     we make.  */
   push_temp_slots ();
 
-  /* Start updating where the next arg would go.  */
-  INIT_CUMULATIVE_ARGS (args_so_far, funtype, NULL_RTX);
+  /* Start updating where the next arg would go.
+
+     On some machines (such as the PA) indirect calls have a different
+     calling convention than normal calls.  The last argument in
+     INIT_CUMULATIVE_ARGS tells the backend if this is an indirect call
+     or not.  */
+  INIT_CUMULATIVE_ARGS (args_so_far, funtype, NULL_RTX, (fndecl == 0));
 
   /* If struct_value_rtx is 0, it means pass the address
      as if it were an extra parameter.  */
   if (structure_value_addr && struct_value_rtx == 0)
     {
+      /* If structure_value_addr is a REG other than
+        virtual_outgoing_args_rtx, we can use always use it.  If it
+        is not a REG, we must always copy it into a register.
+        If it is virtual_outgoing_args_rtx, we must copy it to another
+        register in some cases.  */
+      rtx temp = (GET_CODE (structure_value_addr) != REG
 #ifdef ACCUMULATE_OUTGOING_ARGS
-      /* If the stack will be adjusted, make sure the structure address
-        does not refer to virtual_outgoing_args_rtx.  */
-      rtx temp = (stack_arg_under_construction
-                 ? copy_addr_to_reg (structure_value_addr)
-                 : force_reg (Pmode, structure_value_addr));
-#else
-      rtx temp = force_reg (Pmode, structure_value_addr);
+                 || (stack_arg_under_construction
+                     && structure_value_addr == virtual_outgoing_args_rtx)
 #endif
+                 ? copy_addr_to_reg (structure_value_addr)
+                 : structure_value_addr);
 
       actparms
        = tree_cons (error_mark_node,
@@ -843,23 +944,29 @@ expand_call (exp, target, ignore)
 
   /* Compute number of named args.
      Normally, don't include the last named arg if anonymous args follow.
-     (If no anonymous args follow, the result of list_length
-     is actually one too large.)
+     We do include the last named arg if STRICT_ARGUMENT_NAMING is defined.
+     (If no anonymous args follow, the result of list_length is actually
+     one too large.  This is harmless.)
 
-     If SETUP_INCOMING_VARARGS is defined, this machine will be able to
-     place unnamed args that were passed in registers into the stack.  So
-     treat all args as named.  This allows the insns emitting for a specific
-     argument list to be independent of the function declaration.
+     If SETUP_INCOMING_VARARGS is defined and STRICT_ARGUMENT_NAMING is not,
+     this machine will be able to place unnamed args that were passed in
+     registers into the stack.  So treat all args as named.  This allows the
+     insns emitting for a specific argument list to be independent of the
+     function declaration.
 
      If SETUP_INCOMING_VARARGS is not defined, we do not have any reliable
      way to pass unnamed args in registers, so we must force them into
      memory.  */
-#ifndef SETUP_INCOMING_VARARGS
+#if !defined(SETUP_INCOMING_VARARGS) || defined(STRICT_ARGUMENT_NAMING)
   if (TYPE_ARG_TYPES (funtype) != 0)
     n_named_args
-      = list_length (TYPE_ARG_TYPES (funtype)) - 1
-       /* Count the struct value address, if it is passed as a parm.  */
-       + structure_value_addr_parm;
+      = (list_length (TYPE_ARG_TYPES (funtype))
+#ifndef STRICT_ARGUMENT_NAMING
+        /* Don't include the last named arg.  */
+        - 1
+#endif
+        /* Count the struct value address, if it is passed as a parm.  */
+        + structure_value_addr_parm);
   else
 #endif
     /* If we know nothing, treat all args as named.  */
@@ -867,13 +974,13 @@ expand_call (exp, target, ignore)
 
   /* Make a vector to hold all the information about each arg.  */
   args = (struct arg_data *) alloca (num_actuals * sizeof (struct arg_data));
-  bzero (args, num_actuals * sizeof (struct arg_data));
+  bzero ((char *) args, num_actuals * sizeof (struct arg_data));
 
   args_size.constant = 0;
   args_size.var = 0;
 
   /* In this loop, we consider args in the order they are written.
-     We fill up ARGS from the front of from the back if necessary
+     We fill up ARGS from the front or from the back if necessary
      so that in any case the first arg to be pushed ends up at the front.  */
 
 #ifdef PUSH_ARGS_REVERSED
@@ -888,6 +995,7 @@ expand_call (exp, target, ignore)
   for (p = actparms, argpos = 0; p; p = TREE_CHAIN (p), i += inc, argpos++)
     {
       tree type = TREE_TYPE (TREE_VALUE (p));
+      int unsignedp;
       enum machine_mode mode;
 
       args[i].tree_value = TREE_VALUE (p);
@@ -896,6 +1004,12 @@ expand_call (exp, target, ignore)
       if (type == error_mark_node || TYPE_SIZE (type) == 0)
        args[i].tree_value = integer_zero_node, type = integer_type_node;
 
+      /* If TYPE is a transparent union, pass things the way we would
+        pass the first field of the union.  We have already verified that
+        the modes are the same.  */
+      if (TYPE_TRANSPARENT_UNION (type))
+       type = TREE_TYPE (TYPE_FIELDS (type));
+
       /* Decide where to pass this arg.
 
         args[i].reg is nonzero if all or part is passed in registers.
@@ -910,62 +1024,82 @@ expand_call (exp, target, ignore)
         These decisions are driven by the FUNCTION_... macros and must agree
         with those made by function.c.  */
 
-#ifdef FUNCTION_ARG_PASS_BY_REFERENCE
       /* See if this argument should be passed by invisible reference.  */
-      if (FUNCTION_ARG_PASS_BY_REFERENCE (args_so_far, TYPE_MODE (type), type,
-                                         argpos < n_named_args))
+      if ((TREE_CODE (TYPE_SIZE (type)) != INTEGER_CST
+          && contains_placeholder_p (TYPE_SIZE (type)))
+         || TREE_ADDRESSABLE (type)
+#ifdef FUNCTION_ARG_PASS_BY_REFERENCE
+         || FUNCTION_ARG_PASS_BY_REFERENCE (args_so_far, TYPE_MODE (type),
+                                            type, argpos < n_named_args)
+#endif
+         )
        {
-         /* We make a copy of the object and pass the address to the function
-            being called.  */
-         rtx copy;
-
-         if (TYPE_SIZE (type) == 0
-             || TREE_CODE (TYPE_SIZE (type)) != INTEGER_CST)
+#ifdef FUNCTION_ARG_CALLEE_COPIES
+         if (FUNCTION_ARG_CALLEE_COPIES (args_so_far, TYPE_MODE (type), type,
+                                         argpos < n_named_args)
+             /* If it's in a register, we must make a copy of it too.  */
+             /* ??? Is this a sufficient test?  Is there a better one? */
+             && !(TREE_CODE (args[i].tree_value) == VAR_DECL
+                  && REG_P (DECL_RTL (args[i].tree_value)))
+             && ! TREE_ADDRESSABLE (type))
+           {
+             args[i].tree_value = build1 (ADDR_EXPR,
+                                          build_pointer_type (type),
+                                          args[i].tree_value);
+             type = build_pointer_type (type);
+           }
+         else
+#endif
            {
-             /* This is a variable-sized object.  Make space on the stack
-                for it.  */
-             rtx size_rtx = expr_size (TREE_VALUE (p));
+             /* We make a copy of the object and pass the address to the
+                function being called.  */
+             rtx copy;
 
-             if (old_stack_level == 0)
+             if (TYPE_SIZE (type) == 0
+                 || TREE_CODE (TYPE_SIZE (type)) != INTEGER_CST)
                {
-                 emit_stack_save (SAVE_BLOCK, &old_stack_level, NULL_RTX);
-                 old_pending_adj = pending_stack_adjust;
-                 pending_stack_adjust = 0;
+                 /* This is a variable-sized object.  Make space on the stack
+                    for it.  */
+                 rtx size_rtx = expr_size (TREE_VALUE (p));
+
+                 if (old_stack_level == 0)
+                   {
+                     emit_stack_save (SAVE_BLOCK, &old_stack_level, NULL_RTX);
+                     old_pending_adj = pending_stack_adjust;
+                     pending_stack_adjust = 0;
+                   }
+
+                 copy = gen_rtx (MEM, BLKmode,
+                                 allocate_dynamic_stack_space (size_rtx,
+                                                               NULL_RTX,
+                                                               TYPE_ALIGN (type)));
+               }
+             else
+               {
+                 int size = int_size_in_bytes (type);
+                 copy = assign_stack_temp (TYPE_MODE (type), size, 0);
                }
 
-             copy = gen_rtx (MEM, BLKmode,
-                             allocate_dynamic_stack_space (size_rtx, NULL_RTX,
-                                                           TYPE_ALIGN (type)));
-           }
-         else
-           {
-             int size = int_size_in_bytes (type);
-             copy = assign_stack_temp (TYPE_MODE (type), size, 1);
-           }
+             MEM_IN_STRUCT_P (copy) = AGGREGATE_TYPE_P (type);
 
-         store_expr (args[i].tree_value, copy, 0);
+             store_expr (args[i].tree_value, copy, 0);
+             is_const = 0;
 
-         args[i].tree_value = build1 (ADDR_EXPR, build_pointer_type (type),
-                                      make_tree (type, copy));
-         type = build_pointer_type (type);
+             args[i].tree_value = build1 (ADDR_EXPR,
+                                          build_pointer_type (type),
+                                          make_tree (type, copy));
+             type = build_pointer_type (type);
+           }
        }
-#endif
 
       mode = TYPE_MODE (type);
+      unsignedp = TREE_UNSIGNED (type);
 
 #ifdef PROMOTE_FUNCTION_ARGS
-      /* Compute the mode in which the arg is actually to be extended to.  */
-      if (TREE_CODE (type) == INTEGER_TYPE || TREE_CODE (type) == ENUMERAL_TYPE
-         || TREE_CODE (type) == BOOLEAN_TYPE || TREE_CODE (type) == CHAR_TYPE
-         || TREE_CODE (type) == REAL_TYPE || TREE_CODE (type) == POINTER_TYPE
-         || TREE_CODE (type) == OFFSET_TYPE)
-       {
-         int unsignedp = TREE_UNSIGNED (type);
-         PROMOTE_MODE (mode, unsignedp, type);
-         args[i].unsignedp = unsignedp;
-       }
+      mode = promote_mode (type, mode, &unsignedp, 1);
 #endif
 
+      args[i].unsignedp = unsignedp;
       args[i].mode = mode;
       args[i].reg = FUNCTION_ARG (args_so_far, mode, type,
                                  argpos < n_named_args);
@@ -978,12 +1112,12 @@ expand_call (exp, target, ignore)
 
       args[i].pass_on_stack = MUST_PASS_IN_STACK (mode, type);
 
-      /* If FUNCTION_ARG returned an (expr_list (nil) FOO), it means that
-        we are to pass this arg in the register(s) designated by FOO, but
-        also to pass it in the stack.  */
-      if (args[i].reg && GET_CODE (args[i].reg) == EXPR_LIST
-         && XEXP (args[i].reg, 0) == 0)
-       args[i].pass_on_stack = 1, args[i].reg = XEXP (args[i].reg, 1);
+      /* If FUNCTION_ARG returned a (parallel [(expr_list (nil) ...) ...]),
+        it means that we are to pass this arg in the register(s) designated
+        by the PARALLEL, but also to pass it in the stack.  */
+      if (args[i].reg && GET_CODE (args[i].reg) == PARALLEL
+         && XEXP (XVECEXP (args[i].reg, 0, 0), 0) == 0)
+       args[i].pass_on_stack = 1;
 
       /* If this is an addressable type, we must preallocate the stack
         since we must evaluate the object into its final location.
@@ -1198,20 +1332,30 @@ expand_call (exp, target, ignore)
        || (must_preallocate && (args_size.var != 0 || args_size.constant != 0)
            && calls_function (args[i].tree_value, 0)))
       {
+       /* If this is an addressable type, we cannot pre-evaluate it.  */
+       if (TREE_ADDRESSABLE (TREE_TYPE (args[i].tree_value)))
+         abort ();
+
+       push_temp_slots ();
+
        args[i].initial_value = args[i].value
          = expand_expr (args[i].tree_value, NULL_RTX, VOIDmode, 0);
 
-       if (GET_MODE (args[i].value ) != VOIDmode
-           && GET_MODE (args[i].value) != args[i].mode)
-         args[i].value = convert_to_mode (args[i].mode, args[i].value,
-                                          args[i].unsignedp);
        preserve_temp_slots (args[i].value);
-
-       free_temp_slots ();
+       pop_temp_slots ();
 
        /* ANSI doesn't require a sequence point here,
           but PCC has one, so this will avoid some problems.  */
        emit_queue ();
+
+       args[i].initial_value = args[i].value
+         = protect_from_queue (args[i].initial_value, 0);
+
+       if (TYPE_MODE (TREE_TYPE (args[i].tree_value)) != args[i].mode)
+         args[i].value
+           = convert_modes (args[i].mode, 
+                            TYPE_MODE (TREE_TYPE (args[i].tree_value)),
+                            args[i].value, args[i].unsignedp);
       }
 
   /* Now we are about to start emitting insns that can be deleted
@@ -1239,98 +1383,104 @@ expand_call (exp, target, ignore)
        }
       argblock = push_block (ARGS_SIZE_RTX (args_size), 0, 0);
     }
-  else if (must_preallocate)
+  else
     {
       /* Note that we must go through the motions of allocating an argument
         block even if the size is zero because we may be storing args
         in the area reserved for register arguments, which may be part of
         the stack frame.  */
-      int needed = args_size.constant;
 
-#ifdef ACCUMULATE_OUTGOING_ARGS
-      /* Store the maximum argument space used.  It will be pushed by the
-        prologue.
-
-        Since the stack pointer will never be pushed, it is possible for
-        the evaluation of a parm to clobber something we have already
-        written to the stack.  Since most function calls on RISC machines
-        do not use the stack, this is uncommon, but must work correctly.
-        
-        Therefore, we save any area of the stack that was already written
-        and that we are using.  Here we set up to do this by making a new
-        stack usage map from the old one.  The actual save will be done
-        by store_one_arg. 
+      int needed = args_size.constant;
 
-        Another approach might be to try to reorder the argument
-        evaluations to avoid this conflicting stack usage.  */
+      /* Store the maximum argument space used.  It will be pushed by
+        the prologue (if ACCUMULATE_OUTGOING_ARGS, or stack overflow
+        checking).  */
 
       if (needed > current_function_outgoing_args_size)
        current_function_outgoing_args_size = needed;
 
+      if (must_preallocate)
+       {
+#ifdef ACCUMULATE_OUTGOING_ARGS
+         /* Since the stack pointer will never be pushed, it is possible for
+            the evaluation of a parm to clobber something we have already
+            written to the stack.  Since most function calls on RISC machines
+            do not use the stack, this is uncommon, but must work correctly.
+
+            Therefore, we save any area of the stack that was already written
+            and that we are using.  Here we set up to do this by making a new
+            stack usage map from the old one.  The actual save will be done
+            by store_one_arg. 
+
+            Another approach might be to try to reorder the argument
+            evaluations to avoid this conflicting stack usage.  */
+
 #if defined(REG_PARM_STACK_SPACE) && ! defined(OUTGOING_REG_PARM_STACK_SPACE)
-      /* Since we will be writing into the entire argument area, the
-        map must be allocated for its entire size, not just the part that
-        is the responsibility of the caller.  */
-      needed += reg_parm_stack_space;
+         /* Since we will be writing into the entire argument area, the
+            map must be allocated for its entire size, not just the part that
+            is the responsibility of the caller.  */
+         needed += reg_parm_stack_space;
 #endif
 
 #ifdef ARGS_GROW_DOWNWARD
-      highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
-                                        needed + 1);
+         highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                            needed + 1);
 #else
-      highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use, needed);
+         highest_outgoing_arg_in_use = MAX (initial_highest_arg_in_use,
+                                            needed);
 #endif
-      stack_usage_map = (char *) alloca (highest_outgoing_arg_in_use);
+         stack_usage_map = (char *) alloca (highest_outgoing_arg_in_use);
 
-      if (initial_highest_arg_in_use)
-       bcopy (initial_stack_usage_map, stack_usage_map,
-              initial_highest_arg_in_use);
+         if (initial_highest_arg_in_use)
+           bcopy (initial_stack_usage_map, stack_usage_map,
+                  initial_highest_arg_in_use);
 
-      if (initial_highest_arg_in_use != highest_outgoing_arg_in_use)
-       bzero (&stack_usage_map[initial_highest_arg_in_use],
-              highest_outgoing_arg_in_use - initial_highest_arg_in_use);
-      needed = 0;
+         if (initial_highest_arg_in_use != highest_outgoing_arg_in_use)
+           bzero (&stack_usage_map[initial_highest_arg_in_use],
+                  highest_outgoing_arg_in_use - initial_highest_arg_in_use);
+         needed = 0;
 
-      /* The address of the outgoing argument list must not be copied to a
-        register here, because argblock would be left pointing to the
-        wrong place after the call to allocate_dynamic_stack_space below. */
+         /* The address of the outgoing argument list must not be copied to a
+            register here, because argblock would be left pointing to the
+            wrong place after the call to allocate_dynamic_stack_space below.
+            */
 
-      argblock = virtual_outgoing_args_rtx;
+         argblock = virtual_outgoing_args_rtx;
 
 #else /* not ACCUMULATE_OUTGOING_ARGS */
-      if (inhibit_defer_pop == 0)
-       {
-         /* Try to reuse some or all of the pending_stack_adjust
-            to get this space.  Maybe we can avoid any pushing.  */
-         if (needed > pending_stack_adjust)
+         if (inhibit_defer_pop == 0)
            {
-             needed -= pending_stack_adjust;
-             pending_stack_adjust = 0;
+             /* Try to reuse some or all of the pending_stack_adjust
+                to get this space.  Maybe we can avoid any pushing.  */
+             if (needed > pending_stack_adjust)
+               {
+                 needed -= pending_stack_adjust;
+                 pending_stack_adjust = 0;
+               }
+             else
+               {
+                 pending_stack_adjust -= needed;
+                 needed = 0;
+               }
            }
+         /* Special case this because overhead of `push_block' in this
+            case is non-trivial.  */
+         if (needed == 0)
+           argblock = virtual_outgoing_args_rtx;
          else
-           {
-             pending_stack_adjust -= needed;
-             needed = 0;
-           }
-       }
-      /* Special case this because overhead of `push_block' in this
-        case is non-trivial.  */
-      if (needed == 0)
-       argblock = virtual_outgoing_args_rtx;
-      else
-       argblock = push_block (GEN_INT (needed), 0, 0);
-
-      /* We only really need to call `copy_to_reg' in the case where push
-        insns are going to be used to pass ARGBLOCK to a function
-        call in ARGS.  In that case, the stack pointer changes value
-        from the allocation point to the call point, and hence
-        the value of VIRTUAL_OUTGOING_ARGS_RTX changes as well.
-        But might as well always do it.  */
-      argblock = copy_to_reg (argblock);
+           argblock = push_block (GEN_INT (needed), 0, 0);
+
+         /* We only really need to call `copy_to_reg' in the case where push
+            insns are going to be used to pass ARGBLOCK to a function
+            call in ARGS.  In that case, the stack pointer changes value
+            from the allocation point to the call point, and hence
+            the value of VIRTUAL_OUTGOING_ARGS_RTX changes as well.
+            But might as well always do it.  */
+         argblock = copy_to_reg (argblock);
 #endif /* not ACCUMULATE_OUTGOING_ARGS */
+       }
     }
 
-
 #ifdef ACCUMULATE_OUTGOING_ARGS
   /* The save/restore code in store_one_arg handles all cases except one:
      a constructor call (including a C function returning a BLKmode struct)
@@ -1398,6 +1548,8 @@ expand_call (exp, target, ignore)
 
          addr = plus_constant (addr, arg_offset);
          args[i].stack = gen_rtx (MEM, args[i].mode, addr);
+         MEM_IN_STRUCT_P (args[i].stack)
+           = AGGREGATE_TYPE_P (TREE_TYPE (args[i].tree_value));
 
          if (GET_CODE (slot_offset) == CONST_INT)
            addr = plus_constant (arg_reg, INTVAL (slot_offset));
@@ -1426,13 +1578,24 @@ expand_call (exp, target, ignore)
 
   /* Get the function to call, in the form of RTL.  */
   if (fndecl)
-    /* Get a SYMBOL_REF rtx for the function address.  */
-    funexp = XEXP (DECL_RTL (fndecl), 0);
+    {
+      /* If this is the first use of the function, see if we need to
+        make an external definition for it.  */
+      if (! TREE_USED (fndecl))
+       {
+         assemble_external (fndecl);
+         TREE_USED (fndecl) = 1;
+       }
+
+      /* Get a SYMBOL_REF rtx for the function address.  */
+      funexp = XEXP (DECL_RTL (fndecl), 0);
+    }
   else
     /* Generate an rtx (probably a pseudo-register) for the address.  */
     {
+      push_temp_slots ();
       funexp = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, VOIDmode, 0);
-      free_temp_slots ();      /* FUNEXP can't be BLKmode */
+      pop_temp_slots ();       /* FUNEXP can't be BLKmode */
       emit_queue ();
     }
 
@@ -1449,7 +1612,7 @@ expand_call (exp, target, ignore)
     }
 
   /* Precompute all register parameters.  It isn't safe to compute anything
-     once we have started filling any specific hard regs. */
+     once we have started filling any specific hard regs.  */
   reg_parm_seen = 0;
   for (i = 0; i < num_actuals; i++)
     if (args[i].reg != 0 && ! args[i].pass_on_stack)
@@ -1458,10 +1621,11 @@ expand_call (exp, target, ignore)
 
        if (args[i].value == 0)
          {
+           push_temp_slots ();
            args[i].value = expand_expr (args[i].tree_value, NULL_RTX,
                                         VOIDmode, 0);
            preserve_temp_slots (args[i].value);
-           free_temp_slots ();
+           pop_temp_slots ();
 
            /* ANSI doesn't require a sequence point here,
               but PCC has one, so this will avoid some problems.  */
@@ -1471,10 +1635,32 @@ expand_call (exp, target, ignore)
        /* If we are to promote the function arg to a wider mode,
           do it now.  */
 
-       if (GET_MODE (args[i].value) != VOIDmode
-           && GET_MODE (args[i].value) != args[i].mode)
-         args[i].value = convert_to_mode (args[i].mode, args[i].value,
-                                          args[i].unsignedp);
+       if (args[i].mode != TYPE_MODE (TREE_TYPE (args[i].tree_value)))
+         args[i].value
+           = convert_modes (args[i].mode,
+                            TYPE_MODE (TREE_TYPE (args[i].tree_value)),
+                            args[i].value, args[i].unsignedp);
+
+       /* If the value is expensive, and we are inside an appropriately 
+          short loop, put the value into a pseudo and then put the pseudo
+          into the hard reg.
+
+          For small register classes, also do this if this call uses
+          register parameters.  This is to avoid reload conflicts while
+          loading the parameters registers.  */
+
+       if ((! (GET_CODE (args[i].value) == REG
+               || (GET_CODE (args[i].value) == SUBREG
+                   && GET_CODE (SUBREG_REG (args[i].value)) == REG)))
+           && args[i].mode != BLKmode
+           && rtx_cost (args[i].value, SET) > 2
+#ifdef SMALL_REGISTER_CLASSES
+           && (reg_parm_seen || preserve_subexpressions_p ())
+#else
+           && preserve_subexpressions_p ()
+#endif
+           )
+         args[i].value = copy_to_mode_reg (args[i].mode, args[i].value);
       }
 
 #if defined(ACCUMULATE_OUTGOING_ARGS) && defined(REG_PARM_STACK_SPACE)
@@ -1525,7 +1711,8 @@ expand_call (exp, target, ignore)
                                            ));
       if (save_mode == BLKmode)
        {
-         save_area = assign_stack_temp (BLKmode, num_to_save, 1);
+         save_area = assign_stack_temp (BLKmode, num_to_save, 0);
+         MEM_IN_STRUCT_P (save_area) = 0;
          emit_block_move (validize_mem (save_area), stack_area,
                           GEN_INT (num_to_save),
                           PARM_BOUNDARY / BITS_PER_UNIT);
@@ -1550,62 +1737,67 @@ expand_call (exp, target, ignore)
       store_one_arg (&args[i], argblock, may_be_alloca,
                     args_size.var != 0, fndecl, reg_parm_stack_space);
 
-#ifdef STRICT_ALIGNMENT
   /* If we have a parm that is passed in registers but not in memory
      and whose alignment does not permit a direct copy into registers,
      make a group of pseudos that correspond to each register that we
      will later fill.  */
 
-  for (i = 0; i < num_actuals; i++)
-    if (args[i].reg != 0 && ! args[i].pass_on_stack
+  if (STRICT_ALIGNMENT)
+    for (i = 0; i < num_actuals; i++)
+      if (args[i].reg != 0 && ! args[i].pass_on_stack
        && args[i].mode == BLKmode
-       && (TYPE_ALIGN (TREE_TYPE (args[i].tree_value))
-           < MIN (BIGGEST_ALIGNMENT, BITS_PER_WORD)))
-      {
-       int bytes = int_size_in_bytes (TREE_TYPE (args[i].tree_value));
+         && (TYPE_ALIGN (TREE_TYPE (args[i].tree_value))
+             < MIN (BIGGEST_ALIGNMENT, BITS_PER_WORD)))
+       {
+         int bytes = int_size_in_bytes (TREE_TYPE (args[i].tree_value));
+         int big_endian_correction = 0;
 
-       args[i].n_aligned_regs
-         = args[i].partial ? args[i].partial
-           : (bytes + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD;
+         args[i].n_aligned_regs
+           = args[i].partial ? args[i].partial
+             : (bytes + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD;
 
-       args[i].aligned_regs = (rtx *) alloca (sizeof (rtx)
-                                              * args[i].n_aligned_regs);
+         args[i].aligned_regs = (rtx *) alloca (sizeof (rtx)
+                                                * args[i].n_aligned_regs);
 
-       for (j = 0; j < args[i].n_aligned_regs; j++)
-         {
-           rtx reg = gen_reg_rtx (word_mode);
-           rtx word = operand_subword_force (args[i].value, j, BLKmode);
-           int bitsize = TYPE_ALIGN (TREE_TYPE (args[i].tree_value));
-           int bitpos;
-
-           args[i].aligned_regs[j] = reg;
-
-           /* Clobber REG and move each partword into it.  Ensure we don't
-              go past the end of the structure.  Note that the loop below
-              works because we've already verified that padding
-              and endianness are compatible.  */
-
-           emit_insn (gen_rtx (CLOBBER, VOIDmode, reg));
-
-           for (bitpos = 0;
-                bitpos < BITS_PER_WORD && bytes > 0;
-                bitpos += bitsize, bytes -= bitsize / BITS_PER_UNIT)
-             {
-               int xbitpos = (BYTES_BIG_ENDIAN
-                              ? BITS_PER_WORD - bitpos - bitsize
-                              : bitpos);
-
-               store_bit_field (reg, bitsize, xbitpos, word_mode,
-                                extract_bit_field (word, bitsize, xbitpos, 1,
-                                                   NULL_RTX, word_mode,
-                                                   word_mode,
-                                                   bitsize / BITS_PER_UNIT,
-                                                   BITS_PER_WORD),
-                                bitsize / BITS_PER_UNIT, BITS_PER_WORD);
-             }
-         }
-      }
-#endif
+         /* Structures smaller than a word are aligned to the least
+            significant byte (to the right).  On a BYTES_BIG_ENDIAN machine,
+            this means we must skip the empty high order bytes when
+            calculating the bit offset.  */
+         if (BYTES_BIG_ENDIAN && bytes < UNITS_PER_WORD)
+           big_endian_correction = (BITS_PER_WORD  - (bytes * BITS_PER_UNIT));
+
+         for (j = 0; j < args[i].n_aligned_regs; j++)
+           {
+             rtx reg = gen_reg_rtx (word_mode);
+             rtx word = operand_subword_force (args[i].value, j, BLKmode);
+             int bitsize = TYPE_ALIGN (TREE_TYPE (args[i].tree_value));
+             int bitpos;
+
+             args[i].aligned_regs[j] = reg;
+
+             /* Clobber REG and move each partword into it.  Ensure we don't
+                go past the end of the structure.  Note that the loop below
+                works because we've already verified that padding
+                and endianness are compatible.  */
+
+             emit_insn (gen_rtx (CLOBBER, VOIDmode, reg));
+
+             for (bitpos = 0;
+                  bitpos < BITS_PER_WORD && bytes > 0;
+                  bitpos += bitsize, bytes -= bitsize / BITS_PER_UNIT)
+               {
+                 int xbitpos = bitpos + big_endian_correction;
+
+                 store_bit_field (reg, bitsize, xbitpos, word_mode,
+                                  extract_bit_field (word, bitsize, bitpos, 1,
+                                                     NULL_RTX, word_mode,
+                                                     word_mode,
+                                                     bitsize / BITS_PER_UNIT,
+                                                     BITS_PER_WORD),
+                                  bitsize / BITS_PER_UNIT, BITS_PER_WORD);
+               }
+           }
+       }
 
   /* Now store any partially-in-registers parm.
      This is the last place a block-move can happen.  */
@@ -1628,7 +1820,7 @@ expand_call (exp, target, ignore)
   /* If register arguments require space on the stack and stack space
      was not preallocated, allocate stack space here for arguments
      passed in registers.  */
-#if ! defined(ALLOCATE_OUTGOING_ARGS) && defined(OUTGOING_REG_PARM_STACK_SPACE)
+#if ! defined(ACCUMULATE_OUTGOING_ARGS) && defined(OUTGOING_REG_PARM_STACK_SPACE)
   if (must_preallocate == 0 && reg_parm_stack_space > 0)
     anti_adjust_stack (GEN_INT (reg_parm_stack_space));
 #endif
@@ -1641,54 +1833,49 @@ expand_call (exp, target, ignore)
                                 force_operand (structure_value_addr,
                                                NULL_RTX)));
       if (GET_CODE (struct_value_rtx) == REG)
-       {
-         push_to_sequence (use_insns);
-         emit_insn (gen_rtx (USE, VOIDmode, struct_value_rtx));
-         use_insns = get_insns ();
-         end_sequence ();
-       }
+         use_reg (&call_fusage, struct_value_rtx);
     }
 
+  funexp = prepare_call_address (funexp, fndecl, &call_fusage, reg_parm_seen);
+
   /* Now do the register loads required for any wholly-register parms or any
      parms which are passed both on the stack and in a register.  Their
      expressions were already evaluated. 
 
      Mark all register-parms as living through the call, putting these USE
-     insns in a list headed by USE_INSNS.  */
+     insns in the CALL_INSN_FUNCTION_USAGE field.  */
 
   for (i = 0; i < num_actuals; i++)
     {
-      rtx list = args[i].reg;
+      rtx reg = args[i].reg;
       int partial = args[i].partial;
+      int nregs;
 
-      while (list)
+      if (reg)
        {
-         rtx reg;
-         int nregs;
-
-         /* Process each register that needs to get this arg.  */
-         if (GET_CODE (list) == EXPR_LIST)
-           reg = XEXP (list, 0), list = XEXP (list, 1);
-         else
-           reg = list, list = 0;
-
-         /* Set to non-zero if must move a word at a time, even if just one
-            word (e.g, partial == 1 && mode == DFmode).  Set to zero if
-            we just use a normal move insn.  */
+         /* Set to non-negative if must move a word at a time, even if just
+            one word (e.g, partial == 1 && mode == DFmode).  Set to -1 if
+            we just use a normal move insn.  This value can be zero if the
+            argument is a zero size structure with no fields.  */
          nregs = (partial ? partial
                   : (TYPE_MODE (TREE_TYPE (args[i].tree_value)) == BLKmode
                      ? ((int_size_in_bytes (TREE_TYPE (args[i].tree_value))
                          + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD)
-                     : 0));
+                     : -1));
+
+         /* Handle calls that pass values in multiple non-contiguous
+            locations.  The Irix 6 ABI has examples of this.  */
+
+         if (GET_CODE (reg) == PARALLEL)
+           emit_group_load (reg, args[i].value);
 
          /* If simple case, just do move.  If normal partial, store_one_arg
             has already loaded the register for us.  In all other cases,
             load the register(s) from memory.  */
 
-         if (nregs == 0)
+         else if (nregs == -1)
            emit_move_insn (reg, args[i].value);
 
-#ifdef STRICT_ALIGNMENT
          /* If we have pre-computed the values to put in the registers in
             the case of non-aligned structures, copy them in now.  */
 
@@ -1696,24 +1883,20 @@ expand_call (exp, target, ignore)
            for (j = 0; j < args[i].n_aligned_regs; j++)
              emit_move_insn (gen_rtx (REG, word_mode, REGNO (reg) + j),
                              args[i].aligned_regs[j]);
-#endif
 
-         else if (args[i].partial == 0 || args[i].pass_on_stack)
+         else if (partial == 0 || args[i].pass_on_stack)
            move_block_to_reg (REGNO (reg),
                               validize_mem (args[i].value), nregs,
                               args[i].mode);
-       
-         push_to_sequence (use_insns);
-         if (nregs == 0)
-           emit_insn (gen_rtx (USE, VOIDmode, reg));
-         else
-           use_regs (REGNO (reg), nregs);
-         use_insns = get_insns ();
-         end_sequence ();
 
-         /* PARTIAL referred only to the first register, so clear it for the
-            next time.  */
-         partial = 0;
+         /* Handle calls that pass values in multiple non-contiguous
+            locations.  The Irix 6 ABI has examples of this.  */
+         if (GET_CODE (reg) == PARALLEL)
+           use_group_regs (&call_fusage, reg);
+         else if (nregs == -1)
+           use_reg (&call_fusage, reg);
+         else
+           use_regs (&call_fusage, REGNO (reg), nregs == 0 ? 1 : nregs);
        }
     }
 
@@ -1722,12 +1905,10 @@ expand_call (exp, target, ignore)
 
   /* All arguments and registers used for the call must be set up by now!  */
 
-  funexp = prepare_call_address (funexp, fndecl, &use_insns);
-
   /* Generate the actual call instruction.  */
-  emit_call_1 (funexp, funtype, args_size.constant, struct_value_size,
+  emit_call_1 (funexp, fndecl, funtype, args_size.constant, struct_value_size,
               FUNCTION_ARG (args_so_far, VOIDmode, void_type_node, 1),
-              valreg, old_inhibit_defer_pop, use_insns, is_const);
+              valreg, old_inhibit_defer_pop, call_fusage, is_const);
 
   /* If call is cse'able, make appropriate pair of reg-notes around it.
      Test valreg so we don't crash; may safely ignore `const'
@@ -1756,6 +1937,14 @@ expand_call (exp, target, ignore)
 
       valreg = temp;
     }
+  else if (is_const)
+    {
+      /* Otherwise, just write out the sequence without a note.  */
+      rtx insns = get_insns ();
+
+      end_sequence ();
+      emit_insns (insns);
+    }
 
   /* For calls to `setjmp', etc., inform flow.c it should complain
      if nonvolatile values are live.  */
@@ -1797,24 +1986,35 @@ expand_call (exp, target, ignore)
          target = gen_rtx (MEM, TYPE_MODE (TREE_TYPE (exp)),
                            memory_address (TYPE_MODE (TREE_TYPE (exp)),
                                            structure_value_addr));
-         MEM_IN_STRUCT_P (target)
-           = (TREE_CODE (TREE_TYPE (exp)) == ARRAY_TYPE
-              || TREE_CODE (TREE_TYPE (exp)) == RECORD_TYPE
-              || TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE);
+         MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
        }
     }
   else if (pcc_struct_value)
     {
       if (target == 0)
        {
-         target = gen_rtx (MEM, TYPE_MODE (TREE_TYPE (exp)),
-                           copy_to_reg (valreg));
-         MEM_IN_STRUCT_P (target)
-           = (TREE_CODE (TREE_TYPE (exp)) == ARRAY_TYPE
-              || TREE_CODE (TREE_TYPE (exp)) == RECORD_TYPE
-              || TREE_CODE (TREE_TYPE (exp)) == UNION_TYPE);
+         /* We used leave the value in the location that it is
+            returned in, but that causes problems if it is used more
+            than once in one expression.  Rather than trying to track
+            when a copy is required, we always copy when TARGET is
+            not specified.  This calling sequence is only used on
+            a few machines and TARGET is usually nonzero.  */
+         if (TYPE_MODE (TREE_TYPE (exp)) == BLKmode)
+           {
+             target = assign_stack_temp (BLKmode,
+                                         int_size_in_bytes (TREE_TYPE (exp)),
+                                         0);
+
+             MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
+
+             /* Save this temp slot around the pop below.  */
+             preserve_temp_slots (target);
+           }
+         else
+           target = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
        }
-      else if (TYPE_MODE (TREE_TYPE (exp)) != BLKmode)
+
+      if (TYPE_MODE (TREE_TYPE (exp)) != BLKmode)
        emit_move_insn (target, gen_rtx (MEM, TYPE_MODE (TREE_TYPE (exp)),
                                         copy_to_reg (valreg)));
       else
@@ -1831,36 +2031,123 @@ expand_call (exp, target, ignore)
        If they refer to the same register, this move will be a no-op, except
        when function inlining is being done.  */
     emit_move_insn (target, valreg);
+  /* Handle calls that return values in multiple non-contiguous locations.
+     The Irix 6 ABI has examples of this.  */
+  else if (GET_CODE (valreg) == PARALLEL)
+    {
+      if (target == 0)
+       {
+         int bytes = int_size_in_bytes (TREE_TYPE (exp));
+         target = assign_stack_temp (TYPE_MODE (TREE_TYPE (exp)), bytes, 0);
+         MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
+         preserve_temp_slots (target);
+       }
+
+      emit_group_store (target, valreg);
+    }
+  else if (TYPE_MODE (TREE_TYPE (exp)) == BLKmode)
+    {
+      /* Some machines (the PA for example) want to return all small
+        structures in registers regardless of the structure's alignment.
+        
+        Deal with them explicitly by copying from the return registers
+        into the target MEM locations.  */
+      int bytes = int_size_in_bytes (TREE_TYPE (exp));
+      int n_regs = (bytes + UNITS_PER_WORD - 1) / UNITS_PER_WORD;
+      int i;
+      enum machine_mode tmpmode;
+      rtx src, dst;
+      int bitsize = MIN (TYPE_ALIGN (TREE_TYPE (exp)), BITS_PER_WORD);
+      int bitpos, xbitpos, big_endian_correction = 0;
+      
+      if (target == 0)
+       {
+         target = assign_stack_temp (BLKmode, bytes, 0);
+         MEM_IN_STRUCT_P (target) = AGGREGATE_TYPE_P (TREE_TYPE (exp));
+         preserve_temp_slots (target);
+       }
+
+      /* This code assumes valreg is at least a full word.  If it isn't,
+        copy it into a new pseudo which is a full word.  */
+      if (GET_MODE (valreg) != BLKmode
+         && GET_MODE_SIZE (GET_MODE (valreg)) < UNITS_PER_WORD)
+       valreg = convert_to_mode (word_mode, valreg,
+                                 TREE_UNSIGNED (TREE_TYPE (exp)));
+
+      /* Structures whose size is not a multiple of a word are aligned
+        to the least significant byte (to the right).  On a BYTES_BIG_ENDIAN
+        machine, this means we must skip the empty high order bytes when
+        calculating the bit offset.  */
+      if (BYTES_BIG_ENDIAN && bytes % UNITS_PER_WORD)
+       big_endian_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
+                                                 * BITS_PER_UNIT));
+
+      /* Copy the structure BITSIZE bites at a time.
+
+        We could probably emit more efficient code for machines
+        which do not use strict alignment, but it doesn't seem
+        worth the effort at the current time.  */
+      for (bitpos = 0, xbitpos = big_endian_correction;
+          bitpos < bytes * BITS_PER_UNIT;
+          bitpos += bitsize, xbitpos += bitsize)
+       {
+
+         /* We need a new source operand each time xbitpos is on a 
+            word boundary and when xbitpos == big_endian_correction
+            (the first time through).  */
+         if (xbitpos % BITS_PER_WORD == 0
+             || xbitpos == big_endian_correction)
+           src = operand_subword_force (valreg,
+                                        xbitpos / BITS_PER_WORD, 
+                                        BLKmode);
+
+         /* We need a new destination operand each time bitpos is on
+            a word boundary.  */
+         if (bitpos % BITS_PER_WORD == 0)
+           dst = operand_subword (target, bitpos / BITS_PER_WORD, 1, BLKmode);
+             
+         /* Use xbitpos for the source extraction (right justified) and
+            xbitpos for the destination store (left justified).  */
+         store_bit_field (dst, bitsize, bitpos % BITS_PER_WORD, word_mode,
+                          extract_bit_field (src, bitsize,
+                                             xbitpos % BITS_PER_WORD, 1,
+                                             NULL_RTX, word_mode,
+                                             word_mode,
+                                             bitsize / BITS_PER_UNIT,
+                                             BITS_PER_WORD),
+                          bitsize / BITS_PER_UNIT, BITS_PER_WORD);
+       }
+    }
   else
     target = copy_to_reg (valreg);
 
 #ifdef PROMOTE_FUNCTION_RETURN
-  /* If we promoted this return value, make the proper SUBREG.  */
-  if (GET_MODE (target) != TYPE_MODE (TREE_TYPE (exp)))
+  /* If we promoted this return value, make the proper SUBREG.  TARGET
+     might be const0_rtx here, so be careful.  */
+  if (GET_CODE (target) == REG
+      && TYPE_MODE (TREE_TYPE (exp)) != BLKmode
+      && GET_MODE (target) != TYPE_MODE (TREE_TYPE (exp)))
     {
-      enum machine_mode mode = GET_MODE (target);
-      int unsignedp = TREE_UNSIGNED (TREE_TYPE (exp));
-
-      if (TREE_CODE (TREE_TYPE (exp)) == INTEGER_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == ENUMERAL_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == BOOLEAN_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == CHAR_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == REAL_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == POINTER_TYPE
-         || TREE_CODE (TREE_TYPE (exp)) == OFFSET_TYPE)
-       {
-         PROMOTE_MODE (mode, unsignedp, TREE_TYPE (exp));
-       }
+      tree type = TREE_TYPE (exp);
+      int unsignedp = TREE_UNSIGNED (type);
 
-      target = gen_rtx (SUBREG, TYPE_MODE (TREE_TYPE (exp)), target, 0);
+      /* If we don't promote as expected, something is wrong.  */
+      if (GET_MODE (target)
+         != promote_mode (type, TYPE_MODE (type), &unsignedp, 1))
+       abort ();
+
+      target = gen_rtx (SUBREG, TYPE_MODE (type), target, 0);
       SUBREG_PROMOTED_VAR_P (target) = 1;
       SUBREG_PROMOTED_UNSIGNED_P (target) = unsignedp;
     }
 #endif
 
-  /* Perform all cleanups needed for the arguments of this call
-     (i.e. destructors in C++).  */
-  expand_cleanups_to (old_cleanups);
+  if (flag_short_temps)
+    {
+      /* Perform all cleanups needed for the arguments of this call
+        (i.e. destructors in C++).  */
+      expand_cleanups_to (old_cleanups);
+    }
 
   /* If size of args is variable or this was a constructor call for a stack
      argument, restore saved stack-pointer value.  */
@@ -1926,7 +2213,7 @@ expand_call (exp, target, ignore)
 
   /* If this was alloca, record the new stack level for nonlocal gotos.  
      Check for the handler slots since we might not have a save area
-     for non-local gotos. */
+     for non-local gotos.  */
 
   if (may_be_alloca && nonlocal_goto_handler_slot != 0)
     emit_stack_save (SAVE_NONLOCAL, &nonlocal_goto_stack_level, NULL_RTX);
@@ -1957,19 +2244,22 @@ expand_call (exp, target, ignore)
    move memory references across the non-const call.  */
 
 void
-emit_library_call (va_alist)
-     va_dcl
+emit_library_call VPROTO((rtx orgfun, int no_queue, enum machine_mode outmode,
+                         int nargs, ...))
 {
+#ifndef __STDC__
+  rtx orgfun;
+  int no_queue;
+  enum machine_mode outmode;
+  int nargs;
+#endif
   va_list p;
   /* Total size in bytes of all the stack-parms scanned so far.  */
   struct args_size args_size;
   /* Size of arguments before any adjustments (such as rounding).  */
   struct args_size original_args_size;
   register int argnum;
-  enum machine_mode outmode;
-  int nargs;
   rtx fun;
-  rtx orgfun;
   int inc;
   int count;
   rtx argblock = 0;
@@ -1978,14 +2268,18 @@ emit_library_call (va_alist)
               struct args_size offset; struct args_size size; };
   struct arg *argvec;
   int old_inhibit_defer_pop = inhibit_defer_pop;
-  int no_queue = 0;
-  rtx use_insns;
+  rtx call_fusage = 0;
+
+  VA_START (p, nargs);
 
-  va_start (p);
-  orgfun = fun = va_arg (p, rtx);
+#ifndef __STDC__
+  orgfun = va_arg (p, rtx);
   no_queue = va_arg (p, int);
   outmode = va_arg (p, enum machine_mode);
   nargs = va_arg (p, int);
+#endif
+
+  fun = orgfun;
 
   /* Copy all the libcall-arguments out of the varargs data
      and into a vector ARGVEC.
@@ -1996,11 +2290,13 @@ emit_library_call (va_alist)
 
   argvec = (struct arg *) alloca (nargs * sizeof (struct arg));
 
-  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun);
+  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun, 0);
 
   args_size.constant = 0;
   args_size.var = 0;
 
+  push_temp_slots ();
+
   for (count = 0; count < nargs; count++)
     {
       rtx val = va_arg (p, rtx);
@@ -2016,7 +2312,7 @@ emit_library_call (va_alist)
         Pass it as a double instead.  */
 #ifdef LIBGCC_NEEDS_DOUBLE
       if (LIBGCC_NEEDS_DOUBLE && mode == SFmode)
-       val = convert_to_mode (DFmode, val, 0), mode = DFmode;
+       val = convert_modes (DFmode, SFmode, val, 0), mode = DFmode;
 #endif
 
       /* There's no need to call protect_from_queue, because
@@ -2027,16 +2323,23 @@ emit_library_call (va_alist)
          && ! (CONSTANT_P (val) && LEGITIMATE_CONSTANT_P (val)))
        val = force_operand (val, NULL_RTX);
 
-      argvec[count].value = val;
-      argvec[count].mode = mode;
-
 #ifdef FUNCTION_ARG_PASS_BY_REFERENCE
       if (FUNCTION_ARG_PASS_BY_REFERENCE (args_so_far, mode, NULL_TREE, 1))
-       abort ();
+       {
+         /* We do not support FUNCTION_ARG_CALLEE_COPIES here since it can
+            be viewed as just an efficiency improvement.  */
+         rtx slot = assign_stack_temp (mode, GET_MODE_SIZE (mode), 0);
+         emit_move_insn (slot, val);
+         val = force_operand (XEXP (slot, 0), NULL_RTX);
+         mode = Pmode;
+       }
 #endif
 
+      argvec[count].value = val;
+      argvec[count].mode = mode;
+
       argvec[count].reg = FUNCTION_ARG (args_so_far, mode, NULL_TREE, 1);
-      if (argvec[count].reg && GET_CODE (argvec[count].reg) == EXPR_LIST)
+      if (argvec[count].reg && GET_CODE (argvec[count].reg) == PARALLEL)
        abort ();
 #ifdef FUNCTION_ARG_PARTIAL_NREGS
       argvec[count].partial
@@ -2078,7 +2381,7 @@ emit_library_call (va_alist)
        abort ();
 #endif
 
-      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree)0, 1);
+      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree) 0, 1);
     }
   va_end (p);
 
@@ -2100,9 +2403,10 @@ emit_library_call (va_alist)
 #endif
 #endif
 
-#ifdef ACCUMULATE_OUTGOING_ARGS
   if (args_size.constant > current_function_outgoing_args_size)
     current_function_outgoing_args_size = args_size.constant;
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
   args_size.constant = 0;
 #endif
 
@@ -2159,6 +2463,8 @@ emit_library_call (va_alist)
   argnum = 0;
 #endif
 
+  fun = prepare_call_address (fun, NULL_TREE, &call_fusage, 0);
+
   /* Now load any reg parms into their regs.  */
 
   for (count = 0; count < nargs; count++, argnum += inc)
@@ -2178,15 +2484,9 @@ emit_library_call (va_alist)
     emit_queue ();
 
   /* Any regs containing parms remain in use through the call.  */
-  start_sequence ();
   for (count = 0; count < nargs; count++)
     if (argvec[count].reg != 0)
-      emit_insn (gen_rtx (USE, VOIDmode, argvec[count].reg));
-
-  use_insns = get_insns ();
-  end_sequence ();
-
-  fun = prepare_call_address (fun, NULL_TREE, &use_insns);
+       use_reg (&call_fusage, argvec[count].reg);
 
   /* Don't allow popping to be deferred, since then
      cse'ing of library calls could delete a call and leave the pop.  */
@@ -2195,10 +2495,14 @@ emit_library_call (va_alist)
   /* We pass the old value of inhibit_defer_pop + 1 to emit_call_1, which
      will set inhibit_defer_pop to that value.  */
 
-  emit_call_1 (fun, get_identifier (XSTR (orgfun, 0)), args_size.constant, 0,
+  emit_call_1 (fun, 
+               get_identifier (XSTR (orgfun, 0)), 
+               get_identifier (XSTR (orgfun, 0)), args_size.constant, 0,
               FUNCTION_ARG (args_so_far, VOIDmode, void_type_node, 1),
               outmode != VOIDmode ? hard_libcall_value (outmode) : NULL_RTX,
-              old_inhibit_defer_pop + 1, use_insns, no_queue);
+              old_inhibit_defer_pop + 1, call_fusage, no_queue);
+
+  pop_temp_slots ();
 
   /* Now restore inhibit_defer_pop to its actual original value.  */
   OK_DEFER_POP;
@@ -2206,22 +2510,30 @@ emit_library_call (va_alist)
 \f
 /* Like emit_library_call except that an extra argument, VALUE,
    comes second and says where to store the result.
-   (If VALUE is zero, the result comes in the function value register.)  */
+   (If VALUE is zero, this function chooses a convenient way
+   to return the value.
 
-void
-emit_library_call_value (va_alist)
-     va_dcl
+   This function returns an rtx for where the value is to be found.
+   If VALUE is nonzero, VALUE is returned.  */
+
+rtx
+emit_library_call_value VPROTO((rtx orgfun, rtx value, int no_queue,
+                               enum machine_mode outmode, int nargs, ...))
 {
+#ifndef __STDC__
+  rtx orgfun;
+  rtx value;
+  int no_queue;
+  enum machine_mode outmode;
+  int nargs;
+#endif
   va_list p;
   /* Total size in bytes of all the stack-parms scanned so far.  */
   struct args_size args_size;
   /* Size of arguments before any adjustments (such as rounding).  */
   struct args_size original_args_size;
   register int argnum;
-  enum machine_mode outmode;
-  int nargs;
   rtx fun;
-  rtx orgfun;
   int inc;
   int count;
   rtx argblock = 0;
@@ -2230,26 +2542,47 @@ emit_library_call_value (va_alist)
               struct args_size offset; struct args_size size; };
   struct arg *argvec;
   int old_inhibit_defer_pop = inhibit_defer_pop;
-  int no_queue = 0;
-  rtx use_insns;
-  rtx value;
+  rtx call_fusage = 0;
   rtx mem_value = 0;
+  int pcc_struct_value = 0;
+  int struct_value_size = 0;
+  int is_const;
 
-  va_start (p);
-  orgfun = fun = va_arg (p, rtx);
+  VA_START (p, nargs);
+
+#ifndef __STDC__
+  orgfun = va_arg (p, rtx);
   value = va_arg (p, rtx);
   no_queue = va_arg (p, int);
   outmode = va_arg (p, enum machine_mode);
   nargs = va_arg (p, int);
+#endif
+
+  is_const = no_queue;
+  fun = orgfun;
 
   /* If this kind of value comes back in memory,
      decide where in memory it should come back.  */
-  if (RETURN_IN_MEMORY (type_for_mode (outmode, 0)))
+  if (aggregate_value_p (type_for_mode (outmode, 0)))
     {
-      if (GET_CODE (value) == MEM)
+#ifdef PCC_STATIC_STRUCT_RETURN
+      rtx pointer_reg
+       = hard_function_value (build_pointer_type (type_for_mode (outmode, 0)),
+                              0);
+      mem_value = gen_rtx (MEM, outmode, pointer_reg);
+      pcc_struct_value = 1;
+      if (value == 0)
+       value = gen_reg_rtx (outmode);
+#else /* not PCC_STATIC_STRUCT_RETURN */
+      struct_value_size = GET_MODE_SIZE (outmode);
+      if (value != 0 && GET_CODE (value) == MEM)
        mem_value = value;
       else
        mem_value = assign_stack_temp (outmode, GET_MODE_SIZE (outmode), 0);
+#endif
+
+      /* This call returns a big structure.  */
+      is_const = 0;
     }
 
   /* ??? Unfinished: must pass the memory address as an argument.  */
@@ -2263,53 +2596,53 @@ emit_library_call_value (va_alist)
 
   argvec = (struct arg *) alloca ((nargs + 1) * sizeof (struct arg));
 
-  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun);
+  INIT_CUMULATIVE_ARGS (args_so_far, NULL_TREE, fun, 0);
 
   args_size.constant = 0;
   args_size.var = 0;
 
   count = 0;
 
+  push_temp_slots ();
+
   /* If there's a structure value address to be passed,
      either pass it in the special place, or pass it as an extra argument.  */
-  if (mem_value)
+  if (mem_value && struct_value_rtx == 0 && ! pcc_struct_value)
     {
       rtx addr = XEXP (mem_value, 0);
+      nargs++;
 
-      if (! struct_value_rtx)
-       {
-         nargs++;
-
-         /* Make sure it is a reasonable operand for a move or push insn.  */
-         if (GET_CODE (addr) != REG && GET_CODE (addr) != MEM
-             && ! (CONSTANT_P (addr) && LEGITIMATE_CONSTANT_P (addr)))
-           addr = force_operand (addr, NULL_RTX);
+      /* Make sure it is a reasonable operand for a move or push insn.  */
+      if (GET_CODE (addr) != REG && GET_CODE (addr) != MEM
+         && ! (CONSTANT_P (addr) && LEGITIMATE_CONSTANT_P (addr)))
+       addr = force_operand (addr, NULL_RTX);
 
-         argvec[count].value = addr;
-         argvec[count].mode = outmode;
-         argvec[count].partial = 0;
+      argvec[count].value = addr;
+      argvec[count].mode = Pmode;
+      argvec[count].partial = 0;
 
-         argvec[count].reg = FUNCTION_ARG (args_so_far, outmode, NULL_TREE, 1);
+      argvec[count].reg = FUNCTION_ARG (args_so_far, Pmode, NULL_TREE, 1);
 #ifdef FUNCTION_ARG_PARTIAL_NREGS
-         if (FUNCTION_ARG_PARTIAL_NREGS (args_so_far, outmode, NULL_TREE, 1))
-           abort ();
+      if (FUNCTION_ARG_PARTIAL_NREGS (args_so_far, Pmode, NULL_TREE, 1))
+       abort ();
 #endif
 
-         locate_and_pad_parm (outmode, NULL_TREE,
-                              argvec[count].reg && argvec[count].partial == 0,
-                              NULL_TREE, &args_size, &argvec[count].offset,
-                              &argvec[count].size);
+      locate_and_pad_parm (Pmode, NULL_TREE,
+                          argvec[count].reg && argvec[count].partial == 0,
+                          NULL_TREE, &args_size, &argvec[count].offset,
+                          &argvec[count].size);
 
 
-         if (argvec[count].reg == 0 || argvec[count].partial != 0
+      if (argvec[count].reg == 0 || argvec[count].partial != 0
 #ifdef REG_PARM_STACK_SPACE
-             || 1
+         || 1
 #endif
-             )
-           args_size.constant += argvec[count].size.constant;
+         )
+       args_size.constant += argvec[count].size.constant;
 
-         FUNCTION_ARG_ADVANCE (args_so_far, outmode, (tree)0, 1);
-       }
+      FUNCTION_ARG_ADVANCE (args_so_far, Pmode, (tree) 0, 1);
+
+      count++;
     }
 
   for (; count < nargs; count++)
@@ -2327,7 +2660,7 @@ emit_library_call_value (va_alist)
         Pass it as a double instead.  */
 #ifdef LIBGCC_NEEDS_DOUBLE
       if (LIBGCC_NEEDS_DOUBLE && mode == SFmode)
-       val = convert_to_mode (DFmode, val, 0), mode = DFmode;
+       val = convert_modes (DFmode, SFmode, val, 0), mode = DFmode;
 #endif
 
       /* There's no need to call protect_from_queue, because
@@ -2338,16 +2671,23 @@ emit_library_call_value (va_alist)
          && ! (CONSTANT_P (val) && LEGITIMATE_CONSTANT_P (val)))
        val = force_operand (val, NULL_RTX);
 
-      argvec[count].value = val;
-      argvec[count].mode = mode;
-
 #ifdef FUNCTION_ARG_PASS_BY_REFERENCE
       if (FUNCTION_ARG_PASS_BY_REFERENCE (args_so_far, mode, NULL_TREE, 1))
-       abort ();
+       {
+         /* We do not support FUNCTION_ARG_CALLEE_COPIES here since it can
+            be viewed as just an efficiency improvement.  */
+         rtx slot = assign_stack_temp (mode, GET_MODE_SIZE (mode), 0);
+         emit_move_insn (slot, val);
+         val = XEXP (slot, 0);
+         mode = Pmode;
+       }
 #endif
 
+      argvec[count].value = val;
+      argvec[count].mode = mode;
+
       argvec[count].reg = FUNCTION_ARG (args_so_far, mode, NULL_TREE, 1);
-      if (argvec[count].reg && GET_CODE (argvec[count].reg) == EXPR_LIST)
+      if (argvec[count].reg && GET_CODE (argvec[count].reg) == PARALLEL)
        abort ();
 #ifdef FUNCTION_ARG_PARTIAL_NREGS
       argvec[count].partial
@@ -2389,7 +2729,7 @@ emit_library_call_value (va_alist)
        abort ();
 #endif
 
-      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree)0, 1);
+      FUNCTION_ARG_ADVANCE (args_so_far, mode, (tree) 0, 1);
     }
   va_end (p);
 
@@ -2411,9 +2751,10 @@ emit_library_call_value (va_alist)
 #endif
 #endif
 
-#ifdef ACCUMULATE_OUTGOING_ARGS
   if (args_size.constant > current_function_outgoing_args_size)
     current_function_outgoing_args_size = args_size.constant;
+
+#ifdef ACCUMULATE_OUTGOING_ARGS
   args_size.constant = 0;
 #endif
 
@@ -2470,10 +2811,9 @@ emit_library_call_value (va_alist)
   argnum = 0;
 #endif
 
-  /* Now load any reg parms into their regs.  */
+  fun = prepare_call_address (fun, NULL_TREE, &call_fusage, 0);
 
-  if (mem_value != 0 && struct_value_rtx != 0)
-    emit_move_insn (struct_value_rtx, XEXP (mem_value, 0));
+  /* Now load any reg parms into their regs.  */
 
   for (count = 0; count < nargs; count++, argnum += inc)
     {
@@ -2494,15 +2834,20 @@ emit_library_call_value (va_alist)
 #endif
 
   /* Any regs containing parms remain in use through the call.  */
-  start_sequence ();
   for (count = 0; count < nargs; count++)
     if (argvec[count].reg != 0)
-      emit_insn (gen_rtx (USE, VOIDmode, argvec[count].reg));
+       use_reg (&call_fusage, argvec[count].reg);
 
-  use_insns = get_insns ();
-  end_sequence ();
-
-  fun = prepare_call_address (fun, NULL_TREE, &use_insns);
+  /* Pass the function the address in which to return a structure value.  */
+  if (mem_value != 0 && struct_value_rtx != 0 && ! pcc_struct_value)
+    {
+      emit_move_insn (struct_value_rtx,
+                     force_reg (Pmode,
+                                force_operand (XEXP (mem_value, 0),
+                                               NULL_RTX)));
+      if (GET_CODE (struct_value_rtx) == REG)
+         use_reg (&call_fusage, struct_value_rtx);
+    }
 
   /* Don't allow popping to be deferred, since then
      cse'ing of library calls could delete a call and leave the pop.  */
@@ -2511,27 +2856,37 @@ emit_library_call_value (va_alist)
   /* We pass the old value of inhibit_defer_pop + 1 to emit_call_1, which
      will set inhibit_defer_pop to that value.  */
 
-  emit_call_1 (fun, get_identifier (XSTR (orgfun, 0)), args_size.constant, 0,
+  emit_call_1 (fun, 
+               get_identifier (XSTR (orgfun, 0)),
+               get_identifier (XSTR (orgfun, 0)), args_size.constant,
+              struct_value_size,
               FUNCTION_ARG (args_so_far, VOIDmode, void_type_node, 1),
-              outmode != VOIDmode ? hard_libcall_value (outmode) : NULL_RTX,
-              old_inhibit_defer_pop + 1, use_insns, no_queue);
+              (outmode != VOIDmode && mem_value == 0
+               ? hard_libcall_value (outmode) : NULL_RTX),
+              old_inhibit_defer_pop + 1, call_fusage, is_const);
 
   /* Now restore inhibit_defer_pop to its actual original value.  */
   OK_DEFER_POP;
 
+  pop_temp_slots ();
+
   /* Copy the value to the right place.  */
   if (outmode != VOIDmode)
     {
       if (mem_value)
        {
          if (value == 0)
-           value = hard_libcall_value (outmode);
+           value = mem_value;
          if (value != mem_value)
            emit_move_insn (value, mem_value);
        }
       else if (value != 0)
        emit_move_insn (value, hard_libcall_value (outmode));
+      else
+       value = hard_libcall_value (outmode);
     }
+
+  return value;
 }
 \f
 #if 0
@@ -2607,14 +2962,18 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
   if (TREE_CODE (pval) == ERROR_MARK)
     return;
 
+  /* Push a new temporary level for any temporaries we make for
+     this argument.  */
+  push_temp_slots ();
+
 #ifdef ACCUMULATE_OUTGOING_ARGS
   /* If this is being stored into a pre-allocated, fixed-size, stack area,
      save any previous data at that location.  */
   if (argblock && ! variable_size && arg->stack)
     {
 #ifdef ARGS_GROW_DOWNWARD
-      /* stack_slot is negative, but we want to index stack_usage_map */
-      /* with positive values. */
+      /* stack_slot is negative, but we want to index stack_usage_map
+         with positive values.  */
       if (GET_CODE (XEXP (arg->stack_slot, 0)) == PLUS)
        upper_bound = -INTVAL (XEXP (XEXP (arg->stack_slot, 0), 1)) + 1;
       else
@@ -2652,7 +3011,10 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
          if (save_mode == BLKmode)
            {
              arg->save_area = assign_stack_temp (BLKmode,
-                                                 arg->size.constant, 1);
+                                                 arg->size.constant, 0);
+             MEM_IN_STRUCT_P (arg->save_area)
+               = AGGREGATE_TYPE_P (TREE_TYPE (arg->tree_value));
+             preserve_temp_slots (arg->save_area);
              emit_block_move (validize_mem (arg->save_area), stack_area,
                               GEN_INT (arg->size.constant),
                               PARM_BOUNDARY / BITS_PER_UNIT);
@@ -2676,19 +3038,11 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
        this case.   */
     abort ();
 
-#ifdef STRICT_ALIGNMENT
   /* If this arg needs special alignment, don't load the registers
      here.  */
   if (arg->n_aligned_regs != 0)
     reg = 0;
-#endif
   
-  /* If this is being partially passed in a register, but multiple locations
-     are specified, we assume that the one partially used is the one that is
-     listed first.  */
-  if (reg && GET_CODE (reg) == EXPR_LIST)
-    reg = XEXP (reg, 0);
-
   /* If this is being passed partially in a register, we can't evaluate
      it directly into its stack slot.  Otherwise, we can.  */
   if (arg->value == 0)
@@ -2715,15 +3069,18 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
       if (arg->pass_on_stack)
        stack_arg_under_construction++;
 #endif
-      arg->value = expand_expr (pval, partial ? NULL_RTX : arg->stack,
+      arg->value = expand_expr (pval,
+                               (partial
+                                || TYPE_MODE (TREE_TYPE (pval)) != arg->mode)
+                               ? NULL_RTX : arg->stack,
                                VOIDmode, 0);
 
       /* If we are promoting object (or for any other reason) the mode
         doesn't agree, convert the mode.  */
 
-      if (GET_MODE (arg->value) != VOIDmode
-         && GET_MODE (arg->value) != arg->mode)
-       arg->value = convert_to_mode (arg->mode, arg->value, arg->unsignedp);
+      if (arg->mode != TYPE_MODE (TREE_TYPE (pval)))
+       arg->value = convert_modes (arg->mode, TYPE_MODE (TREE_TYPE (pval)),
+                                   arg->value, arg->unsignedp);
 
 #ifdef ACCUMULATE_OUTGOING_ARGS
       if (arg->pass_on_stack)
@@ -2771,8 +3128,9 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
 
       /* This isn't already where we want it on the stack, so put it there.
         This can either be done with push or copy insns.  */
-      emit_push_insn (arg->value, arg->mode, TREE_TYPE (pval), 0, 0, partial,
-                     reg, used - size, argblock, ARGS_SIZE_RTX (arg->offset));
+      emit_push_insn (arg->value, arg->mode, TREE_TYPE (pval), NULL_RTX,
+                     0, partial, reg, used - size,
+                     argblock, ARGS_SIZE_RTX (arg->offset));
     }
   else
     {
@@ -2795,12 +3153,11 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
        }
       else
        {
-         register tree size = size_in_bytes (TREE_TYPE (pval));
          /* PUSH_ROUNDING has no effect on us, because
             emit_push_insn for BLKmode is careful to avoid it.  */
-         excess = (arg->size.constant - TREE_INT_CST_LOW (size)
+         excess = (arg->size.constant - int_size_in_bytes (TREE_TYPE (pval))
                    + partial * UNITS_PER_WORD);
-         size_rtx = expand_expr (size, NULL_RTX, VOIDmode, 0);
+         size_rtx = expr_size (pval);
        }
 
       emit_push_insn (arg->value, arg->mode, TREE_TYPE (pval), size_rtx,
@@ -2826,8 +3183,12 @@ store_one_arg (arg, argblock, may_be_alloca, variable_size, fndecl,
      but PCC has one, so this will avoid some problems.  */
   emit_queue ();
 
-  /* Free any temporary slots made in processing this argument.  */
+  /* Free any temporary slots made in processing this argument.  Show
+     that we might have taken the address of something and pushed that
+     as an operand.  */
+  preserve_temp_slots (NULL_RTX);
   free_temp_slots ();
+  pop_temp_slots ();
 
 #ifdef ACCUMULATE_OUTGOING_ARGS
   /* Now mark the segment we just used.  */