OSDN Git Service

Remove TYPE_NONCOPIED_PARTS.
[pf3gnuchains/gcc-fork.git] / gcc / expr.c
1 /* Convert tree expression to rtl instructions, for GNU compiler.
2    Copyright (C) 1988, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999,
3    2000, 2001 Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 59 Temple Place - Suite 330, Boston, MA
20 02111-1307, USA.  */
21
22 #include "config.h"
23 #include "system.h"
24 #include "machmode.h"
25 #include "rtl.h"
26 #include "tree.h"
27 #include "obstack.h"
28 #include "flags.h"
29 #include "regs.h"
30 #include "hard-reg-set.h"
31 #include "except.h"
32 #include "function.h"
33 #include "insn-config.h"
34 /* Include expr.h after insn-config.h so we get HAVE_conditional_move.  */
35 #include "expr.h"
36 #include "optabs.h"
37 #include "libfuncs.h"
38 #include "recog.h"
39 #include "reload.h"
40 #include "output.h"
41 #include "typeclass.h"
42 #include "toplev.h"
43 #include "ggc.h"
44 #include "intl.h"
45 #include "tm_p.h"
46
47 /* Decide whether a function's arguments should be processed
48    from first to last or from last to first.
49
50    They should if the stack and args grow in opposite directions, but
51    only if we have push insns.  */
52
53 #ifdef PUSH_ROUNDING
54
55 #if defined (STACK_GROWS_DOWNWARD) != defined (ARGS_GROW_DOWNWARD)
56 #define PUSH_ARGS_REVERSED      /* If it's last to first.  */
57 #endif
58
59 #endif
60
61 #ifndef STACK_PUSH_CODE
62 #ifdef STACK_GROWS_DOWNWARD
63 #define STACK_PUSH_CODE PRE_DEC
64 #else
65 #define STACK_PUSH_CODE PRE_INC
66 #endif
67 #endif
68
69 /* Assume that case vectors are not pc-relative.  */
70 #ifndef CASE_VECTOR_PC_RELATIVE
71 #define CASE_VECTOR_PC_RELATIVE 0
72 #endif
73
74 /* Hook called by safe_from_p for language-specific tree codes.  It is
75    up to the language front-end to install a hook if it has any such
76    codes that safe_from_p needs to know about.  Since same_from_p will
77    recursively explore the TREE_OPERANDs of an expression, this hook
78    should not reexamine those pieces.  This routine may recursively
79    call safe_from_p; it should always pass `0' as the TOP_P
80    parameter.  */
81 int (*lang_safe_from_p) PARAMS ((rtx, tree));
82
83 /* If this is nonzero, we do not bother generating VOLATILE
84    around volatile memory references, and we are willing to
85    output indirect addresses.  If cse is to follow, we reject
86    indirect addresses so a useful potential cse is generated;
87    if it is used only once, instruction combination will produce
88    the same indirect address eventually.  */
89 int cse_not_expected;
90
91 /* Don't check memory usage, since code is being emitted to check a memory
92    usage.  Used when current_function_check_memory_usage is true, to avoid
93    infinite recursion.  */
94 static int in_check_memory_usage;
95
96 /* Chain of pending expressions for PLACEHOLDER_EXPR to replace.  */
97 static tree placeholder_list = 0;
98
99 /* This structure is used by move_by_pieces to describe the move to
100    be performed.  */
101 struct move_by_pieces
102 {
103   rtx to;
104   rtx to_addr;
105   int autinc_to;
106   int explicit_inc_to;
107   rtx from;
108   rtx from_addr;
109   int autinc_from;
110   int explicit_inc_from;
111   unsigned HOST_WIDE_INT len;
112   HOST_WIDE_INT offset;
113   int reverse;
114 };
115
116 /* This structure is used by store_by_pieces to describe the clear to
117    be performed.  */
118
119 struct store_by_pieces
120 {
121   rtx to;
122   rtx to_addr;
123   int autinc_to;
124   int explicit_inc_to;
125   unsigned HOST_WIDE_INT len;
126   HOST_WIDE_INT offset;
127   rtx (*constfun) PARAMS ((PTR, HOST_WIDE_INT, enum machine_mode));
128   PTR constfundata;
129   int reverse;
130 };
131
132 extern struct obstack permanent_obstack;
133
134 static rtx get_push_address     PARAMS ((int));
135
136 static rtx enqueue_insn         PARAMS ((rtx, rtx));
137 static unsigned HOST_WIDE_INT move_by_pieces_ninsns
138                                 PARAMS ((unsigned HOST_WIDE_INT,
139                                          unsigned int));
140 static void move_by_pieces_1    PARAMS ((rtx (*) (rtx, ...), enum machine_mode,
141                                          struct move_by_pieces *));
142 static rtx clear_by_pieces_1    PARAMS ((PTR, HOST_WIDE_INT,
143                                          enum machine_mode));
144 static void clear_by_pieces     PARAMS ((rtx, unsigned HOST_WIDE_INT,
145                                          unsigned int));
146 static void store_by_pieces_1   PARAMS ((struct store_by_pieces *,
147                                          unsigned int));
148 static void store_by_pieces_2   PARAMS ((rtx (*) (rtx, ...),
149                                          enum machine_mode,
150                                          struct store_by_pieces *));
151 static rtx get_subtarget        PARAMS ((rtx));
152 static int is_zeros_p           PARAMS ((tree));
153 static int mostly_zeros_p       PARAMS ((tree));
154 static void store_constructor_field PARAMS ((rtx, unsigned HOST_WIDE_INT,
155                                              HOST_WIDE_INT, enum machine_mode,
156                                              tree, tree, unsigned int, int,
157                                              int));
158 static void store_constructor   PARAMS ((tree, rtx, unsigned int, int,
159                                          HOST_WIDE_INT));
160 static rtx store_field          PARAMS ((rtx, HOST_WIDE_INT,
161                                          HOST_WIDE_INT, enum machine_mode,
162                                          tree, enum machine_mode, int,
163                                          unsigned int, HOST_WIDE_INT, int));
164 static enum memory_use_mode
165   get_memory_usage_from_modifier PARAMS ((enum expand_modifier));
166 static rtx var_rtx              PARAMS ((tree));
167 static rtx expand_expr_unaligned PARAMS ((tree, unsigned int *));
168 static rtx expand_increment     PARAMS ((tree, int, int));
169 static void do_jump_by_parts_greater PARAMS ((tree, int, rtx, rtx));
170 static void do_jump_by_parts_equality PARAMS ((tree, rtx, rtx));
171 static void do_compare_and_jump PARAMS ((tree, enum rtx_code, enum rtx_code,
172                                          rtx, rtx));
173 static rtx do_store_flag        PARAMS ((tree, rtx, enum machine_mode, int));
174 #ifdef PUSH_ROUNDING
175 static void emit_single_push_insn PARAMS ((enum machine_mode, rtx, tree));
176 #endif
177 static void do_tablejump PARAMS ((rtx, enum machine_mode, rtx, rtx, rtx));
178
179 /* Record for each mode whether we can move a register directly to or
180    from an object of that mode in memory.  If we can't, we won't try
181    to use that mode directly when accessing a field of that mode.  */
182
183 static char direct_load[NUM_MACHINE_MODES];
184 static char direct_store[NUM_MACHINE_MODES];
185
186 /* If a memory-to-memory move would take MOVE_RATIO or more simple
187    move-instruction sequences, we will do a movstr or libcall instead.  */
188
189 #ifndef MOVE_RATIO
190 #if defined (HAVE_movstrqi) || defined (HAVE_movstrhi) || defined (HAVE_movstrsi) || defined (HAVE_movstrdi) || defined (HAVE_movstrti)
191 #define MOVE_RATIO 2
192 #else
193 /* If we are optimizing for space (-Os), cut down the default move ratio.  */
194 #define MOVE_RATIO (optimize_size ? 3 : 15)
195 #endif
196 #endif
197
198 /* This macro is used to determine whether move_by_pieces should be called
199    to perform a structure copy.  */
200 #ifndef MOVE_BY_PIECES_P
201 #define MOVE_BY_PIECES_P(SIZE, ALIGN) \
202   (move_by_pieces_ninsns (SIZE, ALIGN) < (unsigned int) MOVE_RATIO)
203 #endif
204
205 /* This array records the insn_code of insns to perform block moves.  */
206 enum insn_code movstr_optab[NUM_MACHINE_MODES];
207
208 /* This array records the insn_code of insns to perform block clears.  */
209 enum insn_code clrstr_optab[NUM_MACHINE_MODES];
210
211 /* SLOW_UNALIGNED_ACCESS is non-zero if unaligned accesses are very slow.  */
212
213 #ifndef SLOW_UNALIGNED_ACCESS
214 #define SLOW_UNALIGNED_ACCESS(MODE, ALIGN) STRICT_ALIGNMENT
215 #endif
216 \f
217 /* This is run once per compilation to set up which modes can be used
218    directly in memory and to initialize the block move optab.  */
219
220 void
221 init_expr_once ()
222 {
223   rtx insn, pat;
224   enum machine_mode mode;
225   int num_clobbers;
226   rtx mem, mem1;
227
228   start_sequence ();
229
230   /* Try indexing by frame ptr and try by stack ptr.
231      It is known that on the Convex the stack ptr isn't a valid index.
232      With luck, one or the other is valid on any machine.  */
233   mem = gen_rtx_MEM (VOIDmode, stack_pointer_rtx);
234   mem1 = gen_rtx_MEM (VOIDmode, frame_pointer_rtx);
235
236   insn = emit_insn (gen_rtx_SET (0, NULL_RTX, NULL_RTX));
237   pat = PATTERN (insn);
238
239   for (mode = VOIDmode; (int) mode < NUM_MACHINE_MODES;
240        mode = (enum machine_mode) ((int) mode + 1))
241     {
242       int regno;
243       rtx reg;
244
245       direct_load[(int) mode] = direct_store[(int) mode] = 0;
246       PUT_MODE (mem, mode);
247       PUT_MODE (mem1, mode);
248
249       /* See if there is some register that can be used in this mode and
250          directly loaded or stored from memory.  */
251
252       if (mode != VOIDmode && mode != BLKmode)
253         for (regno = 0; regno < FIRST_PSEUDO_REGISTER
254              && (direct_load[(int) mode] == 0 || direct_store[(int) mode] == 0);
255              regno++)
256           {
257             if (! HARD_REGNO_MODE_OK (regno, mode))
258               continue;
259
260             reg = gen_rtx_REG (mode, regno);
261
262             SET_SRC (pat) = mem;
263             SET_DEST (pat) = reg;
264             if (recog (pat, insn, &num_clobbers) >= 0)
265               direct_load[(int) mode] = 1;
266
267             SET_SRC (pat) = mem1;
268             SET_DEST (pat) = reg;
269             if (recog (pat, insn, &num_clobbers) >= 0)
270               direct_load[(int) mode] = 1;
271
272             SET_SRC (pat) = reg;
273             SET_DEST (pat) = mem;
274             if (recog (pat, insn, &num_clobbers) >= 0)
275               direct_store[(int) mode] = 1;
276
277             SET_SRC (pat) = reg;
278             SET_DEST (pat) = mem1;
279             if (recog (pat, insn, &num_clobbers) >= 0)
280               direct_store[(int) mode] = 1;
281           }
282     }
283
284   end_sequence ();
285 }
286
287 /* This is run at the start of compiling a function.  */
288
289 void
290 init_expr ()
291 {
292   cfun->expr = (struct expr_status *) xmalloc (sizeof (struct expr_status));
293
294   pending_chain = 0;
295   pending_stack_adjust = 0;
296   stack_pointer_delta = 0;
297   inhibit_defer_pop = 0;
298   saveregs_value = 0;
299   apply_args_value = 0;
300   forced_labels = 0;
301 }
302
303 void
304 mark_expr_status (p)
305      struct expr_status *p;
306 {
307   if (p == NULL)
308     return;
309
310   ggc_mark_rtx (p->x_saveregs_value);
311   ggc_mark_rtx (p->x_apply_args_value);
312   ggc_mark_rtx (p->x_forced_labels);
313 }
314
315 void
316 free_expr_status (f)
317      struct function *f;
318 {
319   free (f->expr);
320   f->expr = NULL;
321 }
322
323 /* Small sanity check that the queue is empty at the end of a function.  */
324
325 void
326 finish_expr_for_function ()
327 {
328   if (pending_chain)
329     abort ();
330 }
331 \f
332 /* Manage the queue of increment instructions to be output
333    for POSTINCREMENT_EXPR expressions, etc.  */
334
335 /* Queue up to increment (or change) VAR later.  BODY says how:
336    BODY should be the same thing you would pass to emit_insn
337    to increment right away.  It will go to emit_insn later on.
338
339    The value is a QUEUED expression to be used in place of VAR
340    where you want to guarantee the pre-incrementation value of VAR.  */
341
342 static rtx
343 enqueue_insn (var, body)
344      rtx var, body;
345 {
346   pending_chain = gen_rtx_QUEUED (GET_MODE (var), var, NULL_RTX, NULL_RTX,
347                                   body, pending_chain);
348   return pending_chain;
349 }
350
351 /* Use protect_from_queue to convert a QUEUED expression
352    into something that you can put immediately into an instruction.
353    If the queued incrementation has not happened yet,
354    protect_from_queue returns the variable itself.
355    If the incrementation has happened, protect_from_queue returns a temp
356    that contains a copy of the old value of the variable.
357
358    Any time an rtx which might possibly be a QUEUED is to be put
359    into an instruction, it must be passed through protect_from_queue first.
360    QUEUED expressions are not meaningful in instructions.
361
362    Do not pass a value through protect_from_queue and then hold
363    on to it for a while before putting it in an instruction!
364    If the queue is flushed in between, incorrect code will result.  */
365
366 rtx
367 protect_from_queue (x, modify)
368      register rtx x;
369      int modify;
370 {
371   register RTX_CODE code = GET_CODE (x);
372
373 #if 0  /* A QUEUED can hang around after the queue is forced out.  */
374   /* Shortcut for most common case.  */
375   if (pending_chain == 0)
376     return x;
377 #endif
378
379   if (code != QUEUED)
380     {
381       /* A special hack for read access to (MEM (QUEUED ...)) to facilitate
382          use of autoincrement.  Make a copy of the contents of the memory
383          location rather than a copy of the address, but not if the value is
384          of mode BLKmode.  Don't modify X in place since it might be
385          shared.  */
386       if (code == MEM && GET_MODE (x) != BLKmode
387           && GET_CODE (XEXP (x, 0)) == QUEUED && !modify)
388         {
389           rtx y = XEXP (x, 0);
390           rtx new = replace_equiv_address_nv (x, QUEUED_VAR (y));
391
392           if (QUEUED_INSN (y))
393             {
394               rtx temp = gen_reg_rtx (GET_MODE (x));
395
396               emit_insn_before (gen_move_insn (temp, new),
397                                 QUEUED_INSN (y));
398               return temp;
399             }
400
401           /* Copy the address into a pseudo, so that the returned value
402              remains correct across calls to emit_queue.  */
403           return replace_equiv_address (new, copy_to_reg (XEXP (new, 0)));
404         }
405
406       /* Otherwise, recursively protect the subexpressions of all
407          the kinds of rtx's that can contain a QUEUED.  */
408       if (code == MEM)
409         {
410           rtx tem = protect_from_queue (XEXP (x, 0), 0);
411           if (tem != XEXP (x, 0))
412             {
413               x = copy_rtx (x);
414               XEXP (x, 0) = tem;
415             }
416         }
417       else if (code == PLUS || code == MULT)
418         {
419           rtx new0 = protect_from_queue (XEXP (x, 0), 0);
420           rtx new1 = protect_from_queue (XEXP (x, 1), 0);
421           if (new0 != XEXP (x, 0) || new1 != XEXP (x, 1))
422             {
423               x = copy_rtx (x);
424               XEXP (x, 0) = new0;
425               XEXP (x, 1) = new1;
426             }
427         }
428       return x;
429     }
430   /* If the increment has not happened, use the variable itself.  Copy it
431      into a new pseudo so that the value remains correct across calls to
432      emit_queue.  */
433   if (QUEUED_INSN (x) == 0)
434     return copy_to_reg (QUEUED_VAR (x));
435   /* If the increment has happened and a pre-increment copy exists,
436      use that copy.  */
437   if (QUEUED_COPY (x) != 0)
438     return QUEUED_COPY (x);
439   /* The increment has happened but we haven't set up a pre-increment copy.
440      Set one up now, and use it.  */
441   QUEUED_COPY (x) = gen_reg_rtx (GET_MODE (QUEUED_VAR (x)));
442   emit_insn_before (gen_move_insn (QUEUED_COPY (x), QUEUED_VAR (x)),
443                     QUEUED_INSN (x));
444   return QUEUED_COPY (x);
445 }
446
447 /* Return nonzero if X contains a QUEUED expression:
448    if it contains anything that will be altered by a queued increment.
449    We handle only combinations of MEM, PLUS, MINUS and MULT operators
450    since memory addresses generally contain only those.  */
451
452 int
453 queued_subexp_p (x)
454      rtx x;
455 {
456   register enum rtx_code code = GET_CODE (x);
457   switch (code)
458     {
459     case QUEUED:
460       return 1;
461     case MEM:
462       return queued_subexp_p (XEXP (x, 0));
463     case MULT:
464     case PLUS:
465     case MINUS:
466       return (queued_subexp_p (XEXP (x, 0))
467               || queued_subexp_p (XEXP (x, 1)));
468     default:
469       return 0;
470     }
471 }
472
473 /* Perform all the pending incrementations.  */
474
475 void
476 emit_queue ()
477 {
478   register rtx p;
479   while ((p = pending_chain))
480     {
481       rtx body = QUEUED_BODY (p);
482
483       if (GET_CODE (body) == SEQUENCE)
484         {
485           QUEUED_INSN (p) = XVECEXP (QUEUED_BODY (p), 0, 0);
486           emit_insn (QUEUED_BODY (p));
487         }
488       else
489         QUEUED_INSN (p) = emit_insn (QUEUED_BODY (p));
490       pending_chain = QUEUED_NEXT (p);
491     }
492 }
493 \f
494 /* Copy data from FROM to TO, where the machine modes are not the same.
495    Both modes may be integer, or both may be floating.
496    UNSIGNEDP should be nonzero if FROM is an unsigned type.
497    This causes zero-extension instead of sign-extension.  */
498
499 void
500 convert_move (to, from, unsignedp)
501      register rtx to, from;
502      int unsignedp;
503 {
504   enum machine_mode to_mode = GET_MODE (to);
505   enum machine_mode from_mode = GET_MODE (from);
506   int to_real = GET_MODE_CLASS (to_mode) == MODE_FLOAT;
507   int from_real = GET_MODE_CLASS (from_mode) == MODE_FLOAT;
508   enum insn_code code;
509   rtx libcall;
510
511   /* rtx code for making an equivalent value.  */
512   enum rtx_code equiv_code = (unsignedp ? ZERO_EXTEND : SIGN_EXTEND);
513
514   to = protect_from_queue (to, 1);
515   from = protect_from_queue (from, 0);
516
517   if (to_real != from_real)
518     abort ();
519
520   /* If FROM is a SUBREG that indicates that we have already done at least
521      the required extension, strip it.  We don't handle such SUBREGs as
522      TO here.  */
523
524   if (GET_CODE (from) == SUBREG && SUBREG_PROMOTED_VAR_P (from)
525       && (GET_MODE_SIZE (GET_MODE (SUBREG_REG (from)))
526           >= GET_MODE_SIZE (to_mode))
527       && SUBREG_PROMOTED_UNSIGNED_P (from) == unsignedp)
528     from = gen_lowpart (to_mode, from), from_mode = to_mode;
529
530   if (GET_CODE (to) == SUBREG && SUBREG_PROMOTED_VAR_P (to))
531     abort ();
532
533   if (to_mode == from_mode
534       || (from_mode == VOIDmode && CONSTANT_P (from)))
535     {
536       emit_move_insn (to, from);
537       return;
538     }
539
540   if (VECTOR_MODE_P (to_mode) || VECTOR_MODE_P (from_mode))
541     {
542       if (GET_MODE_BITSIZE (from_mode) != GET_MODE_BITSIZE (to_mode))
543         abort ();
544
545       if (VECTOR_MODE_P (to_mode))
546         from = gen_rtx_SUBREG (to_mode, from, 0);
547       else
548         to = gen_rtx_SUBREG (from_mode, to, 0);
549
550       emit_move_insn (to, from);
551       return;
552     }
553
554   if (to_real != from_real)
555     abort ();
556
557   if (to_real)
558     {
559       rtx value, insns;
560
561       if (GET_MODE_BITSIZE (from_mode) < GET_MODE_BITSIZE (to_mode))
562         {
563           /* Try converting directly if the insn is supported.  */
564           if ((code = can_extend_p (to_mode, from_mode, 0))
565               != CODE_FOR_nothing)
566             {
567               emit_unop_insn (code, to, from, UNKNOWN);
568               return;
569             }
570         }
571
572 #ifdef HAVE_trunchfqf2
573       if (HAVE_trunchfqf2 && from_mode == HFmode && to_mode == QFmode)
574         {
575           emit_unop_insn (CODE_FOR_trunchfqf2, to, from, UNKNOWN);
576           return;
577         }
578 #endif
579 #ifdef HAVE_trunctqfqf2
580       if (HAVE_trunctqfqf2 && from_mode == TQFmode && to_mode == QFmode)
581         {
582           emit_unop_insn (CODE_FOR_trunctqfqf2, to, from, UNKNOWN);
583           return;
584         }
585 #endif
586 #ifdef HAVE_truncsfqf2
587       if (HAVE_truncsfqf2 && from_mode == SFmode && to_mode == QFmode)
588         {
589           emit_unop_insn (CODE_FOR_truncsfqf2, to, from, UNKNOWN);
590           return;
591         }
592 #endif
593 #ifdef HAVE_truncdfqf2
594       if (HAVE_truncdfqf2 && from_mode == DFmode && to_mode == QFmode)
595         {
596           emit_unop_insn (CODE_FOR_truncdfqf2, to, from, UNKNOWN);
597           return;
598         }
599 #endif
600 #ifdef HAVE_truncxfqf2
601       if (HAVE_truncxfqf2 && from_mode == XFmode && to_mode == QFmode)
602         {
603           emit_unop_insn (CODE_FOR_truncxfqf2, to, from, UNKNOWN);
604           return;
605         }
606 #endif
607 #ifdef HAVE_trunctfqf2
608       if (HAVE_trunctfqf2 && from_mode == TFmode && to_mode == QFmode)
609         {
610           emit_unop_insn (CODE_FOR_trunctfqf2, to, from, UNKNOWN);
611           return;
612         }
613 #endif
614
615 #ifdef HAVE_trunctqfhf2
616       if (HAVE_trunctqfhf2 && from_mode == TQFmode && to_mode == HFmode)
617         {
618           emit_unop_insn (CODE_FOR_trunctqfhf2, to, from, UNKNOWN);
619           return;
620         }
621 #endif
622 #ifdef HAVE_truncsfhf2
623       if (HAVE_truncsfhf2 && from_mode == SFmode && to_mode == HFmode)
624         {
625           emit_unop_insn (CODE_FOR_truncsfhf2, to, from, UNKNOWN);
626           return;
627         }
628 #endif
629 #ifdef HAVE_truncdfhf2
630       if (HAVE_truncdfhf2 && from_mode == DFmode && to_mode == HFmode)
631         {
632           emit_unop_insn (CODE_FOR_truncdfhf2, to, from, UNKNOWN);
633           return;
634         }
635 #endif
636 #ifdef HAVE_truncxfhf2
637       if (HAVE_truncxfhf2 && from_mode == XFmode && to_mode == HFmode)
638         {
639           emit_unop_insn (CODE_FOR_truncxfhf2, to, from, UNKNOWN);
640           return;
641         }
642 #endif
643 #ifdef HAVE_trunctfhf2
644       if (HAVE_trunctfhf2 && from_mode == TFmode && to_mode == HFmode)
645         {
646           emit_unop_insn (CODE_FOR_trunctfhf2, to, from, UNKNOWN);
647           return;
648         }
649 #endif
650
651 #ifdef HAVE_truncsftqf2
652       if (HAVE_truncsftqf2 && from_mode == SFmode && to_mode == TQFmode)
653         {
654           emit_unop_insn (CODE_FOR_truncsftqf2, to, from, UNKNOWN);
655           return;
656         }
657 #endif
658 #ifdef HAVE_truncdftqf2
659       if (HAVE_truncdftqf2 && from_mode == DFmode && to_mode == TQFmode)
660         {
661           emit_unop_insn (CODE_FOR_truncdftqf2, to, from, UNKNOWN);
662           return;
663         }
664 #endif
665 #ifdef HAVE_truncxftqf2
666       if (HAVE_truncxftqf2 && from_mode == XFmode && to_mode == TQFmode)
667         {
668           emit_unop_insn (CODE_FOR_truncxftqf2, to, from, UNKNOWN);
669           return;
670         }
671 #endif
672 #ifdef HAVE_trunctftqf2
673       if (HAVE_trunctftqf2 && from_mode == TFmode && to_mode == TQFmode)
674         {
675           emit_unop_insn (CODE_FOR_trunctftqf2, to, from, UNKNOWN);
676           return;
677         }
678 #endif
679
680 #ifdef HAVE_truncdfsf2
681       if (HAVE_truncdfsf2 && from_mode == DFmode && to_mode == SFmode)
682         {
683           emit_unop_insn (CODE_FOR_truncdfsf2, to, from, UNKNOWN);
684           return;
685         }
686 #endif
687 #ifdef HAVE_truncxfsf2
688       if (HAVE_truncxfsf2 && from_mode == XFmode && to_mode == SFmode)
689         {
690           emit_unop_insn (CODE_FOR_truncxfsf2, to, from, UNKNOWN);
691           return;
692         }
693 #endif
694 #ifdef HAVE_trunctfsf2
695       if (HAVE_trunctfsf2 && from_mode == TFmode && to_mode == SFmode)
696         {
697           emit_unop_insn (CODE_FOR_trunctfsf2, to, from, UNKNOWN);
698           return;
699         }
700 #endif
701 #ifdef HAVE_truncxfdf2
702       if (HAVE_truncxfdf2 && from_mode == XFmode && to_mode == DFmode)
703         {
704           emit_unop_insn (CODE_FOR_truncxfdf2, to, from, UNKNOWN);
705           return;
706         }
707 #endif
708 #ifdef HAVE_trunctfdf2
709       if (HAVE_trunctfdf2 && from_mode == TFmode && to_mode == DFmode)
710         {
711           emit_unop_insn (CODE_FOR_trunctfdf2, to, from, UNKNOWN);
712           return;
713         }
714 #endif
715
716       libcall = (rtx) 0;
717       switch (from_mode)
718         {
719         case SFmode:
720           switch (to_mode)
721             {
722             case DFmode:
723               libcall = extendsfdf2_libfunc;
724               break;
725
726             case XFmode:
727               libcall = extendsfxf2_libfunc;
728               break;
729
730             case TFmode:
731               libcall = extendsftf2_libfunc;
732               break;
733
734             default:
735               break;
736             }
737           break;
738
739         case DFmode:
740           switch (to_mode)
741             {
742             case SFmode:
743               libcall = truncdfsf2_libfunc;
744               break;
745
746             case XFmode:
747               libcall = extenddfxf2_libfunc;
748               break;
749
750             case TFmode:
751               libcall = extenddftf2_libfunc;
752               break;
753
754             default:
755               break;
756             }
757           break;
758
759         case XFmode:
760           switch (to_mode)
761             {
762             case SFmode:
763               libcall = truncxfsf2_libfunc;
764               break;
765
766             case DFmode:
767               libcall = truncxfdf2_libfunc;
768               break;
769
770             default:
771               break;
772             }
773           break;
774
775         case TFmode:
776           switch (to_mode)
777             {
778             case SFmode:
779               libcall = trunctfsf2_libfunc;
780               break;
781
782             case DFmode:
783               libcall = trunctfdf2_libfunc;
784               break;
785
786             default:
787               break;
788             }
789           break;
790
791         default:
792           break;
793         }
794
795       if (libcall == (rtx) 0)
796         /* This conversion is not implemented yet.  */
797         abort ();
798
799       start_sequence ();
800       value = emit_library_call_value (libcall, NULL_RTX, LCT_CONST, to_mode,
801                                        1, from, from_mode);
802       insns = get_insns ();
803       end_sequence ();
804       emit_libcall_block (insns, to, value, gen_rtx_FLOAT_TRUNCATE (to_mode,
805                                                                     from));
806       return;
807     }
808
809   /* Now both modes are integers.  */
810
811   /* Handle expanding beyond a word.  */
812   if (GET_MODE_BITSIZE (from_mode) < GET_MODE_BITSIZE (to_mode)
813       && GET_MODE_BITSIZE (to_mode) > BITS_PER_WORD)
814     {
815       rtx insns;
816       rtx lowpart;
817       rtx fill_value;
818       rtx lowfrom;
819       int i;
820       enum machine_mode lowpart_mode;
821       int nwords = CEIL (GET_MODE_SIZE (to_mode), UNITS_PER_WORD);
822
823       /* Try converting directly if the insn is supported.  */
824       if ((code = can_extend_p (to_mode, from_mode, unsignedp))
825           != CODE_FOR_nothing)
826         {
827           /* If FROM is a SUBREG, put it into a register.  Do this
828              so that we always generate the same set of insns for
829              better cse'ing; if an intermediate assignment occurred,
830              we won't be doing the operation directly on the SUBREG.  */
831           if (optimize > 0 && GET_CODE (from) == SUBREG)
832             from = force_reg (from_mode, from);
833           emit_unop_insn (code, to, from, equiv_code);
834           return;
835         }
836       /* Next, try converting via full word.  */
837       else if (GET_MODE_BITSIZE (from_mode) < BITS_PER_WORD
838                && ((code = can_extend_p (to_mode, word_mode, unsignedp))
839                    != CODE_FOR_nothing))
840         {
841           if (GET_CODE (to) == REG)
842             emit_insn (gen_rtx_CLOBBER (VOIDmode, to));
843           convert_move (gen_lowpart (word_mode, to), from, unsignedp);
844           emit_unop_insn (code, to,
845                           gen_lowpart (word_mode, to), equiv_code);
846           return;
847         }
848
849       /* No special multiword conversion insn; do it by hand.  */
850       start_sequence ();
851
852       /* Since we will turn this into a no conflict block, we must ensure
853          that the source does not overlap the target.  */
854
855       if (reg_overlap_mentioned_p (to, from))
856         from = force_reg (from_mode, from);
857
858       /* Get a copy of FROM widened to a word, if necessary.  */
859       if (GET_MODE_BITSIZE (from_mode) < BITS_PER_WORD)
860         lowpart_mode = word_mode;
861       else
862         lowpart_mode = from_mode;
863
864       lowfrom = convert_to_mode (lowpart_mode, from, unsignedp);
865
866       lowpart = gen_lowpart (lowpart_mode, to);
867       emit_move_insn (lowpart, lowfrom);
868
869       /* Compute the value to put in each remaining word.  */
870       if (unsignedp)
871         fill_value = const0_rtx;
872       else
873         {
874 #ifdef HAVE_slt
875           if (HAVE_slt
876               && insn_data[(int) CODE_FOR_slt].operand[0].mode == word_mode
877               && STORE_FLAG_VALUE == -1)
878             {
879               emit_cmp_insn (lowfrom, const0_rtx, NE, NULL_RTX,
880                              lowpart_mode, 0, 0);
881               fill_value = gen_reg_rtx (word_mode);
882               emit_insn (gen_slt (fill_value));
883             }
884           else
885 #endif
886             {
887               fill_value
888                 = expand_shift (RSHIFT_EXPR, lowpart_mode, lowfrom,
889                                 size_int (GET_MODE_BITSIZE (lowpart_mode) - 1),
890                                 NULL_RTX, 0);
891               fill_value = convert_to_mode (word_mode, fill_value, 1);
892             }
893         }
894
895       /* Fill the remaining words.  */
896       for (i = GET_MODE_SIZE (lowpart_mode) / UNITS_PER_WORD; i < nwords; i++)
897         {
898           int index = (WORDS_BIG_ENDIAN ? nwords - i - 1 : i);
899           rtx subword = operand_subword (to, index, 1, to_mode);
900
901           if (subword == 0)
902             abort ();
903
904           if (fill_value != subword)
905             emit_move_insn (subword, fill_value);
906         }
907
908       insns = get_insns ();
909       end_sequence ();
910
911       emit_no_conflict_block (insns, to, from, NULL_RTX,
912                               gen_rtx_fmt_e (equiv_code, to_mode, copy_rtx (from)));
913       return;
914     }
915
916   /* Truncating multi-word to a word or less.  */
917   if (GET_MODE_BITSIZE (from_mode) > BITS_PER_WORD
918       && GET_MODE_BITSIZE (to_mode) <= BITS_PER_WORD)
919     {
920       if (!((GET_CODE (from) == MEM
921              && ! MEM_VOLATILE_P (from)
922              && direct_load[(int) to_mode]
923              && ! mode_dependent_address_p (XEXP (from, 0)))
924             || GET_CODE (from) == REG
925             || GET_CODE (from) == SUBREG))
926         from = force_reg (from_mode, from);
927       convert_move (to, gen_lowpart (word_mode, from), 0);
928       return;
929     }
930
931   /* Handle pointer conversion.  */                     /* SPEE 900220.  */
932   if (to_mode == PQImode)
933     {
934       if (from_mode != QImode)
935         from = convert_to_mode (QImode, from, unsignedp);
936
937 #ifdef HAVE_truncqipqi2
938       if (HAVE_truncqipqi2)
939         {
940           emit_unop_insn (CODE_FOR_truncqipqi2, to, from, UNKNOWN);
941           return;
942         }
943 #endif /* HAVE_truncqipqi2 */
944       abort ();
945     }
946
947   if (from_mode == PQImode)
948     {
949       if (to_mode != QImode)
950         {
951           from = convert_to_mode (QImode, from, unsignedp);
952           from_mode = QImode;
953         }
954       else
955         {
956 #ifdef HAVE_extendpqiqi2
957           if (HAVE_extendpqiqi2)
958             {
959               emit_unop_insn (CODE_FOR_extendpqiqi2, to, from, UNKNOWN);
960               return;
961             }
962 #endif /* HAVE_extendpqiqi2 */
963           abort ();
964         }
965     }
966
967   if (to_mode == PSImode)
968     {
969       if (from_mode != SImode)
970         from = convert_to_mode (SImode, from, unsignedp);
971
972 #ifdef HAVE_truncsipsi2
973       if (HAVE_truncsipsi2)
974         {
975           emit_unop_insn (CODE_FOR_truncsipsi2, to, from, UNKNOWN);
976           return;
977         }
978 #endif /* HAVE_truncsipsi2 */
979       abort ();
980     }
981
982   if (from_mode == PSImode)
983     {
984       if (to_mode != SImode)
985         {
986           from = convert_to_mode (SImode, from, unsignedp);
987           from_mode = SImode;
988         }
989       else
990         {
991 #ifdef HAVE_extendpsisi2
992           if (! unsignedp && HAVE_extendpsisi2)
993             {
994               emit_unop_insn (CODE_FOR_extendpsisi2, to, from, UNKNOWN);
995               return;
996             }
997 #endif /* HAVE_extendpsisi2 */
998 #ifdef HAVE_zero_extendpsisi2
999           if (unsignedp && HAVE_zero_extendpsisi2)
1000             {
1001               emit_unop_insn (CODE_FOR_zero_extendpsisi2, to, from, UNKNOWN);
1002               return;
1003             }
1004 #endif /* HAVE_zero_extendpsisi2 */
1005           abort ();
1006         }
1007     }
1008
1009   if (to_mode == PDImode)
1010     {
1011       if (from_mode != DImode)
1012         from = convert_to_mode (DImode, from, unsignedp);
1013
1014 #ifdef HAVE_truncdipdi2
1015       if (HAVE_truncdipdi2)
1016         {
1017           emit_unop_insn (CODE_FOR_truncdipdi2, to, from, UNKNOWN);
1018           return;
1019         }
1020 #endif /* HAVE_truncdipdi2 */
1021       abort ();
1022     }
1023
1024   if (from_mode == PDImode)
1025     {
1026       if (to_mode != DImode)
1027         {
1028           from = convert_to_mode (DImode, from, unsignedp);
1029           from_mode = DImode;
1030         }
1031       else
1032         {
1033 #ifdef HAVE_extendpdidi2
1034           if (HAVE_extendpdidi2)
1035             {
1036               emit_unop_insn (CODE_FOR_extendpdidi2, to, from, UNKNOWN);
1037               return;
1038             }
1039 #endif /* HAVE_extendpdidi2 */
1040           abort ();
1041         }
1042     }
1043
1044   /* Now follow all the conversions between integers
1045      no more than a word long.  */
1046
1047   /* For truncation, usually we can just refer to FROM in a narrower mode.  */
1048   if (GET_MODE_BITSIZE (to_mode) < GET_MODE_BITSIZE (from_mode)
1049       && TRULY_NOOP_TRUNCATION (GET_MODE_BITSIZE (to_mode),
1050                                 GET_MODE_BITSIZE (from_mode)))
1051     {
1052       if (!((GET_CODE (from) == MEM
1053              && ! MEM_VOLATILE_P (from)
1054              && direct_load[(int) to_mode]
1055              && ! mode_dependent_address_p (XEXP (from, 0)))
1056             || GET_CODE (from) == REG
1057             || GET_CODE (from) == SUBREG))
1058         from = force_reg (from_mode, from);
1059       if (GET_CODE (from) == REG && REGNO (from) < FIRST_PSEUDO_REGISTER
1060           && ! HARD_REGNO_MODE_OK (REGNO (from), to_mode))
1061         from = copy_to_reg (from);
1062       emit_move_insn (to, gen_lowpart (to_mode, from));
1063       return;
1064     }
1065
1066   /* Handle extension.  */
1067   if (GET_MODE_BITSIZE (to_mode) > GET_MODE_BITSIZE (from_mode))
1068     {
1069       /* Convert directly if that works.  */
1070       if ((code = can_extend_p (to_mode, from_mode, unsignedp))
1071           != CODE_FOR_nothing)
1072         {
1073           emit_unop_insn (code, to, from, equiv_code);
1074           return;
1075         }
1076       else
1077         {
1078           enum machine_mode intermediate;
1079           rtx tmp;
1080           tree shift_amount;
1081
1082           /* Search for a mode to convert via.  */
1083           for (intermediate = from_mode; intermediate != VOIDmode;
1084                intermediate = GET_MODE_WIDER_MODE (intermediate))
1085             if (((can_extend_p (to_mode, intermediate, unsignedp)
1086                   != CODE_FOR_nothing)
1087                  || (GET_MODE_SIZE (to_mode) < GET_MODE_SIZE (intermediate)
1088                      && TRULY_NOOP_TRUNCATION (GET_MODE_BITSIZE (to_mode),
1089                                                GET_MODE_BITSIZE (intermediate))))
1090                 && (can_extend_p (intermediate, from_mode, unsignedp)
1091                     != CODE_FOR_nothing))
1092               {
1093                 convert_move (to, convert_to_mode (intermediate, from,
1094                                                    unsignedp), unsignedp);
1095                 return;
1096               }
1097
1098           /* No suitable intermediate mode.
1099              Generate what we need with shifts.  */
1100           shift_amount = build_int_2 (GET_MODE_BITSIZE (to_mode)
1101                                       - GET_MODE_BITSIZE (from_mode), 0);
1102           from = gen_lowpart (to_mode, force_reg (from_mode, from));
1103           tmp = expand_shift (LSHIFT_EXPR, to_mode, from, shift_amount,
1104                               to, unsignedp);
1105           tmp = expand_shift (RSHIFT_EXPR, to_mode, tmp, shift_amount,
1106                               to, unsignedp);
1107           if (tmp != to)
1108             emit_move_insn (to, tmp);
1109           return;
1110         }
1111     }
1112
1113   /* Support special truncate insns for certain modes.  */
1114
1115   if (from_mode == DImode && to_mode == SImode)
1116     {
1117 #ifdef HAVE_truncdisi2
1118       if (HAVE_truncdisi2)
1119         {
1120           emit_unop_insn (CODE_FOR_truncdisi2, to, from, UNKNOWN);
1121           return;
1122         }
1123 #endif
1124       convert_move (to, force_reg (from_mode, from), unsignedp);
1125       return;
1126     }
1127
1128   if (from_mode == DImode && to_mode == HImode)
1129     {
1130 #ifdef HAVE_truncdihi2
1131       if (HAVE_truncdihi2)
1132         {
1133           emit_unop_insn (CODE_FOR_truncdihi2, to, from, UNKNOWN);
1134           return;
1135         }
1136 #endif
1137       convert_move (to, force_reg (from_mode, from), unsignedp);
1138       return;
1139     }
1140
1141   if (from_mode == DImode && to_mode == QImode)
1142     {
1143 #ifdef HAVE_truncdiqi2
1144       if (HAVE_truncdiqi2)
1145         {
1146           emit_unop_insn (CODE_FOR_truncdiqi2, to, from, UNKNOWN);
1147           return;
1148         }
1149 #endif
1150       convert_move (to, force_reg (from_mode, from), unsignedp);
1151       return;
1152     }
1153
1154   if (from_mode == SImode && to_mode == HImode)
1155     {
1156 #ifdef HAVE_truncsihi2
1157       if (HAVE_truncsihi2)
1158         {
1159           emit_unop_insn (CODE_FOR_truncsihi2, to, from, UNKNOWN);
1160           return;
1161         }
1162 #endif
1163       convert_move (to, force_reg (from_mode, from), unsignedp);
1164       return;
1165     }
1166
1167   if (from_mode == SImode && to_mode == QImode)
1168     {
1169 #ifdef HAVE_truncsiqi2
1170       if (HAVE_truncsiqi2)
1171         {
1172           emit_unop_insn (CODE_FOR_truncsiqi2, to, from, UNKNOWN);
1173           return;
1174         }
1175 #endif
1176       convert_move (to, force_reg (from_mode, from), unsignedp);
1177       return;
1178     }
1179
1180   if (from_mode == HImode && to_mode == QImode)
1181     {
1182 #ifdef HAVE_trunchiqi2
1183       if (HAVE_trunchiqi2)
1184         {
1185           emit_unop_insn (CODE_FOR_trunchiqi2, to, from, UNKNOWN);
1186           return;
1187         }
1188 #endif
1189       convert_move (to, force_reg (from_mode, from), unsignedp);
1190       return;
1191     }
1192
1193   if (from_mode == TImode && to_mode == DImode)
1194     {
1195 #ifdef HAVE_trunctidi2
1196       if (HAVE_trunctidi2)
1197         {
1198           emit_unop_insn (CODE_FOR_trunctidi2, to, from, UNKNOWN);
1199           return;
1200         }
1201 #endif
1202       convert_move (to, force_reg (from_mode, from), unsignedp);
1203       return;
1204     }
1205
1206   if (from_mode == TImode && to_mode == SImode)
1207     {
1208 #ifdef HAVE_trunctisi2
1209       if (HAVE_trunctisi2)
1210         {
1211           emit_unop_insn (CODE_FOR_trunctisi2, to, from, UNKNOWN);
1212           return;
1213         }
1214 #endif
1215       convert_move (to, force_reg (from_mode, from), unsignedp);
1216       return;
1217     }
1218
1219   if (from_mode == TImode && to_mode == HImode)
1220     {
1221 #ifdef HAVE_trunctihi2
1222       if (HAVE_trunctihi2)
1223         {
1224           emit_unop_insn (CODE_FOR_trunctihi2, to, from, UNKNOWN);
1225           return;
1226         }
1227 #endif
1228       convert_move (to, force_reg (from_mode, from), unsignedp);
1229       return;
1230     }
1231
1232   if (from_mode == TImode && to_mode == QImode)
1233     {
1234 #ifdef HAVE_trunctiqi2
1235       if (HAVE_trunctiqi2)
1236         {
1237           emit_unop_insn (CODE_FOR_trunctiqi2, to, from, UNKNOWN);
1238           return;
1239         }
1240 #endif
1241       convert_move (to, force_reg (from_mode, from), unsignedp);
1242       return;
1243     }
1244
1245   /* Handle truncation of volatile memrefs, and so on;
1246      the things that couldn't be truncated directly,
1247      and for which there was no special instruction.  */
1248   if (GET_MODE_BITSIZE (to_mode) < GET_MODE_BITSIZE (from_mode))
1249     {
1250       rtx temp = force_reg (to_mode, gen_lowpart (to_mode, from));
1251       emit_move_insn (to, temp);
1252       return;
1253     }
1254
1255   /* Mode combination is not recognized.  */
1256   abort ();
1257 }
1258
1259 /* Return an rtx for a value that would result
1260    from converting X to mode MODE.
1261    Both X and MODE may be floating, or both integer.
1262    UNSIGNEDP is nonzero if X is an unsigned value.
1263    This can be done by referring to a part of X in place
1264    or by copying to a new temporary with conversion.
1265
1266    This function *must not* call protect_from_queue
1267    except when putting X into an insn (in which case convert_move does it).  */
1268
1269 rtx
1270 convert_to_mode (mode, x, unsignedp)
1271      enum machine_mode mode;
1272      rtx x;
1273      int unsignedp;
1274 {
1275   return convert_modes (mode, VOIDmode, x, unsignedp);
1276 }
1277
1278 /* Return an rtx for a value that would result
1279    from converting X from mode OLDMODE to mode MODE.
1280    Both modes may be floating, or both integer.
1281    UNSIGNEDP is nonzero if X is an unsigned value.
1282
1283    This can be done by referring to a part of X in place
1284    or by copying to a new temporary with conversion.
1285
1286    You can give VOIDmode for OLDMODE, if you are sure X has a nonvoid mode.
1287
1288    This function *must not* call protect_from_queue
1289    except when putting X into an insn (in which case convert_move does it).  */
1290
1291 rtx
1292 convert_modes (mode, oldmode, x, unsignedp)
1293      enum machine_mode mode, oldmode;
1294      rtx x;
1295      int unsignedp;
1296 {
1297   register rtx temp;
1298
1299   /* If FROM is a SUBREG that indicates that we have already done at least
1300      the required extension, strip it.  */
1301
1302   if (GET_CODE (x) == SUBREG && SUBREG_PROMOTED_VAR_P (x)
1303       && GET_MODE_SIZE (GET_MODE (SUBREG_REG (x))) >= GET_MODE_SIZE (mode)
1304       && SUBREG_PROMOTED_UNSIGNED_P (x) == unsignedp)
1305     x = gen_lowpart (mode, x);
1306
1307   if (GET_MODE (x) != VOIDmode)
1308     oldmode = GET_MODE (x);
1309
1310   if (mode == oldmode)
1311     return x;
1312
1313   /* There is one case that we must handle specially: If we are converting
1314      a CONST_INT into a mode whose size is twice HOST_BITS_PER_WIDE_INT and
1315      we are to interpret the constant as unsigned, gen_lowpart will do
1316      the wrong if the constant appears negative.  What we want to do is
1317      make the high-order word of the constant zero, not all ones.  */
1318
1319   if (unsignedp && GET_MODE_CLASS (mode) == MODE_INT
1320       && GET_MODE_BITSIZE (mode) == 2 * HOST_BITS_PER_WIDE_INT
1321       && GET_CODE (x) == CONST_INT && INTVAL (x) < 0)
1322     {
1323       HOST_WIDE_INT val = INTVAL (x);
1324
1325       if (oldmode != VOIDmode
1326           && HOST_BITS_PER_WIDE_INT > GET_MODE_BITSIZE (oldmode))
1327         {
1328           int width = GET_MODE_BITSIZE (oldmode);
1329
1330           /* We need to zero extend VAL.  */
1331           val &= ((HOST_WIDE_INT) 1 << width) - 1;
1332         }
1333
1334       return immed_double_const (val, (HOST_WIDE_INT) 0, mode);
1335     }
1336
1337   /* We can do this with a gen_lowpart if both desired and current modes
1338      are integer, and this is either a constant integer, a register, or a
1339      non-volatile MEM.  Except for the constant case where MODE is no
1340      wider than HOST_BITS_PER_WIDE_INT, we must be narrowing the operand.  */
1341
1342   if ((GET_CODE (x) == CONST_INT
1343        && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_WIDE_INT)
1344       || (GET_MODE_CLASS (mode) == MODE_INT
1345           && GET_MODE_CLASS (oldmode) == MODE_INT
1346           && (GET_CODE (x) == CONST_DOUBLE
1347               || (GET_MODE_SIZE (mode) <= GET_MODE_SIZE (oldmode)
1348                   && ((GET_CODE (x) == MEM && ! MEM_VOLATILE_P (x)
1349                        && direct_load[(int) mode])
1350                       || (GET_CODE (x) == REG
1351                           && TRULY_NOOP_TRUNCATION (GET_MODE_BITSIZE (mode),
1352                                                     GET_MODE_BITSIZE (GET_MODE (x)))))))))
1353     {
1354       /* ?? If we don't know OLDMODE, we have to assume here that
1355          X does not need sign- or zero-extension.   This may not be
1356          the case, but it's the best we can do.  */
1357       if (GET_CODE (x) == CONST_INT && oldmode != VOIDmode
1358           && GET_MODE_SIZE (mode) > GET_MODE_SIZE (oldmode))
1359         {
1360           HOST_WIDE_INT val = INTVAL (x);
1361           int width = GET_MODE_BITSIZE (oldmode);
1362
1363           /* We must sign or zero-extend in this case.  Start by
1364              zero-extending, then sign extend if we need to.  */
1365           val &= ((HOST_WIDE_INT) 1 << width) - 1;
1366           if (! unsignedp
1367               && (val & ((HOST_WIDE_INT) 1 << (width - 1))))
1368             val |= (HOST_WIDE_INT) (-1) << width;
1369
1370           return GEN_INT (trunc_int_for_mode (val, mode));
1371         }
1372
1373       return gen_lowpart (mode, x);
1374     }
1375
1376   temp = gen_reg_rtx (mode);
1377   convert_move (temp, x, unsignedp);
1378   return temp;
1379 }
1380 \f
1381 /* This macro is used to determine what the largest unit size that
1382    move_by_pieces can use is.  */
1383
1384 /* MOVE_MAX_PIECES is the number of bytes at a time which we can
1385    move efficiently, as opposed to  MOVE_MAX which is the maximum
1386    number of bytes we can move with a single instruction.  */
1387
1388 #ifndef MOVE_MAX_PIECES
1389 #define MOVE_MAX_PIECES   MOVE_MAX
1390 #endif
1391
1392 /* Generate several move instructions to copy LEN bytes from block FROM to
1393    block TO.  (These are MEM rtx's with BLKmode).  The caller must pass FROM
1394    and TO through protect_from_queue before calling.
1395
1396    If PUSH_ROUNDING is defined and TO is NULL, emit_single_push_insn is
1397    used to push FROM to the stack.
1398
1399    ALIGN is maximum alignment we can assume.  */
1400
1401 void
1402 move_by_pieces (to, from, len, align)
1403      rtx to, from;
1404      unsigned HOST_WIDE_INT len;
1405      unsigned int align;
1406 {
1407   struct move_by_pieces data;
1408   rtx to_addr, from_addr = XEXP (from, 0);
1409   unsigned int max_size = MOVE_MAX_PIECES + 1;
1410   enum machine_mode mode = VOIDmode, tmode;
1411   enum insn_code icode;
1412
1413   data.offset = 0;
1414   data.from_addr = from_addr;
1415   if (to)
1416     {
1417       to_addr = XEXP (to, 0);
1418       data.to = to;
1419       data.autinc_to
1420         = (GET_CODE (to_addr) == PRE_INC || GET_CODE (to_addr) == PRE_DEC
1421            || GET_CODE (to_addr) == POST_INC || GET_CODE (to_addr) == POST_DEC);
1422       data.reverse
1423         = (GET_CODE (to_addr) == PRE_DEC || GET_CODE (to_addr) == POST_DEC);
1424     }
1425   else
1426     {
1427       to_addr = NULL_RTX;
1428       data.to = NULL_RTX;
1429       data.autinc_to = 1;
1430 #ifdef STACK_GROWS_DOWNWARD
1431       data.reverse = 1;
1432 #else
1433       data.reverse = 0;
1434 #endif
1435     }
1436   data.to_addr = to_addr;
1437   data.from = from;
1438   data.autinc_from
1439     = (GET_CODE (from_addr) == PRE_INC || GET_CODE (from_addr) == PRE_DEC
1440        || GET_CODE (from_addr) == POST_INC
1441        || GET_CODE (from_addr) == POST_DEC);
1442
1443   data.explicit_inc_from = 0;
1444   data.explicit_inc_to = 0;
1445   if (data.reverse) data.offset = len;
1446   data.len = len;
1447
1448   /* If copying requires more than two move insns,
1449      copy addresses to registers (to make displacements shorter)
1450      and use post-increment if available.  */
1451   if (!(data.autinc_from && data.autinc_to)
1452       && move_by_pieces_ninsns (len, align) > 2)
1453     {
1454       /* Find the mode of the largest move...  */
1455       for (tmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
1456            tmode != VOIDmode; tmode = GET_MODE_WIDER_MODE (tmode))
1457         if (GET_MODE_SIZE (tmode) < max_size)
1458           mode = tmode;
1459
1460       if (USE_LOAD_PRE_DECREMENT (mode) && data.reverse && ! data.autinc_from)
1461         {
1462           data.from_addr = copy_addr_to_reg (plus_constant (from_addr, len));
1463           data.autinc_from = 1;
1464           data.explicit_inc_from = -1;
1465         }
1466       if (USE_LOAD_POST_INCREMENT (mode) && ! data.autinc_from)
1467         {
1468           data.from_addr = copy_addr_to_reg (from_addr);
1469           data.autinc_from = 1;
1470           data.explicit_inc_from = 1;
1471         }
1472       if (!data.autinc_from && CONSTANT_P (from_addr))
1473         data.from_addr = copy_addr_to_reg (from_addr);
1474       if (USE_STORE_PRE_DECREMENT (mode) && data.reverse && ! data.autinc_to)
1475         {
1476           data.to_addr = copy_addr_to_reg (plus_constant (to_addr, len));
1477           data.autinc_to = 1;
1478           data.explicit_inc_to = -1;
1479         }
1480       if (USE_STORE_POST_INCREMENT (mode) && ! data.reverse && ! data.autinc_to)
1481         {
1482           data.to_addr = copy_addr_to_reg (to_addr);
1483           data.autinc_to = 1;
1484           data.explicit_inc_to = 1;
1485         }
1486       if (!data.autinc_to && CONSTANT_P (to_addr))
1487         data.to_addr = copy_addr_to_reg (to_addr);
1488     }
1489
1490   if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
1491       || align > MOVE_MAX * BITS_PER_UNIT || align >= BIGGEST_ALIGNMENT)
1492     align = MOVE_MAX * BITS_PER_UNIT;
1493
1494   /* First move what we can in the largest integer mode, then go to
1495      successively smaller modes.  */
1496
1497   while (max_size > 1)
1498     {
1499       for (tmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
1500            tmode != VOIDmode; tmode = GET_MODE_WIDER_MODE (tmode))
1501         if (GET_MODE_SIZE (tmode) < max_size)
1502           mode = tmode;
1503
1504       if (mode == VOIDmode)
1505         break;
1506
1507       icode = mov_optab->handlers[(int) mode].insn_code;
1508       if (icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode))
1509         move_by_pieces_1 (GEN_FCN (icode), mode, &data);
1510
1511       max_size = GET_MODE_SIZE (mode);
1512     }
1513
1514   /* The code above should have handled everything.  */
1515   if (data.len > 0)
1516     abort ();
1517 }
1518
1519 /* Return number of insns required to move L bytes by pieces.
1520    ALIGN (in bits) is maximum alignment we can assume.  */
1521
1522 static unsigned HOST_WIDE_INT
1523 move_by_pieces_ninsns (l, align)
1524      unsigned HOST_WIDE_INT l;
1525      unsigned int align;
1526 {
1527   unsigned HOST_WIDE_INT n_insns = 0;
1528   unsigned HOST_WIDE_INT max_size = MOVE_MAX + 1;
1529
1530   if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
1531       || align > MOVE_MAX * BITS_PER_UNIT || align >= BIGGEST_ALIGNMENT)
1532     align = MOVE_MAX * BITS_PER_UNIT;
1533
1534   while (max_size > 1)
1535     {
1536       enum machine_mode mode = VOIDmode, tmode;
1537       enum insn_code icode;
1538
1539       for (tmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
1540            tmode != VOIDmode; tmode = GET_MODE_WIDER_MODE (tmode))
1541         if (GET_MODE_SIZE (tmode) < max_size)
1542           mode = tmode;
1543
1544       if (mode == VOIDmode)
1545         break;
1546
1547       icode = mov_optab->handlers[(int) mode].insn_code;
1548       if (icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode))
1549         n_insns += l / GET_MODE_SIZE (mode), l %= GET_MODE_SIZE (mode);
1550
1551       max_size = GET_MODE_SIZE (mode);
1552     }
1553
1554   if (l)
1555     abort ();
1556   return n_insns;
1557 }
1558
1559 /* Subroutine of move_by_pieces.  Move as many bytes as appropriate
1560    with move instructions for mode MODE.  GENFUN is the gen_... function
1561    to make a move insn for that mode.  DATA has all the other info.  */
1562
1563 static void
1564 move_by_pieces_1 (genfun, mode, data)
1565      rtx (*genfun) PARAMS ((rtx, ...));
1566      enum machine_mode mode;
1567      struct move_by_pieces *data;
1568 {
1569   unsigned int size = GET_MODE_SIZE (mode);
1570   rtx to1 = NULL_RTX, from1;
1571
1572   while (data->len >= size)
1573     {
1574       if (data->reverse)
1575         data->offset -= size;
1576
1577       if (data->to)
1578         {
1579           if (data->autinc_to)
1580             {
1581               to1 = replace_equiv_address (data->to, data->to_addr);
1582               to1 = adjust_address (to1, mode, 0);
1583             }
1584           else
1585             to1 = adjust_address (data->to, mode, data->offset);
1586         }
1587
1588       if (data->autinc_from)
1589         {
1590           from1 = replace_equiv_address (data->from, data->from_addr);
1591           from1 = adjust_address (from1, mode, 0);
1592         }
1593       else
1594         from1 = adjust_address (data->from, mode, data->offset);
1595
1596       if (HAVE_PRE_DECREMENT && data->explicit_inc_to < 0)
1597         emit_insn (gen_add2_insn (data->to_addr, GEN_INT (-size)));
1598       if (HAVE_PRE_DECREMENT && data->explicit_inc_from < 0)
1599         emit_insn (gen_add2_insn (data->from_addr, GEN_INT (-size)));
1600
1601       if (data->to)
1602         emit_insn ((*genfun) (to1, from1));
1603       else
1604         {
1605 #ifdef PUSH_ROUNDING
1606           emit_single_push_insn (mode, from1, NULL);
1607 #else
1608           abort ();
1609 #endif
1610         }
1611
1612       if (HAVE_POST_INCREMENT && data->explicit_inc_to > 0)
1613         emit_insn (gen_add2_insn (data->to_addr, GEN_INT (size)));
1614       if (HAVE_POST_INCREMENT && data->explicit_inc_from > 0)
1615         emit_insn (gen_add2_insn (data->from_addr, GEN_INT (size)));
1616
1617       if (! data->reverse)
1618         data->offset += size;
1619
1620       data->len -= size;
1621     }
1622 }
1623 \f
1624 /* Emit code to move a block Y to a block X.
1625    This may be done with string-move instructions,
1626    with multiple scalar move instructions, or with a library call.
1627
1628    Both X and Y must be MEM rtx's (perhaps inside VOLATILE)
1629    with mode BLKmode.
1630    SIZE is an rtx that says how long they are.
1631    ALIGN is the maximum alignment we can assume they have.
1632
1633    Return the address of the new block, if memcpy is called and returns it,
1634    0 otherwise.  */
1635
1636 rtx
1637 emit_block_move (x, y, size, align)
1638      rtx x, y;
1639      rtx size;
1640      unsigned int align;
1641 {
1642   rtx retval = 0;
1643 #ifdef TARGET_MEM_FUNCTIONS
1644   static tree fn;
1645   tree call_expr, arg_list;
1646 #endif
1647
1648   if (GET_MODE (x) != BLKmode)
1649     abort ();
1650
1651   if (GET_MODE (y) != BLKmode)
1652     abort ();
1653
1654   x = protect_from_queue (x, 1);
1655   y = protect_from_queue (y, 0);
1656   size = protect_from_queue (size, 0);
1657
1658   if (GET_CODE (x) != MEM)
1659     abort ();
1660   if (GET_CODE (y) != MEM)
1661     abort ();
1662   if (size == 0)
1663     abort ();
1664
1665   if (GET_CODE (size) == CONST_INT && MOVE_BY_PIECES_P (INTVAL (size), align))
1666     move_by_pieces (x, y, INTVAL (size), align);
1667   else
1668     {
1669       /* Try the most limited insn first, because there's no point
1670          including more than one in the machine description unless
1671          the more limited one has some advantage.  */
1672
1673       rtx opalign = GEN_INT (align / BITS_PER_UNIT);
1674       enum machine_mode mode;
1675
1676       /* Since this is a move insn, we don't care about volatility.  */
1677       volatile_ok = 1;
1678
1679       for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT); mode != VOIDmode;
1680            mode = GET_MODE_WIDER_MODE (mode))
1681         {
1682           enum insn_code code = movstr_optab[(int) mode];
1683           insn_operand_predicate_fn pred;
1684
1685           if (code != CODE_FOR_nothing
1686               /* We don't need MODE to be narrower than BITS_PER_HOST_WIDE_INT
1687                  here because if SIZE is less than the mode mask, as it is
1688                  returned by the macro, it will definitely be less than the
1689                  actual mode mask.  */
1690               && ((GET_CODE (size) == CONST_INT
1691                    && ((unsigned HOST_WIDE_INT) INTVAL (size)
1692                        <= (GET_MODE_MASK (mode) >> 1)))
1693                   || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
1694               && ((pred = insn_data[(int) code].operand[0].predicate) == 0
1695                   || (*pred) (x, BLKmode))
1696               && ((pred = insn_data[(int) code].operand[1].predicate) == 0
1697                   || (*pred) (y, BLKmode))
1698               && ((pred = insn_data[(int) code].operand[3].predicate) == 0
1699                   || (*pred) (opalign, VOIDmode)))
1700             {
1701               rtx op2;
1702               rtx last = get_last_insn ();
1703               rtx pat;
1704
1705               op2 = convert_to_mode (mode, size, 1);
1706               pred = insn_data[(int) code].operand[2].predicate;
1707               if (pred != 0 && ! (*pred) (op2, mode))
1708                 op2 = copy_to_mode_reg (mode, op2);
1709
1710               pat = GEN_FCN ((int) code) (x, y, op2, opalign);
1711               if (pat)
1712                 {
1713                   emit_insn (pat);
1714                   volatile_ok = 0;
1715                   return 0;
1716                 }
1717               else
1718                 delete_insns_since (last);
1719             }
1720         }
1721
1722       volatile_ok = 0;
1723
1724       /* X, Y, or SIZE may have been passed through protect_from_queue.
1725
1726          It is unsafe to save the value generated by protect_from_queue
1727          and reuse it later.  Consider what happens if emit_queue is
1728          called before the return value from protect_from_queue is used.
1729
1730          Expansion of the CALL_EXPR below will call emit_queue before
1731          we are finished emitting RTL for argument setup.  So if we are
1732          not careful we could get the wrong value for an argument.
1733
1734          To avoid this problem we go ahead and emit code to copy X, Y &
1735          SIZE into new pseudos.  We can then place those new pseudos
1736          into an RTL_EXPR and use them later, even after a call to
1737          emit_queue.
1738
1739          Note this is not strictly needed for library calls since they
1740          do not call emit_queue before loading their arguments.  However,
1741          we may need to have library calls call emit_queue in the future
1742          since failing to do so could cause problems for targets which
1743          define SMALL_REGISTER_CLASSES and pass arguments in registers.  */
1744       x = copy_to_mode_reg (Pmode, XEXP (x, 0));
1745       y = copy_to_mode_reg (Pmode, XEXP (y, 0));
1746
1747 #ifdef TARGET_MEM_FUNCTIONS
1748       size = copy_to_mode_reg (TYPE_MODE (sizetype), size);
1749 #else
1750       size = convert_to_mode (TYPE_MODE (integer_type_node), size,
1751                               TREE_UNSIGNED (integer_type_node));
1752       size = copy_to_mode_reg (TYPE_MODE (integer_type_node), size);
1753 #endif
1754
1755 #ifdef TARGET_MEM_FUNCTIONS
1756       /* It is incorrect to use the libcall calling conventions to call
1757          memcpy in this context.
1758
1759          This could be a user call to memcpy and the user may wish to
1760          examine the return value from memcpy.
1761
1762          For targets where libcalls and normal calls have different conventions
1763          for returning pointers, we could end up generating incorrect code.
1764
1765          So instead of using a libcall sequence we build up a suitable
1766          CALL_EXPR and expand the call in the normal fashion.  */
1767       if (fn == NULL_TREE)
1768         {
1769           tree fntype;
1770
1771           /* This was copied from except.c, I don't know if all this is
1772              necessary in this context or not.  */
1773           fn = get_identifier ("memcpy");
1774           fntype = build_pointer_type (void_type_node);
1775           fntype = build_function_type (fntype, NULL_TREE);
1776           fn = build_decl (FUNCTION_DECL, fn, fntype);
1777           ggc_add_tree_root (&fn, 1);
1778           DECL_EXTERNAL (fn) = 1;
1779           TREE_PUBLIC (fn) = 1;
1780           DECL_ARTIFICIAL (fn) = 1;
1781           TREE_NOTHROW (fn) = 1;
1782           make_decl_rtl (fn, NULL);
1783           assemble_external (fn);
1784         }
1785
1786       /* We need to make an argument list for the function call.
1787
1788          memcpy has three arguments, the first two are void * addresses and
1789          the last is a size_t byte count for the copy.  */
1790       arg_list
1791         = build_tree_list (NULL_TREE,
1792                            make_tree (build_pointer_type (void_type_node), x));
1793       TREE_CHAIN (arg_list)
1794         = build_tree_list (NULL_TREE,
1795                            make_tree (build_pointer_type (void_type_node), y));
1796       TREE_CHAIN (TREE_CHAIN (arg_list))
1797          = build_tree_list (NULL_TREE, make_tree (sizetype, size));
1798       TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
1799
1800       /* Now we have to build up the CALL_EXPR itself.  */
1801       call_expr = build1 (ADDR_EXPR, build_pointer_type (TREE_TYPE (fn)), fn);
1802       call_expr = build (CALL_EXPR, TREE_TYPE (TREE_TYPE (fn)),
1803                          call_expr, arg_list, NULL_TREE);
1804       TREE_SIDE_EFFECTS (call_expr) = 1;
1805
1806       retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
1807 #else
1808       emit_library_call (bcopy_libfunc, LCT_NORMAL,
1809                          VOIDmode, 3, y, Pmode, x, Pmode,
1810                          convert_to_mode (TYPE_MODE (integer_type_node), size,
1811                                           TREE_UNSIGNED (integer_type_node)),
1812                          TYPE_MODE (integer_type_node));
1813 #endif
1814     }
1815
1816   return retval;
1817 }
1818 \f
1819 /* Copy all or part of a value X into registers starting at REGNO.
1820    The number of registers to be filled is NREGS.  */
1821
1822 void
1823 move_block_to_reg (regno, x, nregs, mode)
1824      int regno;
1825      rtx x;
1826      int nregs;
1827      enum machine_mode mode;
1828 {
1829   int i;
1830 #ifdef HAVE_load_multiple
1831   rtx pat;
1832   rtx last;
1833 #endif
1834
1835   if (nregs == 0)
1836     return;
1837
1838   if (CONSTANT_P (x) && ! LEGITIMATE_CONSTANT_P (x))
1839     x = validize_mem (force_const_mem (mode, x));
1840
1841   /* See if the machine can do this with a load multiple insn.  */
1842 #ifdef HAVE_load_multiple
1843   if (HAVE_load_multiple)
1844     {
1845       last = get_last_insn ();
1846       pat = gen_load_multiple (gen_rtx_REG (word_mode, regno), x,
1847                                GEN_INT (nregs));
1848       if (pat)
1849         {
1850           emit_insn (pat);
1851           return;
1852         }
1853       else
1854         delete_insns_since (last);
1855     }
1856 #endif
1857
1858   for (i = 0; i < nregs; i++)
1859     emit_move_insn (gen_rtx_REG (word_mode, regno + i),
1860                     operand_subword_force (x, i, mode));
1861 }
1862
1863 /* Copy all or part of a BLKmode value X out of registers starting at REGNO.
1864    The number of registers to be filled is NREGS.  SIZE indicates the number
1865    of bytes in the object X.  */
1866
1867 void
1868 move_block_from_reg (regno, x, nregs, size)
1869      int regno;
1870      rtx x;
1871      int nregs;
1872      int size;
1873 {
1874   int i;
1875 #ifdef HAVE_store_multiple
1876   rtx pat;
1877   rtx last;
1878 #endif
1879   enum machine_mode mode;
1880
1881   if (nregs == 0)
1882     return;
1883
1884   /* If SIZE is that of a mode no bigger than a word, just use that
1885      mode's store operation.  */
1886   if (size <= UNITS_PER_WORD
1887       && (mode = mode_for_size (size * BITS_PER_UNIT, MODE_INT, 0)) != BLKmode)
1888     {
1889       emit_move_insn (adjust_address (x, mode, 0), gen_rtx_REG (mode, regno));
1890       return;
1891     }
1892
1893   /* Blocks smaller than a word on a BYTES_BIG_ENDIAN machine must be aligned
1894      to the left before storing to memory.  Note that the previous test
1895      doesn't handle all cases (e.g. SIZE == 3).  */
1896   if (size < UNITS_PER_WORD && BYTES_BIG_ENDIAN)
1897     {
1898       rtx tem = operand_subword (x, 0, 1, BLKmode);
1899       rtx shift;
1900
1901       if (tem == 0)
1902         abort ();
1903
1904       shift = expand_shift (LSHIFT_EXPR, word_mode,
1905                             gen_rtx_REG (word_mode, regno),
1906                             build_int_2 ((UNITS_PER_WORD - size)
1907                                          * BITS_PER_UNIT, 0), NULL_RTX, 0);
1908       emit_move_insn (tem, shift);
1909       return;
1910     }
1911
1912   /* See if the machine can do this with a store multiple insn.  */
1913 #ifdef HAVE_store_multiple
1914   if (HAVE_store_multiple)
1915     {
1916       last = get_last_insn ();
1917       pat = gen_store_multiple (x, gen_rtx_REG (word_mode, regno),
1918                                 GEN_INT (nregs));
1919       if (pat)
1920         {
1921           emit_insn (pat);
1922           return;
1923         }
1924       else
1925         delete_insns_since (last);
1926     }
1927 #endif
1928
1929   for (i = 0; i < nregs; i++)
1930     {
1931       rtx tem = operand_subword (x, i, 1, BLKmode);
1932
1933       if (tem == 0)
1934         abort ();
1935
1936       emit_move_insn (tem, gen_rtx_REG (word_mode, regno + i));
1937     }
1938 }
1939
1940 /* Emit code to move a block SRC to a block DST, where DST is non-consecutive
1941    registers represented by a PARALLEL.  SSIZE represents the total size of
1942    block SRC in bytes, or -1 if not known.  ALIGN is the known alignment of
1943    SRC in bits.  */
1944 /* ??? If SSIZE % UNITS_PER_WORD != 0, we make the blatent assumption that
1945    the balance will be in what would be the low-order memory addresses, i.e.
1946    left justified for big endian, right justified for little endian.  This
1947    happens to be true for the targets currently using this support.  If this
1948    ever changes, a new target macro along the lines of FUNCTION_ARG_PADDING
1949    would be needed.  */
1950
1951 void
1952 emit_group_load (dst, orig_src, ssize, align)
1953      rtx dst, orig_src;
1954      unsigned int align;
1955      int ssize;
1956 {
1957   rtx *tmps, src;
1958   int start, i;
1959
1960   if (GET_CODE (dst) != PARALLEL)
1961     abort ();
1962
1963   /* Check for a NULL entry, used to indicate that the parameter goes
1964      both on the stack and in registers.  */
1965   if (XEXP (XVECEXP (dst, 0, 0), 0))
1966     start = 0;
1967   else
1968     start = 1;
1969
1970   tmps = (rtx *) alloca (sizeof (rtx) * XVECLEN (dst, 0));
1971
1972   /* Process the pieces.  */
1973   for (i = start; i < XVECLEN (dst, 0); i++)
1974     {
1975       enum machine_mode mode = GET_MODE (XEXP (XVECEXP (dst, 0, i), 0));
1976       HOST_WIDE_INT bytepos = INTVAL (XEXP (XVECEXP (dst, 0, i), 1));
1977       unsigned int bytelen = GET_MODE_SIZE (mode);
1978       int shift = 0;
1979
1980       /* Handle trailing fragments that run over the size of the struct.  */
1981       if (ssize >= 0 && bytepos + (HOST_WIDE_INT) bytelen > ssize)
1982         {
1983           shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
1984           bytelen = ssize - bytepos;
1985           if (bytelen <= 0)
1986             abort ();
1987         }
1988
1989       /* If we won't be loading directly from memory, protect the real source
1990          from strange tricks we might play; but make sure that the source can
1991          be loaded directly into the destination.  */
1992       src = orig_src;
1993       if (GET_CODE (orig_src) != MEM
1994           && (!CONSTANT_P (orig_src)
1995               || (GET_MODE (orig_src) != mode
1996                   && GET_MODE (orig_src) != VOIDmode)))
1997         {
1998           if (GET_MODE (orig_src) == VOIDmode)
1999             src = gen_reg_rtx (mode);
2000           else
2001             src = gen_reg_rtx (GET_MODE (orig_src));
2002           emit_move_insn (src, orig_src);
2003         }
2004
2005       /* Optimize the access just a bit.  */
2006       if (GET_CODE (src) == MEM
2007           && align >= GET_MODE_ALIGNMENT (mode)
2008           && bytepos * BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
2009           && bytelen == GET_MODE_SIZE (mode))
2010         {
2011           tmps[i] = gen_reg_rtx (mode);
2012           emit_move_insn (tmps[i], adjust_address (src, mode, bytepos));
2013         }
2014       else if (GET_CODE (src) == CONCAT)
2015         {
2016           if (bytepos == 0
2017               && bytelen == GET_MODE_SIZE (GET_MODE (XEXP (src, 0))))
2018             tmps[i] = XEXP (src, 0);
2019           else if (bytepos == (HOST_WIDE_INT) GET_MODE_SIZE (GET_MODE (XEXP (src, 0)))
2020                    && bytelen == GET_MODE_SIZE (GET_MODE (XEXP (src, 1))))
2021             tmps[i] = XEXP (src, 1);
2022           else
2023             abort ();
2024         }
2025       else if (CONSTANT_P (src)
2026                || (GET_CODE (src) == REG && GET_MODE (src) == mode))
2027         tmps[i] = src;
2028       else
2029         tmps[i] = extract_bit_field (src, bytelen * BITS_PER_UNIT,
2030                                      bytepos * BITS_PER_UNIT, 1, NULL_RTX,
2031                                      mode, mode, align, ssize);
2032
2033       if (BYTES_BIG_ENDIAN && shift)
2034         expand_binop (mode, ashl_optab, tmps[i], GEN_INT (shift),
2035                       tmps[i], 0, OPTAB_WIDEN);
2036     }
2037
2038   emit_queue ();
2039
2040   /* Copy the extracted pieces into the proper (probable) hard regs.  */
2041   for (i = start; i < XVECLEN (dst, 0); i++)
2042     emit_move_insn (XEXP (XVECEXP (dst, 0, i), 0), tmps[i]);
2043 }
2044
2045 /* Emit code to move a block SRC to a block DST, where SRC is non-consecutive
2046    registers represented by a PARALLEL.  SSIZE represents the total size of
2047    block DST, or -1 if not known.  ALIGN is the known alignment of DST.  */
2048
2049 void
2050 emit_group_store (orig_dst, src, ssize, align)
2051      rtx orig_dst, src;
2052      int ssize;
2053      unsigned int align;
2054 {
2055   rtx *tmps, dst;
2056   int start, i;
2057
2058   if (GET_CODE (src) != PARALLEL)
2059     abort ();
2060
2061   /* Check for a NULL entry, used to indicate that the parameter goes
2062      both on the stack and in registers.  */
2063   if (XEXP (XVECEXP (src, 0, 0), 0))
2064     start = 0;
2065   else
2066     start = 1;
2067
2068   tmps = (rtx *) alloca (sizeof (rtx) * XVECLEN (src, 0));
2069
2070   /* Copy the (probable) hard regs into pseudos.  */
2071   for (i = start; i < XVECLEN (src, 0); i++)
2072     {
2073       rtx reg = XEXP (XVECEXP (src, 0, i), 0);
2074       tmps[i] = gen_reg_rtx (GET_MODE (reg));
2075       emit_move_insn (tmps[i], reg);
2076     }
2077   emit_queue ();
2078
2079   /* If we won't be storing directly into memory, protect the real destination
2080      from strange tricks we might play.  */
2081   dst = orig_dst;
2082   if (GET_CODE (dst) == PARALLEL)
2083     {
2084       rtx temp;
2085
2086       /* We can get a PARALLEL dst if there is a conditional expression in
2087          a return statement.  In that case, the dst and src are the same,
2088          so no action is necessary.  */
2089       if (rtx_equal_p (dst, src))
2090         return;
2091
2092       /* It is unclear if we can ever reach here, but we may as well handle
2093          it.  Allocate a temporary, and split this into a store/load to/from
2094          the temporary.  */
2095
2096       temp = assign_stack_temp (GET_MODE (dst), ssize, 0);
2097       emit_group_store (temp, src, ssize, align);
2098       emit_group_load (dst, temp, ssize, align);
2099       return;
2100     }
2101   else if (GET_CODE (dst) != MEM)
2102     {
2103       dst = gen_reg_rtx (GET_MODE (orig_dst));
2104       /* Make life a bit easier for combine.  */
2105       emit_move_insn (dst, const0_rtx);
2106     }
2107
2108   /* Process the pieces.  */
2109   for (i = start; i < XVECLEN (src, 0); i++)
2110     {
2111       HOST_WIDE_INT bytepos = INTVAL (XEXP (XVECEXP (src, 0, i), 1));
2112       enum machine_mode mode = GET_MODE (tmps[i]);
2113       unsigned int bytelen = GET_MODE_SIZE (mode);
2114
2115       /* Handle trailing fragments that run over the size of the struct.  */
2116       if (ssize >= 0 && bytepos + (HOST_WIDE_INT) bytelen > ssize)
2117         {
2118           if (BYTES_BIG_ENDIAN)
2119             {
2120               int shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
2121               expand_binop (mode, ashr_optab, tmps[i], GEN_INT (shift),
2122                             tmps[i], 0, OPTAB_WIDEN);
2123             }
2124           bytelen = ssize - bytepos;
2125         }
2126
2127       /* Optimize the access just a bit.  */
2128       if (GET_CODE (dst) == MEM
2129           && align >= GET_MODE_ALIGNMENT (mode)
2130           && bytepos * BITS_PER_UNIT % GET_MODE_ALIGNMENT (mode) == 0
2131           && bytelen == GET_MODE_SIZE (mode))
2132         emit_move_insn (adjust_address (dst, mode, bytepos), tmps[i]);
2133       else
2134         store_bit_field (dst, bytelen * BITS_PER_UNIT, bytepos * BITS_PER_UNIT,
2135                          mode, tmps[i], align, ssize);
2136     }
2137
2138   emit_queue ();
2139
2140   /* Copy from the pseudo into the (probable) hard reg.  */
2141   if (GET_CODE (dst) == REG)
2142     emit_move_insn (orig_dst, dst);
2143 }
2144
2145 /* Generate code to copy a BLKmode object of TYPE out of a
2146    set of registers starting with SRCREG into TGTBLK.  If TGTBLK
2147    is null, a stack temporary is created.  TGTBLK is returned.
2148
2149    The primary purpose of this routine is to handle functions
2150    that return BLKmode structures in registers.  Some machines
2151    (the PA for example) want to return all small structures
2152    in registers regardless of the structure's alignment.  */
2153
2154 rtx
2155 copy_blkmode_from_reg (tgtblk, srcreg, type)
2156      rtx tgtblk;
2157      rtx srcreg;
2158      tree type;
2159 {
2160   unsigned HOST_WIDE_INT bytes = int_size_in_bytes (type);
2161   rtx src = NULL, dst = NULL;
2162   unsigned HOST_WIDE_INT bitsize = MIN (TYPE_ALIGN (type), BITS_PER_WORD);
2163   unsigned HOST_WIDE_INT bitpos, xbitpos, big_endian_correction = 0;
2164
2165   if (tgtblk == 0)
2166     {
2167       tgtblk = assign_temp (build_qualified_type (type,
2168                                                   (TYPE_QUALS (type)
2169                                                    | TYPE_QUAL_CONST)),
2170                             0, 1, 1);
2171       preserve_temp_slots (tgtblk);
2172     }
2173
2174   /* This code assumes srcreg is at least a full word.  If it isn't,
2175      copy it into a new pseudo which is a full word.  */
2176   if (GET_MODE (srcreg) != BLKmode
2177       && GET_MODE_SIZE (GET_MODE (srcreg)) < UNITS_PER_WORD)
2178     srcreg = convert_to_mode (word_mode, srcreg, TREE_UNSIGNED (type));
2179
2180   /* Structures whose size is not a multiple of a word are aligned
2181      to the least significant byte (to the right).  On a BYTES_BIG_ENDIAN
2182      machine, this means we must skip the empty high order bytes when
2183      calculating the bit offset.  */
2184   if (BYTES_BIG_ENDIAN && bytes % UNITS_PER_WORD)
2185     big_endian_correction
2186       = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD) * BITS_PER_UNIT));
2187
2188   /* Copy the structure BITSIZE bites at a time.
2189
2190      We could probably emit more efficient code for machines which do not use
2191      strict alignment, but it doesn't seem worth the effort at the current
2192      time.  */
2193   for (bitpos = 0, xbitpos = big_endian_correction;
2194        bitpos < bytes * BITS_PER_UNIT;
2195        bitpos += bitsize, xbitpos += bitsize)
2196     {
2197       /* We need a new source operand each time xbitpos is on a
2198          word boundary and when xbitpos == big_endian_correction
2199          (the first time through).  */
2200       if (xbitpos % BITS_PER_WORD == 0
2201           || xbitpos == big_endian_correction)
2202         src = operand_subword_force (srcreg, xbitpos / BITS_PER_WORD,
2203                                      GET_MODE (srcreg));
2204
2205       /* We need a new destination operand each time bitpos is on
2206          a word boundary.  */
2207       if (bitpos % BITS_PER_WORD == 0)
2208         dst = operand_subword (tgtblk, bitpos / BITS_PER_WORD, 1, BLKmode);
2209
2210       /* Use xbitpos for the source extraction (right justified) and
2211          xbitpos for the destination store (left justified).  */
2212       store_bit_field (dst, bitsize, bitpos % BITS_PER_WORD, word_mode,
2213                        extract_bit_field (src, bitsize,
2214                                           xbitpos % BITS_PER_WORD, 1,
2215                                           NULL_RTX, word_mode, word_mode,
2216                                           bitsize, BITS_PER_WORD),
2217                        bitsize, BITS_PER_WORD);
2218     }
2219
2220   return tgtblk;
2221 }
2222
2223 /* Add a USE expression for REG to the (possibly empty) list pointed
2224    to by CALL_FUSAGE.  REG must denote a hard register.  */
2225
2226 void
2227 use_reg (call_fusage, reg)
2228      rtx *call_fusage, reg;
2229 {
2230   if (GET_CODE (reg) != REG
2231       || REGNO (reg) >= FIRST_PSEUDO_REGISTER)
2232     abort ();
2233
2234   *call_fusage
2235     = gen_rtx_EXPR_LIST (VOIDmode,
2236                          gen_rtx_USE (VOIDmode, reg), *call_fusage);
2237 }
2238
2239 /* Add USE expressions to *CALL_FUSAGE for each of NREGS consecutive regs,
2240    starting at REGNO.  All of these registers must be hard registers.  */
2241
2242 void
2243 use_regs (call_fusage, regno, nregs)
2244      rtx *call_fusage;
2245      int regno;
2246      int nregs;
2247 {
2248   int i;
2249
2250   if (regno + nregs > FIRST_PSEUDO_REGISTER)
2251     abort ();
2252
2253   for (i = 0; i < nregs; i++)
2254     use_reg (call_fusage, gen_rtx_REG (reg_raw_mode[regno + i], regno + i));
2255 }
2256
2257 /* Add USE expressions to *CALL_FUSAGE for each REG contained in the
2258    PARALLEL REGS.  This is for calls that pass values in multiple
2259    non-contiguous locations.  The Irix 6 ABI has examples of this.  */
2260
2261 void
2262 use_group_regs (call_fusage, regs)
2263      rtx *call_fusage;
2264      rtx regs;
2265 {
2266   int i;
2267
2268   for (i = 0; i < XVECLEN (regs, 0); i++)
2269     {
2270       rtx reg = XEXP (XVECEXP (regs, 0, i), 0);
2271
2272       /* A NULL entry means the parameter goes both on the stack and in
2273          registers.  This can also be a MEM for targets that pass values
2274          partially on the stack and partially in registers.  */
2275       if (reg != 0 && GET_CODE (reg) == REG)
2276         use_reg (call_fusage, reg);
2277     }
2278 }
2279 \f
2280
2281 int
2282 can_store_by_pieces (len, constfun, constfundata, align)
2283      unsigned HOST_WIDE_INT len;
2284      rtx (*constfun) PARAMS ((PTR, HOST_WIDE_INT, enum machine_mode));
2285      PTR constfundata;
2286      unsigned int align;
2287 {
2288   unsigned HOST_WIDE_INT max_size, l;
2289   HOST_WIDE_INT offset = 0;
2290   enum machine_mode mode, tmode;
2291   enum insn_code icode;
2292   int reverse;
2293   rtx cst;
2294
2295   if (! MOVE_BY_PIECES_P (len, align))
2296     return 0;
2297
2298   if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
2299       || align > MOVE_MAX * BITS_PER_UNIT || align >= BIGGEST_ALIGNMENT)
2300     align = MOVE_MAX * BITS_PER_UNIT;
2301
2302   /* We would first store what we can in the largest integer mode, then go to
2303      successively smaller modes.  */
2304
2305   for (reverse = 0;
2306        reverse <= (HAVE_PRE_DECREMENT || HAVE_POST_DECREMENT);
2307        reverse++)
2308     {
2309       l = len;
2310       mode = VOIDmode;
2311       max_size = MOVE_MAX_PIECES + 1;
2312       while (max_size > 1)
2313         {
2314           for (tmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
2315                tmode != VOIDmode; tmode = GET_MODE_WIDER_MODE (tmode))
2316             if (GET_MODE_SIZE (tmode) < max_size)
2317               mode = tmode;
2318
2319           if (mode == VOIDmode)
2320             break;
2321
2322           icode = mov_optab->handlers[(int) mode].insn_code;
2323           if (icode != CODE_FOR_nothing
2324               && align >= GET_MODE_ALIGNMENT (mode))
2325             {
2326               unsigned int size = GET_MODE_SIZE (mode);
2327
2328               while (l >= size)
2329                 {
2330                   if (reverse)
2331                     offset -= size;
2332
2333                   cst = (*constfun) (constfundata, offset, mode);
2334                   if (!LEGITIMATE_CONSTANT_P (cst))
2335                     return 0;
2336
2337                   if (!reverse)
2338                     offset += size;
2339
2340                   l -= size;
2341                 }
2342             }
2343
2344           max_size = GET_MODE_SIZE (mode);
2345         }
2346
2347       /* The code above should have handled everything.  */
2348       if (l != 0)
2349         abort ();
2350     }
2351
2352   return 1;
2353 }
2354
2355 /* Generate several move instructions to store LEN bytes generated by
2356    CONSTFUN to block TO.  (A MEM rtx with BLKmode).  CONSTFUNDATA is a
2357    pointer which will be passed as argument in every CONSTFUN call.
2358    ALIGN is maximum alignment we can assume.  */
2359
2360 void
2361 store_by_pieces (to, len, constfun, constfundata, align)
2362      rtx to;
2363      unsigned HOST_WIDE_INT len;
2364      rtx (*constfun) PARAMS ((PTR, HOST_WIDE_INT, enum machine_mode));
2365      PTR constfundata;
2366      unsigned int align;
2367 {
2368   struct store_by_pieces data;
2369
2370   if (! MOVE_BY_PIECES_P (len, align))
2371     abort ();
2372   to = protect_from_queue (to, 1);
2373   data.constfun = constfun;
2374   data.constfundata = constfundata;
2375   data.len = len;
2376   data.to = to;
2377   store_by_pieces_1 (&data, align);
2378 }
2379
2380 /* Generate several move instructions to clear LEN bytes of block TO.  (A MEM
2381    rtx with BLKmode).  The caller must pass TO through protect_from_queue
2382    before calling. ALIGN is maximum alignment we can assume.  */
2383
2384 static void
2385 clear_by_pieces (to, len, align)
2386      rtx to;
2387      unsigned HOST_WIDE_INT len;
2388      unsigned int align;
2389 {
2390   struct store_by_pieces data;
2391
2392   data.constfun = clear_by_pieces_1;
2393   data.constfundata = NULL;
2394   data.len = len;
2395   data.to = to;
2396   store_by_pieces_1 (&data, align);
2397 }
2398
2399 /* Callback routine for clear_by_pieces.
2400    Return const0_rtx unconditionally.  */
2401
2402 static rtx
2403 clear_by_pieces_1 (data, offset, mode)
2404      PTR data ATTRIBUTE_UNUSED;
2405      HOST_WIDE_INT offset ATTRIBUTE_UNUSED;
2406      enum machine_mode mode ATTRIBUTE_UNUSED;
2407 {
2408   return const0_rtx;
2409 }
2410
2411 /* Subroutine of clear_by_pieces and store_by_pieces.
2412    Generate several move instructions to store LEN bytes of block TO.  (A MEM
2413    rtx with BLKmode).  The caller must pass TO through protect_from_queue
2414    before calling.  ALIGN is maximum alignment we can assume.  */
2415
2416 static void
2417 store_by_pieces_1 (data, align)
2418      struct store_by_pieces *data;
2419      unsigned int align;
2420 {
2421   rtx to_addr = XEXP (data->to, 0);
2422   unsigned HOST_WIDE_INT max_size = MOVE_MAX_PIECES + 1;
2423   enum machine_mode mode = VOIDmode, tmode;
2424   enum insn_code icode;
2425
2426   data->offset = 0;
2427   data->to_addr = to_addr;
2428   data->autinc_to
2429     = (GET_CODE (to_addr) == PRE_INC || GET_CODE (to_addr) == PRE_DEC
2430        || GET_CODE (to_addr) == POST_INC || GET_CODE (to_addr) == POST_DEC);
2431
2432   data->explicit_inc_to = 0;
2433   data->reverse
2434     = (GET_CODE (to_addr) == PRE_DEC || GET_CODE (to_addr) == POST_DEC);
2435   if (data->reverse)
2436     data->offset = data->len;
2437
2438   /* If storing requires more than two move insns,
2439      copy addresses to registers (to make displacements shorter)
2440      and use post-increment if available.  */
2441   if (!data->autinc_to
2442       && move_by_pieces_ninsns (data->len, align) > 2)
2443     {
2444       /* Determine the main mode we'll be using.  */
2445       for (tmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
2446            tmode != VOIDmode; tmode = GET_MODE_WIDER_MODE (tmode))
2447         if (GET_MODE_SIZE (tmode) < max_size)
2448           mode = tmode;
2449
2450       if (USE_STORE_PRE_DECREMENT (mode) && data->reverse && ! data->autinc_to)
2451         {
2452           data->to_addr = copy_addr_to_reg (plus_constant (to_addr, data->len));
2453           data->autinc_to = 1;
2454           data->explicit_inc_to = -1;
2455         }
2456
2457       if (USE_STORE_POST_INCREMENT (mode) && ! data->reverse
2458           && ! data->autinc_to)
2459         {
2460           data->to_addr = copy_addr_to_reg (to_addr);
2461           data->autinc_to = 1;
2462           data->explicit_inc_to = 1;
2463         }
2464
2465       if ( !data->autinc_to && CONSTANT_P (to_addr))
2466         data->to_addr = copy_addr_to_reg (to_addr);
2467     }
2468
2469   if (! SLOW_UNALIGNED_ACCESS (word_mode, align)
2470       || align > MOVE_MAX * BITS_PER_UNIT || align >= BIGGEST_ALIGNMENT)
2471     align = MOVE_MAX * BITS_PER_UNIT;
2472
2473   /* First store what we can in the largest integer mode, then go to
2474      successively smaller modes.  */
2475
2476   while (max_size > 1)
2477     {
2478       for (tmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
2479            tmode != VOIDmode; tmode = GET_MODE_WIDER_MODE (tmode))
2480         if (GET_MODE_SIZE (tmode) < max_size)
2481           mode = tmode;
2482
2483       if (mode == VOIDmode)
2484         break;
2485
2486       icode = mov_optab->handlers[(int) mode].insn_code;
2487       if (icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode))
2488         store_by_pieces_2 (GEN_FCN (icode), mode, data);
2489
2490       max_size = GET_MODE_SIZE (mode);
2491     }
2492
2493   /* The code above should have handled everything.  */
2494   if (data->len != 0)
2495     abort ();
2496 }
2497
2498 /* Subroutine of store_by_pieces_1.  Store as many bytes as appropriate
2499    with move instructions for mode MODE.  GENFUN is the gen_... function
2500    to make a move insn for that mode.  DATA has all the other info.  */
2501
2502 static void
2503 store_by_pieces_2 (genfun, mode, data)
2504      rtx (*genfun) PARAMS ((rtx, ...));
2505      enum machine_mode mode;
2506      struct store_by_pieces *data;
2507 {
2508   unsigned int size = GET_MODE_SIZE (mode);
2509   rtx to1, cst;
2510
2511   while (data->len >= size)
2512     {
2513       if (data->reverse)
2514         data->offset -= size;
2515
2516       if (data->autinc_to)
2517         {
2518           to1 = replace_equiv_address (data->to, data->to_addr);
2519           to1 = adjust_address (to1, mode, 0);
2520         }
2521       else
2522         to1 = adjust_address (data->to, mode, data->offset);
2523
2524       if (HAVE_PRE_DECREMENT && data->explicit_inc_to < 0)
2525         emit_insn (gen_add2_insn (data->to_addr,
2526                                   GEN_INT (-(HOST_WIDE_INT) size)));
2527
2528       cst = (*data->constfun) (data->constfundata, data->offset, mode);
2529       emit_insn ((*genfun) (to1, cst));
2530
2531       if (HAVE_POST_INCREMENT && data->explicit_inc_to > 0)
2532         emit_insn (gen_add2_insn (data->to_addr, GEN_INT (size)));
2533
2534       if (! data->reverse)
2535         data->offset += size;
2536
2537       data->len -= size;
2538     }
2539 }
2540 \f
2541 /* Write zeros through the storage of OBJECT.  If OBJECT has BLKmode, SIZE is
2542    its length in bytes and ALIGN is the maximum alignment we can is has.
2543
2544    If we call a function that returns the length of the block, return it.  */
2545
2546 rtx
2547 clear_storage (object, size, align)
2548      rtx object;
2549      rtx size;
2550      unsigned int align;
2551 {
2552 #ifdef TARGET_MEM_FUNCTIONS
2553   static tree fn;
2554   tree call_expr, arg_list;
2555 #endif
2556   rtx retval = 0;
2557
2558   /* If OBJECT is not BLKmode and SIZE is the same size as its mode,
2559      just move a zero.  Otherwise, do this a piece at a time.  */
2560   if (GET_MODE (object) != BLKmode
2561       && GET_CODE (size) == CONST_INT
2562       && GET_MODE_SIZE (GET_MODE (object)) == (unsigned int) INTVAL (size))
2563     emit_move_insn (object, CONST0_RTX (GET_MODE (object)));
2564   else
2565     {
2566       object = protect_from_queue (object, 1);
2567       size = protect_from_queue (size, 0);
2568
2569       if (GET_CODE (size) == CONST_INT
2570           && MOVE_BY_PIECES_P (INTVAL (size), align))
2571         clear_by_pieces (object, INTVAL (size), align);
2572       else
2573         {
2574           /* Try the most limited insn first, because there's no point
2575              including more than one in the machine description unless
2576              the more limited one has some advantage.  */
2577
2578           rtx opalign = GEN_INT (align / BITS_PER_UNIT);
2579           enum machine_mode mode;
2580
2581           for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT); mode != VOIDmode;
2582                mode = GET_MODE_WIDER_MODE (mode))
2583             {
2584               enum insn_code code = clrstr_optab[(int) mode];
2585               insn_operand_predicate_fn pred;
2586
2587               if (code != CODE_FOR_nothing
2588                   /* We don't need MODE to be narrower than
2589                      BITS_PER_HOST_WIDE_INT here because if SIZE is less than
2590                      the mode mask, as it is returned by the macro, it will
2591                      definitely be less than the actual mode mask.  */
2592                   && ((GET_CODE (size) == CONST_INT
2593                        && ((unsigned HOST_WIDE_INT) INTVAL (size)
2594                            <= (GET_MODE_MASK (mode) >> 1)))
2595                       || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
2596                   && ((pred = insn_data[(int) code].operand[0].predicate) == 0
2597                       || (*pred) (object, BLKmode))
2598                   && ((pred = insn_data[(int) code].operand[2].predicate) == 0
2599                       || (*pred) (opalign, VOIDmode)))
2600                 {
2601                   rtx op1;
2602                   rtx last = get_last_insn ();
2603                   rtx pat;
2604
2605                   op1 = convert_to_mode (mode, size, 1);
2606                   pred = insn_data[(int) code].operand[1].predicate;
2607                   if (pred != 0 && ! (*pred) (op1, mode))
2608                     op1 = copy_to_mode_reg (mode, op1);
2609
2610                   pat = GEN_FCN ((int) code) (object, op1, opalign);
2611                   if (pat)
2612                     {
2613                       emit_insn (pat);
2614                       return 0;
2615                     }
2616                   else
2617                     delete_insns_since (last);
2618                 }
2619             }
2620
2621           /* OBJECT or SIZE may have been passed through protect_from_queue.
2622
2623              It is unsafe to save the value generated by protect_from_queue
2624              and reuse it later.  Consider what happens if emit_queue is
2625              called before the return value from protect_from_queue is used.
2626
2627              Expansion of the CALL_EXPR below will call emit_queue before
2628              we are finished emitting RTL for argument setup.  So if we are
2629              not careful we could get the wrong value for an argument.
2630
2631              To avoid this problem we go ahead and emit code to copy OBJECT
2632              and SIZE into new pseudos.  We can then place those new pseudos
2633              into an RTL_EXPR and use them later, even after a call to
2634              emit_queue.
2635
2636              Note this is not strictly needed for library calls since they
2637              do not call emit_queue before loading their arguments.  However,
2638              we may need to have library calls call emit_queue in the future
2639              since failing to do so could cause problems for targets which
2640              define SMALL_REGISTER_CLASSES and pass arguments in registers.  */
2641           object = copy_to_mode_reg (Pmode, XEXP (object, 0));
2642
2643 #ifdef TARGET_MEM_FUNCTIONS
2644           size = copy_to_mode_reg (TYPE_MODE (sizetype), size);
2645 #else
2646           size = convert_to_mode (TYPE_MODE (integer_type_node), size,
2647                                   TREE_UNSIGNED (integer_type_node));
2648           size = copy_to_mode_reg (TYPE_MODE (integer_type_node), size);
2649 #endif
2650
2651 #ifdef TARGET_MEM_FUNCTIONS
2652           /* It is incorrect to use the libcall calling conventions to call
2653              memset in this context.
2654
2655              This could be a user call to memset and the user may wish to
2656              examine the return value from memset.
2657
2658              For targets where libcalls and normal calls have different
2659              conventions for returning pointers, we could end up generating
2660              incorrect code.
2661
2662              So instead of using a libcall sequence we build up a suitable
2663              CALL_EXPR and expand the call in the normal fashion.  */
2664           if (fn == NULL_TREE)
2665             {
2666               tree fntype;
2667
2668               /* This was copied from except.c, I don't know if all this is
2669                  necessary in this context or not.  */
2670               fn = get_identifier ("memset");
2671               fntype = build_pointer_type (void_type_node);
2672               fntype = build_function_type (fntype, NULL_TREE);
2673               fn = build_decl (FUNCTION_DECL, fn, fntype);
2674               ggc_add_tree_root (&fn, 1);
2675               DECL_EXTERNAL (fn) = 1;
2676               TREE_PUBLIC (fn) = 1;
2677               DECL_ARTIFICIAL (fn) = 1;
2678               TREE_NOTHROW (fn) = 1;
2679               make_decl_rtl (fn, NULL);
2680               assemble_external (fn);
2681             }
2682
2683           /* We need to make an argument list for the function call.
2684
2685              memset has three arguments, the first is a void * addresses, the
2686              second a integer with the initialization value, the last is a
2687              size_t byte count for the copy.  */
2688           arg_list
2689             = build_tree_list (NULL_TREE,
2690                                make_tree (build_pointer_type (void_type_node),
2691                                           object));
2692           TREE_CHAIN (arg_list)
2693             = build_tree_list (NULL_TREE,
2694                                make_tree (integer_type_node, const0_rtx));
2695           TREE_CHAIN (TREE_CHAIN (arg_list))
2696             = build_tree_list (NULL_TREE, make_tree (sizetype, size));
2697           TREE_CHAIN (TREE_CHAIN (TREE_CHAIN (arg_list))) = NULL_TREE;
2698
2699           /* Now we have to build up the CALL_EXPR itself.  */
2700           call_expr = build1 (ADDR_EXPR,
2701                               build_pointer_type (TREE_TYPE (fn)), fn);
2702           call_expr = build (CALL_EXPR, TREE_TYPE (TREE_TYPE (fn)),
2703                              call_expr, arg_list, NULL_TREE);
2704           TREE_SIDE_EFFECTS (call_expr) = 1;
2705
2706           retval = expand_expr (call_expr, NULL_RTX, VOIDmode, 0);
2707 #else
2708           emit_library_call (bzero_libfunc, LCT_NORMAL,
2709                              VOIDmode, 2, object, Pmode, size,
2710                              TYPE_MODE (integer_type_node));
2711 #endif
2712         }
2713     }
2714
2715   return retval;
2716 }
2717
2718 /* Generate code to copy Y into X.
2719    Both Y and X must have the same mode, except that
2720    Y can be a constant with VOIDmode.
2721    This mode cannot be BLKmode; use emit_block_move for that.
2722
2723    Return the last instruction emitted.  */
2724
2725 rtx
2726 emit_move_insn (x, y)
2727      rtx x, y;
2728 {
2729   enum machine_mode mode = GET_MODE (x);
2730   rtx y_cst = NULL_RTX;
2731   rtx last_insn;
2732
2733   x = protect_from_queue (x, 1);
2734   y = protect_from_queue (y, 0);
2735
2736   if (mode == BLKmode || (GET_MODE (y) != mode && GET_MODE (y) != VOIDmode))
2737     abort ();
2738
2739   /* Never force constant_p_rtx to memory.  */
2740   if (GET_CODE (y) == CONSTANT_P_RTX)
2741     ;
2742   else if (CONSTANT_P (y) && ! LEGITIMATE_CONSTANT_P (y))
2743     {
2744       y_cst = y;
2745       y = force_const_mem (mode, y);
2746     }
2747
2748   /* If X or Y are memory references, verify that their addresses are valid
2749      for the machine.  */
2750   if (GET_CODE (x) == MEM
2751       && ((! memory_address_p (GET_MODE (x), XEXP (x, 0))
2752            && ! push_operand (x, GET_MODE (x)))
2753           || (flag_force_addr
2754               && CONSTANT_ADDRESS_P (XEXP (x, 0)))))
2755     x = validize_mem (x);
2756
2757   if (GET_CODE (y) == MEM
2758       && (! memory_address_p (GET_MODE (y), XEXP (y, 0))
2759           || (flag_force_addr
2760               && CONSTANT_ADDRESS_P (XEXP (y, 0)))))
2761     y = validize_mem (y);
2762
2763   if (mode == BLKmode)
2764     abort ();
2765
2766   last_insn = emit_move_insn_1 (x, y);
2767
2768   if (y_cst && GET_CODE (x) == REG)
2769     REG_NOTES (last_insn)
2770       = gen_rtx_EXPR_LIST (REG_EQUAL, y_cst, REG_NOTES (last_insn));
2771
2772   return last_insn;
2773 }
2774
2775 /* Low level part of emit_move_insn.
2776    Called just like emit_move_insn, but assumes X and Y
2777    are basically valid.  */
2778
2779 rtx
2780 emit_move_insn_1 (x, y)
2781      rtx x, y;
2782 {
2783   enum machine_mode mode = GET_MODE (x);
2784   enum machine_mode submode;
2785   enum mode_class class = GET_MODE_CLASS (mode);
2786   unsigned int i;
2787
2788   if ((unsigned int) mode >= (unsigned int) MAX_MACHINE_MODE)
2789     abort ();
2790
2791   if (mov_optab->handlers[(int) mode].insn_code != CODE_FOR_nothing)
2792     return
2793       emit_insn (GEN_FCN (mov_optab->handlers[(int) mode].insn_code) (x, y));
2794
2795   /* Expand complex moves by moving real part and imag part, if possible.  */
2796   else if ((class == MODE_COMPLEX_FLOAT || class == MODE_COMPLEX_INT)
2797            && BLKmode != (submode = mode_for_size ((GET_MODE_UNIT_SIZE (mode)
2798                                                     * BITS_PER_UNIT),
2799                                                    (class == MODE_COMPLEX_INT
2800                                                     ? MODE_INT : MODE_FLOAT),
2801                                                    0))
2802            && (mov_optab->handlers[(int) submode].insn_code
2803                != CODE_FOR_nothing))
2804     {
2805       /* Don't split destination if it is a stack push.  */
2806       int stack = push_operand (x, GET_MODE (x));
2807
2808 #ifdef PUSH_ROUNDING
2809       /* In case we output to the stack, but the size is smaller machine can
2810          push exactly, we need to use move instructions.  */
2811       if (stack
2812           && PUSH_ROUNDING (GET_MODE_SIZE (submode)) != GET_MODE_SIZE (submode))
2813         {
2814           rtx temp;
2815           int offset1, offset2;
2816
2817           /* Do not use anti_adjust_stack, since we don't want to update
2818              stack_pointer_delta.  */
2819           temp = expand_binop (Pmode,
2820 #ifdef STACK_GROWS_DOWNWARD
2821                                sub_optab,
2822 #else
2823                                add_optab,
2824 #endif
2825                                stack_pointer_rtx,
2826                                GEN_INT
2827                                  (PUSH_ROUNDING (GET_MODE_SIZE (GET_MODE (x)))),
2828                                stack_pointer_rtx,
2829                                0,
2830                                OPTAB_LIB_WIDEN);
2831           if (temp != stack_pointer_rtx)
2832             emit_move_insn (stack_pointer_rtx, temp);
2833 #ifdef STACK_GROWS_DOWNWARD
2834           offset1 = 0;
2835           offset2 = GET_MODE_SIZE (submode);
2836 #else
2837           offset1 = -PUSH_ROUNDING (GET_MODE_SIZE (GET_MODE (x)));
2838           offset2 = (-PUSH_ROUNDING (GET_MODE_SIZE (GET_MODE (x)))
2839                      + GET_MODE_SIZE (submode));
2840 #endif
2841           emit_move_insn (change_address (x, submode,
2842                                           gen_rtx_PLUS (Pmode,
2843                                                         stack_pointer_rtx,
2844                                                         GEN_INT (offset1))),
2845                           gen_realpart (submode, y));
2846           emit_move_insn (change_address (x, submode,
2847                                           gen_rtx_PLUS (Pmode,
2848                                                         stack_pointer_rtx,
2849                                                         GEN_INT (offset2))),
2850                           gen_imagpart (submode, y));
2851         }
2852       else
2853 #endif
2854       /* If this is a stack, push the highpart first, so it
2855          will be in the argument order.
2856
2857          In that case, change_address is used only to convert
2858          the mode, not to change the address.  */
2859       if (stack)
2860         {
2861           /* Note that the real part always precedes the imag part in memory
2862              regardless of machine's endianness.  */
2863 #ifdef STACK_GROWS_DOWNWARD
2864           emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
2865                      (gen_rtx_MEM (submode, XEXP (x, 0)),
2866                       gen_imagpart (submode, y)));
2867           emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
2868                      (gen_rtx_MEM (submode, XEXP (x, 0)),
2869                       gen_realpart (submode, y)));
2870 #else
2871           emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
2872                      (gen_rtx_MEM (submode, XEXP (x, 0)),
2873                       gen_realpart (submode, y)));
2874           emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
2875                      (gen_rtx_MEM (submode, XEXP (x, 0)),
2876                       gen_imagpart (submode, y)));
2877 #endif
2878         }
2879       else
2880         {
2881           rtx realpart_x, realpart_y;
2882           rtx imagpart_x, imagpart_y;
2883
2884           /* If this is a complex value with each part being smaller than a
2885              word, the usual calling sequence will likely pack the pieces into
2886              a single register.  Unfortunately, SUBREG of hard registers only
2887              deals in terms of words, so we have a problem converting input
2888              arguments to the CONCAT of two registers that is used elsewhere
2889              for complex values.  If this is before reload, we can copy it into
2890              memory and reload.  FIXME, we should see about using extract and
2891              insert on integer registers, but complex short and complex char
2892              variables should be rarely used.  */
2893           if (GET_MODE_BITSIZE (mode) < 2 * BITS_PER_WORD
2894               && (reload_in_progress | reload_completed) == 0)
2895             {
2896               int packed_dest_p = (REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER);
2897               int packed_src_p  = (REG_P (y) && REGNO (y) < FIRST_PSEUDO_REGISTER);
2898
2899               if (packed_dest_p || packed_src_p)
2900                 {
2901                   enum mode_class reg_class = ((class == MODE_COMPLEX_FLOAT)
2902                                                ? MODE_FLOAT : MODE_INT);
2903
2904                   enum machine_mode reg_mode
2905                     = mode_for_size (GET_MODE_BITSIZE (mode), reg_class, 1);
2906
2907                   if (reg_mode != BLKmode)
2908                     {
2909                       rtx mem = assign_stack_temp (reg_mode,
2910                                                    GET_MODE_SIZE (mode), 0);
2911                       rtx cmem = adjust_address (mem, mode, 0);
2912
2913                       cfun->cannot_inline
2914                         = N_("function using short complex types cannot be inline");
2915
2916                       if (packed_dest_p)
2917                         {
2918                           rtx sreg = gen_rtx_SUBREG (reg_mode, x, 0);
2919                           emit_move_insn_1 (cmem, y);
2920                           return emit_move_insn_1 (sreg, mem);
2921                         }
2922                       else
2923                         {
2924                           rtx sreg = gen_rtx_SUBREG (reg_mode, y, 0);
2925                           emit_move_insn_1 (mem, sreg);
2926                           return emit_move_insn_1 (x, cmem);
2927                         }
2928                     }
2929                 }
2930             }
2931
2932           realpart_x = gen_realpart (submode, x);
2933           realpart_y = gen_realpart (submode, y);
2934           imagpart_x = gen_imagpart (submode, x);
2935           imagpart_y = gen_imagpart (submode, y);
2936
2937           /* Show the output dies here.  This is necessary for SUBREGs
2938              of pseudos since we cannot track their lifetimes correctly;
2939              hard regs shouldn't appear here except as return values.
2940              We never want to emit such a clobber after reload.  */
2941           if (x != y
2942               && ! (reload_in_progress || reload_completed)
2943               && (GET_CODE (realpart_x) == SUBREG
2944                   || GET_CODE (imagpart_x) == SUBREG))
2945             {
2946               emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
2947             }
2948
2949           emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
2950                      (realpart_x, realpart_y));
2951           emit_insn (GEN_FCN (mov_optab->handlers[(int) submode].insn_code)
2952                      (imagpart_x, imagpart_y));
2953         }
2954
2955       return get_last_insn ();
2956     }
2957
2958   /* This will handle any multi-word mode that lacks a move_insn pattern.
2959      However, you will get better code if you define such patterns,
2960      even if they must turn into multiple assembler instructions.  */
2961   else if (GET_MODE_SIZE (mode) > UNITS_PER_WORD)
2962     {
2963       rtx last_insn = 0;
2964       rtx seq, inner;
2965       int need_clobber;
2966
2967 #ifdef PUSH_ROUNDING
2968
2969       /* If X is a push on the stack, do the push now and replace
2970          X with a reference to the stack pointer.  */
2971       if (push_operand (x, GET_MODE (x)))
2972         {
2973           rtx temp;
2974           enum rtx_code code;
2975           
2976           /* Do not use anti_adjust_stack, since we don't want to update
2977              stack_pointer_delta.  */
2978           temp = expand_binop (Pmode,
2979 #ifdef STACK_GROWS_DOWNWARD
2980                                sub_optab,
2981 #else
2982                                add_optab,
2983 #endif
2984                                stack_pointer_rtx,
2985                                GEN_INT
2986                                  (PUSH_ROUNDING (GET_MODE_SIZE (GET_MODE (x)))),
2987                                stack_pointer_rtx,
2988                                0,
2989                                OPTAB_LIB_WIDEN);
2990           if (temp != stack_pointer_rtx)
2991             emit_move_insn (stack_pointer_rtx, temp);
2992
2993           code = GET_CODE (XEXP (x, 0));
2994           /* Just hope that small offsets off SP are OK.  */
2995           if (code == POST_INC)
2996             temp = gen_rtx_PLUS (Pmode, stack_pointer_rtx, 
2997                                 GEN_INT (-(HOST_WIDE_INT)
2998                                            GET_MODE_SIZE (GET_MODE (x))));
2999           else if (code == POST_DEC)
3000             temp = gen_rtx_PLUS (Pmode, stack_pointer_rtx, 
3001                                 GEN_INT (GET_MODE_SIZE (GET_MODE (x))));
3002           else
3003             temp = stack_pointer_rtx;
3004
3005           x = change_address (x, VOIDmode, temp);
3006         }
3007 #endif
3008
3009       /* If we are in reload, see if either operand is a MEM whose address
3010          is scheduled for replacement.  */
3011       if (reload_in_progress && GET_CODE (x) == MEM
3012           && (inner = find_replacement (&XEXP (x, 0))) != XEXP (x, 0))
3013         x = replace_equiv_address_nv (x, inner);
3014       if (reload_in_progress && GET_CODE (y) == MEM
3015           && (inner = find_replacement (&XEXP (y, 0))) != XEXP (y, 0))
3016         y = replace_equiv_address_nv (y, inner);
3017
3018       start_sequence ();
3019
3020       need_clobber = 0;
3021       for (i = 0;
3022            i < (GET_MODE_SIZE (mode) + (UNITS_PER_WORD - 1)) / UNITS_PER_WORD;
3023            i++)
3024         {
3025           rtx xpart = operand_subword (x, i, 1, mode);
3026           rtx ypart = operand_subword (y, i, 1, mode);
3027
3028           /* If we can't get a part of Y, put Y into memory if it is a
3029              constant.  Otherwise, force it into a register.  If we still
3030              can't get a part of Y, abort.  */
3031           if (ypart == 0 && CONSTANT_P (y))
3032             {
3033               y = force_const_mem (mode, y);
3034               ypart = operand_subword (y, i, 1, mode);
3035             }
3036           else if (ypart == 0)
3037             ypart = operand_subword_force (y, i, mode);
3038
3039           if (xpart == 0 || ypart == 0)
3040             abort ();
3041
3042           need_clobber |= (GET_CODE (xpart) == SUBREG);
3043
3044           last_insn = emit_move_insn (xpart, ypart);
3045         }
3046
3047       seq = gen_sequence ();
3048       end_sequence ();
3049
3050       /* Show the output dies here.  This is necessary for SUBREGs
3051          of pseudos since we cannot track their lifetimes correctly;
3052          hard regs shouldn't appear here except as return values.
3053          We never want to emit such a clobber after reload.  */
3054       if (x != y
3055           && ! (reload_in_progress || reload_completed)
3056           && need_clobber != 0)
3057         {
3058           emit_insn (gen_rtx_CLOBBER (VOIDmode, x));
3059         }
3060
3061       emit_insn (seq);
3062
3063       return last_insn;
3064     }
3065   else
3066     abort ();
3067 }
3068 \f
3069 /* Pushing data onto the stack.  */
3070
3071 /* Push a block of length SIZE (perhaps variable)
3072    and return an rtx to address the beginning of the block.
3073    Note that it is not possible for the value returned to be a QUEUED.
3074    The value may be virtual_outgoing_args_rtx.
3075
3076    EXTRA is the number of bytes of padding to push in addition to SIZE.
3077    BELOW nonzero means this padding comes at low addresses;
3078    otherwise, the padding comes at high addresses.  */
3079
3080 rtx
3081 push_block (size, extra, below)
3082      rtx size;
3083      int extra, below;
3084 {
3085   register rtx temp;
3086
3087   size = convert_modes (Pmode, ptr_mode, size, 1);
3088   if (CONSTANT_P (size))
3089     anti_adjust_stack (plus_constant (size, extra));
3090   else if (GET_CODE (size) == REG && extra == 0)
3091     anti_adjust_stack (size);
3092   else
3093     {
3094       temp = copy_to_mode_reg (Pmode, size);
3095       if (extra != 0)
3096         temp = expand_binop (Pmode, add_optab, temp, GEN_INT (extra),
3097                              temp, 0, OPTAB_LIB_WIDEN);
3098       anti_adjust_stack (temp);
3099     }
3100
3101 #ifndef STACK_GROWS_DOWNWARD
3102   if (0)
3103 #else
3104   if (1)
3105 #endif
3106     {
3107       temp = virtual_outgoing_args_rtx;
3108       if (extra != 0 && below)
3109         temp = plus_constant (temp, extra);
3110     }
3111   else
3112     {
3113       if (GET_CODE (size) == CONST_INT)
3114         temp = plus_constant (virtual_outgoing_args_rtx,
3115                               -INTVAL (size) - (below ? 0 : extra));
3116       else if (extra != 0 && !below)
3117         temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
3118                              negate_rtx (Pmode, plus_constant (size, extra)));
3119       else
3120         temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
3121                              negate_rtx (Pmode, size));
3122     }
3123
3124   return memory_address (GET_CLASS_NARROWEST_MODE (MODE_INT), temp);
3125 }
3126
3127
3128 /* Return an rtx for the address of the beginning of a as-if-it-was-pushed
3129    block of SIZE bytes.  */
3130
3131 static rtx
3132 get_push_address (size)
3133      int size;
3134 {
3135   register rtx temp;
3136
3137   if (STACK_PUSH_CODE == POST_DEC)
3138     temp = gen_rtx_PLUS (Pmode, stack_pointer_rtx, GEN_INT (size));
3139   else if (STACK_PUSH_CODE == POST_INC)
3140     temp = gen_rtx_MINUS (Pmode, stack_pointer_rtx, GEN_INT (size));
3141   else
3142     temp = stack_pointer_rtx;
3143
3144   return copy_to_reg (temp);
3145 }
3146
3147 #ifdef PUSH_ROUNDING
3148
3149 /* Emit single push insn.  */
3150
3151 static void
3152 emit_single_push_insn (mode, x, type)
3153      rtx x;
3154      enum machine_mode mode;
3155      tree type;
3156 {
3157   rtx dest_addr;
3158   unsigned rounded_size = PUSH_ROUNDING (GET_MODE_SIZE (mode));
3159   rtx dest;
3160   enum insn_code icode;
3161   insn_operand_predicate_fn pred;
3162
3163   stack_pointer_delta += PUSH_ROUNDING (GET_MODE_SIZE (mode));
3164   /* If there is push pattern, use it.  Otherwise try old way of throwing
3165      MEM representing push operation to move expander.  */
3166   icode = push_optab->handlers[(int) mode].insn_code;
3167   if (icode != CODE_FOR_nothing)
3168     {
3169       if (((pred = insn_data[(int) icode].operand[0].predicate)
3170           && !((*pred) (x, mode))))
3171         x = force_reg (mode, x);
3172       emit_insn (GEN_FCN (icode) (x));
3173       return;
3174     }
3175   if (GET_MODE_SIZE (mode) == rounded_size)
3176     dest_addr = gen_rtx_fmt_e (STACK_PUSH_CODE, Pmode, stack_pointer_rtx);
3177   else
3178     {
3179 #ifdef STACK_GROWS_DOWNWARD
3180       dest_addr = gen_rtx_PLUS (Pmode, stack_pointer_rtx,
3181                                 GEN_INT (-(HOST_WIDE_INT)rounded_size));
3182 #else
3183       dest_addr = gen_rtx_PLUS (Pmode, stack_pointer_rtx,
3184                                 GEN_INT (rounded_size));
3185 #endif
3186       dest_addr = gen_rtx_PRE_MODIFY (Pmode, stack_pointer_rtx, dest_addr);
3187     }
3188
3189   dest = gen_rtx_MEM (mode, dest_addr);
3190
3191   if (type != 0)
3192     {
3193       set_mem_attributes (dest, type, 1);
3194       /* Function incoming arguments may overlap with sibling call
3195          outgoing arguments and we cannot allow reordering of reads
3196          from function arguments with stores to outgoing arguments
3197          of sibling calls.  */
3198       set_mem_alias_set (dest, 0);
3199     }
3200   emit_move_insn (dest, x);
3201 }
3202 #endif
3203
3204 /* Generate code to push X onto the stack, assuming it has mode MODE and
3205    type TYPE.
3206    MODE is redundant except when X is a CONST_INT (since they don't
3207    carry mode info).
3208    SIZE is an rtx for the size of data to be copied (in bytes),
3209    needed only if X is BLKmode.
3210
3211    ALIGN (in bits) is maximum alignment we can assume.
3212
3213    If PARTIAL and REG are both nonzero, then copy that many of the first
3214    words of X into registers starting with REG, and push the rest of X.
3215    The amount of space pushed is decreased by PARTIAL words,
3216    rounded *down* to a multiple of PARM_BOUNDARY.
3217    REG must be a hard register in this case.
3218    If REG is zero but PARTIAL is not, take any all others actions for an
3219    argument partially in registers, but do not actually load any
3220    registers.
3221
3222    EXTRA is the amount in bytes of extra space to leave next to this arg.
3223    This is ignored if an argument block has already been allocated.
3224
3225    On a machine that lacks real push insns, ARGS_ADDR is the address of
3226    the bottom of the argument block for this call.  We use indexing off there
3227    to store the arg.  On machines with push insns, ARGS_ADDR is 0 when a
3228    argument block has not been preallocated.
3229
3230    ARGS_SO_FAR is the size of args previously pushed for this call.
3231
3232    REG_PARM_STACK_SPACE is nonzero if functions require stack space
3233    for arguments passed in registers.  If nonzero, it will be the number
3234    of bytes required.  */
3235
3236 void
3237 emit_push_insn (x, mode, type, size, align, partial, reg, extra,
3238                 args_addr, args_so_far, reg_parm_stack_space,
3239                 alignment_pad)
3240      register rtx x;
3241      enum machine_mode mode;
3242      tree type;
3243      rtx size;
3244      unsigned int align;
3245      int partial;
3246      rtx reg;
3247      int extra;
3248      rtx args_addr;
3249      rtx args_so_far;
3250      int reg_parm_stack_space;
3251      rtx alignment_pad;
3252 {
3253   rtx xinner;
3254   enum direction stack_direction
3255 #ifdef STACK_GROWS_DOWNWARD
3256     = downward;
3257 #else
3258     = upward;
3259 #endif
3260
3261   /* Decide where to pad the argument: `downward' for below,
3262      `upward' for above, or `none' for don't pad it.
3263      Default is below for small data on big-endian machines; else above.  */
3264   enum direction where_pad = FUNCTION_ARG_PADDING (mode, type);
3265
3266   /* Invert direction if stack is post-decrement. 
3267      FIXME: why?  */
3268   if (STACK_PUSH_CODE == POST_DEC)
3269     if (where_pad != none)
3270       where_pad = (where_pad == downward ? upward : downward);
3271
3272   xinner = x = protect_from_queue (x, 0);
3273
3274   if (mode == BLKmode)
3275     {
3276       /* Copy a block into the stack, entirely or partially.  */
3277
3278       register rtx temp;
3279       int used = partial * UNITS_PER_WORD;
3280       int offset = used % (PARM_BOUNDARY / BITS_PER_UNIT);
3281       int skip;
3282
3283       if (size == 0)
3284         abort ();
3285
3286       used -= offset;
3287
3288       /* USED is now the # of bytes we need not copy to the stack
3289          because registers will take care of them.  */
3290
3291       if (partial != 0)
3292         xinner = adjust_address (xinner, BLKmode, used);
3293
3294       /* If the partial register-part of the arg counts in its stack size,
3295          skip the part of stack space corresponding to the registers.
3296          Otherwise, start copying to the beginning of the stack space,
3297          by setting SKIP to 0.  */
3298       skip = (reg_parm_stack_space == 0) ? 0 : used;
3299
3300 #ifdef PUSH_ROUNDING
3301       /* Do it with several push insns if that doesn't take lots of insns
3302          and if there is no difficulty with push insns that skip bytes
3303          on the stack for alignment purposes.  */
3304       if (args_addr == 0
3305           && PUSH_ARGS
3306           && GET_CODE (size) == CONST_INT
3307           && skip == 0
3308           && (MOVE_BY_PIECES_P ((unsigned) INTVAL (size) - used, align))
3309           /* Here we avoid the case of a structure whose weak alignment
3310              forces many pushes of a small amount of data,
3311              and such small pushes do rounding that causes trouble.  */
3312           && ((! SLOW_UNALIGNED_ACCESS (word_mode, align))
3313               || align >= BIGGEST_ALIGNMENT
3314               || (PUSH_ROUNDING (align / BITS_PER_UNIT)
3315                   == (align / BITS_PER_UNIT)))
3316           && PUSH_ROUNDING (INTVAL (size)) == INTVAL (size))
3317         {
3318           /* Push padding now if padding above and stack grows down,
3319              or if padding below and stack grows up.
3320              But if space already allocated, this has already been done.  */
3321           if (extra && args_addr == 0
3322               && where_pad != none && where_pad != stack_direction)
3323             anti_adjust_stack (GEN_INT (extra));
3324
3325           move_by_pieces (NULL, xinner, INTVAL (size) - used, align);
3326
3327           if (current_function_check_memory_usage && ! in_check_memory_usage)
3328             {
3329               rtx temp;
3330
3331               in_check_memory_usage = 1;
3332               temp = get_push_address (INTVAL (size) - used);
3333               if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
3334                 emit_library_call (chkr_copy_bitmap_libfunc,
3335                                    LCT_CONST_MAKE_BLOCK, VOIDmode, 3, temp,
3336                                    Pmode, XEXP (xinner, 0), Pmode,
3337                                    GEN_INT (INTVAL (size) - used),
3338                                    TYPE_MODE (sizetype));
3339               else
3340                 emit_library_call (chkr_set_right_libfunc,
3341                                    LCT_CONST_MAKE_BLOCK, VOIDmode, 3, temp,
3342                                    Pmode, GEN_INT (INTVAL (size) - used),
3343                                    TYPE_MODE (sizetype),
3344                                    GEN_INT (MEMORY_USE_RW),
3345                                    TYPE_MODE (integer_type_node));
3346               in_check_memory_usage = 0;
3347             }
3348         }
3349       else
3350 #endif /* PUSH_ROUNDING  */
3351         {
3352           rtx target;
3353
3354           /* Otherwise make space on the stack and copy the data
3355              to the address of that space.  */
3356
3357           /* Deduct words put into registers from the size we must copy.  */
3358           if (partial != 0)
3359             {
3360               if (GET_CODE (size) == CONST_INT)
3361                 size = GEN_INT (INTVAL (size) - used);
3362               else
3363                 size = expand_binop (GET_MODE (size), sub_optab, size,
3364                                      GEN_INT (used), NULL_RTX, 0,
3365                                      OPTAB_LIB_WIDEN);
3366             }
3367
3368           /* Get the address of the stack space.
3369              In this case, we do not deal with EXTRA separately.
3370              A single stack adjust will do.  */
3371           if (! args_addr)
3372             {
3373               temp = push_block (size, extra, where_pad == downward);
3374               extra = 0;
3375             }
3376           else if (GET_CODE (args_so_far) == CONST_INT)
3377             temp = memory_address (BLKmode,
3378                                    plus_constant (args_addr,
3379                                                   skip + INTVAL (args_so_far)));
3380           else
3381             temp = memory_address (BLKmode,
3382                                    plus_constant (gen_rtx_PLUS (Pmode,
3383                                                                 args_addr,
3384                                                                 args_so_far),
3385                                                   skip));
3386           if (current_function_check_memory_usage && ! in_check_memory_usage)
3387             {
3388               in_check_memory_usage = 1;
3389               target = copy_to_reg (temp);
3390               if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
3391                 emit_library_call (chkr_copy_bitmap_libfunc,
3392                                    LCT_CONST_MAKE_BLOCK, VOIDmode, 3,
3393                                    target, Pmode,
3394                                    XEXP (xinner, 0), Pmode,
3395                                    size, TYPE_MODE (sizetype));
3396               else
3397                 emit_library_call (chkr_set_right_libfunc,
3398                                    LCT_CONST_MAKE_BLOCK, VOIDmode, 3,
3399                                    target, Pmode,
3400                                    size, TYPE_MODE (sizetype),
3401                                    GEN_INT (MEMORY_USE_RW),
3402                                    TYPE_MODE (integer_type_node));
3403               in_check_memory_usage = 0;
3404             }
3405
3406           target = gen_rtx_MEM (BLKmode, temp);
3407
3408           if (type != 0)
3409             {
3410               set_mem_attributes (target, type, 1);
3411               /* Function incoming arguments may overlap with sibling call
3412                  outgoing arguments and we cannot allow reordering of reads
3413                  from function arguments with stores to outgoing arguments
3414                  of sibling calls.  */
3415               set_mem_alias_set (target, 0);
3416             }
3417
3418           /* TEMP is the address of the block.  Copy the data there.  */
3419           if (GET_CODE (size) == CONST_INT
3420               && MOVE_BY_PIECES_P ((unsigned) INTVAL (size), align))
3421             {
3422               move_by_pieces (target, xinner, INTVAL (size), align);
3423               goto ret;
3424             }
3425           else
3426             {
3427               rtx opalign = GEN_INT (align / BITS_PER_UNIT);
3428               enum machine_mode mode;
3429
3430               for (mode = GET_CLASS_NARROWEST_MODE (MODE_INT);
3431                    mode != VOIDmode;
3432                    mode = GET_MODE_WIDER_MODE (mode))
3433                 {
3434                   enum insn_code code = movstr_optab[(int) mode];
3435                   insn_operand_predicate_fn pred;
3436
3437                   if (code != CODE_FOR_nothing
3438                       && ((GET_CODE (size) == CONST_INT
3439                            && ((unsigned HOST_WIDE_INT) INTVAL (size)
3440                                <= (GET_MODE_MASK (mode) >> 1)))
3441                           || GET_MODE_BITSIZE (mode) >= BITS_PER_WORD)
3442                       && (!(pred = insn_data[(int) code].operand[0].predicate)
3443                           || ((*pred) (target, BLKmode)))
3444                       && (!(pred = insn_data[(int) code].operand[1].predicate)
3445                           || ((*pred) (xinner, BLKmode)))
3446                       && (!(pred = insn_data[(int) code].operand[3].predicate)
3447                           || ((*pred) (opalign, VOIDmode))))
3448                     {
3449                       rtx op2 = convert_to_mode (mode, size, 1);
3450                       rtx last = get_last_insn ();
3451                       rtx pat;
3452
3453                       pred = insn_data[(int) code].operand[2].predicate;
3454                       if (pred != 0 && ! (*pred) (op2, mode))
3455                         op2 = copy_to_mode_reg (mode, op2);
3456
3457                       pat = GEN_FCN ((int) code) (target, xinner,
3458                                                   op2, opalign);
3459                       if (pat)
3460                         {
3461                           emit_insn (pat);
3462                           goto ret;
3463                         }
3464                       else
3465                         delete_insns_since (last);
3466                     }
3467                 }
3468             }
3469
3470           if (!ACCUMULATE_OUTGOING_ARGS)
3471             {
3472               /* If the source is referenced relative to the stack pointer,
3473                  copy it to another register to stabilize it.  We do not need
3474                  to do this if we know that we won't be changing sp.  */
3475
3476               if (reg_mentioned_p (virtual_stack_dynamic_rtx, temp)
3477                   || reg_mentioned_p (virtual_outgoing_args_rtx, temp))
3478                 temp = copy_to_reg (temp);
3479             }
3480
3481           /* Make inhibit_defer_pop nonzero around the library call
3482              to force it to pop the bcopy-arguments right away.  */
3483           NO_DEFER_POP;
3484 #ifdef TARGET_MEM_FUNCTIONS
3485           emit_library_call (memcpy_libfunc, LCT_NORMAL,
3486                              VOIDmode, 3, temp, Pmode, XEXP (xinner, 0), Pmode,
3487                              convert_to_mode (TYPE_MODE (sizetype),
3488                                               size, TREE_UNSIGNED (sizetype)),
3489                              TYPE_MODE (sizetype));
3490 #else
3491           emit_library_call (bcopy_libfunc, LCT_NORMAL,
3492                              VOIDmode, 3, XEXP (xinner, 0), Pmode, temp, Pmode,
3493                              convert_to_mode (TYPE_MODE (integer_type_node),
3494                                               size,
3495                                               TREE_UNSIGNED (integer_type_node)),
3496                              TYPE_MODE (integer_type_node));
3497 #endif
3498           OK_DEFER_POP;
3499         }
3500     }
3501   else if (partial > 0)
3502     {
3503       /* Scalar partly in registers.  */
3504
3505       int size = GET_MODE_SIZE (mode) / UNITS_PER_WORD;
3506       int i;
3507       int not_stack;
3508       /* # words of start of argument
3509          that we must make space for but need not store.  */
3510       int offset = partial % (PARM_BOUNDARY / BITS_PER_WORD);
3511       int args_offset = INTVAL (args_so_far);
3512       int skip;
3513
3514       /* Push padding now if padding above and stack grows down,
3515          or if padding below and stack grows up.
3516          But if space already allocated, this has already been done.  */
3517       if (extra && args_addr == 0
3518           && where_pad != none && where_pad != stack_direction)
3519         anti_adjust_stack (GEN_INT (extra));
3520
3521       /* If we make space by pushing it, we might as well push
3522          the real data.  Otherwise, we can leave OFFSET nonzero
3523          and leave the space uninitialized.  */
3524       if (args_addr == 0)
3525         offset = 0;
3526
3527       /* Now NOT_STACK gets the number of words that we don't need to
3528          allocate on the stack.  */
3529       not_stack = partial - offset;
3530
3531       /* If the partial register-part of the arg counts in its stack size,
3532          skip the part of stack space corresponding to the registers.
3533          Otherwise, start copying to the beginning of the stack space,
3534          by setting SKIP to 0.  */
3535       skip = (reg_parm_stack_space == 0) ? 0 : not_stack;
3536
3537       if (CONSTANT_P (x) && ! LEGITIMATE_CONSTANT_P (x))
3538         x = validize_mem (force_const_mem (mode, x));
3539
3540       /* If X is a hard register in a non-integer mode, copy it into a pseudo;
3541          SUBREGs of such registers are not allowed.  */
3542       if ((GET_CODE (x) == REG && REGNO (x) < FIRST_PSEUDO_REGISTER
3543            && GET_MODE_CLASS (GET_MODE (x)) != MODE_INT))
3544         x = copy_to_reg (x);
3545
3546       /* Loop over all the words allocated on the stack for this arg.  */
3547       /* We can do it by words, because any scalar bigger than a word
3548          has a size a multiple of a word.  */
3549 #ifndef PUSH_ARGS_REVERSED
3550       for (i = not_stack; i < size; i++)
3551 #else
3552       for (i = size - 1; i >= not_stack; i--)
3553 #endif
3554         if (i >= not_stack + offset)
3555           emit_push_insn (operand_subword_force (x, i, mode),
3556                           word_mode, NULL_TREE, NULL_RTX, align, 0, NULL_RTX,
3557                           0, args_addr,
3558                           GEN_INT (args_offset + ((i - not_stack + skip)
3559                                                   * UNITS_PER_WORD)),
3560                           reg_parm_stack_space, alignment_pad);
3561     }
3562   else
3563     {
3564       rtx addr;
3565       rtx target = NULL_RTX;
3566       rtx dest;
3567
3568       /* Push padding now if padding above and stack grows down,
3569          or if padding below and stack grows up.
3570          But if space already allocated, this has already been done.  */
3571       if (extra && args_addr == 0
3572           && where_pad != none && where_pad != stack_direction)
3573         anti_adjust_stack (GEN_INT (extra));
3574
3575 #ifdef PUSH_ROUNDING
3576       if (args_addr == 0 && PUSH_ARGS)
3577         emit_single_push_insn (mode, x, type);
3578       else
3579 #endif
3580         {
3581           if (GET_CODE (args_so_far) == CONST_INT)
3582             addr
3583               = memory_address (mode,
3584                                 plus_constant (args_addr,
3585                                                INTVAL (args_so_far)));
3586           else
3587             addr = memory_address (mode, gen_rtx_PLUS (Pmode, args_addr,
3588                                                        args_so_far));
3589           target = addr;
3590           dest = gen_rtx_MEM (mode, addr);
3591           if (type != 0)
3592             {
3593               set_mem_attributes (dest, type, 1);
3594               /* Function incoming arguments may overlap with sibling call
3595                  outgoing arguments and we cannot allow reordering of reads
3596                  from function arguments with stores to outgoing arguments
3597                  of sibling calls.  */
3598               set_mem_alias_set (dest, 0);
3599             }
3600
3601           emit_move_insn (dest, x);
3602
3603         }
3604
3605       if (current_function_check_memory_usage && ! in_check_memory_usage)
3606         {
3607           in_check_memory_usage = 1;
3608           if (target == 0)
3609             target = get_push_address (GET_MODE_SIZE (mode));
3610
3611           if (GET_CODE (x) == MEM && type && AGGREGATE_TYPE_P (type))
3612             emit_library_call (chkr_copy_bitmap_libfunc,
3613                                LCT_CONST_MAKE_BLOCK, VOIDmode, 3, target,
3614                                Pmode, XEXP (x, 0), Pmode,
3615                                GEN_INT (GET_MODE_SIZE (mode)),
3616                                TYPE_MODE (sizetype));
3617           else
3618             emit_library_call (chkr_set_right_libfunc,
3619                                LCT_CONST_MAKE_BLOCK, VOIDmode, 3, target,
3620                                Pmode, GEN_INT (GET_MODE_SIZE (mode)),
3621                                TYPE_MODE (sizetype),
3622                                GEN_INT (MEMORY_USE_RW),
3623                                TYPE_MODE (integer_type_node));
3624           in_check_memory_usage = 0;
3625         }
3626     }
3627
3628  ret:
3629   /* If part should go in registers, copy that part
3630      into the appropriate registers.  Do this now, at the end,
3631      since mem-to-mem copies above may do function calls.  */
3632   if (partial > 0 && reg != 0)
3633     {
3634       /* Handle calls that pass values in multiple non-contiguous locations.
3635          The Irix 6 ABI has examples of this.  */
3636       if (GET_CODE (reg) == PARALLEL)
3637         emit_group_load (reg, x, -1, align);  /* ??? size? */
3638       else
3639         move_block_to_reg (REGNO (reg), x, partial, mode);
3640     }
3641
3642   if (extra && args_addr == 0 && where_pad == stack_direction)
3643     anti_adjust_stack (GEN_INT (extra));
3644
3645   if (alignment_pad && args_addr == 0)
3646     anti_adjust_stack (alignment_pad);
3647 }
3648 \f
3649 /* Return X if X can be used as a subtarget in a sequence of arithmetic
3650    operations.  */
3651
3652 static rtx
3653 get_subtarget (x)
3654      rtx x;
3655 {
3656   return ((x == 0
3657            /* Only registers can be subtargets.  */
3658            || GET_CODE (x) != REG
3659            /* If the register is readonly, it can't be set more than once.  */
3660            || RTX_UNCHANGING_P (x)
3661            /* Don't use hard regs to avoid extending their life.  */
3662            || REGNO (x) < FIRST_PSEUDO_REGISTER
3663            /* Avoid subtargets inside loops,
3664               since they hide some invariant expressions.  */
3665            || preserve_subexpressions_p ())
3666           ? 0 : x);
3667 }
3668
3669 /* Expand an assignment that stores the value of FROM into TO.
3670    If WANT_VALUE is nonzero, return an rtx for the value of TO.
3671    (This may contain a QUEUED rtx;
3672    if the value is constant, this rtx is a constant.)
3673    Otherwise, the returned value is NULL_RTX.
3674
3675    SUGGEST_REG is no longer actually used.
3676    It used to mean, copy the value through a register
3677    and return that register, if that is possible.
3678    We now use WANT_VALUE to decide whether to do this.  */
3679
3680 rtx
3681 expand_assignment (to, from, want_value, suggest_reg)
3682      tree to, from;
3683      int want_value;
3684      int suggest_reg ATTRIBUTE_UNUSED;
3685 {
3686   register rtx to_rtx = 0;
3687   rtx result;
3688
3689   /* Don't crash if the lhs of the assignment was erroneous.  */
3690
3691   if (TREE_CODE (to) == ERROR_MARK)
3692     {
3693       result = expand_expr (from, NULL_RTX, VOIDmode, 0);
3694       return want_value ? result : NULL_RTX;
3695     }
3696
3697   /* Assignment of a structure component needs special treatment
3698      if the structure component's rtx is not simply a MEM.
3699      Assignment of an array element at a constant index, and assignment of
3700      an array element in an unaligned packed structure field, has the same
3701      problem.  */
3702
3703   if (TREE_CODE (to) == COMPONENT_REF || TREE_CODE (to) == BIT_FIELD_REF
3704       || TREE_CODE (to) == ARRAY_REF || TREE_CODE (to) == ARRAY_RANGE_REF)
3705     {
3706       enum machine_mode mode1;
3707       HOST_WIDE_INT bitsize, bitpos;
3708       tree offset;
3709       int unsignedp;
3710       int volatilep = 0;
3711       tree tem;
3712       unsigned int alignment;
3713
3714       push_temp_slots ();
3715       tem = get_inner_reference (to, &bitsize, &bitpos, &offset, &mode1,
3716                                  &unsignedp, &volatilep, &alignment);
3717
3718       /* If we are going to use store_bit_field and extract_bit_field,
3719          make sure to_rtx will be safe for multiple use.  */
3720
3721       if (mode1 == VOIDmode && want_value)
3722         tem = stabilize_reference (tem);
3723
3724       to_rtx = expand_expr (tem, NULL_RTX, VOIDmode, EXPAND_MEMORY_USE_DONT);
3725       if (offset != 0)
3726         {
3727           rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
3728
3729           if (GET_CODE (to_rtx) != MEM)
3730             abort ();
3731
3732           if (GET_MODE (offset_rtx) != ptr_mode)
3733             {
3734 #ifdef POINTERS_EXTEND_UNSIGNED
3735               offset_rtx = convert_memory_address (ptr_mode, offset_rtx);
3736 #else
3737               offset_rtx = convert_to_mode (ptr_mode, offset_rtx, 0);
3738 #endif
3739             }
3740
3741           /* A constant address in TO_RTX can have VOIDmode, we must not try
3742              to call force_reg for that case.  Avoid that case.  */
3743           if (GET_CODE (to_rtx) == MEM
3744               && GET_MODE (to_rtx) == BLKmode
3745               && GET_MODE (XEXP (to_rtx, 0)) != VOIDmode
3746               && bitsize
3747               && (bitpos % bitsize) == 0
3748               && (bitsize % GET_MODE_ALIGNMENT (mode1)) == 0
3749               && alignment == GET_MODE_ALIGNMENT (mode1))
3750             {
3751               rtx temp
3752                 = adjust_address (to_rtx, mode1, bitpos / BITS_PER_UNIT);
3753
3754               if (GET_CODE (XEXP (temp, 0)) == REG)
3755                 to_rtx = temp;
3756               else
3757                 to_rtx = (replace_equiv_address
3758                           (to_rtx, force_reg (GET_MODE (XEXP (temp, 0)),
3759                                               XEXP (temp, 0))));
3760               bitpos = 0;
3761             }
3762
3763           to_rtx = change_address (to_rtx, VOIDmode,
3764                                    gen_rtx_PLUS (ptr_mode, XEXP (to_rtx, 0),
3765                                                  force_reg (ptr_mode,
3766                                                             offset_rtx)));
3767         }
3768
3769       if (volatilep)
3770         {
3771           if (GET_CODE (to_rtx) == MEM)
3772             {
3773               /* When the offset is zero, to_rtx is the address of the
3774                  structure we are storing into, and hence may be shared.
3775                  We must make a new MEM before setting the volatile bit.  */
3776               if (offset == 0)
3777                 to_rtx = copy_rtx (to_rtx);
3778
3779               MEM_VOLATILE_P (to_rtx) = 1;
3780             }
3781 #if 0  /* This was turned off because, when a field is volatile
3782           in an object which is not volatile, the object may be in a register,
3783           and then we would abort over here.  */
3784           else
3785             abort ();
3786 #endif
3787         }
3788
3789       if (TREE_CODE (to) == COMPONENT_REF
3790           && TREE_READONLY (TREE_OPERAND (to, 1)))
3791         {
3792           if (offset == 0)
3793             to_rtx = copy_rtx (to_rtx);
3794
3795           RTX_UNCHANGING_P (to_rtx) = 1;
3796         }
3797
3798       /* Check the access.  */
3799       if (current_function_check_memory_usage && GET_CODE (to_rtx) == MEM)
3800         {
3801           rtx to_addr;
3802           int size;
3803           int best_mode_size;
3804           enum machine_mode best_mode;
3805
3806           best_mode = get_best_mode (bitsize, bitpos,
3807                                      TYPE_ALIGN (TREE_TYPE (tem)),
3808                                      mode1, volatilep);
3809           if (best_mode == VOIDmode)
3810             best_mode = QImode;
3811
3812           best_mode_size = GET_MODE_BITSIZE (best_mode);
3813           to_addr = plus_constant (XEXP (to_rtx, 0), (bitpos / BITS_PER_UNIT));
3814           size = CEIL ((bitpos % best_mode_size) + bitsize, best_mode_size);
3815           size *= GET_MODE_SIZE (best_mode);
3816
3817           /* Check the access right of the pointer.  */
3818           in_check_memory_usage = 1;
3819           if (size)
3820             emit_library_call (chkr_check_addr_libfunc, LCT_CONST_MAKE_BLOCK,
3821                                VOIDmode, 3, to_addr, Pmode,
3822                                GEN_INT (size), TYPE_MODE (sizetype),
3823                                GEN_INT (MEMORY_USE_WO),
3824                                TYPE_MODE (integer_type_node));
3825           in_check_memory_usage = 0;
3826         }
3827
3828       /* If this is a varying-length object, we must get the address of
3829          the source and do an explicit block move.  */
3830       if (bitsize < 0)
3831         {
3832           unsigned int from_align;
3833           rtx from_rtx = expand_expr_unaligned (from, &from_align);
3834           rtx inner_to_rtx
3835             = adjust_address (to_rtx, BLKmode, bitpos / BITS_PER_UNIT);
3836
3837           emit_block_move (inner_to_rtx, from_rtx, expr_size (from),
3838                            MIN (alignment, from_align));
3839           free_temp_slots ();
3840           pop_temp_slots ();
3841           return to_rtx;
3842         }
3843       else
3844         {
3845           result = store_field (to_rtx, bitsize, bitpos, mode1, from,
3846                                 (want_value
3847                                  /* Spurious cast for HPUX compiler.  */
3848                                  ? ((enum machine_mode)
3849                                     TYPE_MODE (TREE_TYPE (to)))
3850                                  : VOIDmode),
3851                                 unsignedp,
3852                                 alignment,
3853                                 int_size_in_bytes (TREE_TYPE (tem)),
3854                                 get_alias_set (to));
3855
3856           preserve_temp_slots (result);
3857           free_temp_slots ();
3858           pop_temp_slots ();
3859
3860           /* If the value is meaningful, convert RESULT to the proper mode.
3861              Otherwise, return nothing.  */
3862           return (want_value ? convert_modes (TYPE_MODE (TREE_TYPE (to)),
3863                                               TYPE_MODE (TREE_TYPE (from)),
3864                                               result,
3865                                               TREE_UNSIGNED (TREE_TYPE (to)))
3866                   : NULL_RTX);
3867         }
3868     }
3869
3870   /* If the rhs is a function call and its value is not an aggregate,
3871      call the function before we start to compute the lhs.
3872      This is needed for correct code for cases such as
3873      val = setjmp (buf) on machines where reference to val
3874      requires loading up part of an address in a separate insn.
3875
3876      Don't do this if TO is a VAR_DECL or PARM_DECL whose DECL_RTL is REG
3877      since it might be a promoted variable where the zero- or sign- extension
3878      needs to be done.  Handling this in the normal way is safe because no
3879      computation is done before the call.  */
3880   if (TREE_CODE (from) == CALL_EXPR && ! aggregate_value_p (from)
3881       && TREE_CODE (TYPE_SIZE (TREE_TYPE (from))) == INTEGER_CST
3882       && ! ((TREE_CODE (to) == VAR_DECL || TREE_CODE (to) == PARM_DECL)
3883             && GET_CODE (DECL_RTL (to)) == REG))
3884     {
3885       rtx value;
3886
3887       push_temp_slots ();
3888       value = expand_expr (from, NULL_RTX, VOIDmode, 0);
3889       if (to_rtx == 0)
3890         to_rtx = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_MEMORY_USE_WO);
3891
3892       /* Handle calls that return values in multiple non-contiguous locations.
3893          The Irix 6 ABI has examples of this.  */
3894       if (GET_CODE (to_rtx) == PARALLEL)
3895         emit_group_load (to_rtx, value, int_size_in_bytes (TREE_TYPE (from)),
3896                          TYPE_ALIGN (TREE_TYPE (from)));
3897       else if (GET_MODE (to_rtx) == BLKmode)
3898         emit_block_move (to_rtx, value, expr_size (from),
3899                          TYPE_ALIGN (TREE_TYPE (from)));
3900       else
3901         {
3902 #ifdef POINTERS_EXTEND_UNSIGNED
3903           if (TREE_CODE (TREE_TYPE (to)) == REFERENCE_TYPE
3904              || TREE_CODE (TREE_TYPE (to)) == POINTER_TYPE)
3905             value = convert_memory_address (GET_MODE (to_rtx), value);
3906 #endif
3907           emit_move_insn (to_rtx, value);
3908         }
3909       preserve_temp_slots (to_rtx);
3910       free_temp_slots ();
3911       pop_temp_slots ();
3912       return want_value ? to_rtx : NULL_RTX;
3913     }
3914
3915   /* Ordinary treatment.  Expand TO to get a REG or MEM rtx.
3916      Don't re-expand if it was expanded already (in COMPONENT_REF case).  */
3917
3918   if (to_rtx == 0)
3919     {
3920       to_rtx = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_MEMORY_USE_WO);
3921       if (GET_CODE (to_rtx) == MEM)
3922         set_mem_alias_set (to_rtx, get_alias_set (to));
3923     }
3924
3925   /* Don't move directly into a return register.  */
3926   if (TREE_CODE (to) == RESULT_DECL
3927       && (GET_CODE (to_rtx) == REG || GET_CODE (to_rtx) == PARALLEL))
3928     {
3929       rtx temp;
3930
3931       push_temp_slots ();
3932       temp = expand_expr (from, 0, GET_MODE (to_rtx), 0);
3933
3934       if (GET_CODE (to_rtx) == PARALLEL)
3935         emit_group_load (to_rtx, temp, int_size_in_bytes (TREE_TYPE (from)),
3936                          TYPE_ALIGN (TREE_TYPE (from)));
3937       else
3938         emit_move_insn (to_rtx, temp);
3939
3940       preserve_temp_slots (to_rtx);
3941       free_temp_slots ();
3942       pop_temp_slots ();
3943       return want_value ? to_rtx : NULL_RTX;
3944     }
3945
3946   /* In case we are returning the contents of an object which overlaps
3947      the place the value is being stored, use a safe function when copying
3948      a value through a pointer into a structure value return block.  */
3949   if (TREE_CODE (to) == RESULT_DECL && TREE_CODE (from) == INDIRECT_REF
3950       && current_function_returns_struct
3951       && !current_function_returns_pcc_struct)
3952     {
3953       rtx from_rtx, size;
3954
3955       push_temp_slots ();
3956       size = expr_size (from);
3957       from_rtx = expand_expr (from, NULL_RTX, VOIDmode,
3958                               EXPAND_MEMORY_USE_DONT);
3959
3960       /* Copy the rights of the bitmap.  */
3961       if (current_function_check_memory_usage)
3962         emit_library_call (chkr_copy_bitmap_libfunc, LCT_CONST_MAKE_BLOCK,
3963                            VOIDmode, 3, XEXP (to_rtx, 0), Pmode,
3964                            XEXP (from_rtx, 0), Pmode,
3965                            convert_to_mode (TYPE_MODE (sizetype),
3966                                             size, TREE_UNSIGNED (sizetype)),
3967                            TYPE_MODE (sizetype));
3968
3969 #ifdef TARGET_MEM_FUNCTIONS
3970       emit_library_call (memmove_libfunc, LCT_NORMAL,
3971                          VOIDmode, 3, XEXP (to_rtx, 0), Pmode,
3972                          XEXP (from_rtx, 0), Pmode,
3973                          convert_to_mode (TYPE_MODE (sizetype),
3974                                           size, TREE_UNSIGNED (sizetype)),
3975                          TYPE_MODE (sizetype));
3976 #else
3977       emit_library_call (bcopy_libfunc, LCT_NORMAL,
3978                          VOIDmode, 3, XEXP (from_rtx, 0), Pmode,
3979                          XEXP (to_rtx, 0), Pmode,
3980                          convert_to_mode (TYPE_MODE (integer_type_node),
3981                                           size, TREE_UNSIGNED (integer_type_node)),
3982                          TYPE_MODE (integer_type_node));
3983 #endif
3984
3985       preserve_temp_slots (to_rtx);
3986       free_temp_slots ();
3987       pop_temp_slots ();
3988       return want_value ? to_rtx : NULL_RTX;
3989     }
3990
3991   /* Compute FROM and store the value in the rtx we got.  */
3992
3993   push_temp_slots ();
3994   result = store_expr (from, to_rtx, want_value);
3995   preserve_temp_slots (result);
3996   free_temp_slots ();
3997   pop_temp_slots ();
3998   return want_value ? result : NULL_RTX;
3999 }
4000
4001 /* Generate code for computing expression EXP,
4002    and storing the value into TARGET.
4003    TARGET may contain a QUEUED rtx.
4004
4005    If WANT_VALUE is nonzero, return a copy of the value
4006    not in TARGET, so that we can be sure to use the proper
4007    value in a containing expression even if TARGET has something
4008    else stored in it.  If possible, we copy the value through a pseudo
4009    and return that pseudo.  Or, if the value is constant, we try to
4010    return the constant.  In some cases, we return a pseudo
4011    copied *from* TARGET.
4012
4013    If the mode is BLKmode then we may return TARGET itself.
4014    It turns out that in BLKmode it doesn't cause a problem.
4015    because C has no operators that could combine two different
4016    assignments into the same BLKmode object with different values
4017    with no sequence point.  Will other languages need this to
4018    be more thorough?
4019
4020    If WANT_VALUE is 0, we return NULL, to make sure
4021    to catch quickly any cases where the caller uses the value
4022    and fails to set WANT_VALUE.  */
4023
4024 rtx
4025 store_expr (exp, target, want_value)
4026      register tree exp;
4027      register rtx target;
4028      int want_value;
4029 {
4030   register rtx temp;
4031   int dont_return_target = 0;
4032   int dont_store_target = 0;
4033
4034   if (TREE_CODE (exp) == COMPOUND_EXPR)
4035     {
4036       /* Perform first part of compound expression, then assign from second
4037          part.  */
4038       expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode, 0);
4039       emit_queue ();
4040       return store_expr (TREE_OPERAND (exp, 1), target, want_value);
4041     }
4042   else if (TREE_CODE (exp) == COND_EXPR && GET_MODE (target) == BLKmode)
4043     {
4044       /* For conditional expression, get safe form of the target.  Then
4045          test the condition, doing the appropriate assignment on either
4046          side.  This avoids the creation of unnecessary temporaries.
4047          For non-BLKmode, it is more efficient not to do this.  */
4048
4049       rtx lab1 = gen_label_rtx (), lab2 = gen_label_rtx ();
4050
4051       emit_queue ();
4052       target = protect_from_queue (target, 1);
4053
4054       do_pending_stack_adjust ();
4055       NO_DEFER_POP;
4056       jumpifnot (TREE_OPERAND (exp, 0), lab1);
4057       start_cleanup_deferral ();
4058       store_expr (TREE_OPERAND (exp, 1), target, 0);
4059       end_cleanup_deferral ();
4060       emit_queue ();
4061       emit_jump_insn (gen_jump (lab2));
4062       emit_barrier ();
4063       emit_label (lab1);
4064       start_cleanup_deferral ();
4065       store_expr (TREE_OPERAND (exp, 2), target, 0);
4066       end_cleanup_deferral ();
4067       emit_queue ();
4068       emit_label (lab2);
4069       OK_DEFER_POP;
4070
4071       return want_value ? target : NULL_RTX;
4072     }
4073   else if (queued_subexp_p (target))
4074     /* If target contains a postincrement, let's not risk
4075        using it as the place to generate the rhs.  */
4076     {
4077       if (GET_MODE (target) != BLKmode && GET_MODE (target) != VOIDmode)
4078         {
4079           /* Expand EXP into a new pseudo.  */
4080           temp = gen_reg_rtx (GET_MODE (target));
4081           temp = expand_expr (exp, temp, GET_MODE (target), 0);
4082         }
4083       else
4084         temp = expand_expr (exp, NULL_RTX, GET_MODE (target), 0);
4085
4086       /* If target is volatile, ANSI requires accessing the value
4087          *from* the target, if it is accessed.  So make that happen.
4088          In no case return the target itself.  */
4089       if (! MEM_VOLATILE_P (target) && want_value)
4090         dont_return_target = 1;
4091     }
4092   else if (want_value && GET_CODE (target) == MEM && ! MEM_VOLATILE_P (target)
4093            && GET_MODE (target) != BLKmode)
4094     /* If target is in memory and caller wants value in a register instead,
4095        arrange that.  Pass TARGET as target for expand_expr so that,
4096        if EXP is another assignment, WANT_VALUE will be nonzero for it.
4097        We know expand_expr will not use the target in that case.
4098        Don't do this if TARGET is volatile because we are supposed
4099        to write it and then read it.  */
4100     {
4101       temp = expand_expr (exp, target, GET_MODE (target), 0);
4102       if (GET_MODE (temp) != BLKmode && GET_MODE (temp) != VOIDmode)
4103         {
4104           /* If TEMP is already in the desired TARGET, only copy it from
4105              memory and don't store it there again.  */
4106           if (temp == target
4107               || (rtx_equal_p (temp, target)
4108                   && ! side_effects_p (temp) && ! side_effects_p (target)))
4109             dont_store_target = 1;
4110           temp = copy_to_reg (temp);
4111         }
4112       dont_return_target = 1;
4113     }
4114   else if (GET_CODE (target) == SUBREG && SUBREG_PROMOTED_VAR_P (target))
4115     /* If this is an scalar in a register that is stored in a wider mode
4116        than the declared mode, compute the result into its declared mode
4117        and then convert to the wider mode.  Our value is the computed
4118        expression.  */
4119     {
4120       /* If we don't want a value, we can do the conversion inside EXP,
4121          which will often result in some optimizations.  Do the conversion
4122          in two steps: first change the signedness, if needed, then
4123          the extend.  But don't do this if the type of EXP is a subtype
4124          of something else since then the conversion might involve
4125          more than just converting modes.  */
4126       if (! want_value && INTEGRAL_TYPE_P (TREE_TYPE (exp))
4127           && TREE_TYPE (TREE_TYPE (exp)) == 0)
4128         {
4129           if (TREE_UNSIGNED (TREE_TYPE (exp))
4130               != SUBREG_PROMOTED_UNSIGNED_P (target))
4131             exp
4132               = convert
4133                 (signed_or_unsigned_type (SUBREG_PROMOTED_UNSIGNED_P (target),
4134                                           TREE_TYPE (exp)),
4135                  exp);
4136
4137           exp = convert (type_for_mode (GET_MODE (SUBREG_REG (target)),
4138                                         SUBREG_PROMOTED_UNSIGNED_P (target)),
4139                          exp);
4140         }
4141
4142       temp = expand_expr (exp, NULL_RTX, VOIDmode, 0);
4143
4144       /* If TEMP is a volatile MEM and we want a result value, make
4145          the access now so it gets done only once.  Likewise if
4146          it contains TARGET.  */
4147       if (GET_CODE (temp) == MEM && want_value
4148           && (MEM_VOLATILE_P (temp)
4149               || reg_mentioned_p (SUBREG_REG (target), XEXP (temp, 0))))
4150         temp = copy_to_reg (temp);
4151
4152       /* If TEMP is a VOIDmode constant, use convert_modes to make
4153          sure that we properly convert it.  */
4154       if (CONSTANT_P (temp) && GET_MODE (temp) == VOIDmode)
4155         temp = convert_modes (GET_MODE (SUBREG_REG (target)),
4156                               TYPE_MODE (TREE_TYPE (exp)), temp,
4157                               SUBREG_PROMOTED_UNSIGNED_P (target));
4158
4159       convert_move (SUBREG_REG (target), temp,
4160                     SUBREG_PROMOTED_UNSIGNED_P (target));
4161
4162       /* If we promoted a constant, change the mode back down to match
4163          target.  Otherwise, the caller might get confused by a result whose
4164          mode is larger than expected.  */
4165
4166       if (want_value && GET_MODE (temp) != GET_MODE (target)
4167           && GET_MODE (temp) != VOIDmode)
4168         {
4169           temp = gen_lowpart_SUBREG (GET_MODE (target), temp);
4170           SUBREG_PROMOTED_VAR_P (temp) = 1;
4171           SUBREG_PROMOTED_UNSIGNED_P (temp)
4172             = SUBREG_PROMOTED_UNSIGNED_P (target);
4173         }
4174
4175       return want_value ? temp : NULL_RTX;
4176     }
4177   else
4178     {
4179       temp = expand_expr (exp, target, GET_MODE (target), 0);
4180       /* Return TARGET if it's a specified hardware register.
4181          If TARGET is a volatile mem ref, either return TARGET
4182          or return a reg copied *from* TARGET; ANSI requires this.
4183
4184          Otherwise, if TEMP is not TARGET, return TEMP
4185          if it is constant (for efficiency),
4186          or if we really want the correct value.  */
4187       if (!(target && GET_CODE (target) == REG
4188             && REGNO (target) < FIRST_PSEUDO_REGISTER)
4189           && !(GET_CODE (target) == MEM && MEM_VOLATILE_P (target))
4190           && ! rtx_equal_p (temp, target)
4191           && (CONSTANT_P (temp) || want_value))
4192         dont_return_target = 1;
4193     }
4194
4195   /* If TEMP is a VOIDmode constant and the mode of the type of EXP is not
4196      the same as that of TARGET, adjust the constant.  This is needed, for
4197      example, in case it is a CONST_DOUBLE and we want only a word-sized
4198      value.  */
4199   if (CONSTANT_P (temp) && GET_MODE (temp) == VOIDmode
4200       && TREE_CODE (exp) != ERROR_MARK
4201       && GET_MODE (target) != TYPE_MODE (TREE_TYPE (exp)))
4202     temp = convert_modes (GET_MODE (target), TYPE_MODE (TREE_TYPE (exp)),
4203                           temp, TREE_UNSIGNED (TREE_TYPE (exp)));
4204
4205   if (current_function_check_memory_usage
4206       && GET_CODE (target) == MEM
4207       && AGGREGATE_TYPE_P (TREE_TYPE (exp)))
4208     {
4209       in_check_memory_usage = 1;
4210       if (GET_CODE (temp) == MEM)
4211         emit_library_call (chkr_copy_bitmap_libfunc, LCT_CONST_MAKE_BLOCK,
4212                            VOIDmode, 3, XEXP (target, 0), Pmode,
4213                            XEXP (temp, 0), Pmode,
4214                            expr_size (exp), TYPE_MODE (sizetype));
4215       else
4216         emit_library_call (chkr_check_addr_libfunc, LCT_CONST_MAKE_BLOCK,
4217                            VOIDmode, 3, XEXP (target, 0), Pmode,
4218                            expr_size (exp), TYPE_MODE (sizetype),
4219                            GEN_INT (MEMORY_USE_WO),
4220                            TYPE_MODE (integer_type_node));
4221       in_check_memory_usage = 0;
4222     }
4223
4224   /* If value was not generated in the target, store it there.
4225      Convert the value to TARGET's type first if nec.  */
4226   /* If TEMP and TARGET compare equal according to rtx_equal_p, but
4227      one or both of them are volatile memory refs, we have to distinguish
4228      two cases:
4229      - expand_expr has used TARGET.  In this case, we must not generate
4230        another copy.  This can be detected by TARGET being equal according
4231        to == .
4232      - expand_expr has not used TARGET - that means that the source just
4233        happens to have the same RTX form.  Since temp will have been created
4234        by expand_expr, it will compare unequal according to == .
4235        We must generate a copy in this case, to reach the correct number
4236        of volatile memory references.  */
4237
4238   if ((! rtx_equal_p (temp, target)
4239        || (temp != target && (side_effects_p (temp)
4240                               || side_effects_p (target))))
4241       && TREE_CODE (exp) != ERROR_MARK
4242       && ! dont_store_target)
4243     {
4244       target = protect_from_queue (target, 1);
4245       if (GET_MODE (temp) != GET_MODE (target)
4246           && GET_MODE (temp) != VOIDmode)
4247         {
4248           int unsignedp = TREE_UNSIGNED (TREE_TYPE (exp));
4249           if (dont_return_target)
4250             {
4251               /* In this case, we will return TEMP,
4252                  so make sure it has the proper mode.
4253                  But don't forget to store the value into TARGET.  */
4254               temp = convert_to_mode (GET_MODE (target), temp, unsignedp);
4255               emit_move_insn (target, temp);
4256             }
4257           else
4258             convert_move (target, temp, unsignedp);
4259         }
4260
4261       else if (GET_MODE (temp) == BLKmode && TREE_CODE (exp) == STRING_CST)
4262         {
4263           /* Handle copying a string constant into an array.
4264              The string constant may be shorter than the array.
4265              So copy just the string's actual length, and clear the rest.  */
4266           rtx size;
4267           rtx addr;
4268
4269           /* Get the size of the data type of the string,
4270              which is actually the size of the target.  */
4271           size = expr_size (exp);
4272           if (GET_CODE (size) == CONST_INT
4273               && INTVAL (size) < TREE_STRING_LENGTH (exp))
4274             emit_block_move (target, temp, size, TYPE_ALIGN (TREE_TYPE (exp)));
4275           else
4276             {
4277               /* Compute the size of the data to copy from the string.  */
4278               tree copy_size
4279                 = size_binop (MIN_EXPR,
4280                               make_tree (sizetype, size),
4281                               size_int (TREE_STRING_LENGTH (exp)));
4282               unsigned int align = TYPE_ALIGN (TREE_TYPE (exp));
4283               rtx copy_size_rtx = expand_expr (copy_size, NULL_RTX,
4284                                                VOIDmode, 0);
4285               rtx label = 0;
4286
4287               /* Copy that much.  */
4288               emit_block_move (target, temp, copy_size_rtx,
4289                                TYPE_ALIGN (TREE_TYPE (exp)));
4290
4291               /* Figure out how much is left in TARGET that we have to clear.
4292                  Do all calculations in ptr_mode.  */
4293
4294               addr = XEXP (target, 0);
4295               addr = convert_modes (ptr_mode, Pmode, addr, 1);
4296
4297               if (GET_CODE (copy_size_rtx) == CONST_INT)
4298                 {
4299                   addr = plus_constant (addr, TREE_STRING_LENGTH (exp));
4300                   size = plus_constant (size, -TREE_STRING_LENGTH (exp));
4301                   align = MIN (align,
4302                                (unsigned int) (BITS_PER_UNIT
4303                                                * (INTVAL (copy_size_rtx)
4304                                                   & - INTVAL (copy_size_rtx))));
4305                 }
4306               else
4307                 {
4308                   addr = force_reg (ptr_mode, addr);
4309                   addr = expand_binop (ptr_mode, add_optab, addr,
4310                                        copy_size_rtx, NULL_RTX, 0,
4311                                        OPTAB_LIB_WIDEN);
4312
4313                   size = expand_binop (ptr_mode, sub_optab, size,
4314                                        copy_size_rtx, NULL_RTX, 0,
4315                                        OPTAB_LIB_WIDEN);
4316
4317                   align = BITS_PER_UNIT;
4318                   label = gen_label_rtx ();
4319                   emit_cmp_and_jump_insns (size, const0_rtx, LT, NULL_RTX,
4320                                            GET_MODE (size), 0, 0, label);
4321                 }
4322               align = MIN (align, expr_align (copy_size));
4323
4324               if (size != const0_rtx)
4325                 {
4326                   rtx dest = gen_rtx_MEM (BLKmode, addr);
4327
4328                   MEM_COPY_ATTRIBUTES (dest, target);
4329
4330                   /* Be sure we can write on ADDR.  */
4331                   in_check_memory_usage = 1;
4332                   if (current_function_check_memory_usage)
4333                     emit_library_call (chkr_check_addr_libfunc,
4334                                        LCT_CONST_MAKE_BLOCK, VOIDmode, 3,
4335                                        addr, Pmode,
4336                                        size, TYPE_MODE (sizetype),
4337                                        GEN_INT (MEMORY_USE_WO),
4338                                        TYPE_MODE (integer_type_node));
4339                   in_check_memory_usage = 0;
4340                   clear_storage (dest, size, align);
4341                 }
4342
4343               if (label)
4344                 emit_label (label);
4345             }
4346         }
4347       /* Handle calls that return values in multiple non-contiguous locations.
4348          The Irix 6 ABI has examples of this.  */
4349       else if (GET_CODE (target) == PARALLEL)
4350         emit_group_load (target, temp, int_size_in_bytes (TREE_TYPE (exp)),
4351                          TYPE_ALIGN (TREE_TYPE (exp)));
4352       else if (GET_MODE (temp) == BLKmode)
4353         emit_block_move (target, temp, expr_size (exp),
4354                          TYPE_ALIGN (TREE_TYPE (exp)));
4355       else
4356         emit_move_insn (target, temp);
4357     }
4358
4359   /* If we don't want a value, return NULL_RTX.  */
4360   if (! want_value)
4361     return NULL_RTX;
4362
4363   /* If we are supposed to return TEMP, do so as long as it isn't a MEM.
4364      ??? The latter test doesn't seem to make sense.  */
4365   else if (dont_return_target && GET_CODE (temp) != MEM)
4366     return temp;
4367
4368   /* Return TARGET itself if it is a hard register.  */
4369   else if (want_value && GET_MODE (target) != BLKmode
4370            && ! (GET_CODE (target) == REG
4371                  && REGNO (target) < FIRST_PSEUDO_REGISTER))
4372     return copy_to_reg (target);
4373
4374   else
4375     return target;
4376 }
4377 \f
4378 /* Return 1 if EXP just contains zeros.  */
4379
4380 static int
4381 is_zeros_p (exp)
4382      tree exp;
4383 {
4384   tree elt;
4385
4386   switch (TREE_CODE (exp))
4387     {
4388     case CONVERT_EXPR:
4389     case NOP_EXPR:
4390     case NON_LVALUE_EXPR:
4391       return is_zeros_p (TREE_OPERAND (exp, 0));
4392
4393     case INTEGER_CST:
4394       return integer_zerop (exp);
4395
4396     case COMPLEX_CST:
4397       return
4398         is_zeros_p (TREE_REALPART (exp)) && is_zeros_p (TREE_IMAGPART (exp));
4399
4400     case REAL_CST:
4401       return REAL_VALUES_IDENTICAL (TREE_REAL_CST (exp), dconst0);
4402
4403     case CONSTRUCTOR:
4404       if (TREE_TYPE (exp) && TREE_CODE (TREE_TYPE (exp)) == SET_TYPE)
4405         return CONSTRUCTOR_ELTS (exp) == NULL_TREE;
4406       for (elt = CONSTRUCTOR_ELTS (exp); elt; elt = TREE_CHAIN (elt))
4407         if (! is_zeros_p (TREE_VALUE (elt)))
4408           return 0;
4409
4410       return 1;
4411
4412     default:
4413       return 0;
4414     }
4415 }
4416
4417 /* Return 1 if EXP contains mostly (3/4)  zeros.  */
4418
4419 static int
4420 mostly_zeros_p (exp)
4421      tree exp;
4422 {
4423   if (TREE_CODE (exp) == CONSTRUCTOR)
4424     {
4425       int elts = 0, zeros = 0;
4426       tree elt = CONSTRUCTOR_ELTS (exp);
4427       if (TREE_TYPE (exp) && TREE_CODE (TREE_TYPE (exp)) == SET_TYPE)
4428         {
4429           /* If there are no ranges of true bits, it is all zero.  */
4430           return elt == NULL_TREE;
4431         }
4432       for (; elt; elt = TREE_CHAIN (elt))
4433         {
4434           /* We do not handle the case where the index is a RANGE_EXPR,
4435              so the statistic will be somewhat inaccurate.
4436              We do make a more accurate count in store_constructor itself,
4437              so since this function is only used for nested array elements,
4438              this should be close enough.  */
4439           if (mostly_zeros_p (TREE_VALUE (elt)))
4440             zeros++;
4441           elts++;
4442         }
4443
4444       return 4 * zeros >= 3 * elts;
4445     }
4446
4447   return is_zeros_p (exp);
4448 }
4449 \f
4450 /* Helper function for store_constructor.
4451    TARGET, BITSIZE, BITPOS, MODE, EXP are as for store_field.
4452    TYPE is the type of the CONSTRUCTOR, not the element type.
4453    ALIGN and CLEARED are as for store_constructor.
4454    ALIAS_SET is the alias set to use for any stores.
4455
4456    This provides a recursive shortcut back to store_constructor when it isn't
4457    necessary to go through store_field.  This is so that we can pass through
4458    the cleared field to let store_constructor know that we may not have to
4459    clear a substructure if the outer structure has already been cleared.  */
4460
4461 static void
4462 store_constructor_field (target, bitsize, bitpos,
4463                          mode, exp, type, align, cleared, alias_set)
4464      rtx target;
4465      unsigned HOST_WIDE_INT bitsize;
4466      HOST_WIDE_INT bitpos;
4467      enum machine_mode mode;
4468      tree exp, type;
4469      unsigned int align;
4470      int cleared;
4471      int alias_set;
4472 {
4473   if (TREE_CODE (exp) == CONSTRUCTOR
4474       && bitpos % BITS_PER_UNIT == 0
4475       /* If we have a non-zero bitpos for a register target, then we just
4476          let store_field do the bitfield handling.  This is unlikely to
4477          generate unnecessary clear instructions anyways.  */
4478       && (bitpos == 0 || GET_CODE (target) == MEM))
4479     {
4480       if (bitpos != 0)
4481         target
4482           = adjust_address (target,
4483                             GET_MODE (target) == BLKmode
4484                             || 0 != (bitpos
4485                                      % GET_MODE_ALIGNMENT (GET_MODE (target)))
4486                             ? BLKmode : VOIDmode, bitpos / BITS_PER_UNIT);
4487
4488
4489       /* Show the alignment may no longer be what it was and update the alias
4490          set, if required.  */
4491       if (bitpos != 0)
4492         align = MIN (align, (unsigned int) bitpos & - bitpos);
4493       if (GET_CODE (target) == MEM)
4494         set_mem_alias_set (target, alias_set);
4495
4496       store_constructor (exp, target, align, cleared, bitsize / BITS_PER_UNIT);
4497     }
4498   else
4499     store_field (target, bitsize, bitpos, mode, exp, VOIDmode, 0, align,
4500                  int_size_in_bytes (type), alias_set);
4501 }
4502
4503 /* Store the value of constructor EXP into the rtx TARGET.
4504    TARGET is either a REG or a MEM.
4505    ALIGN is the maximum known alignment for TARGET.
4506    CLEARED is true if TARGET is known to have been zero'd.
4507    SIZE is the number of bytes of TARGET we are allowed to modify: this
4508    may not be the same as the size of EXP if we are assigning to a field
4509    which has been packed to exclude padding bits.  */
4510
4511 static void
4512 store_constructor (exp, target, align, cleared, size)
4513      tree exp;
4514      rtx target;
4515      unsigned int align;
4516      int cleared;
4517      HOST_WIDE_INT size;
4518 {
4519   tree type = TREE_TYPE (exp);
4520 #ifdef WORD_REGISTER_OPERATIONS
4521   HOST_WIDE_INT exp_size = int_size_in_bytes (type);
4522 #endif
4523
4524   /* We know our target cannot conflict, since safe_from_p has been called.  */
4525 #if 0
4526   /* Don't try copying piece by piece into a hard register
4527      since that is vulnerable to being clobbered by EXP.
4528      Instead, construct in a pseudo register and then copy it all.  */
4529   if (GET_CODE (target) == REG && REGNO (target) < FIRST_PSEUDO_REGISTER)
4530     {
4531       rtx temp = gen_reg_rtx (GET_MODE (target));
4532       store_constructor (exp, temp, align, cleared, size);
4533       emit_move_insn (target, temp);
4534       return;
4535     }
4536 #endif
4537
4538   if (TREE_CODE (type) == RECORD_TYPE || TREE_CODE (type) == UNION_TYPE
4539       || TREE_CODE (type) == QUAL_UNION_TYPE)
4540     {
4541       register tree elt;
4542
4543       /* Inform later passes that the whole union value is dead.  */
4544       if ((TREE_CODE (type) == UNION_TYPE
4545            || TREE_CODE (type) == QUAL_UNION_TYPE)
4546           && ! cleared)
4547         {
4548           emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
4549
4550           /* If the constructor is empty, clear the union.  */
4551           if (! CONSTRUCTOR_ELTS (exp)  && ! cleared)
4552             clear_storage (target, expr_size (exp), TYPE_ALIGN (type));
4553         }
4554
4555       /* If we are building a static constructor into a register,
4556          set the initial value as zero so we can fold the value into
4557          a constant.  But if more than one register is involved,
4558          this probably loses.  */
4559       else if (GET_CODE (target) == REG && TREE_STATIC (exp)
4560                && GET_MODE_SIZE (GET_MODE (target)) <= UNITS_PER_WORD)
4561         {
4562           if (! cleared)
4563             emit_move_insn (target, CONST0_RTX (GET_MODE (target)));
4564
4565           cleared = 1;
4566         }
4567
4568       /* If the constructor has fewer fields than the structure
4569          or if we are initializing the structure to mostly zeros,
4570          clear the whole structure first.  Don't do this if TARGET is a
4571          register whose mode size isn't equal to SIZE since clear_storage
4572          can't handle this case.  */
4573       else if (size > 0
4574                && ((list_length (CONSTRUCTOR_ELTS (exp))
4575                     != fields_length (type))
4576                    || mostly_zeros_p (exp))
4577                && (GET_CODE (target) != REG
4578                    || (HOST_WIDE_INT) GET_MODE_SIZE (GET_MODE (target)) == size))
4579         {
4580           if (! cleared)
4581             clear_storage (target, GEN_INT (size), align);
4582
4583           cleared = 1;
4584         }
4585       else if (! cleared)
4586         /* Inform later passes that the old value is dead.  */
4587         emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
4588
4589       /* Store each element of the constructor into
4590          the corresponding field of TARGET.  */
4591
4592       for (elt = CONSTRUCTOR_ELTS (exp); elt; elt = TREE_CHAIN (elt))
4593         {
4594           register tree field = TREE_PURPOSE (elt);
4595 #ifdef WORD_REGISTER_OPERATIONS
4596           tree value = TREE_VALUE (elt);
4597 #endif
4598           register enum machine_mode mode;
4599           HOST_WIDE_INT bitsize;
4600           HOST_WIDE_INT bitpos = 0;
4601           int unsignedp;
4602           tree offset;
4603           rtx to_rtx = target;
4604
4605           /* Just ignore missing fields.
4606              We cleared the whole structure, above,
4607              if any fields are missing.  */
4608           if (field == 0)
4609             continue;
4610
4611           if (cleared && is_zeros_p (TREE_VALUE (elt)))
4612             continue;
4613
4614           if (host_integerp (DECL_SIZE (field), 1))
4615             bitsize = tree_low_cst (DECL_SIZE (field), 1);
4616           else
4617             bitsize = -1;
4618
4619           unsignedp = TREE_UNSIGNED (field);
4620           mode = DECL_MODE (field);
4621           if (DECL_BIT_FIELD (field))
4622             mode = VOIDmode;
4623
4624           offset = DECL_FIELD_OFFSET (field);
4625           if (host_integerp (offset, 0)
4626               && host_integerp (bit_position (field), 0))
4627             {
4628               bitpos = int_bit_position (field);
4629               offset = 0;
4630             }
4631           else
4632             bitpos = tree_low_cst (DECL_FIELD_BIT_OFFSET (field), 0);
4633
4634           if (offset)
4635             {
4636               rtx offset_rtx;
4637
4638               if (contains_placeholder_p (offset))
4639                 offset = build (WITH_RECORD_EXPR, sizetype,
4640                                 offset, make_tree (TREE_TYPE (exp), target));
4641
4642               offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
4643               if (GET_CODE (to_rtx) != MEM)
4644                 abort ();
4645
4646               if (GET_MODE (offset_rtx) != ptr_mode)
4647                 {
4648 #ifdef POINTERS_EXTEND_UNSIGNED
4649                   offset_rtx = convert_memory_address (ptr_mode, offset_rtx);
4650 #else
4651                   offset_rtx = convert_to_mode (ptr_mode, offset_rtx, 0);
4652 #endif
4653                 }
4654
4655               to_rtx
4656                 = change_address (to_rtx, VOIDmode,
4657                                   gen_rtx_PLUS (ptr_mode, XEXP (to_rtx, 0),
4658                                                 force_reg (ptr_mode,
4659                                                            offset_rtx)));
4660               align = DECL_OFFSET_ALIGN (field);
4661             }
4662
4663           if (TREE_READONLY (field))
4664             {
4665               if (GET_CODE (to_rtx) == MEM)
4666                 to_rtx = copy_rtx (to_rtx);
4667
4668               RTX_UNCHANGING_P (to_rtx) = 1;
4669             }
4670
4671 #ifdef WORD_REGISTER_OPERATIONS
4672           /* If this initializes a field that is smaller than a word, at the
4673              start of a word, try to widen it to a full word.
4674              This special case allows us to output C++ member function
4675              initializations in a form that the optimizers can understand.  */
4676           if (GET_CODE (target) == REG
4677               && bitsize < BITS_PER_WORD
4678               && bitpos % BITS_PER_WORD == 0
4679               && GET_MODE_CLASS (mode) == MODE_INT
4680               && TREE_CODE (value) == INTEGER_CST
4681               && exp_size >= 0
4682               && bitpos + BITS_PER_WORD <= exp_size * BITS_PER_UNIT)
4683             {
4684               tree type = TREE_TYPE (value);
4685               if (TYPE_PRECISION (type) < BITS_PER_WORD)
4686                 {
4687                   type = type_for_size (BITS_PER_WORD, TREE_UNSIGNED (type));
4688                   value = convert (type, value);
4689                 }
4690               if (BYTES_BIG_ENDIAN)
4691                 value
4692                   = fold (build (LSHIFT_EXPR, type, value,
4693                                  build_int_2 (BITS_PER_WORD - bitsize, 0)));
4694               bitsize = BITS_PER_WORD;
4695               mode = word_mode;
4696             }
4697 #endif
4698           store_constructor_field (to_rtx, bitsize, bitpos, mode,
4699                                    TREE_VALUE (elt), type, align, cleared,
4700                                    (DECL_NONADDRESSABLE_P (field)
4701                                     && GET_CODE (to_rtx) == MEM)
4702                                    ? MEM_ALIAS_SET (to_rtx)
4703                                    : get_alias_set (TREE_TYPE (field)));
4704         }
4705     }
4706   else if (TREE_CODE (type) == ARRAY_TYPE)
4707     {
4708       register tree elt;
4709       register int i;
4710       int need_to_clear;
4711       tree domain = TYPE_DOMAIN (type);
4712       tree elttype = TREE_TYPE (type);
4713       int const_bounds_p = (host_integerp (TYPE_MIN_VALUE (domain), 0)
4714                             && host_integerp (TYPE_MAX_VALUE (domain), 0));
4715       HOST_WIDE_INT minelt = 0;
4716       HOST_WIDE_INT maxelt = 0;
4717
4718       /* If we have constant bounds for the range of the type, get them.  */
4719       if (const_bounds_p)
4720         {
4721           minelt = tree_low_cst (TYPE_MIN_VALUE (domain), 0);
4722           maxelt = tree_low_cst (TYPE_MAX_VALUE (domain), 0);
4723         }
4724
4725       /* If the constructor has fewer elements than the array,
4726          clear the whole array first.  Similarly if this is
4727          static constructor of a non-BLKmode object.  */
4728       if (cleared || (GET_CODE (target) == REG && TREE_STATIC (exp)))
4729         need_to_clear = 1;
4730       else
4731         {
4732           HOST_WIDE_INT count = 0, zero_count = 0;
4733           need_to_clear = ! const_bounds_p;
4734
4735           /* This loop is a more accurate version of the loop in
4736              mostly_zeros_p (it handles RANGE_EXPR in an index).
4737              It is also needed to check for missing elements.  */
4738           for (elt = CONSTRUCTOR_ELTS (exp);
4739                elt != NULL_TREE && ! need_to_clear;
4740                elt = TREE_CHAIN (elt))
4741             {
4742               tree index = TREE_PURPOSE (elt);
4743               HOST_WIDE_INT this_node_count;
4744
4745               if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
4746                 {
4747                   tree lo_index = TREE_OPERAND (index, 0);
4748                   tree hi_index = TREE_OPERAND (index, 1);
4749
4750                   if (! host_integerp (lo_index, 1)
4751                       || ! host_integerp (hi_index, 1))
4752                     {
4753                       need_to_clear = 1;
4754                       break;
4755                     }
4756
4757                   this_node_count = (tree_low_cst (hi_index, 1)
4758                                      - tree_low_cst (lo_index, 1) + 1);
4759                 }
4760               else
4761                 this_node_count = 1;
4762
4763               count += this_node_count;
4764               if (mostly_zeros_p (TREE_VALUE (elt)))
4765                 zero_count += this_node_count;
4766             }
4767
4768           /* Clear the entire array first if there are any missing elements,
4769              or if the incidence of zero elements is >= 75%.  */
4770           if (! need_to_clear
4771               && (count < maxelt - minelt + 1 || 4 * zero_count >= 3 * count))
4772             need_to_clear = 1;
4773         }
4774
4775       if (need_to_clear && size > 0)
4776         {
4777           if (! cleared)
4778             clear_storage (target, GEN_INT (size), align);
4779           cleared = 1;
4780         }
4781       else if (REG_P (target))
4782         /* Inform later passes that the old value is dead.  */
4783         emit_insn (gen_rtx_CLOBBER (VOIDmode, target));
4784
4785       /* Store each element of the constructor into
4786          the corresponding element of TARGET, determined
4787          by counting the elements.  */
4788       for (elt = CONSTRUCTOR_ELTS (exp), i = 0;
4789            elt;
4790            elt = TREE_CHAIN (elt), i++)
4791         {
4792           register enum machine_mode mode;
4793           HOST_WIDE_INT bitsize;
4794           HOST_WIDE_INT bitpos;
4795           int unsignedp;
4796           tree value = TREE_VALUE (elt);
4797           unsigned int align = TYPE_ALIGN (TREE_TYPE (value));
4798           tree index = TREE_PURPOSE (elt);
4799           rtx xtarget = target;
4800
4801           if (cleared && is_zeros_p (value))
4802             continue;
4803
4804           unsignedp = TREE_UNSIGNED (elttype);
4805           mode = TYPE_MODE (elttype);
4806           if (mode == BLKmode)
4807             bitsize = (host_integerp (TYPE_SIZE (elttype), 1)
4808                        ? tree_low_cst (TYPE_SIZE (elttype), 1)
4809                        : -1);
4810           else
4811             bitsize = GET_MODE_BITSIZE (mode);
4812
4813           if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
4814             {
4815               tree lo_index = TREE_OPERAND (index, 0);
4816               tree hi_index = TREE_OPERAND (index, 1);
4817               rtx index_r, pos_rtx, addr, hi_r, loop_top, loop_end;
4818               struct nesting *loop;
4819               HOST_WIDE_INT lo, hi, count;
4820               tree position;
4821
4822               /* If the range is constant and "small", unroll the loop.  */
4823               if (const_bounds_p
4824                   && host_integerp (lo_index, 0)
4825                   && host_integerp (hi_index, 0)
4826                   && (lo = tree_low_cst (lo_index, 0),
4827                       hi = tree_low_cst (hi_index, 0),
4828                       count = hi - lo + 1,
4829                       (GET_CODE (target) != MEM
4830                        || count <= 2
4831                        || (host_integerp (TYPE_SIZE (elttype), 1)
4832                            && (tree_low_cst (TYPE_SIZE (elttype), 1) * count
4833                                <= 40 * 8)))))
4834                 {
4835                   lo -= minelt;  hi -= minelt;
4836                   for (; lo <= hi; lo++)
4837                     {
4838                       bitpos = lo * tree_low_cst (TYPE_SIZE (elttype), 0);
4839                       store_constructor_field
4840                         (target, bitsize, bitpos, mode, value, type, align,
4841                          cleared,
4842                          TYPE_NONALIASED_COMPONENT (type)
4843                          ? MEM_ALIAS_SET (target) : get_alias_set (elttype));
4844                     }
4845                 }
4846               else
4847                 {
4848                   hi_r = expand_expr (hi_index, NULL_RTX, VOIDmode, 0);
4849                   loop_top = gen_label_rtx ();
4850                   loop_end = gen_label_rtx ();
4851
4852                   unsignedp = TREE_UNSIGNED (domain);
4853
4854                   index = build_decl (VAR_DECL, NULL_TREE, domain);
4855
4856                   index_r
4857                     = gen_reg_rtx (promote_mode (domain, DECL_MODE (index),
4858                                                  &unsignedp, 0));
4859                   SET_DECL_RTL (index, index_r);
4860                   if (TREE_CODE (value) == SAVE_EXPR
4861                       && SAVE_EXPR_RTL (value) == 0)
4862                     {
4863                       /* Make sure value gets expanded once before the
4864                          loop.  */
4865                       expand_expr (value, const0_rtx, VOIDmode, 0);
4866                       emit_queue ();
4867                     }
4868                   store_expr (lo_index, index_r, 0);
4869                   loop = expand_start_loop (0);
4870
4871                   /* Assign value to element index.  */
4872                   position
4873                     = convert (ssizetype,
4874                                fold (build (MINUS_EXPR, TREE_TYPE (index),
4875                                             index, TYPE_MIN_VALUE (domain))));
4876                   position = size_binop (MULT_EXPR, position,
4877                                          convert (ssizetype,
4878                                                   TYPE_SIZE_UNIT (elttype)));
4879
4880                   pos_rtx = expand_expr (position, 0, VOIDmode, 0);
4881                   addr = gen_rtx_PLUS (Pmode, XEXP (target, 0), pos_rtx);
4882                   xtarget = change_address (target, mode, addr);
4883                   if (TREE_CODE (value) == CONSTRUCTOR)
4884                     store_constructor (value, xtarget, align, cleared,
4885                                        bitsize / BITS_PER_UNIT);
4886                   else
4887                     store_expr (value, xtarget, 0);
4888
4889                   expand_exit_loop_if_false (loop,
4890                                              build (LT_EXPR, integer_type_node,
4891                                                     index, hi_index));
4892
4893                   expand_increment (build (PREINCREMENT_EXPR,
4894                                            TREE_TYPE (index),
4895                                            index, integer_one_node), 0, 0);
4896                   expand_end_loop ();
4897                   emit_label (loop_end);
4898                 }
4899             }
4900           else if ((index != 0 && ! host_integerp (index, 0))
4901                    || ! host_integerp (TYPE_SIZE (elttype), 1))
4902             {
4903               rtx pos_rtx, addr;
4904               tree position;
4905
4906               if (index == 0)
4907                 index = ssize_int (1);
4908
4909               if (minelt)
4910                 index = convert (ssizetype,
4911                                  fold (build (MINUS_EXPR, index,
4912                                               TYPE_MIN_VALUE (domain))));
4913
4914               position = size_binop (MULT_EXPR, index,
4915                                      convert (ssizetype,
4916                                               TYPE_SIZE_UNIT (elttype)));
4917               pos_rtx = expand_expr (position, 0, VOIDmode, 0);
4918               addr = gen_rtx_PLUS (Pmode, XEXP (target, 0), pos_rtx);
4919               xtarget = change_address (target, mode, addr);
4920               store_expr (value, xtarget, 0);
4921             }
4922           else
4923             {
4924               if (index != 0)
4925                 bitpos = ((tree_low_cst (index, 0) - minelt)
4926                           * tree_low_cst (TYPE_SIZE (elttype), 1));
4927               else
4928                 bitpos = (i * tree_low_cst (TYPE_SIZE (elttype), 1));
4929
4930               store_constructor_field (target, bitsize, bitpos, mode, value,
4931                                        type, align, cleared,
4932                                        TYPE_NONALIASED_COMPONENT (type)
4933                                        && GET_CODE (target) == MEM
4934                                        ? MEM_ALIAS_SET (target) :
4935                                        get_alias_set (elttype));
4936
4937             }
4938         }
4939     }
4940
4941   /* Set constructor assignments.  */
4942   else if (TREE_CODE (type) == SET_TYPE)
4943     {
4944       tree elt = CONSTRUCTOR_ELTS (exp);
4945       unsigned HOST_WIDE_INT nbytes = int_size_in_bytes (type), nbits;
4946       tree domain = TYPE_DOMAIN (type);
4947       tree domain_min, domain_max, bitlength;
4948
4949       /* The default implementation strategy is to extract the constant
4950          parts of the constructor, use that to initialize the target,
4951          and then "or" in whatever non-constant ranges we need in addition.
4952
4953          If a large set is all zero or all ones, it is
4954          probably better to set it using memset (if available) or bzero.
4955          Also, if a large set has just a single range, it may also be
4956          better to first clear all the first clear the set (using
4957          bzero/memset), and set the bits we want.  */
4958
4959       /* Check for all zeros.  */
4960       if (elt == NULL_TREE && size > 0)
4961         {
4962           if (!cleared)
4963             clear_storage (target, GEN_INT (size), TYPE_ALIGN (type));
4964           return;
4965         }
4966
4967       domain_min = convert (sizetype, TYPE_MIN_VALUE (domain));
4968       domain_max = convert (sizetype, TYPE_MAX_VALUE (domain));
4969       bitlength = size_binop (PLUS_EXPR,
4970                               size_diffop (domain_max, domain_min),
4971                               ssize_int (1));
4972
4973       nbits = tree_low_cst (bitlength, 1);
4974
4975       /* For "small" sets, or "medium-sized" (up to 32 bytes) sets that
4976          are "complicated" (more than one range), initialize (the
4977          constant parts) by copying from a constant.  */
4978       if (GET_MODE (target) != BLKmode || nbits <= 2 * BITS_PER_WORD
4979           || (nbytes <= 32 && TREE_CHAIN (elt) != NULL_TREE))
4980         {
4981           unsigned int set_word_size = TYPE_ALIGN (TREE_TYPE (exp));
4982           enum machine_mode mode = mode_for_size (set_word_size, MODE_INT, 1);
4983           char *bit_buffer = (char *) alloca (nbits);
4984           HOST_WIDE_INT word = 0;
4985           unsigned int bit_pos = 0;
4986           unsigned int ibit = 0;
4987           unsigned int offset = 0;  /* In bytes from beginning of set.  */
4988
4989           elt = get_set_constructor_bits (exp, bit_buffer, nbits);
4990           for (;;)
4991             {
4992               if (bit_buffer[ibit])
4993                 {
4994                   if (BYTES_BIG_ENDIAN)
4995                     word |= (1 << (set_word_size - 1 - bit_pos));
4996                   else
4997                     word |= 1 << bit_pos;
4998                 }
4999
5000               bit_pos++;  ibit++;
5001               if (bit_pos >= set_word_size || ibit == nbits)
5002                 {
5003                   if (word != 0 || ! cleared)
5004                     {
5005                       rtx datum = GEN_INT (word);
5006                       rtx to_rtx;
5007
5008                       /* The assumption here is that it is safe to use
5009                          XEXP if the set is multi-word, but not if
5010                          it's single-word.  */
5011                       if (GET_CODE (target) == MEM)
5012                         to_rtx = adjust_address (target, mode, offset);
5013                       else if (offset == 0)
5014                         to_rtx = target;
5015                       else
5016                         abort ();
5017                       emit_move_insn (to_rtx, datum);
5018                     }
5019
5020                   if (ibit == nbits)
5021                     break;
5022                   word = 0;
5023                   bit_pos = 0;
5024                   offset += set_word_size / BITS_PER_UNIT;
5025                 }
5026             }
5027         }
5028       else if (!cleared)
5029         /* Don't bother clearing storage if the set is all ones.  */
5030         if (TREE_CHAIN (elt) != NULL_TREE
5031             || (TREE_PURPOSE (elt) == NULL_TREE
5032                 ? nbits != 1
5033                 : ( ! host_integerp (TREE_VALUE (elt), 0)
5034                    || ! host_integerp (TREE_PURPOSE (elt), 0)
5035                    || (tree_low_cst (TREE_VALUE (elt), 0)
5036                        - tree_low_cst (TREE_PURPOSE (elt), 0) + 1
5037                        != (HOST_WIDE_INT) nbits))))
5038           clear_storage (target, expr_size (exp), TYPE_ALIGN (type));
5039
5040       for (; elt != NULL_TREE; elt = TREE_CHAIN (elt))
5041         {
5042           /* Start of range of element or NULL.  */
5043           tree startbit = TREE_PURPOSE (elt);
5044           /* End of range of element, or element value.  */
5045           tree endbit   = TREE_VALUE (elt);
5046 #ifdef TARGET_MEM_FUNCTIONS
5047           HOST_WIDE_INT startb, endb;
5048 #endif
5049           rtx bitlength_rtx, startbit_rtx, endbit_rtx, targetx;
5050
5051           bitlength_rtx = expand_expr (bitlength,
5052                                        NULL_RTX, MEM, EXPAND_CONST_ADDRESS);
5053
5054           /* Handle non-range tuple element like [ expr ].  */
5055           if (startbit == NULL_TREE)
5056             {
5057               startbit = save_expr (endbit);
5058               endbit = startbit;
5059             }
5060
5061           startbit = convert (sizetype, startbit);
5062           endbit = convert (sizetype, endbit);
5063           if (! integer_zerop (domain_min))
5064             {
5065               startbit = size_binop (MINUS_EXPR, startbit, domain_min);
5066               endbit = size_binop (MINUS_EXPR, endbit, domain_min);
5067             }
5068           startbit_rtx = expand_expr (startbit, NULL_RTX, MEM,
5069                                       EXPAND_CONST_ADDRESS);
5070           endbit_rtx = expand_expr (endbit, NULL_RTX, MEM,
5071                                     EXPAND_CONST_ADDRESS);
5072
5073           if (REG_P (target))
5074             {
5075               targetx
5076                 = assign_temp
5077                   ((build_qualified_type (type_for_mode (GET_MODE (target), 0),
5078                                           TYPE_QUAL_CONST)),
5079                    0, 1, 1);
5080               emit_move_insn (targetx, target);
5081             }
5082
5083           else if (GET_CODE (target) == MEM)
5084             targetx = target;
5085           else
5086             abort ();
5087
5088 #ifdef TARGET_MEM_FUNCTIONS
5089           /* Optimization:  If startbit and endbit are
5090              constants divisible by BITS_PER_UNIT,
5091              call memset instead.  */
5092           if (TREE_CODE (startbit) == INTEGER_CST
5093               && TREE_CODE (endbit) == INTEGER_CST
5094               && (startb = TREE_INT_CST_LOW (startbit)) % BITS_PER_UNIT == 0
5095               && (endb = TREE_INT_CST_LOW (endbit) + 1) % BITS_PER_UNIT == 0)
5096             {
5097               emit_library_call (memset_libfunc, LCT_NORMAL,
5098                                  VOIDmode, 3,
5099                                  plus_constant (XEXP (targetx, 0),
5100                                                 startb / BITS_PER_UNIT),
5101                                  Pmode,
5102                                  constm1_rtx, TYPE_MODE (integer_type_node),
5103                                  GEN_INT ((endb - startb) / BITS_PER_UNIT),
5104                                  TYPE_MODE (sizetype));
5105             }
5106           else
5107 #endif
5108             emit_library_call (gen_rtx_SYMBOL_REF (Pmode, "__setbits"),
5109                                LCT_NORMAL, VOIDmode, 4, XEXP (targetx, 0),
5110                                Pmode, bitlength_rtx, TYPE_MODE (sizetype),
5111                                startbit_rtx, TYPE_MODE (sizetype),
5112                                endbit_rtx, TYPE_MODE (sizetype));
5113
5114           if (REG_P (target))
5115             emit_move_insn (target, targetx);
5116         }
5117     }
5118
5119   else
5120     abort ();
5121 }
5122
5123 /* Store the value of EXP (an expression tree)
5124    into a subfield of TARGET which has mode MODE and occupies
5125    BITSIZE bits, starting BITPOS bits from the start of TARGET.
5126    If MODE is VOIDmode, it means that we are storing into a bit-field.
5127
5128    If VALUE_MODE is VOIDmode, return nothing in particular.
5129    UNSIGNEDP is not used in this case.
5130
5131    Otherwise, return an rtx for the value stored.  This rtx
5132    has mode VALUE_MODE if that is convenient to do.
5133    In this case, UNSIGNEDP must be nonzero if the value is an unsigned type.
5134
5135    ALIGN is the alignment that TARGET is known to have.
5136    TOTAL_SIZE is the size in bytes of the structure, or -1 if varying.
5137
5138    ALIAS_SET is the alias set for the destination.  This value will
5139    (in general) be different from that for TARGET, since TARGET is a
5140    reference to the containing structure.  */
5141
5142 static rtx
5143 store_field (target, bitsize, bitpos, mode, exp, value_mode,
5144              unsignedp, align, total_size, alias_set)
5145      rtx target;
5146      HOST_WIDE_INT bitsize;
5147      HOST_WIDE_INT bitpos;
5148      enum machine_mode mode;
5149      tree exp;
5150      enum machine_mode value_mode;
5151      int unsignedp;
5152      unsigned int align;
5153      HOST_WIDE_INT total_size;
5154      int alias_set;
5155 {
5156   HOST_WIDE_INT width_mask = 0;
5157
5158   if (TREE_CODE (exp) == ERROR_MARK)
5159     return const0_rtx;
5160
5161   /* If we have nothing to store, do nothing unless the expression has
5162      side-effects.  */
5163   if (bitsize == 0)
5164     return expand_expr (exp, const0_rtx, VOIDmode, 0);
5165
5166   if (bitsize < HOST_BITS_PER_WIDE_INT)
5167     width_mask = ((HOST_WIDE_INT) 1 << bitsize) - 1;
5168
5169   /* If we are storing into an unaligned field of an aligned union that is
5170      in a register, we may have the mode of TARGET being an integer mode but
5171      MODE == BLKmode.  In that case, get an aligned object whose size and
5172      alignment are the same as TARGET and store TARGET into it (we can avoid
5173      the store if the field being stored is the entire width of TARGET).  Then
5174      call ourselves recursively to store the field into a BLKmode version of
5175      that object.  Finally, load from the object into TARGET.  This is not
5176      very efficient in general, but should only be slightly more expensive
5177      than the otherwise-required unaligned accesses.  Perhaps this can be
5178      cleaned up later.  */
5179
5180   if (mode == BLKmode
5181       && (GET_CODE (target) == REG || GET_CODE (target) == SUBREG))
5182     {
5183       rtx object
5184         = assign_temp
5185           (build_qualified_type (type_for_mode (GET_MODE (target), 0),
5186                                  TYPE_QUAL_CONST),
5187            0, 1, 1);
5188       rtx blk_object = copy_rtx (object);
5189
5190       PUT_MODE (blk_object, BLKmode);
5191
5192       if (bitsize != (HOST_WIDE_INT) GET_MODE_BITSIZE (GET_MODE (target)))
5193         emit_move_insn (object, target);
5194
5195       store_field (blk_object, bitsize, bitpos, mode, exp, VOIDmode, 0,
5196                    align, total_size, alias_set);
5197
5198       /* Even though we aren't returning target, we need to
5199          give it the updated value.  */
5200       emit_move_insn (target, object);
5201
5202       return blk_object;
5203     }
5204
5205   if (GET_CODE (target) == CONCAT)
5206     {
5207       /* We're storing into a struct containing a single __complex.  */
5208
5209       if (bitpos != 0)
5210         abort ();
5211       return store_expr (exp, target, 0);
5212     }
5213
5214   /* If the structure is in a register or if the component
5215      is a bit field, we cannot use addressing to access it.
5216      Use bit-field techniques or SUBREG to store in it.  */
5217
5218   if (mode == VOIDmode
5219       || (mode != BLKmode && ! direct_store[(int) mode]
5220           && GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
5221           && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT)
5222       || GET_CODE (target) == REG
5223       || GET_CODE (target) == SUBREG
5224       /* If the field isn't aligned enough to store as an ordinary memref,
5225          store it as a bit field.  */
5226       || (mode != BLKmode && SLOW_UNALIGNED_ACCESS (mode, align)
5227           && (align < GET_MODE_ALIGNMENT (mode)
5228               || bitpos % GET_MODE_ALIGNMENT (mode)))
5229       || (mode == BLKmode && SLOW_UNALIGNED_ACCESS (mode, align)
5230           && (TYPE_ALIGN (TREE_TYPE (exp)) > align
5231               || bitpos % TYPE_ALIGN (TREE_TYPE (exp)) != 0))
5232       /* If the RHS and field are a constant size and the size of the
5233          RHS isn't the same size as the bitfield, we must use bitfield
5234          operations.  */
5235       || (bitsize >= 0
5236           && TREE_CODE (TYPE_SIZE (TREE_TYPE (exp))) == INTEGER_CST
5237           && compare_tree_int (TYPE_SIZE (TREE_TYPE (exp)), bitsize) != 0))
5238     {
5239       rtx temp = expand_expr (exp, NULL_RTX, VOIDmode, 0);
5240
5241       /* If BITSIZE is narrower than the size of the type of EXP
5242          we will be narrowing TEMP.  Normally, what's wanted are the
5243          low-order bits.  However, if EXP's type is a record and this is
5244          big-endian machine, we want the upper BITSIZE bits.  */
5245       if (BYTES_BIG_ENDIAN && GET_MODE_CLASS (GET_MODE (temp)) == MODE_INT
5246           && bitsize < GET_MODE_BITSIZE (GET_MODE (temp))
5247           && TREE_CODE (TREE_TYPE (exp)) == RECORD_TYPE)
5248         temp = expand_shift (RSHIFT_EXPR, GET_MODE (temp), temp,
5249                              size_int (GET_MODE_BITSIZE (GET_MODE (temp))
5250                                        - bitsize),
5251                              temp, 1);
5252
5253       /* Unless MODE is VOIDmode or BLKmode, convert TEMP to
5254          MODE.  */
5255       if (mode != VOIDmode && mode != BLKmode
5256           && mode != TYPE_MODE (TREE_TYPE (exp)))
5257         temp = convert_modes (mode, TYPE_MODE (TREE_TYPE (exp)), temp, 1);
5258
5259       /* If the modes of TARGET and TEMP are both BLKmode, both
5260          must be in memory and BITPOS must be aligned on a byte
5261          boundary.  If so, we simply do a block copy.  */
5262       if (GET_MODE (target) == BLKmode && GET_MODE (temp) == BLKmode)
5263         {
5264           unsigned int exp_align = expr_align (exp);
5265
5266           if (GET_CODE (target) != MEM || GET_CODE (temp) != MEM
5267               || bitpos % BITS_PER_UNIT != 0)
5268             abort ();
5269
5270           target = adjust_address (target, VOIDmode, bitpos / BITS_PER_UNIT);
5271
5272           /* Make sure that ALIGN is no stricter than the alignment of EXP.  */
5273           align = MIN (exp_align, align);
5274
5275           /* Find an alignment that is consistent with the bit position.  */
5276           while ((bitpos % align) != 0)
5277             align >>= 1;
5278
5279           emit_block_move (target, temp,
5280                            bitsize == -1 ? expr_size (exp)
5281                            : GEN_INT ((bitsize + BITS_PER_UNIT - 1)
5282                                       / BITS_PER_UNIT),
5283                            align);
5284
5285           return value_mode == VOIDmode ? const0_rtx : target;
5286         }
5287
5288       /* Store the value in the bitfield.  */
5289       store_bit_field (target, bitsize, bitpos, mode, temp, align, total_size);
5290       if (value_mode != VOIDmode)
5291         {
5292           /* The caller wants an rtx for the value.  */
5293           /* If possible, avoid refetching from the bitfield itself.  */
5294           if (width_mask != 0
5295               && ! (GET_CODE (target) == MEM && MEM_VOLATILE_P (target)))
5296             {
5297               tree count;
5298               enum machine_mode tmode;
5299
5300               if (unsignedp)
5301                 return expand_and (temp,
5302                                    GEN_INT
5303                                    (trunc_int_for_mode
5304                                     (width_mask,
5305                                      GET_MODE (temp) == VOIDmode
5306                                      ? value_mode
5307                                      : GET_MODE (temp))), NULL_RTX);
5308               tmode = GET_MODE (temp);
5309               if (tmode == VOIDmode)
5310                 tmode = value_mode;
5311               count = build_int_2 (GET_MODE_BITSIZE (tmode) - bitsize, 0);
5312               temp = expand_shift (LSHIFT_EXPR, tmode, temp, count, 0, 0);
5313               return expand_shift (RSHIFT_EXPR, tmode, temp, count, 0, 0);
5314             }
5315           return extract_bit_field (target, bitsize, bitpos, unsignedp,
5316                                     NULL_RTX, value_mode, 0, align,
5317                                     total_size);
5318         }
5319       return const0_rtx;
5320     }
5321   else
5322     {
5323       rtx addr = XEXP (target, 0);
5324       rtx to_rtx;
5325
5326       /* If a value is wanted, it must be the lhs;
5327          so make the address stable for multiple use.  */
5328
5329       if (value_mode != VOIDmode && GET_CODE (addr) != REG
5330           && ! CONSTANT_ADDRESS_P (addr)
5331           /* A frame-pointer reference is already stable.  */
5332           && ! (GET_CODE (addr) == PLUS
5333                 && GET_CODE (XEXP (addr, 1)) == CONST_INT
5334                 && (XEXP (addr, 0) == virtual_incoming_args_rtx
5335                     || XEXP (addr, 0) == virtual_stack_vars_rtx)))
5336         target = replace_equiv_address (target, copy_to_reg (addr));
5337
5338       /* Now build a reference to just the desired component.  */
5339
5340       to_rtx = copy_rtx (adjust_address (target, mode,
5341                                          bitpos / BITS_PER_UNIT));
5342
5343       MEM_SET_IN_STRUCT_P (to_rtx, 1);
5344       /* If the address of the structure varies, then it might be on
5345          the stack.  And, stack slots may be shared across scopes.
5346          So, two different structures, of different types, can end up
5347          at the same location.  We will give the structures alias set
5348          zero; here we must be careful not to give non-zero alias sets
5349          to their fields.  */
5350       set_mem_alias_set (to_rtx,
5351                          rtx_varies_p (addr, /*for_alias=*/0)
5352                          ? 0 : alias_set);
5353
5354       return store_expr (exp, to_rtx, value_mode != VOIDmode);
5355     }
5356 }
5357 \f
5358 /* Given an expression EXP that may be a COMPONENT_REF, a BIT_FIELD_REF,
5359    an ARRAY_REF, or an ARRAY_RANGE_REF, look for nested operations of these
5360    codes and find the ultimate containing object, which we return.
5361
5362    We set *PBITSIZE to the size in bits that we want, *PBITPOS to the
5363    bit position, and *PUNSIGNEDP to the signedness of the field.
5364    If the position of the field is variable, we store a tree
5365    giving the variable offset (in units) in *POFFSET.
5366    This offset is in addition to the bit position.
5367    If the position is not variable, we store 0 in *POFFSET.
5368    We set *PALIGNMENT to the alignment of the address that will be
5369    computed.  This is the alignment of the thing we return if *POFFSET
5370    is zero, but can be more less strictly aligned if *POFFSET is nonzero.
5371
5372    If any of the extraction expressions is volatile,
5373    we store 1 in *PVOLATILEP.  Otherwise we don't change that.
5374
5375    If the field is a bit-field, *PMODE is set to VOIDmode.  Otherwise, it
5376    is a mode that can be used to access the field.  In that case, *PBITSIZE
5377    is redundant.
5378
5379    If the field describes a variable-sized object, *PMODE is set to
5380    VOIDmode and *PBITSIZE is set to -1.  An access cannot be made in
5381    this case, but the address of the object can be found.   */
5382
5383 tree
5384 get_inner_reference (exp, pbitsize, pbitpos, poffset, pmode,
5385                      punsignedp, pvolatilep, palignment)
5386      tree exp;
5387      HOST_WIDE_INT *pbitsize;
5388      HOST_WIDE_INT *pbitpos;
5389      tree *poffset;
5390      enum machine_mode *pmode;
5391      int *punsignedp;
5392      int *pvolatilep;
5393      unsigned int *palignment;
5394 {
5395   tree size_tree = 0;
5396   enum machine_mode mode = VOIDmode;
5397   tree offset = size_zero_node;
5398   tree bit_offset = bitsize_zero_node;
5399   unsigned int alignment = BIGGEST_ALIGNMENT;
5400   tree tem;
5401
5402   /* First get the mode, signedness, and size.  We do this from just the
5403      outermost expression.  */
5404   if (TREE_CODE (exp) == COMPONENT_REF)
5405     {
5406       size_tree = DECL_SIZE (TREE_OPERAND (exp, 1));
5407       if (! DECL_BIT_FIELD (TREE_OPERAND (exp, 1)))
5408         mode = DECL_MODE (TREE_OPERAND (exp, 1));
5409
5410       *punsignedp = TREE_UNSIGNED (TREE_OPERAND (exp, 1));
5411     }
5412   else if (TREE_CODE (exp) == BIT_FIELD_REF)
5413     {
5414       size_tree = TREE_OPERAND (exp, 1);
5415       *punsignedp = TREE_UNSIGNED (exp);
5416     }
5417   else
5418     {
5419       mode = TYPE_MODE (TREE_TYPE (exp));
5420       *punsignedp = TREE_UNSIGNED (TREE_TYPE (exp));
5421
5422       if (mode == BLKmode)
5423         size_tree = TYPE_SIZE (TREE_TYPE (exp));
5424       else
5425         *pbitsize = GET_MODE_BITSIZE (mode);
5426     }
5427
5428   if (size_tree != 0)
5429     {
5430       if (! host_integerp (size_tree, 1))
5431         mode = BLKmode, *pbitsize = -1;
5432       else
5433         *pbitsize = tree_low_cst (size_tree, 1);
5434     }
5435
5436   /* Compute cumulative bit-offset for nested component-refs and array-refs,
5437      and find the ultimate containing object.  */
5438   while (1)
5439     {
5440       if (TREE_CODE (exp) == BIT_FIELD_REF)
5441         bit_offset = size_binop (PLUS_EXPR, bit_offset, TREE_OPERAND (exp, 2));
5442       else if (TREE_CODE (exp) == COMPONENT_REF)
5443         {
5444           tree field = TREE_OPERAND (exp, 1);
5445           tree this_offset = DECL_FIELD_OFFSET (field);
5446
5447           /* If this field hasn't been filled in yet, don't go
5448              past it.  This should only happen when folding expressions
5449              made during type construction.  */
5450           if (this_offset == 0)
5451             break;
5452           else if (! TREE_CONSTANT (this_offset)
5453                    && contains_placeholder_p (this_offset))
5454             this_offset = build (WITH_RECORD_EXPR, sizetype, this_offset, exp);
5455
5456           offset = size_binop (PLUS_EXPR, offset, this_offset);
5457           bit_offset = size_binop (PLUS_EXPR, bit_offset,
5458                                    DECL_FIELD_BIT_OFFSET (field));
5459
5460           if (! host_integerp (offset, 0))
5461             alignment = MIN (alignment, DECL_OFFSET_ALIGN (field));
5462         }
5463
5464       else if (TREE_CODE (exp) == ARRAY_REF
5465                || TREE_CODE (exp) == ARRAY_RANGE_REF)
5466         {
5467           tree index = TREE_OPERAND (exp, 1);
5468           tree array = TREE_OPERAND (exp, 0);
5469           tree domain = TYPE_DOMAIN (TREE_TYPE (array));
5470           tree low_bound = (domain ? TYPE_MIN_VALUE (domain) : 0);
5471           tree unit_size = TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (array)));
5472
5473           /* We assume all arrays have sizes that are a multiple of a byte.
5474              First subtract the lower bound, if any, in the type of the
5475              index, then convert to sizetype and multiply by the size of the
5476              array element.  */
5477           if (low_bound != 0 && ! integer_zerop (low_bound))
5478             index = fold (build (MINUS_EXPR, TREE_TYPE (index),
5479                                  index, low_bound));
5480
5481           /* If the index has a self-referential type, pass it to a
5482              WITH_RECORD_EXPR; if the component size is, pass our
5483              component to one.  */
5484           if (! TREE_CONSTANT (index)
5485               && contains_placeholder_p (index))
5486             index = build (WITH_RECORD_EXPR, TREE_TYPE (index), index, exp);
5487           if (! TREE_CONSTANT (unit_size)
5488               && contains_placeholder_p (unit_size))
5489             unit_size = build (WITH_RECORD_EXPR, sizetype, unit_size, array);
5490
5491           offset = size_binop (PLUS_EXPR, offset,
5492                                size_binop (MULT_EXPR,
5493                                            convert (sizetype, index),
5494                                            unit_size));
5495         }
5496
5497       else if (TREE_CODE (exp) != NON_LVALUE_EXPR
5498                && ! ((TREE_CODE (exp) == NOP_EXPR
5499                       || TREE_CODE (exp) == CONVERT_EXPR)
5500                      && (TYPE_MODE (TREE_TYPE (exp))
5501                          == TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))))
5502         break;
5503
5504       /* If any reference in the chain is volatile, the effect is volatile.  */
5505       if (TREE_THIS_VOLATILE (exp))
5506         *pvolatilep = 1;
5507
5508       /* If the offset is non-constant already, then we can't assume any
5509          alignment more than the alignment here.  */
5510       if (! TREE_CONSTANT (offset))
5511         alignment = MIN (alignment, TYPE_ALIGN (TREE_TYPE (exp)));
5512
5513       exp = TREE_OPERAND (exp, 0);
5514     }
5515
5516   if (DECL_P (exp))
5517     alignment = MIN (alignment, DECL_ALIGN (exp));
5518   else if (TREE_TYPE (exp) != 0)
5519     alignment = MIN (alignment, TYPE_ALIGN (TREE_TYPE (exp)));
5520
5521   /* If OFFSET is constant, see if we can return the whole thing as a
5522      constant bit position.  Otherwise, split it up.  */
5523   if (host_integerp (offset, 0)
5524       && 0 != (tem = size_binop (MULT_EXPR, convert (bitsizetype, offset),
5525                                  bitsize_unit_node))
5526       && 0 != (tem = size_binop (PLUS_EXPR, tem, bit_offset))
5527       && host_integerp (tem, 0))
5528     *pbitpos = tree_low_cst (tem, 0), *poffset = 0;
5529   else
5530     *pbitpos = tree_low_cst (bit_offset, 0), *poffset = offset;
5531
5532   *pmode = mode;
5533   *palignment = alignment;
5534   return exp;
5535 }
5536
5537 /* Subroutine of expand_exp: compute memory_usage from modifier.  */
5538
5539 static enum memory_use_mode
5540 get_memory_usage_from_modifier (modifier)
5541      enum expand_modifier modifier;
5542 {
5543   switch (modifier)
5544     {
5545     case EXPAND_NORMAL:
5546     case EXPAND_SUM:
5547       return MEMORY_USE_RO;
5548       break;
5549     case EXPAND_MEMORY_USE_WO:
5550       return MEMORY_USE_WO;
5551       break;
5552     case EXPAND_MEMORY_USE_RW:
5553       return MEMORY_USE_RW;
5554       break;
5555     case EXPAND_MEMORY_USE_DONT:
5556       /* EXPAND_CONST_ADDRESS and EXPAND_INITIALIZER are converted into
5557          MEMORY_USE_DONT, because they are modifiers to a call of
5558          expand_expr in the ADDR_EXPR case of expand_expr.  */
5559     case EXPAND_CONST_ADDRESS:
5560     case EXPAND_INITIALIZER:
5561       return MEMORY_USE_DONT;
5562     case EXPAND_MEMORY_USE_BAD:
5563     default:
5564       abort ();
5565     }
5566 }
5567 \f
5568 /* Given an rtx VALUE that may contain additions and multiplications, return
5569    an equivalent value that just refers to a register, memory, or constant.
5570    This is done by generating instructions to perform the arithmetic and
5571    returning a pseudo-register containing the value.
5572
5573    The returned value may be a REG, SUBREG, MEM or constant.  */
5574
5575 rtx
5576 force_operand (value, target)
5577      rtx value, target;
5578 {
5579   register optab binoptab = 0;
5580   /* Use a temporary to force order of execution of calls to
5581      `force_operand'.  */
5582   rtx tmp;
5583   register rtx op2;
5584   /* Use subtarget as the target for operand 0 of a binary operation.  */
5585   register rtx subtarget = get_subtarget (target);
5586
5587   /* Check for a PIC address load.  */
5588   if (flag_pic
5589       && (GET_CODE (value) == PLUS || GET_CODE (value) == MINUS)
5590       && XEXP (value, 0) == pic_offset_table_rtx
5591       && (GET_CODE (XEXP (value, 1)) == SYMBOL_REF
5592           || GET_CODE (XEXP (value, 1)) == LABEL_REF
5593           || GET_CODE (XEXP (value, 1)) == CONST))
5594     {
5595       if (!subtarget)
5596         subtarget = gen_reg_rtx (GET_MODE (value));
5597       emit_move_insn (subtarget, value);
5598       return subtarget;
5599     }
5600
5601   if (GET_CODE (value) == PLUS)
5602     binoptab = add_optab;
5603   else if (GET_CODE (value) == MINUS)
5604     binoptab = sub_optab;
5605   else if (GET_CODE (value) == MULT)
5606     {
5607       op2 = XEXP (value, 1);
5608       if (!CONSTANT_P (op2)
5609           && !(GET_CODE (op2) == REG && op2 != subtarget))
5610         subtarget = 0;
5611       tmp = force_operand (XEXP (value, 0), subtarget);
5612       return expand_mult (GET_MODE (value), tmp,
5613                           force_operand (op2, NULL_RTX),
5614                           target, 1);
5615     }
5616
5617   if (binoptab)
5618     {
5619       op2 = XEXP (value, 1);
5620       if (!CONSTANT_P (op2)
5621           && !(GET_CODE (op2) == REG && op2 != subtarget))
5622         subtarget = 0;
5623       if (binoptab == sub_optab && GET_CODE (op2) == CONST_INT)
5624         {
5625           binoptab = add_optab;
5626           op2 = negate_rtx (GET_MODE (value), op2);
5627         }
5628
5629       /* Check for an addition with OP2 a constant integer and our first
5630          operand a PLUS of a virtual register and something else.  In that
5631          case, we want to emit the sum of the virtual register and the
5632          constant first and then add the other value.  This allows virtual
5633          register instantiation to simply modify the constant rather than
5634          creating another one around this addition.  */
5635       if (binoptab == add_optab && GET_CODE (op2) == CONST_INT
5636           && GET_CODE (XEXP (value, 0)) == PLUS
5637           && GET_CODE (XEXP (XEXP (value, 0), 0)) == REG
5638           && REGNO (XEXP (XEXP (value, 0), 0)) >= FIRST_VIRTUAL_REGISTER
5639           && REGNO (XEXP (XEXP (value, 0), 0)) <= LAST_VIRTUAL_REGISTER)
5640         {
5641           rtx temp = expand_binop (GET_MODE (value), binoptab,
5642                                    XEXP (XEXP (value, 0), 0), op2,
5643                                    subtarget, 0, OPTAB_LIB_WIDEN);
5644           return expand_binop (GET_MODE (value), binoptab, temp,
5645                                force_operand (XEXP (XEXP (value, 0), 1), 0),
5646                                target, 0, OPTAB_LIB_WIDEN);
5647         }
5648
5649       tmp = force_operand (XEXP (value, 0), subtarget);
5650       return expand_binop (GET_MODE (value), binoptab, tmp,
5651                            force_operand (op2, NULL_RTX),
5652                            target, 0, OPTAB_LIB_WIDEN);
5653       /* We give UNSIGNEDP = 0 to expand_binop
5654          because the only operations we are expanding here are signed ones.  */
5655     }
5656   return value;
5657 }
5658 \f
5659 /* Subroutine of expand_expr: return nonzero iff there is no way that
5660    EXP can reference X, which is being modified.  TOP_P is nonzero if this
5661    call is going to be used to determine whether we need a temporary
5662    for EXP, as opposed to a recursive call to this function.
5663
5664    It is always safe for this routine to return zero since it merely
5665    searches for optimization opportunities.  */
5666
5667 int
5668 safe_from_p (x, exp, top_p)
5669      rtx x;
5670      tree exp;
5671      int top_p;
5672 {
5673   rtx exp_rtl = 0;
5674   int i, nops;
5675   static tree save_expr_list;
5676
5677   if (x == 0
5678       /* If EXP has varying size, we MUST use a target since we currently
5679          have no way of allocating temporaries of variable size
5680          (except for arrays that have TYPE_ARRAY_MAX_SIZE set).
5681          So we assume here that something at a higher level has prevented a
5682          clash.  This is somewhat bogus, but the best we can do.  Only
5683          do this when X is BLKmode and when we are at the top level.  */
5684       || (top_p && TREE_TYPE (exp) != 0 && COMPLETE_TYPE_P (TREE_TYPE (exp))
5685           && TREE_CODE (TYPE_SIZE (TREE_TYPE (exp))) != INTEGER_CST
5686           && (TREE_CODE (TREE_TYPE (exp)) != ARRAY_TYPE
5687               || TYPE_ARRAY_MAX_SIZE (TREE_TYPE (exp)) == NULL_TREE
5688               || TREE_CODE (TYPE_ARRAY_MAX_SIZE (TREE_TYPE (exp)))
5689               != INTEGER_CST)
5690           && GET_MODE (x) == BLKmode)
5691       /* If X is in the outgoing argument area, it is always safe.  */
5692       || (GET_CODE (x) == MEM
5693           && (XEXP (x, 0) == virtual_outgoing_args_rtx
5694               || (GET_CODE (XEXP (x, 0)) == PLUS
5695                   && XEXP (XEXP (x, 0), 0) == virtual_outgoing_args_rtx))))
5696     return 1;
5697
5698   /* If this is a subreg of a hard register, declare it unsafe, otherwise,
5699      find the underlying pseudo.  */
5700   if (GET_CODE (x) == SUBREG)
5701     {
5702       x = SUBREG_REG (x);
5703       if (GET_CODE (x) == REG && REGNO (x) < FIRST_PSEUDO_REGISTER)
5704         return 0;
5705     }
5706
5707   /* A SAVE_EXPR might appear many times in the expression passed to the
5708      top-level safe_from_p call, and if it has a complex subexpression,
5709      examining it multiple times could result in a combinatorial explosion.
5710      E.g. on an Alpha running at least 200MHz, a Fortran test case compiled
5711      with optimization took about 28 minutes to compile -- even though it was
5712      only a few lines long.  So we mark each SAVE_EXPR we see with TREE_PRIVATE
5713      and turn that off when we are done.  We keep a list of the SAVE_EXPRs
5714      we have processed.  Note that the only test of top_p was above.  */
5715
5716   if (top_p)
5717     {
5718       int rtn;
5719       tree t;
5720
5721       save_expr_list = 0;
5722
5723       rtn = safe_from_p (x, exp, 0);
5724
5725       for (t = save_expr_list; t != 0; t = TREE_CHAIN (t))
5726         TREE_PRIVATE (TREE_PURPOSE (t)) = 0;
5727
5728       return rtn;
5729     }
5730
5731   /* Now look at our tree code and possibly recurse.  */
5732   switch (TREE_CODE_CLASS (TREE_CODE (exp)))
5733     {
5734     case 'd':
5735       exp_rtl = DECL_RTL_SET_P (exp) ? DECL_RTL (exp) : NULL_RTX;
5736       break;
5737
5738     case 'c':
5739       return 1;
5740
5741     case 'x':
5742       if (TREE_CODE (exp) == TREE_LIST)
5743         return ((TREE_VALUE (exp) == 0
5744                  || safe_from_p (x, TREE_VALUE (exp), 0))
5745                 && (TREE_CHAIN (exp) == 0
5746                     || safe_from_p (x, TREE_CHAIN (exp), 0)));
5747       else if (TREE_CODE (exp) == ERROR_MARK)
5748         return 1;       /* An already-visited SAVE_EXPR? */
5749       else
5750         return 0;
5751
5752     case '1':
5753       return safe_from_p (x, TREE_OPERAND (exp, 0), 0);
5754
5755     case '2':
5756     case '<':
5757       return (safe_from_p (x, TREE_OPERAND (exp, 0), 0)
5758               && safe_from_p (x, TREE_OPERAND (exp, 1), 0));
5759
5760     case 'e':
5761     case 'r':
5762       /* Now do code-specific tests.  EXP_RTL is set to any rtx we find in
5763          the expression.  If it is set, we conflict iff we are that rtx or
5764          both are in memory.  Otherwise, we check all operands of the
5765          expression recursively.  */
5766
5767       switch (TREE_CODE (exp))
5768         {
5769         case ADDR_EXPR:
5770           return (staticp (TREE_OPERAND (exp, 0))
5771                   || TREE_STATIC (exp)
5772                   || safe_from_p (x, TREE_OPERAND (exp, 0), 0));
5773
5774         case INDIRECT_REF:
5775           if (GET_CODE (x) == MEM
5776               && alias_sets_conflict_p (MEM_ALIAS_SET (x),
5777                                         get_alias_set (exp)))
5778             return 0;
5779           break;
5780
5781         case CALL_EXPR:
5782           /* Assume that the call will clobber all hard registers and
5783              all of memory.  */
5784           if ((GET_CODE (x) == REG && REGNO (x) < FIRST_PSEUDO_REGISTER)
5785               || GET_CODE (x) == MEM)
5786             return 0;
5787           break;
5788
5789         case RTL_EXPR:
5790           /* If a sequence exists, we would have to scan every instruction
5791              in the sequence to see if it was safe.  This is probably not
5792              worthwhile.  */
5793           if (RTL_EXPR_SEQUENCE (exp))
5794             return 0;
5795
5796           exp_rtl = RTL_EXPR_RTL (exp);
5797           break;
5798
5799         case WITH_CLEANUP_EXPR:
5800           exp_rtl = WITH_CLEANUP_EXPR_RTL (exp);
5801           break;
5802
5803         case CLEANUP_POINT_EXPR:
5804           return safe_from_p (x, TREE_OPERAND (exp, 0), 0);
5805
5806         case SAVE_EXPR:
5807           exp_rtl = SAVE_EXPR_RTL (exp);
5808           if (exp_rtl)
5809             break;
5810
5811           /* If we've already scanned this, don't do it again.  Otherwise,
5812              show we've scanned it and record for clearing the flag if we're
5813              going on.  */
5814           if (TREE_PRIVATE (exp))
5815             return 1;
5816
5817           TREE_PRIVATE (exp) = 1;
5818           if (! safe_from_p (x, TREE_OPERAND (exp, 0), 0))
5819             {
5820               TREE_PRIVATE (exp) = 0;
5821               return 0;
5822             }
5823
5824           save_expr_list = tree_cons (exp, NULL_TREE, save_expr_list);
5825           return 1;
5826
5827         case BIND_EXPR:
5828           /* The only operand we look at is operand 1.  The rest aren't
5829              part of the expression.  */
5830           return safe_from_p (x, TREE_OPERAND (exp, 1), 0);
5831
5832         case METHOD_CALL_EXPR:
5833           /* This takes a rtx argument, but shouldn't appear here.  */
5834           abort ();
5835
5836         default:
5837           break;
5838         }
5839
5840       /* If we have an rtx, we do not need to scan our operands.  */
5841       if (exp_rtl)
5842         break;
5843
5844       nops = first_rtl_op (TREE_CODE (exp));
5845       for (i = 0; i < nops; i++)
5846         if (TREE_OPERAND (exp, i) != 0
5847             && ! safe_from_p (x, TREE_OPERAND (exp, i), 0))
5848           return 0;
5849
5850       /* If this is a language-specific tree code, it may require
5851          special handling.  */
5852       if ((unsigned int) TREE_CODE (exp)
5853           >= (unsigned int) LAST_AND_UNUSED_TREE_CODE
5854           && lang_safe_from_p
5855           && !(*lang_safe_from_p) (x, exp))
5856         return 0;
5857     }
5858
5859   /* If we have an rtl, find any enclosed object.  Then see if we conflict
5860      with it.  */
5861   if (exp_rtl)
5862     {
5863       if (GET_CODE (exp_rtl) == SUBREG)
5864         {
5865           exp_rtl = SUBREG_REG (exp_rtl);
5866           if (GET_CODE (exp_rtl) == REG
5867               && REGNO (exp_rtl) < FIRST_PSEUDO_REGISTER)
5868             return 0;
5869         }
5870
5871       /* If the rtl is X, then it is not safe.  Otherwise, it is unless both
5872          are memory and they conflict.  */
5873       return ! (rtx_equal_p (x, exp_rtl)
5874                 || (GET_CODE (x) == MEM && GET_CODE (exp_rtl) == MEM
5875                     && true_dependence (exp_rtl, GET_MODE (x), x,
5876                                         rtx_addr_varies_p)));
5877     }
5878
5879   /* If we reach here, it is safe.  */
5880   return 1;
5881 }
5882
5883 /* Subroutine of expand_expr: return rtx if EXP is a
5884    variable or parameter; else return 0.  */
5885
5886 static rtx
5887 var_rtx (exp)
5888      tree exp;
5889 {
5890   STRIP_NOPS (exp);
5891   switch (TREE_CODE (exp))
5892     {
5893     case PARM_DECL:
5894     case VAR_DECL:
5895       return DECL_RTL (exp);
5896     default:
5897       return 0;
5898     }
5899 }
5900
5901 #ifdef MAX_INTEGER_COMPUTATION_MODE
5902
5903 void
5904 check_max_integer_computation_mode (exp)
5905      tree exp;
5906 {
5907   enum tree_code code;
5908   enum machine_mode mode;
5909
5910   /* Strip any NOPs that don't change the mode.  */
5911   STRIP_NOPS (exp);
5912   code = TREE_CODE (exp);
5913
5914   /* We must allow conversions of constants to MAX_INTEGER_COMPUTATION_MODE.  */
5915   if (code == NOP_EXPR
5916       && TREE_CODE (TREE_OPERAND (exp, 0)) == INTEGER_CST)
5917     return;
5918
5919   /* First check the type of the overall operation.   We need only look at
5920      unary, binary and relational operations.  */
5921   if (TREE_CODE_CLASS (code) == '1'
5922       || TREE_CODE_CLASS (code) == '2'
5923       || TREE_CODE_CLASS (code) == '<')
5924     {
5925       mode = TYPE_MODE (TREE_TYPE (exp));
5926       if (GET_MODE_CLASS (mode) == MODE_INT
5927           && mode > MAX_INTEGER_COMPUTATION_MODE)
5928         internal_error ("unsupported wide integer operation");
5929     }
5930
5931   /* Check operand of a unary op.  */
5932   if (TREE_CODE_CLASS (code) == '1')
5933     {
5934       mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
5935       if (GET_MODE_CLASS (mode) == MODE_INT
5936           && mode > MAX_INTEGER_COMPUTATION_MODE)
5937         internal_error ("unsupported wide integer operation");
5938     }
5939
5940   /* Check operands of a binary/comparison op.  */
5941   if (TREE_CODE_CLASS (code) == '2' || TREE_CODE_CLASS (code) == '<')
5942     {
5943       mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
5944       if (GET_MODE_CLASS (mode) == MODE_INT
5945           && mode > MAX_INTEGER_COMPUTATION_MODE)
5946         internal_error ("unsupported wide integer operation");
5947
5948       mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 1)));
5949       if (GET_MODE_CLASS (mode) == MODE_INT
5950           && mode > MAX_INTEGER_COMPUTATION_MODE)
5951         internal_error ("unsupported wide integer operation");
5952     }
5953 }
5954 #endif
5955 \f
5956 /* expand_expr: generate code for computing expression EXP.
5957    An rtx for the computed value is returned.  The value is never null.
5958    In the case of a void EXP, const0_rtx is returned.
5959
5960    The value may be stored in TARGET if TARGET is nonzero.
5961    TARGET is just a suggestion; callers must assume that
5962    the rtx returned may not be the same as TARGET.
5963
5964    If TARGET is CONST0_RTX, it means that the value will be ignored.
5965
5966    If TMODE is not VOIDmode, it suggests generating the
5967    result in mode TMODE.  But this is done only when convenient.
5968    Otherwise, TMODE is ignored and the value generated in its natural mode.
5969    TMODE is just a suggestion; callers must assume that
5970    the rtx returned may not have mode TMODE.
5971
5972    Note that TARGET may have neither TMODE nor MODE.  In that case, it
5973    probably will not be used.
5974
5975    If MODIFIER is EXPAND_SUM then when EXP is an addition
5976    we can return an rtx of the form (MULT (REG ...) (CONST_INT ...))
5977    or a nest of (PLUS ...) and (MINUS ...) where the terms are
5978    products as above, or REG or MEM, or constant.
5979    Ordinarily in such cases we would output mul or add instructions
5980    and then return a pseudo reg containing the sum.
5981
5982    EXPAND_INITIALIZER is much like EXPAND_SUM except that
5983    it also marks a label as absolutely required (it can't be dead).
5984    It also makes a ZERO_EXTEND or SIGN_EXTEND instead of emitting extend insns.
5985    This is used for outputting expressions used in initializers.
5986
5987    EXPAND_CONST_ADDRESS says that it is okay to return a MEM
5988    with a constant address even if that address is not normally legitimate.
5989    EXPAND_INITIALIZER and EXPAND_SUM also have this effect.  */
5990
5991 rtx
5992 expand_expr (exp, target, tmode, modifier)
5993      register tree exp;
5994      rtx target;
5995      enum machine_mode tmode;
5996      enum expand_modifier modifier;
5997 {
5998   register rtx op0, op1, temp;
5999   tree type = TREE_TYPE (exp);
6000   int unsignedp = TREE_UNSIGNED (type);
6001   register enum machine_mode mode;
6002   register enum tree_code code = TREE_CODE (exp);
6003   optab this_optab;
6004   rtx subtarget, original_target;
6005   int ignore;
6006   tree context;
6007   /* Used by check-memory-usage to make modifier read only.  */
6008   enum expand_modifier ro_modifier;
6009
6010   /* Handle ERROR_MARK before anybody tries to access its type.  */
6011   if (TREE_CODE (exp) == ERROR_MARK || TREE_CODE (type) == ERROR_MARK)
6012     {
6013       op0 = CONST0_RTX (tmode);
6014       if (op0 != 0)
6015         return op0;
6016       return const0_rtx;
6017     }
6018
6019   mode = TYPE_MODE (type);
6020   /* Use subtarget as the target for operand 0 of a binary operation.  */
6021   subtarget = get_subtarget (target);
6022   original_target = target;
6023   ignore = (target == const0_rtx
6024             || ((code == NON_LVALUE_EXPR || code == NOP_EXPR
6025                  || code == CONVERT_EXPR || code == REFERENCE_EXPR
6026                  || code == COND_EXPR)
6027                 && TREE_CODE (type) == VOID_TYPE));
6028
6029   /* Make a read-only version of the modifier.  */
6030   if (modifier == EXPAND_NORMAL || modifier == EXPAND_SUM
6031       || modifier == EXPAND_CONST_ADDRESS || modifier == EXPAND_INITIALIZER)
6032     ro_modifier = modifier;
6033   else
6034     ro_modifier = EXPAND_NORMAL;
6035
6036   /* If we are going to ignore this result, we need only do something
6037      if there is a side-effect somewhere in the expression.  If there
6038      is, short-circuit the most common cases here.  Note that we must
6039      not call expand_expr with anything but const0_rtx in case this
6040      is an initial expansion of a size that contains a PLACEHOLDER_EXPR.  */
6041
6042   if (ignore)
6043     {
6044       if (! TREE_SIDE_EFFECTS (exp))
6045         return const0_rtx;
6046
6047       /* Ensure we reference a volatile object even if value is ignored, but
6048          don't do this if all we are doing is taking its address.  */
6049       if (TREE_THIS_VOLATILE (exp)
6050           && TREE_CODE (exp) != FUNCTION_DECL
6051           && mode != VOIDmode && mode != BLKmode
6052           && modifier != EXPAND_CONST_ADDRESS)
6053         {
6054           temp = expand_expr (exp, NULL_RTX, VOIDmode, ro_modifier);
6055           if (GET_CODE (temp) == MEM)
6056             temp = copy_to_reg (temp);
6057           return const0_rtx;
6058         }
6059
6060       if (TREE_CODE_CLASS (code) == '1' || code == COMPONENT_REF
6061           || code == INDIRECT_REF || code == BUFFER_REF)
6062         return expand_expr (TREE_OPERAND (exp, 0), const0_rtx,
6063                             VOIDmode, ro_modifier);
6064       else if (TREE_CODE_CLASS (code) == '2' || TREE_CODE_CLASS (code) == '<'
6065                || code == ARRAY_REF || code == ARRAY_RANGE_REF)
6066         {
6067           expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode,
6068                        ro_modifier);
6069           expand_expr (TREE_OPERAND (exp, 1), const0_rtx, VOIDmode,
6070                        ro_modifier);
6071           return const0_rtx;
6072         }
6073       else if ((code == TRUTH_ANDIF_EXPR || code == TRUTH_ORIF_EXPR)
6074                && ! TREE_SIDE_EFFECTS (TREE_OPERAND (exp, 1)))
6075         /* If the second operand has no side effects, just evaluate
6076            the first.  */
6077         return expand_expr (TREE_OPERAND (exp, 0), const0_rtx,
6078                             VOIDmode, ro_modifier);
6079       else if (code == BIT_FIELD_REF)
6080         {
6081           expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode,
6082                        ro_modifier);
6083           expand_expr (TREE_OPERAND (exp, 1), const0_rtx, VOIDmode,
6084                        ro_modifier);
6085           expand_expr (TREE_OPERAND (exp, 2), const0_rtx, VOIDmode,
6086                        ro_modifier);
6087           return const0_rtx;
6088         }
6089       ;
6090       target = 0;
6091     }
6092
6093 #ifdef MAX_INTEGER_COMPUTATION_MODE
6094   /* Only check stuff here if the mode we want is different from the mode
6095      of the expression; if it's the same, check_max_integer_computiation_mode
6096      will handle it.  Do we really need to check this stuff at all?  */
6097
6098   if (target
6099       && GET_MODE (target) != mode
6100       && TREE_CODE (exp) != INTEGER_CST
6101       && TREE_CODE (exp) != PARM_DECL
6102       && TREE_CODE (exp) != ARRAY_REF
6103       && TREE_CODE (exp) != ARRAY_RANGE_REF
6104       && TREE_CODE (exp) != COMPONENT_REF
6105       && TREE_CODE (exp) != BIT_FIELD_REF
6106       && TREE_CODE (exp) != INDIRECT_REF
6107       && TREE_CODE (exp) != CALL_EXPR
6108       && TREE_CODE (exp) != VAR_DECL
6109       && TREE_CODE (exp) != RTL_EXPR)
6110     {
6111       enum machine_mode mode = GET_MODE (target);
6112
6113       if (GET_MODE_CLASS (mode) == MODE_INT
6114           && mode > MAX_INTEGER_COMPUTATION_MODE)
6115         internal_error ("unsupported wide integer operation");
6116     }
6117
6118   if (tmode != mode
6119       && TREE_CODE (exp) != INTEGER_CST
6120       && TREE_CODE (exp) != PARM_DECL
6121       && TREE_CODE (exp) != ARRAY_REF
6122       && TREE_CODE (exp) != ARRAY_RANGE_REF
6123       && TREE_CODE (exp) != COMPONENT_REF
6124       && TREE_CODE (exp) != BIT_FIELD_REF
6125       && TREE_CODE (exp) != INDIRECT_REF
6126       && TREE_CODE (exp) != VAR_DECL
6127       && TREE_CODE (exp) != CALL_EXPR
6128       && TREE_CODE (exp) != RTL_EXPR
6129       && GET_MODE_CLASS (tmode) == MODE_INT
6130       && tmode > MAX_INTEGER_COMPUTATION_MODE)
6131     internal_error ("unsupported wide integer operation");
6132
6133   check_max_integer_computation_mode (exp);
6134 #endif
6135
6136   /* If will do cse, generate all results into pseudo registers
6137      since 1) that allows cse to find more things
6138      and 2) otherwise cse could produce an insn the machine
6139      cannot support.  */
6140
6141   if (! cse_not_expected && mode != BLKmode && target
6142       && (GET_CODE (target) != REG || REGNO (target) < FIRST_PSEUDO_REGISTER))
6143     target = subtarget;
6144
6145   switch (code)
6146     {
6147     case LABEL_DECL:
6148       {
6149         tree function = decl_function_context (exp);
6150         /* Handle using a label in a containing function.  */
6151         if (function != current_function_decl
6152             && function != inline_function_decl && function != 0)
6153           {
6154             struct function *p = find_function_data (function);
6155             p->expr->x_forced_labels
6156               = gen_rtx_EXPR_LIST (VOIDmode, label_rtx (exp),
6157                                    p->expr->x_forced_labels);
6158           }
6159         else
6160           {
6161             if (modifier == EXPAND_INITIALIZER)
6162               forced_labels = gen_rtx_EXPR_LIST (VOIDmode,
6163                                                  label_rtx (exp),
6164                                                  forced_labels);
6165           }
6166
6167         temp = gen_rtx_MEM (FUNCTION_MODE,
6168                             gen_rtx_LABEL_REF (Pmode, label_rtx (exp)));
6169         if (function != current_function_decl
6170             && function != inline_function_decl && function != 0)
6171           LABEL_REF_NONLOCAL_P (XEXP (temp, 0)) = 1;
6172         return temp;
6173       }
6174
6175     case PARM_DECL:
6176       if (DECL_RTL (exp) == 0)
6177         {
6178           error_with_decl (exp, "prior parameter's size depends on `%s'");
6179           return CONST0_RTX (mode);
6180         }
6181
6182       /* ... fall through ...  */
6183
6184     case VAR_DECL:
6185       /* If a static var's type was incomplete when the decl was written,
6186          but the type is complete now, lay out the decl now.  */
6187       if (DECL_SIZE (exp) == 0 && COMPLETE_TYPE_P (TREE_TYPE (exp))
6188           && (TREE_STATIC (exp) || DECL_EXTERNAL (exp)))
6189         {
6190           layout_decl (exp, 0);
6191           PUT_MODE (DECL_RTL (exp), DECL_MODE (exp));
6192         }
6193
6194       /* Although static-storage variables start off initialized, according to
6195          ANSI C, a memcpy could overwrite them with uninitialized values.  So
6196          we check them too.  This also lets us check for read-only variables
6197          accessed via a non-const declaration, in case it won't be detected
6198          any other way (e.g., in an embedded system or OS kernel without
6199          memory protection).
6200
6201          Aggregates are not checked here; they're handled elsewhere.  */
6202       if (cfun && current_function_check_memory_usage
6203           && code == VAR_DECL
6204           && GET_CODE (DECL_RTL (exp)) == MEM
6205           && ! AGGREGATE_TYPE_P (TREE_TYPE (exp)))
6206         {
6207           enum memory_use_mode memory_usage;
6208           memory_usage = get_memory_usage_from_modifier (modifier);
6209
6210           in_check_memory_usage = 1;
6211           if (memory_usage != MEMORY_USE_DONT)
6212             emit_library_call (chkr_check_addr_libfunc,
6213                                LCT_CONST_MAKE_BLOCK, VOIDmode, 3,
6214                                XEXP (DECL_RTL (exp), 0), Pmode,
6215                                GEN_INT (int_size_in_bytes (type)),
6216                                TYPE_MODE (sizetype),
6217                                GEN_INT (memory_usage),
6218                                TYPE_MODE (integer_type_node));
6219           in_check_memory_usage = 0;
6220         }
6221
6222       /* ... fall through ...  */
6223
6224     case FUNCTION_DECL:
6225     case RESULT_DECL:
6226       if (DECL_RTL (exp) == 0)
6227         abort ();
6228
6229       /* Ensure variable marked as used even if it doesn't go through
6230          a parser.  If it hasn't be used yet, write out an external
6231          definition.  */
6232       if (! TREE_USED (exp))
6233         {
6234           assemble_external (exp);
6235           TREE_USED (exp) = 1;
6236         }
6237
6238       /* Show we haven't gotten RTL for this yet.  */
6239       temp = 0;
6240
6241       /* Handle variables inherited from containing functions.  */
6242       context = decl_function_context (exp);
6243
6244       /* We treat inline_function_decl as an alias for the current function
6245          because that is the inline function whose vars, types, etc.
6246          are being merged into the current function.
6247          See expand_inline_function.  */
6248
6249       if (context != 0 && context != current_function_decl
6250           && context != inline_function_decl
6251           /* If var is static, we don't need a static chain to access it.  */
6252           && ! (GET_CODE (DECL_RTL (exp)) == MEM
6253                 && CONSTANT_P (XEXP (DECL_RTL (exp), 0))))
6254         {
6255           rtx addr;
6256
6257           /* Mark as non-local and addressable.  */
6258           DECL_NONLOCAL (exp) = 1;
6259           if (DECL_NO_STATIC_CHAIN (current_function_decl))
6260             abort ();
6261           mark_addressable (exp);
6262           if (GET_CODE (DECL_RTL (exp)) != MEM)
6263             abort ();
6264           addr = XEXP (DECL_RTL (exp), 0);
6265           if (GET_CODE (addr) == MEM)
6266             addr
6267               = replace_equiv_address (addr,
6268                                        fix_lexical_addr (XEXP (addr, 0), exp));
6269           else
6270             addr = fix_lexical_addr (addr, exp);
6271
6272           temp = replace_equiv_address (DECL_RTL (exp), addr);
6273         }
6274
6275       /* This is the case of an array whose size is to be determined
6276          from its initializer, while the initializer is still being parsed.
6277          See expand_decl.  */
6278
6279       else if (GET_CODE (DECL_RTL (exp)) == MEM
6280                && GET_CODE (XEXP (DECL_RTL (exp), 0)) == REG)
6281         temp = validize_mem (DECL_RTL (exp));
6282
6283       /* If DECL_RTL is memory, we are in the normal case and either
6284          the address is not valid or it is not a register and -fforce-addr
6285          is specified, get the address into a register.  */
6286
6287       else if (GET_CODE (DECL_RTL (exp)) == MEM
6288                && modifier != EXPAND_CONST_ADDRESS
6289                && modifier != EXPAND_SUM
6290                && modifier != EXPAND_INITIALIZER
6291                && (! memory_address_p (DECL_MODE (exp),
6292                                        XEXP (DECL_RTL (exp), 0))
6293                    || (flag_force_addr
6294                        && GET_CODE (XEXP (DECL_RTL (exp), 0)) != REG)))
6295         temp = replace_equiv_address (DECL_RTL (exp),
6296                                       copy_rtx (XEXP (DECL_RTL (exp), 0)));
6297
6298       /* If we got something, return it.  But first, set the alignment
6299          if the address is a register.  */
6300       if (temp != 0)
6301         {
6302           if (GET_CODE (temp) == MEM && GET_CODE (XEXP (temp, 0)) == REG)
6303             mark_reg_pointer (XEXP (temp, 0), DECL_ALIGN (exp));
6304
6305           return temp;
6306         }
6307
6308       /* If the mode of DECL_RTL does not match that of the decl, it
6309          must be a promoted value.  We return a SUBREG of the wanted mode,
6310          but mark it so that we know that it was already extended.  */
6311
6312       if (GET_CODE (DECL_RTL (exp)) == REG
6313           && GET_MODE (DECL_RTL (exp)) != mode)
6314         {
6315           /* Get the signedness used for this variable.  Ensure we get the
6316              same mode we got when the variable was declared.  */
6317           if (GET_MODE (DECL_RTL (exp))
6318               != promote_mode (type, DECL_MODE (exp), &unsignedp, 0))
6319             abort ();
6320
6321           temp = gen_lowpart_SUBREG (mode, DECL_RTL (exp));
6322           SUBREG_PROMOTED_VAR_P (temp) = 1;
6323           SUBREG_PROMOTED_UNSIGNED_P (temp) = unsignedp;
6324           return temp;
6325         }
6326
6327       return DECL_RTL (exp);
6328
6329     case INTEGER_CST:
6330       return immed_double_const (TREE_INT_CST_LOW (exp),
6331                                  TREE_INT_CST_HIGH (exp), mode);
6332
6333     case CONST_DECL:
6334       return expand_expr (DECL_INITIAL (exp), target, VOIDmode,
6335                           EXPAND_MEMORY_USE_BAD);
6336
6337     case REAL_CST:
6338       /* If optimized, generate immediate CONST_DOUBLE
6339          which will be turned into memory by reload if necessary.
6340
6341          We used to force a register so that loop.c could see it.  But
6342          this does not allow gen_* patterns to perform optimizations with
6343          the constants.  It also produces two insns in cases like "x = 1.0;".
6344          On most machines, floating-point constants are not permitted in
6345          many insns, so we'd end up copying it to a register in any case.
6346
6347          Now, we do the copying in expand_binop, if appropriate.  */
6348       return immed_real_const (exp);
6349
6350     case COMPLEX_CST:
6351     case STRING_CST:
6352       if (! TREE_CST_RTL (exp))
6353         output_constant_def (exp, 1);
6354
6355       /* TREE_CST_RTL probably contains a constant address.
6356          On RISC machines where a constant address isn't valid,
6357          make some insns to get that address into a register.  */
6358       if (GET_CODE (TREE_CST_RTL (exp)) == MEM
6359           && modifier != EXPAND_CONST_ADDRESS
6360           && modifier != EXPAND_INITIALIZER
6361           && modifier != EXPAND_SUM
6362           && (! memory_address_p (mode, XEXP (TREE_CST_RTL (exp), 0))
6363               || (flag_force_addr
6364                   && GET_CODE (XEXP (TREE_CST_RTL (exp), 0)) != REG)))
6365         return replace_equiv_address (TREE_CST_RTL (exp),
6366                                       copy_rtx (XEXP (TREE_CST_RTL (exp), 0)));
6367       return TREE_CST_RTL (exp);
6368
6369     case EXPR_WITH_FILE_LOCATION:
6370       {
6371         rtx to_return;
6372         const char *saved_input_filename = input_filename;
6373         int saved_lineno = lineno;
6374         input_filename = EXPR_WFL_FILENAME (exp);
6375         lineno = EXPR_WFL_LINENO (exp);
6376         if (EXPR_WFL_EMIT_LINE_NOTE (exp))
6377           emit_line_note (input_filename, lineno);
6378         /* Possibly avoid switching back and forth here.  */
6379         to_return = expand_expr (EXPR_WFL_NODE (exp), target, tmode, modifier);
6380         input_filename = saved_input_filename;
6381         lineno = saved_lineno;
6382         return to_return;
6383       }
6384
6385     case SAVE_EXPR:
6386       context = decl_function_context (exp);
6387
6388       /* If this SAVE_EXPR was at global context, assume we are an
6389          initialization function and move it into our context.  */
6390       if (context == 0)
6391         SAVE_EXPR_CONTEXT (exp) = current_function_decl;
6392
6393       /* We treat inline_function_decl as an alias for the current function
6394          because that is the inline function whose vars, types, etc.
6395          are being merged into the current function.
6396          See expand_inline_function.  */
6397       if (context == current_function_decl || context == inline_function_decl)
6398         context = 0;
6399
6400       /* If this is non-local, handle it.  */
6401       if (context)
6402         {
6403           /* The following call just exists to abort if the context is
6404              not of a containing function.  */
6405           find_function_data (context);
6406
6407           temp = SAVE_EXPR_RTL (exp);
6408           if (temp && GET_CODE (temp) == REG)
6409             {
6410               put_var_into_stack (exp);
6411               temp = SAVE_EXPR_RTL (exp);
6412             }
6413           if (temp == 0 || GET_CODE (temp) != MEM)
6414             abort ();
6415           return
6416             replace_equiv_address (temp,
6417                                    fix_lexical_addr (XEXP (temp, 0), exp));
6418         }
6419       if (SAVE_EXPR_RTL (exp) == 0)
6420         {
6421           if (mode == VOIDmode)
6422             temp = const0_rtx;
6423           else
6424             temp = assign_temp (build_qualified_type (type,
6425                                                       (TYPE_QUALS (type)
6426                                                        | TYPE_QUAL_CONST)),
6427                                 3, 0, 0);
6428
6429           SAVE_EXPR_RTL (exp) = temp;
6430           if (!optimize && GET_CODE (temp) == REG)
6431             save_expr_regs = gen_rtx_EXPR_LIST (VOIDmode, temp,
6432                                                 save_expr_regs);
6433
6434           /* If the mode of TEMP does not match that of the expression, it
6435              must be a promoted value.  We pass store_expr a SUBREG of the
6436              wanted mode but mark it so that we know that it was already
6437              extended.  Note that `unsignedp' was modified above in
6438              this case.  */
6439
6440           if (GET_CODE (temp) == REG && GET_MODE (temp) != mode)
6441             {
6442               temp = gen_lowpart_SUBREG (mode, SAVE_EXPR_RTL (exp));
6443               SUBREG_PROMOTED_VAR_P (temp) = 1;
6444               SUBREG_PROMOTED_UNSIGNED_P (temp) = unsignedp;
6445             }
6446
6447           if (temp == const0_rtx)
6448             expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode,
6449                          EXPAND_MEMORY_USE_BAD);
6450           else
6451             store_expr (TREE_OPERAND (exp, 0), temp, 0);
6452
6453           TREE_USED (exp) = 1;
6454         }
6455
6456       /* If the mode of SAVE_EXPR_RTL does not match that of the expression, it
6457          must be a promoted value.  We return a SUBREG of the wanted mode,
6458          but mark it so that we know that it was already extended.  */
6459
6460       if (GET_CODE (SAVE_EXPR_RTL (exp)) == REG
6461           && GET_MODE (SAVE_EXPR_RTL (exp)) != mode)
6462         {
6463           /* Compute the signedness and make the proper SUBREG.  */
6464           promote_mode (type, mode, &unsignedp, 0);
6465           temp = gen_lowpart_SUBREG (mode, SAVE_EXPR_RTL (exp));
6466           SUBREG_PROMOTED_VAR_P (temp) = 1;
6467           SUBREG_PROMOTED_UNSIGNED_P (temp) = unsignedp;
6468           return temp;
6469         }
6470
6471       return SAVE_EXPR_RTL (exp);
6472
6473     case UNSAVE_EXPR:
6474       {
6475         rtx temp;
6476         temp = expand_expr (TREE_OPERAND (exp, 0), target, tmode, modifier);
6477         TREE_OPERAND (exp, 0) = unsave_expr_now (TREE_OPERAND (exp, 0));
6478         return temp;
6479       }
6480
6481     case PLACEHOLDER_EXPR:
6482       {
6483         tree placeholder_expr;
6484
6485         /* If there is an object on the head of the placeholder list,
6486            see if some object in it of type TYPE or a pointer to it.  For
6487            further information, see tree.def.  */
6488         for (placeholder_expr = placeholder_list;
6489              placeholder_expr != 0;
6490              placeholder_expr = TREE_CHAIN (placeholder_expr))
6491           {
6492             tree need_type = TYPE_MAIN_VARIANT (type);
6493             tree object = 0;
6494             tree old_list = placeholder_list;
6495             tree elt;
6496
6497             /* Find the outermost reference that is of the type we want.
6498                If none, see if any object has a type that is a pointer to
6499                the type we want.  */
6500             for (elt = TREE_PURPOSE (placeholder_expr);
6501                  elt != 0 && object == 0;
6502                  elt
6503                  = ((TREE_CODE (elt) == COMPOUND_EXPR
6504                      || TREE_CODE (elt) == COND_EXPR)
6505                     ? TREE_OPERAND (elt, 1)
6506                     : (TREE_CODE_CLASS (TREE_CODE (elt)) == 'r'
6507                        || TREE_CODE_CLASS (TREE_CODE (elt)) == '1'
6508                        || TREE_CODE_CLASS (TREE_CODE (elt)) == '2'
6509                        || TREE_CODE_CLASS (TREE_CODE (elt)) == 'e')
6510                     ? TREE_OPERAND (elt, 0) : 0))
6511               if (TYPE_MAIN_VARIANT (TREE_TYPE (elt)) == need_type)
6512                 object = elt;
6513
6514             for (elt = TREE_PURPOSE (placeholder_expr);
6515                  elt != 0 && object == 0;
6516                  elt
6517                  = ((TREE_CODE (elt) == COMPOUND_EXPR
6518                      || TREE_CODE (elt) == COND_EXPR)
6519                     ? TREE_OPERAND (elt, 1)
6520                     : (TREE_CODE_CLASS (TREE_CODE (elt)) == 'r'
6521                        || TREE_CODE_CLASS (TREE_CODE (elt)) == '1'
6522                        || TREE_CODE_CLASS (TREE_CODE (elt)) == '2'
6523                        || TREE_CODE_CLASS (TREE_CODE (elt)) == 'e')
6524                     ? TREE_OPERAND (elt, 0) : 0))
6525               if (POINTER_TYPE_P (TREE_TYPE (elt))
6526                   && (TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (elt)))
6527                       == need_type))
6528                 object = build1 (INDIRECT_REF, need_type, elt);
6529
6530             if (object != 0)
6531               {
6532                 /* Expand this object skipping the list entries before
6533                    it was found in case it is also a PLACEHOLDER_EXPR.
6534                    In that case, we want to translate it using subsequent
6535                    entries.  */
6536                 placeholder_list = TREE_CHAIN (placeholder_expr);
6537                 temp = expand_expr (object, original_target, tmode,
6538                                     ro_modifier);
6539                 placeholder_list = old_list;
6540                 return temp;
6541               }
6542           }
6543       }
6544
6545       /* We can't find the object or there was a missing WITH_RECORD_EXPR.  */
6546       abort ();
6547
6548     case WITH_RECORD_EXPR:
6549       /* Put the object on the placeholder list, expand our first operand,
6550          and pop the list.  */
6551       placeholder_list = tree_cons (TREE_OPERAND (exp, 1), NULL_TREE,
6552                                     placeholder_list);
6553       target = expand_expr (TREE_OPERAND (exp, 0), original_target,
6554                             tmode, ro_modifier);
6555       placeholder_list = TREE_CHAIN (placeholder_list);
6556       return target;
6557
6558     case GOTO_EXPR:
6559       if (TREE_CODE (TREE_OPERAND (exp, 0)) == LABEL_DECL)
6560         expand_goto (TREE_OPERAND (exp, 0));
6561       else
6562         expand_computed_goto (TREE_OPERAND (exp, 0));
6563       return const0_rtx;
6564
6565     case EXIT_EXPR:
6566       expand_exit_loop_if_false (NULL,
6567                                  invert_truthvalue (TREE_OPERAND (exp, 0)));
6568       return const0_rtx;
6569
6570     case LABELED_BLOCK_EXPR:
6571       if (LABELED_BLOCK_BODY (exp))
6572         expand_expr_stmt (LABELED_BLOCK_BODY (exp));
6573       /* Should perhaps use expand_label, but this is simpler and safer.  */
6574       do_pending_stack_adjust ();
6575       emit_label (label_rtx (LABELED_BLOCK_LABEL (exp)));
6576       return const0_rtx;
6577
6578     case EXIT_BLOCK_EXPR:
6579       if (EXIT_BLOCK_RETURN (exp))
6580         sorry ("returned value in block_exit_expr");
6581       expand_goto (LABELED_BLOCK_LABEL (EXIT_BLOCK_LABELED_BLOCK (exp)));
6582       return const0_rtx;
6583
6584     case LOOP_EXPR:
6585       push_temp_slots ();
6586       expand_start_loop (1);
6587       expand_expr_stmt (TREE_OPERAND (exp, 0));
6588       expand_end_loop ();
6589       pop_temp_slots ();
6590
6591       return const0_rtx;
6592
6593     case BIND_EXPR:
6594       {
6595         tree vars = TREE_OPERAND (exp, 0);
6596         int vars_need_expansion = 0;
6597
6598         /* Need to open a binding contour here because
6599            if there are any cleanups they must be contained here.  */
6600         expand_start_bindings (2);
6601
6602         /* Mark the corresponding BLOCK for output in its proper place.  */
6603         if (TREE_OPERAND (exp, 2) != 0
6604             && ! TREE_USED (TREE_OPERAND (exp, 2)))
6605           insert_block (TREE_OPERAND (exp, 2));
6606
6607         /* If VARS have not yet been expanded, expand them now.  */
6608         while (vars)
6609           {
6610             if (!DECL_RTL_SET_P (vars))
6611               {
6612                 vars_need_expansion = 1;
6613                 expand_decl (vars);
6614               }
6615             expand_decl_init (vars);
6616             vars = TREE_CHAIN (vars);
6617           }
6618
6619         temp = expand_expr (TREE_OPERAND (exp, 1), target, tmode, ro_modifier);
6620
6621         expand_end_bindings (TREE_OPERAND (exp, 0), 0, 0);
6622
6623         return temp;
6624       }
6625
6626     case RTL_EXPR:
6627       if (RTL_EXPR_SEQUENCE (exp))
6628         {
6629           if (RTL_EXPR_SEQUENCE (exp) == const0_rtx)
6630             abort ();
6631           emit_insns (RTL_EXPR_SEQUENCE (exp));
6632           RTL_EXPR_SEQUENCE (exp) = const0_rtx;
6633         }
6634       preserve_rtl_expr_result (RTL_EXPR_RTL (exp));
6635       free_temps_for_rtl_expr (exp);
6636       return RTL_EXPR_RTL (exp);
6637
6638     case CONSTRUCTOR:
6639       /* If we don't need the result, just ensure we evaluate any
6640          subexpressions.  */
6641       if (ignore)
6642         {
6643           tree elt;
6644           for (elt = CONSTRUCTOR_ELTS (exp); elt; elt = TREE_CHAIN (elt))
6645             expand_expr (TREE_VALUE (elt), const0_rtx, VOIDmode,
6646                          EXPAND_MEMORY_USE_BAD);
6647           return const0_rtx;
6648         }
6649
6650       /* All elts simple constants => refer to a constant in memory.  But
6651          if this is a non-BLKmode mode, let it store a field at a time
6652          since that should make a CONST_INT or CONST_DOUBLE when we
6653          fold.  Likewise, if we have a target we can use, it is best to
6654          store directly into the target unless the type is large enough
6655          that memcpy will be used.  If we are making an initializer and
6656          all operands are constant, put it in memory as well.  */
6657       else if ((TREE_STATIC (exp)
6658                 && ((mode == BLKmode
6659                      && ! (target != 0 && safe_from_p (target, exp, 1)))
6660                     || TREE_ADDRESSABLE (exp)
6661                     || (host_integerp (TYPE_SIZE_UNIT (type), 1)
6662                         && (! MOVE_BY_PIECES_P
6663                             (tree_low_cst (TYPE_SIZE_UNIT (type), 1),
6664                              TYPE_ALIGN (type)))
6665                         && ! mostly_zeros_p (exp))))
6666                || (modifier == EXPAND_INITIALIZER && TREE_CONSTANT (exp)))
6667         {
6668           rtx constructor = output_constant_def (exp, 1);
6669
6670           if (modifier != EXPAND_CONST_ADDRESS
6671               && modifier != EXPAND_INITIALIZER
6672               && modifier != EXPAND_SUM)
6673             constructor = validize_mem (constructor);
6674
6675           return constructor;
6676         }
6677       else
6678         {
6679           /* Handle calls that pass values in multiple non-contiguous
6680              locations.  The Irix 6 ABI has examples of this.  */
6681           if (target == 0 || ! safe_from_p (target, exp, 1)
6682               || GET_CODE (target) == PARALLEL)
6683             target
6684               = assign_temp (build_qualified_type (type,
6685                                                    (TYPE_QUALS (type)
6686                                                     | (TREE_READONLY (exp)
6687                                                        * TYPE_QUAL_CONST))),
6688                              TREE_ADDRESSABLE (exp), 1, 1);
6689
6690           store_constructor (exp, target, TYPE_ALIGN (TREE_TYPE (exp)), 0,
6691                              int_size_in_bytes (TREE_TYPE (exp)));
6692           return target;
6693         }
6694
6695     case INDIRECT_REF:
6696       {
6697         tree exp1 = TREE_OPERAND (exp, 0);
6698         tree index;
6699         tree string = string_constant (exp1, &index);
6700
6701         /* Try to optimize reads from const strings.  */
6702         if (string
6703             && TREE_CODE (string) == STRING_CST
6704             && TREE_CODE (index) == INTEGER_CST
6705             && compare_tree_int (index, TREE_STRING_LENGTH (string)) < 0
6706             && GET_MODE_CLASS (mode) == MODE_INT
6707             && GET_MODE_SIZE (mode) == 1
6708             && modifier != EXPAND_MEMORY_USE_WO)
6709           return
6710             GEN_INT (TREE_STRING_POINTER (string)[TREE_INT_CST_LOW (index)]);
6711
6712         op0 = expand_expr (exp1, NULL_RTX, VOIDmode, EXPAND_SUM);
6713         op0 = memory_address (mode, op0);
6714
6715         if (cfun && current_function_check_memory_usage
6716             && ! AGGREGATE_TYPE_P (TREE_TYPE (exp)))
6717           {
6718             enum memory_use_mode memory_usage;
6719             memory_usage = get_memory_usage_from_modifier (modifier);
6720
6721             if (memory_usage != MEMORY_USE_DONT)
6722               {
6723                 in_check_memory_usage = 1;
6724                 emit_library_call (chkr_check_addr_libfunc,
6725                                    LCT_CONST_MAKE_BLOCK, VOIDmode, 3, op0,
6726                                    Pmode, GEN_INT (int_size_in_bytes (type)),
6727                                    TYPE_MODE (sizetype),
6728                                    GEN_INT (memory_usage),
6729                                    TYPE_MODE (integer_type_node));
6730                 in_check_memory_usage = 0;
6731               }
6732           }
6733
6734         temp = gen_rtx_MEM (mode, op0);
6735         set_mem_attributes (temp, exp, 0);
6736
6737         /* It is incorrect to set RTX_UNCHANGING_P from TREE_READONLY
6738            here, because, in C and C++, the fact that a location is accessed
6739            through a pointer to const does not mean that the value there can
6740            never change.  Languages where it can never change should
6741            also set TREE_STATIC.  */
6742         RTX_UNCHANGING_P (temp) = TREE_READONLY (exp) & TREE_STATIC (exp);
6743
6744         /* If we are writing to this object and its type is a record with
6745            readonly fields, we must mark it as readonly so it will
6746            conflict with readonly references to those fields.  */
6747         if (modifier == EXPAND_MEMORY_USE_WO && readonly_fields_p (type))
6748           RTX_UNCHANGING_P (temp) = 1;
6749
6750         return temp;
6751       }
6752
6753     case ARRAY_REF:
6754       if (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) != ARRAY_TYPE)
6755         abort ();
6756
6757       {
6758         tree array = TREE_OPERAND (exp, 0);
6759         tree domain = TYPE_DOMAIN (TREE_TYPE (array));
6760         tree low_bound = domain ? TYPE_MIN_VALUE (domain) : integer_zero_node;
6761         tree index = convert (sizetype, TREE_OPERAND (exp, 1));
6762         HOST_WIDE_INT i;
6763
6764         /* Optimize the special-case of a zero lower bound.
6765
6766            We convert the low_bound to sizetype to avoid some problems
6767            with constant folding.  (E.g. suppose the lower bound is 1,
6768            and its mode is QI.  Without the conversion,  (ARRAY
6769            +(INDEX-(unsigned char)1)) becomes ((ARRAY+(-(unsigned char)1))
6770            +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)  */
6771
6772         if (! integer_zerop (low_bound))
6773           index = size_diffop (index, convert (sizetype, low_bound));
6774
6775         /* Fold an expression like: "foo"[2].
6776            This is not done in fold so it won't happen inside &.
6777            Don't fold if this is for wide characters since it's too
6778            difficult to do correctly and this is a very rare case.  */
6779
6780         if (modifier != EXPAND_CONST_ADDRESS && modifier != EXPAND_INITIALIZER
6781             && TREE_CODE (array) == STRING_CST
6782             && TREE_CODE (index) == INTEGER_CST
6783             && compare_tree_int (index, TREE_STRING_LENGTH (array)) < 0
6784             && GET_MODE_CLASS (mode) == MODE_INT
6785             && GET_MODE_SIZE (mode) == 1)
6786           return
6787             GEN_INT (TREE_STRING_POINTER (array)[TREE_INT_CST_LOW (index)]);
6788
6789         /* If this is a constant index into a constant array,
6790            just get the value from the array.  Handle both the cases when
6791            we have an explicit constructor and when our operand is a variable
6792            that was declared const.  */
6793
6794         if (modifier != EXPAND_CONST_ADDRESS && modifier != EXPAND_INITIALIZER
6795             && TREE_CODE (array) == CONSTRUCTOR && ! TREE_SIDE_EFFECTS (array)
6796             && TREE_CODE (index) == INTEGER_CST
6797             && 0 > compare_tree_int (index,
6798                                      list_length (CONSTRUCTOR_ELTS
6799                                                   (TREE_OPERAND (exp, 0)))))
6800           {
6801             tree elem;
6802
6803             for (elem = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)),
6804                  i = TREE_INT_CST_LOW (index);
6805                  elem != 0 && i != 0; i--, elem = TREE_CHAIN (elem))
6806               ;
6807
6808             if (elem)
6809               return expand_expr (fold (TREE_VALUE (elem)), target,
6810                                   tmode, ro_modifier);
6811           }
6812
6813         else if (optimize >= 1
6814                  && modifier != EXPAND_CONST_ADDRESS
6815                  && modifier != EXPAND_INITIALIZER
6816                  && TREE_READONLY (array) && ! TREE_SIDE_EFFECTS (array)
6817                  && TREE_CODE (array) == VAR_DECL && DECL_INITIAL (array)
6818                  && TREE_CODE (DECL_INITIAL (array)) != ERROR_MARK)
6819           {
6820             if (TREE_CODE (index) == INTEGER_CST)
6821               {
6822                 tree init = DECL_INITIAL (array);
6823
6824                 if (TREE_CODE (init) == CONSTRUCTOR)
6825                   {
6826                     tree elem;
6827
6828                     for (elem = CONSTRUCTOR_ELTS (init);
6829                          (elem
6830                           && !tree_int_cst_equal (TREE_PURPOSE (elem), index));
6831                          elem = TREE_CHAIN (elem))
6832                       ;
6833
6834                     if (elem && !TREE_SIDE_EFFECTS (TREE_VALUE (elem)))
6835                       return expand_expr (fold (TREE_VALUE (elem)), target,
6836                                           tmode, ro_modifier);
6837                   }
6838                 else if (TREE_CODE (init) == STRING_CST
6839                          && 0 > compare_tree_int (index,
6840                                                   TREE_STRING_LENGTH (init)))
6841                   {
6842                     tree type = TREE_TYPE (TREE_TYPE (init));
6843                     enum machine_mode mode = TYPE_MODE (type);
6844
6845                     if (GET_MODE_CLASS (mode) == MODE_INT
6846                         && GET_MODE_SIZE (mode) == 1)
6847                       return (GEN_INT
6848                               (TREE_STRING_POINTER
6849                                (init)[TREE_INT_CST_LOW (index)]));
6850                   }
6851               }
6852           }
6853       }
6854       /* Fall through.  */
6855
6856     case COMPONENT_REF:
6857     case BIT_FIELD_REF:
6858     case ARRAY_RANGE_REF:
6859       /* If the operand is a CONSTRUCTOR, we can just extract the
6860          appropriate field if it is present.  Don't do this if we have
6861          already written the data since we want to refer to that copy
6862          and varasm.c assumes that's what we'll do.  */
6863       if (code == COMPONENT_REF
6864           && TREE_CODE (TREE_OPERAND (exp, 0)) == CONSTRUCTOR
6865           && TREE_CST_RTL (TREE_OPERAND (exp, 0)) == 0)
6866         {
6867           tree elt;
6868
6869           for (elt = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)); elt;
6870                elt = TREE_CHAIN (elt))
6871             if (TREE_PURPOSE (elt) == TREE_OPERAND (exp, 1)
6872                 /* We can normally use the value of the field in the
6873                    CONSTRUCTOR.  However, if this is a bitfield in
6874                    an integral mode that we can fit in a HOST_WIDE_INT,
6875                    we must mask only the number of bits in the bitfield,
6876                    since this is done implicitly by the constructor.  If
6877                    the bitfield does not meet either of those conditions,
6878                    we can't do this optimization.  */
6879                 && (! DECL_BIT_FIELD (TREE_PURPOSE (elt))
6880                     || ((GET_MODE_CLASS (DECL_MODE (TREE_PURPOSE (elt)))
6881                          == MODE_INT)
6882                         && (GET_MODE_BITSIZE (DECL_MODE (TREE_PURPOSE (elt)))
6883                             <= HOST_BITS_PER_WIDE_INT))))
6884               {
6885                 op0 = expand_expr (TREE_VALUE (elt), target, tmode, modifier);
6886                 if (DECL_BIT_FIELD (TREE_PURPOSE (elt)))
6887                   {
6888                     HOST_WIDE_INT bitsize
6889                       = TREE_INT_CST_LOW (DECL_SIZE (TREE_PURPOSE (elt)));
6890
6891                     if (TREE_UNSIGNED (TREE_TYPE (TREE_PURPOSE (elt))))
6892                       {
6893                         op1 = GEN_INT (((HOST_WIDE_INT) 1 << bitsize) - 1);
6894                         op0 = expand_and (op0, op1, target);
6895                       }
6896                     else
6897                       {
6898                         enum machine_mode imode
6899                           = TYPE_MODE (TREE_TYPE (TREE_PURPOSE (elt)));
6900                         tree count
6901                           = build_int_2 (GET_MODE_BITSIZE (imode) - bitsize,
6902                                          0);
6903
6904                         op0 = expand_shift (LSHIFT_EXPR, imode, op0, count,
6905                                             target, 0);
6906                         op0 = expand_shift (RSHIFT_EXPR, imode, op0, count,
6907                                             target, 0);
6908                       }
6909                   }
6910
6911                 return op0;
6912               }
6913         }
6914
6915       {
6916         enum machine_mode mode1;
6917         HOST_WIDE_INT bitsize, bitpos;
6918         tree offset;
6919         int volatilep = 0;
6920         unsigned int alignment;
6921         tree tem = get_inner_reference (exp, &bitsize, &bitpos, &offset,
6922                                         &mode1, &unsignedp, &volatilep,
6923                                         &alignment);
6924
6925         /* If we got back the original object, something is wrong.  Perhaps
6926            we are evaluating an expression too early.  In any event, don't
6927            infinitely recurse.  */
6928         if (tem == exp)
6929           abort ();
6930
6931         /* If TEM's type is a union of variable size, pass TARGET to the inner
6932            computation, since it will need a temporary and TARGET is known
6933            to have to do.  This occurs in unchecked conversion in Ada.  */
6934
6935         op0 = expand_expr (tem,
6936                            (TREE_CODE (TREE_TYPE (tem)) == UNION_TYPE
6937                             && (TREE_CODE (TYPE_SIZE (TREE_TYPE (tem)))
6938                                 != INTEGER_CST)
6939                             ? target : NULL_RTX),
6940                            VOIDmode,
6941                            (modifier == EXPAND_INITIALIZER
6942                             || modifier == EXPAND_CONST_ADDRESS)
6943                            ? modifier : EXPAND_NORMAL);
6944
6945         /* If this is a constant, put it into a register if it is a
6946            legitimate constant and OFFSET is 0 and memory if it isn't.  */
6947         if (CONSTANT_P (op0))
6948           {
6949             enum machine_mode mode = TYPE_MODE (TREE_TYPE (tem));
6950             if (mode != BLKmode && LEGITIMATE_CONSTANT_P (op0)
6951                 && offset == 0)
6952               op0 = force_reg (mode, op0);
6953             else
6954               op0 = validize_mem (force_const_mem (mode, op0));
6955           }
6956
6957         if (offset != 0)
6958           {
6959             rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
6960
6961             /* If this object is in a register, put it into memory.
6962                This case can't occur in C, but can in Ada if we have
6963                unchecked conversion of an expression from a scalar type to
6964                an array or record type.  */
6965             if (GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
6966                 || GET_CODE (op0) == CONCAT || GET_CODE (op0) == ADDRESSOF)
6967               {
6968                 /* If the operand is a SAVE_EXPR, we can deal with this by
6969                    forcing the SAVE_EXPR into memory.  */
6970                 if (TREE_CODE (TREE_OPERAND (exp, 0)) == SAVE_EXPR)
6971                   {
6972                     put_var_into_stack (TREE_OPERAND (exp, 0));
6973                     op0 = SAVE_EXPR_RTL (TREE_OPERAND (exp, 0));
6974                   }
6975                 else
6976                   {
6977                     tree nt
6978                       = build_qualified_type (TREE_TYPE (tem),
6979                                               (TYPE_QUALS (TREE_TYPE (tem))
6980                                                | TYPE_QUAL_CONST));
6981                     rtx memloc = assign_temp (nt, 1, 1, 1);
6982
6983                     mark_temp_addr_taken (memloc);
6984                     emit_move_insn (memloc, op0);
6985                     op0 = memloc;
6986                   }
6987               }
6988
6989             if (GET_CODE (op0) != MEM)
6990               abort ();
6991
6992             if (GET_MODE (offset_rtx) != ptr_mode)
6993               {
6994 #ifdef POINTERS_EXTEND_UNSIGNED
6995                 offset_rtx = convert_memory_address (ptr_mode, offset_rtx);
6996 #else
6997                 offset_rtx = convert_to_mode (ptr_mode, offset_rtx, 0);
6998 #endif
6999               }
7000
7001             /* A constant address in OP0 can have VOIDmode, we must not try
7002                to call force_reg for that case.  Avoid that case.  */
7003             if (GET_CODE (op0) == MEM
7004                 && GET_MODE (op0) == BLKmode
7005                 && GET_MODE (XEXP (op0, 0)) != VOIDmode
7006                 && bitsize != 0
7007                 && (bitpos % bitsize) == 0
7008                 && (bitsize % GET_MODE_ALIGNMENT (mode1)) == 0
7009                 && alignment == GET_MODE_ALIGNMENT (mode1))
7010               {
7011                 rtx temp = adjust_address (op0, mode1, bitpos / BITS_PER_UNIT);
7012
7013                 if (GET_CODE (XEXP (temp, 0)) == REG)
7014                   op0 = temp;
7015                 else
7016                   op0 = (replace_equiv_address
7017                          (op0,
7018                           force_reg (GET_MODE (XEXP (temp, 0)),
7019                                      XEXP (temp, 0))));
7020                 bitpos = 0;
7021               }
7022
7023             op0 = change_address (op0, VOIDmode,
7024                                   gen_rtx_PLUS (ptr_mode, XEXP (op0, 0),
7025                                                 force_reg (ptr_mode,
7026                                                            offset_rtx)));
7027           }
7028
7029         /* Don't forget about volatility even if this is a bitfield.  */
7030         if (GET_CODE (op0) == MEM && volatilep && ! MEM_VOLATILE_P (op0))
7031           {
7032             op0 = copy_rtx (op0);
7033             MEM_VOLATILE_P (op0) = 1;
7034           }
7035
7036         /* Check the access.  */
7037         if (cfun != 0 && current_function_check_memory_usage
7038             && GET_CODE (op0) == MEM)
7039           {
7040             enum memory_use_mode memory_usage;
7041             memory_usage = get_memory_usage_from_modifier (modifier);
7042
7043             if (memory_usage != MEMORY_USE_DONT)
7044               {
7045                 rtx to;
7046                 int size;
7047
7048                 to = plus_constant (XEXP (op0, 0), (bitpos / BITS_PER_UNIT));
7049                 size = (bitpos % BITS_PER_UNIT) + bitsize + BITS_PER_UNIT - 1;
7050
7051                 /* Check the access right of the pointer.  */
7052                 in_check_memory_usage = 1;
7053                 if (size > BITS_PER_UNIT)
7054                   emit_library_call (chkr_check_addr_libfunc,
7055                                      LCT_CONST_MAKE_BLOCK, VOIDmode, 3, to,
7056                                      Pmode, GEN_INT (size / BITS_PER_UNIT),
7057                                      TYPE_MODE (sizetype),
7058                                      GEN_INT (memory_usage),
7059                                      TYPE_MODE (integer_type_node));
7060                 in_check_memory_usage = 0;
7061               }
7062           }
7063
7064         /* In cases where an aligned union has an unaligned object
7065            as a field, we might be extracting a BLKmode value from
7066            an integer-mode (e.g., SImode) object.  Handle this case
7067            by doing the extract into an object as wide as the field
7068            (which we know to be the width of a basic mode), then
7069            storing into memory, and changing the mode to BLKmode.  */
7070         if (mode1 == VOIDmode
7071             || GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
7072             || (mode1 != BLKmode && ! direct_load[(int) mode1]
7073                 && GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
7074                 && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT
7075                 && modifier != EXPAND_CONST_ADDRESS
7076                 && modifier != EXPAND_INITIALIZER)
7077             /* If the field isn't aligned enough to fetch as a memref,
7078                fetch it as a bit field.  */
7079             || (mode1 != BLKmode
7080                 && SLOW_UNALIGNED_ACCESS (mode1, alignment)
7081                 && ((TYPE_ALIGN (TREE_TYPE (tem))
7082                      < GET_MODE_ALIGNMENT (mode))
7083                     || (bitpos % GET_MODE_ALIGNMENT (mode) != 0)))
7084             /* If the type and the field are a constant size and the
7085                size of the type isn't the same size as the bitfield,
7086                we must use bitfield operations.  */
7087             || (bitsize >= 0
7088                 && (TREE_CODE (TYPE_SIZE (TREE_TYPE (exp)))
7089                     == INTEGER_CST)
7090                 && 0 != compare_tree_int (TYPE_SIZE (TREE_TYPE (exp)),
7091                                           bitsize))
7092             || (mode == BLKmode
7093                 && SLOW_UNALIGNED_ACCESS (mode, alignment)
7094                 && (TYPE_ALIGN (type) > alignment
7095                     || bitpos % TYPE_ALIGN (type) != 0)))
7096           {
7097             enum machine_mode ext_mode = mode;
7098
7099             if (ext_mode == BLKmode
7100                 && ! (target != 0 && GET_CODE (op0) == MEM
7101                       && GET_CODE (target) == MEM
7102                       && bitpos % BITS_PER_UNIT == 0))
7103               ext_mode = mode_for_size (bitsize, MODE_INT, 1);
7104
7105             if (ext_mode == BLKmode)
7106               {
7107                 /* In this case, BITPOS must start at a byte boundary and
7108                    TARGET, if specified, must be a MEM.  */
7109                 if (GET_CODE (op0) != MEM
7110                     || (target != 0 && GET_CODE (target) != MEM)
7111                     || bitpos % BITS_PER_UNIT != 0)
7112                   abort ();
7113
7114                 op0 = adjust_address (op0, VOIDmode, bitpos / BITS_PER_UNIT);
7115                 if (target == 0)
7116                   target = assign_temp (type, 0, 1, 1);
7117
7118                 emit_block_move (target, op0,
7119                                  bitsize == -1 ? expr_size  (exp)
7120                                  : GEN_INT ((bitsize + BITS_PER_UNIT - 1)
7121                                             / BITS_PER_UNIT),
7122                                  BITS_PER_UNIT);
7123
7124                 return target;
7125               }
7126
7127             op0 = validize_mem (op0);
7128
7129             if (GET_CODE (op0) == MEM && GET_CODE (XEXP (op0, 0)) == REG)
7130               mark_reg_pointer (XEXP (op0, 0), alignment);
7131
7132             op0 = extract_bit_field (op0, bitsize, bitpos,
7133                                      unsignedp, target, ext_mode, ext_mode,
7134                                      alignment,
7135                                      int_size_in_bytes (TREE_TYPE (tem)));
7136
7137             /* If the result is a record type and BITSIZE is narrower than
7138                the mode of OP0, an integral mode, and this is a big endian
7139                machine, we must put the field into the high-order bits.  */
7140             if (TREE_CODE (type) == RECORD_TYPE && BYTES_BIG_ENDIAN
7141                 && GET_MODE_CLASS (GET_MODE (op0)) == MODE_INT
7142                 && bitsize < GET_MODE_BITSIZE (GET_MODE (op0)))
7143               op0 = expand_shift (LSHIFT_EXPR, GET_MODE (op0), op0,
7144                                   size_int (GET_MODE_BITSIZE (GET_MODE (op0))
7145                                             - bitsize),
7146                                   op0, 1);
7147
7148             if (mode == BLKmode)
7149               {
7150                 tree nt = build_qualified_type (type_for_mode (ext_mode, 0),
7151                                                 TYPE_QUAL_CONST);
7152                 rtx new = assign_temp (nt, 0, 1, 1);
7153
7154                 emit_move_insn (new, op0);
7155                 op0 = copy_rtx (new);
7156                 PUT_MODE (op0, BLKmode);
7157               }
7158
7159             return op0;
7160           }
7161
7162         /* If the result is BLKmode, use that to access the object
7163            now as well.  */
7164         if (mode == BLKmode)
7165           mode1 = BLKmode;
7166
7167         /* Get a reference to just this component.  */
7168         if (modifier == EXPAND_CONST_ADDRESS
7169             || modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
7170           op0 = adjust_address_nv (op0, mode1, bitpos / BITS_PER_UNIT);
7171         else
7172           op0 = adjust_address (op0, mode1, bitpos / BITS_PER_UNIT);
7173
7174         set_mem_attributes (op0, exp, 0);
7175         if (GET_CODE (XEXP (op0, 0)) == REG)
7176           mark_reg_pointer (XEXP (op0, 0), alignment);
7177
7178         MEM_VOLATILE_P (op0) |= volatilep;
7179         if (mode == mode1 || mode1 == BLKmode || mode1 == tmode
7180             || modifier == EXPAND_CONST_ADDRESS
7181             || modifier == EXPAND_INITIALIZER)
7182           return op0;
7183         else if (target == 0)
7184           target = gen_reg_rtx (tmode != VOIDmode ? tmode : mode);
7185
7186         convert_move (target, op0, unsignedp);
7187         return target;
7188       }
7189
7190       /* Intended for a reference to a buffer of a file-object in Pascal.
7191          But it's not certain that a special tree code will really be
7192          necessary for these.  INDIRECT_REF might work for them.  */
7193     case BUFFER_REF:
7194       abort ();
7195
7196     case IN_EXPR:
7197       {
7198         /* Pascal set IN expression.
7199
7200            Algorithm:
7201                rlo       = set_low - (set_low%bits_per_word);
7202                the_word  = set [ (index - rlo)/bits_per_word ];
7203                bit_index = index % bits_per_word;
7204                bitmask   = 1 << bit_index;
7205                return !!(the_word & bitmask);  */
7206
7207         tree set = TREE_OPERAND (exp, 0);
7208         tree index = TREE_OPERAND (exp, 1);
7209         int iunsignedp = TREE_UNSIGNED (TREE_TYPE (index));
7210         tree set_type = TREE_TYPE (set);
7211         tree set_low_bound = TYPE_MIN_VALUE (TYPE_DOMAIN (set_type));
7212         tree set_high_bound = TYPE_MAX_VALUE (TYPE_DOMAIN (set_type));
7213         rtx index_val = expand_expr (index, 0, VOIDmode, 0);
7214         rtx lo_r = expand_expr (set_low_bound, 0, VOIDmode, 0);
7215         rtx hi_r = expand_expr (set_high_bound, 0, VOIDmode, 0);
7216         rtx setval = expand_expr (set, 0, VOIDmode, 0);
7217         rtx setaddr = XEXP (setval, 0);
7218         enum machine_mode index_mode = TYPE_MODE (TREE_TYPE (index));
7219         rtx rlow;
7220         rtx diff, quo, rem, addr, bit, result;
7221
7222         /* If domain is empty, answer is no.  Likewise if index is constant
7223            and out of bounds.  */
7224         if (((TREE_CODE (set_high_bound) == INTEGER_CST
7225              && TREE_CODE (set_low_bound) == INTEGER_CST
7226              && tree_int_cst_lt (set_high_bound, set_low_bound))
7227              || (TREE_CODE (index) == INTEGER_CST
7228                  && TREE_CODE (set_low_bound) == INTEGER_CST
7229                  && tree_int_cst_lt (index, set_low_bound))
7230              || (TREE_CODE (set_high_bound) == INTEGER_CST
7231                  && TREE_CODE (index) == INTEGER_CST
7232                  && tree_int_cst_lt (set_high_bound, index))))
7233           return const0_rtx;
7234
7235         if (target == 0)
7236           target = gen_reg_rtx (tmode != VOIDmode ? tmode : mode);
7237
7238         /* If we get here, we have to generate the code for both cases
7239            (in range and out of range).  */
7240
7241         op0 = gen_label_rtx ();
7242         op1 = gen_label_rtx ();
7243
7244         if (! (GET_CODE (index_val) == CONST_INT
7245                && GET_CODE (lo_r) == CONST_INT))
7246           {
7247             emit_cmp_and_jump_insns (index_val, lo_r, LT, NULL_RTX,
7248                                      GET_MODE (index_val), iunsignedp, 0, op1);
7249           }
7250
7251         if (! (GET_CODE (index_val) == CONST_INT
7252                && GET_CODE (hi_r) == CONST_INT))
7253           {
7254             emit_cmp_and_jump_insns (index_val, hi_r, GT, NULL_RTX,
7255                                      GET_MODE (index_val), iunsignedp, 0, op1);
7256           }
7257
7258         /* Calculate the element number of bit zero in the first word
7259            of the set.  */
7260         if (GET_CODE (lo_r) == CONST_INT)
7261           rlow = GEN_INT (INTVAL (lo_r)
7262                           & ~((HOST_WIDE_INT) 1 << BITS_PER_UNIT));
7263         else
7264           rlow = expand_binop (index_mode, and_optab, lo_r,
7265                                GEN_INT (~((HOST_WIDE_INT) 1 << BITS_PER_UNIT)),
7266                                NULL_RTX, iunsignedp, OPTAB_LIB_WIDEN);
7267
7268         diff = expand_binop (index_mode, sub_optab, index_val, rlow,
7269                              NULL_RTX, iunsignedp, OPTAB_LIB_WIDEN);
7270
7271         quo = expand_divmod (0, TRUNC_DIV_EXPR, index_mode, diff,
7272                              GEN_INT (BITS_PER_UNIT), NULL_RTX, iunsignedp);
7273         rem = expand_divmod (1, TRUNC_MOD_EXPR, index_mode, index_val,
7274                              GEN_INT (BITS_PER_UNIT), NULL_RTX, iunsignedp);
7275
7276         addr = memory_address (byte_mode,
7277                                expand_binop (index_mode, add_optab, diff,
7278                                              setaddr, NULL_RTX, iunsignedp,
7279                                              OPTAB_LIB_WIDEN));
7280
7281         /* Extract the bit we want to examine.  */
7282         bit = expand_shift (RSHIFT_EXPR, byte_mode,
7283                             gen_rtx_MEM (byte_mode, addr),
7284                             make_tree (TREE_TYPE (index), rem),
7285                             NULL_RTX, 1);
7286         result = expand_binop (byte_mode, and_optab, bit, const1_rtx,
7287                                GET_MODE (target) == byte_mode ? target : 0,
7288                                1, OPTAB_LIB_WIDEN);
7289
7290         if (result != target)
7291           convert_move (target, result, 1);
7292
7293         /* Output the code to handle the out-of-range case.  */
7294         emit_jump (op0);
7295         emit_label (op1);
7296         emit_move_insn (target, const0_rtx);
7297         emit_label (op0);
7298         return target;
7299       }
7300
7301     case WITH_CLEANUP_EXPR:
7302       if (WITH_CLEANUP_EXPR_RTL (exp) == 0)
7303         {
7304           WITH_CLEANUP_EXPR_RTL (exp)
7305             = expand_expr (TREE_OPERAND (exp, 0), target, tmode, ro_modifier);
7306           expand_decl_cleanup (NULL_TREE, TREE_OPERAND (exp, 1));
7307
7308           /* That's it for this cleanup.  */
7309           TREE_OPERAND (exp, 1) = 0;
7310         }
7311       return WITH_CLEANUP_EXPR_RTL (exp);
7312
7313     case CLEANUP_POINT_EXPR:
7314       {
7315         /* Start a new binding layer that will keep track of all cleanup
7316            actions to be performed.  */
7317         expand_start_bindings (2);
7318
7319         target_temp_slot_level = temp_slot_level;
7320
7321         op0 = expand_expr (TREE_OPERAND (exp, 0), target, tmode, ro_modifier);
7322         /* If we're going to use this value, load it up now.  */
7323         if (! ignore)
7324           op0 = force_not_mem (op0);
7325         preserve_temp_slots (op0);
7326         expand_end_bindings (NULL_TREE, 0, 0);
7327       }
7328       return op0;
7329
7330     case CALL_EXPR:
7331       /* Check for a built-in function.  */
7332       if (TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR
7333           && (TREE_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
7334               == FUNCTION_DECL)
7335           && DECL_BUILT_IN (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)))
7336         {
7337           if (DECL_BUILT_IN_CLASS (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
7338               == BUILT_IN_FRONTEND)
7339             return (*lang_expand_expr) (exp, original_target, tmode, modifier);
7340           else
7341             return expand_builtin (exp, target, subtarget, tmode, ignore);
7342         }
7343
7344       return expand_call (exp, target, ignore);
7345
7346     case NON_LVALUE_EXPR:
7347     case NOP_EXPR:
7348     case CONVERT_EXPR:
7349     case REFERENCE_EXPR:
7350       if (TREE_OPERAND (exp, 0) == error_mark_node)
7351         return const0_rtx;
7352
7353       if (TREE_CODE (type) == UNION_TYPE)
7354         {
7355           tree valtype = TREE_TYPE (TREE_OPERAND (exp, 0));
7356
7357           /* If both input and output are BLKmode, this conversion
7358              isn't actually doing anything unless we need to make the
7359              alignment stricter.  */
7360           if (mode == BLKmode && TYPE_MODE (valtype) == BLKmode
7361               && (TYPE_ALIGN (type) <= TYPE_ALIGN (valtype)
7362                   || TYPE_ALIGN (type) >= BIGGEST_ALIGNMENT))
7363             return expand_expr (TREE_OPERAND (exp, 0), target, tmode,
7364                                 modifier);
7365
7366           if (target == 0)
7367             target = assign_temp (type, 0, 1, 1);
7368
7369           if (GET_CODE (target) == MEM)
7370             /* Store data into beginning of memory target.  */
7371             store_expr (TREE_OPERAND (exp, 0),
7372                         adjust_address (target, TYPE_MODE (valtype), 0), 0);
7373
7374           else if (GET_CODE (target) == REG)
7375             /* Store this field into a union of the proper type.  */
7376             store_field (target,
7377                          MIN ((int_size_in_bytes (TREE_TYPE
7378                                                   (TREE_OPERAND (exp, 0)))
7379                                * BITS_PER_UNIT),
7380                               (HOST_WIDE_INT) GET_MODE_BITSIZE (mode)),
7381                          0, TYPE_MODE (valtype), TREE_OPERAND (exp, 0),
7382                          VOIDmode, 0, BITS_PER_UNIT,
7383                          int_size_in_bytes (type), 0);
7384           else
7385             abort ();
7386
7387           /* Return the entire union.  */
7388           return target;
7389         }
7390
7391       if (mode == TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))))
7392         {
7393           op0 = expand_expr (TREE_OPERAND (exp, 0), target, VOIDmode,
7394                              ro_modifier);
7395
7396           /* If the signedness of the conversion differs and OP0 is
7397              a promoted SUBREG, clear that indication since we now
7398              have to do the proper extension.  */
7399           if (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0))) != unsignedp
7400               && GET_CODE (op0) == SUBREG)
7401             SUBREG_PROMOTED_VAR_P (op0) = 0;
7402
7403           return op0;
7404         }
7405
7406       op0 = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, mode, 0);
7407       if (GET_MODE (op0) == mode)
7408         return op0;
7409
7410       /* If OP0 is a constant, just convert it into the proper mode.  */
7411       if (CONSTANT_P (op0))
7412         return
7413           convert_modes (mode, TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))),
7414                          op0, TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0))));
7415
7416       if (modifier == EXPAND_INITIALIZER)
7417         return gen_rtx_fmt_e (unsignedp ? ZERO_EXTEND : SIGN_EXTEND, mode, op0);
7418
7419       if (target == 0)
7420         return
7421           convert_to_mode (mode, op0,
7422                            TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0))));
7423       else
7424         convert_move (target, op0,
7425                       TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0))));
7426       return target;
7427
7428     case PLUS_EXPR:
7429       /* We come here from MINUS_EXPR when the second operand is a
7430          constant.  */
7431     plus_expr:
7432       this_optab = ! unsignedp && flag_trapv
7433                    && (GET_MODE_CLASS(mode) == MODE_INT)
7434                    ? addv_optab : add_optab;
7435
7436       /* If we are adding a constant, an RTL_EXPR that is sp, fp, or ap, and
7437          something else, make sure we add the register to the constant and
7438          then to the other thing.  This case can occur during strength
7439          reduction and doing it this way will produce better code if the
7440          frame pointer or argument pointer is eliminated.
7441
7442          fold-const.c will ensure that the constant is always in the inner
7443          PLUS_EXPR, so the only case we need to do anything about is if
7444          sp, ap, or fp is our second argument, in which case we must swap
7445          the innermost first argument and our second argument.  */
7446
7447       if (TREE_CODE (TREE_OPERAND (exp, 0)) == PLUS_EXPR
7448           && TREE_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 1)) == INTEGER_CST
7449           && TREE_CODE (TREE_OPERAND (exp, 1)) == RTL_EXPR
7450           && (RTL_EXPR_RTL (TREE_OPERAND (exp, 1)) == frame_pointer_rtx
7451               || RTL_EXPR_RTL (TREE_OPERAND (exp, 1)) == stack_pointer_rtx
7452               || RTL_EXPR_RTL (TREE_OPERAND (exp, 1)) == arg_pointer_rtx))
7453         {
7454           tree t = TREE_OPERAND (exp, 1);
7455
7456           TREE_OPERAND (exp, 1) = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
7457           TREE_OPERAND (TREE_OPERAND (exp, 0), 0) = t;
7458         }
7459
7460       /* If the result is to be ptr_mode and we are adding an integer to
7461          something, we might be forming a constant.  So try to use
7462          plus_constant.  If it produces a sum and we can't accept it,
7463          use force_operand.  This allows P = &ARR[const] to generate
7464          efficient code on machines where a SYMBOL_REF is not a valid
7465          address.
7466
7467          If this is an EXPAND_SUM call, always return the sum.  */
7468       if (modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER
7469           || (mode == ptr_mode && (unsignedp || ! flag_trapv)))
7470         {
7471           if (TREE_CODE (TREE_OPERAND (exp, 0)) == INTEGER_CST
7472               && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_WIDE_INT
7473               && TREE_CONSTANT (TREE_OPERAND (exp, 1)))
7474             {
7475               rtx constant_part;
7476
7477               op1 = expand_expr (TREE_OPERAND (exp, 1), subtarget, VOIDmode,
7478                                  EXPAND_SUM);
7479               /* Use immed_double_const to ensure that the constant is
7480                  truncated according to the mode of OP1, then sign extended
7481                  to a HOST_WIDE_INT.  Using the constant directly can result
7482                  in non-canonical RTL in a 64x32 cross compile.  */
7483               constant_part
7484                 = immed_double_const (TREE_INT_CST_LOW (TREE_OPERAND (exp, 0)),
7485                                       (HOST_WIDE_INT) 0,
7486                                       TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 1))));
7487               op1 = plus_constant (op1, INTVAL (constant_part));
7488               if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
7489                 op1 = force_operand (op1, target);
7490               return op1;
7491             }
7492
7493           else if (TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST
7494                    && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_INT
7495                    && TREE_CONSTANT (TREE_OPERAND (exp, 0)))
7496             {
7497               rtx constant_part;
7498
7499               op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode,
7500                                  EXPAND_SUM);
7501               if (! CONSTANT_P (op0))
7502                 {
7503                   op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX,
7504                                      VOIDmode, modifier);
7505                   /* Don't go to both_summands if modifier
7506                      says it's not right to return a PLUS.  */
7507                   if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
7508                     goto binop2;
7509                   goto both_summands;
7510                 }
7511               /* Use immed_double_const to ensure that the constant is
7512                  truncated according to the mode of OP1, then sign extended
7513                  to a HOST_WIDE_INT.  Using the constant directly can result
7514                  in non-canonical RTL in a 64x32 cross compile.  */
7515               constant_part
7516                 = immed_double_const (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)),
7517                                       (HOST_WIDE_INT) 0,
7518                                       TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))));
7519               op0 = plus_constant (op0, INTVAL (constant_part));
7520               if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
7521                 op0 = force_operand (op0, target);
7522               return op0;
7523             }
7524         }
7525
7526       /* No sense saving up arithmetic to be done
7527          if it's all in the wrong mode to form part of an address.
7528          And force_operand won't know whether to sign-extend or
7529          zero-extend.  */
7530       if ((modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
7531           || mode != ptr_mode)
7532         goto binop;
7533
7534       if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
7535         subtarget = 0;
7536
7537       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, ro_modifier);
7538       op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, ro_modifier);
7539
7540     both_summands:
7541       /* Make sure any term that's a sum with a constant comes last.  */
7542       if (GET_CODE (op0) == PLUS
7543           && CONSTANT_P (XEXP (op0, 1)))
7544         {
7545           temp = op0;
7546           op0 = op1;
7547           op1 = temp;
7548         }
7549       /* If adding to a sum including a constant,
7550          associate it to put the constant outside.  */
7551       if (GET_CODE (op1) == PLUS
7552           && CONSTANT_P (XEXP (op1, 1)))
7553         {
7554           rtx constant_term = const0_rtx;
7555
7556           temp = simplify_binary_operation (PLUS, mode, XEXP (op1, 0), op0);
7557           if (temp != 0)
7558             op0 = temp;
7559           /* Ensure that MULT comes first if there is one.  */
7560           else if (GET_CODE (op0) == MULT)
7561             op0 = gen_rtx_PLUS (mode, op0, XEXP (op1, 0));
7562           else
7563             op0 = gen_rtx_PLUS (mode, XEXP (op1, 0), op0);
7564
7565           /* Let's also eliminate constants from op0 if possible.  */
7566           op0 = eliminate_constant_term (op0, &constant_term);
7567
7568           /* CONSTANT_TERM and XEXP (op1, 1) are known to be constant, so
7569              their sum should be a constant.  Form it into OP1, since the
7570              result we want will then be OP0 + OP1.  */
7571
7572           temp = simplify_binary_operation (PLUS, mode, constant_term,
7573                                             XEXP (op1, 1));
7574           if (temp != 0)
7575             op1 = temp;
7576           else
7577             op1 = gen_rtx_PLUS (mode, constant_term, XEXP (op1, 1));
7578         }
7579
7580       /* Put a constant term last and put a multiplication first.  */
7581       if (CONSTANT_P (op0) || GET_CODE (op1) == MULT)
7582         temp = op1, op1 = op0, op0 = temp;
7583
7584       temp = simplify_binary_operation (PLUS, mode, op0, op1);
7585       return temp ? temp : gen_rtx_PLUS (mode, op0, op1);
7586
7587     case MINUS_EXPR:
7588       /* For initializers, we are allowed to return a MINUS of two
7589          symbolic constants.  Here we handle all cases when both operands
7590          are constant.  */
7591       /* Handle difference of two symbolic constants,
7592          for the sake of an initializer.  */
7593       if ((modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
7594           && really_constant_p (TREE_OPERAND (exp, 0))
7595           && really_constant_p (TREE_OPERAND (exp, 1)))
7596         {
7597           rtx op0 = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX,
7598                                  VOIDmode, ro_modifier);
7599           rtx op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX,
7600                                  VOIDmode, ro_modifier);
7601
7602           /* If the last operand is a CONST_INT, use plus_constant of
7603              the negated constant.  Else make the MINUS.  */
7604           if (GET_CODE (op1) == CONST_INT)
7605             return plus_constant (op0, - INTVAL (op1));
7606           else
7607             return gen_rtx_MINUS (mode, op0, op1);
7608         }
7609       /* Convert A - const to A + (-const).  */
7610       if (TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST)
7611         {
7612           tree negated = fold (build1 (NEGATE_EXPR, type,
7613                                        TREE_OPERAND (exp, 1)));
7614
7615           if (TREE_UNSIGNED (type) || TREE_OVERFLOW (negated))
7616             /* If we can't negate the constant in TYPE, leave it alone and
7617                expand_binop will negate it for us.  We used to try to do it
7618                here in the signed version of TYPE, but that doesn't work
7619                on POINTER_TYPEs.  */;
7620           else
7621             {
7622               exp = build (PLUS_EXPR, type, TREE_OPERAND (exp, 0), negated);
7623               goto plus_expr;
7624             }
7625         }
7626       this_optab = ! unsignedp && flag_trapv
7627                    && (GET_MODE_CLASS(mode) == MODE_INT)
7628                    ? subv_optab : sub_optab;
7629       goto binop;
7630
7631     case MULT_EXPR:
7632       /* If first operand is constant, swap them.
7633          Thus the following special case checks need only
7634          check the second operand.  */
7635       if (TREE_CODE (TREE_OPERAND (exp, 0)) == INTEGER_CST)
7636         {
7637           register tree t1 = TREE_OPERAND (exp, 0);
7638           TREE_OPERAND (exp, 0) = TREE_OPERAND (exp, 1);
7639           TREE_OPERAND (exp, 1) = t1;
7640         }
7641
7642       /* Attempt to return something suitable for generating an
7643          indexed address, for machines that support that.  */
7644
7645       if (modifier == EXPAND_SUM && mode == ptr_mode
7646           && TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST
7647           && GET_MODE_BITSIZE (mode) <= HOST_BITS_PER_WIDE_INT)
7648         {
7649           op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode,
7650                              EXPAND_SUM);
7651
7652           /* Apply distributive law if OP0 is x+c.  */
7653           if (GET_CODE (op0) == PLUS
7654               && GET_CODE (XEXP (op0, 1)) == CONST_INT)
7655             return
7656               gen_rtx_PLUS
7657                 (mode,
7658                  gen_rtx_MULT
7659                  (mode, XEXP (op0, 0),
7660                   GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1)))),
7661                  GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))
7662                           * INTVAL (XEXP (op0, 1))));
7663
7664           if (GET_CODE (op0) != REG)
7665             op0 = force_operand (op0, NULL_RTX);
7666           if (GET_CODE (op0) != REG)
7667             op0 = copy_to_mode_reg (mode, op0);
7668
7669           return
7670             gen_rtx_MULT (mode, op0,
7671                           GEN_INT (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))));
7672         }
7673
7674       if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
7675         subtarget = 0;
7676
7677       /* Check for multiplying things that have been extended
7678          from a narrower type.  If this machine supports multiplying
7679          in that narrower type with a result in the desired type,
7680          do it that way, and avoid the explicit type-conversion.  */
7681       if (TREE_CODE (TREE_OPERAND (exp, 0)) == NOP_EXPR
7682           && TREE_CODE (type) == INTEGER_TYPE
7683           && (TYPE_PRECISION (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)))
7684               < TYPE_PRECISION (TREE_TYPE (TREE_OPERAND (exp, 0))))
7685           && ((TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST
7686                && int_fits_type_p (TREE_OPERAND (exp, 1),
7687                                    TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)))
7688                /* Don't use a widening multiply if a shift will do.  */
7689                && ((GET_MODE_BITSIZE (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 1))))
7690                     > HOST_BITS_PER_WIDE_INT)
7691                    || exact_log2 (TREE_INT_CST_LOW (TREE_OPERAND (exp, 1))) < 0))
7692               ||
7693               (TREE_CODE (TREE_OPERAND (exp, 1)) == NOP_EXPR
7694                && (TYPE_PRECISION (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 1), 0)))
7695                    ==
7696                    TYPE_PRECISION (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))))
7697                /* If both operands are extended, they must either both
7698                   be zero-extended or both be sign-extended.  */
7699                && (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 1), 0)))
7700                    ==
7701                    TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)))))))
7702         {
7703           enum machine_mode innermode
7704             = TYPE_MODE (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)));
7705           optab other_optab = (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)))
7706                         ? smul_widen_optab : umul_widen_optab);
7707           this_optab = (TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)))
7708                         ? umul_widen_optab : smul_widen_optab);
7709           if (mode == GET_MODE_WIDER_MODE (innermode))
7710             {
7711               if (this_optab->handlers[(int) mode].insn_code != CODE_FOR_nothing)
7712                 {
7713                   op0 = expand_expr (TREE_OPERAND (TREE_OPERAND (exp, 0), 0),
7714                                      NULL_RTX, VOIDmode, 0);
7715                   if (TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST)
7716                     op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX,
7717                                        VOIDmode, 0);
7718                   else
7719                     op1 = expand_expr (TREE_OPERAND (TREE_OPERAND (exp, 1), 0),
7720                                        NULL_RTX, VOIDmode, 0);
7721                   goto binop2;
7722                 }
7723               else if (other_optab->handlers[(int) mode].insn_code != CODE_FOR_nothing
7724                        && innermode == word_mode)
7725                 {
7726                   rtx htem;
7727                   op0 = expand_expr (TREE_OPERAND (TREE_OPERAND (exp, 0), 0),
7728                                      NULL_RTX, VOIDmode, 0);
7729                   if (TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST)
7730                     op1 = convert_modes (innermode, mode,
7731                                          expand_expr (TREE_OPERAND (exp, 1),
7732                                                       NULL_RTX, VOIDmode, 0),
7733                                          unsignedp);
7734                   else
7735                     op1 = expand_expr (TREE_OPERAND (TREE_OPERAND (exp, 1), 0),
7736                                        NULL_RTX, VOIDmode, 0);
7737                   temp = expand_binop (mode, other_optab, op0, op1, target,
7738                                        unsignedp, OPTAB_LIB_WIDEN);
7739                   htem = expand_mult_highpart_adjust (innermode,
7740                                                       gen_highpart (innermode, temp),
7741                                                       op0, op1,
7742                                                       gen_highpart (innermode, temp),
7743                                                       unsignedp);
7744                   emit_move_insn (gen_highpart (innermode, temp), htem);
7745                   return temp;
7746                 }
7747             }
7748         }
7749       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7750       op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
7751       return expand_mult (mode, op0, op1, target, unsignedp);
7752
7753     case TRUNC_DIV_EXPR:
7754     case FLOOR_DIV_EXPR:
7755     case CEIL_DIV_EXPR:
7756     case ROUND_DIV_EXPR:
7757     case EXACT_DIV_EXPR:
7758       if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
7759         subtarget = 0;
7760       /* Possible optimization: compute the dividend with EXPAND_SUM
7761          then if the divisor is constant can optimize the case
7762          where some terms of the dividend have coeffs divisible by it.  */
7763       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7764       op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
7765       return expand_divmod (0, code, mode, op0, op1, target, unsignedp);
7766
7767     case RDIV_EXPR:
7768       /* Emit a/b as a*(1/b).  Later we may manage CSE the reciprocal saving
7769          expensive divide.  If not, combine will rebuild the original
7770          computation.  */
7771       if (flag_unsafe_math_optimizations && optimize && !optimize_size
7772           && !real_onep (TREE_OPERAND (exp, 0)))
7773         return expand_expr (build (MULT_EXPR, type, TREE_OPERAND (exp, 0),
7774                                    build (RDIV_EXPR, type,
7775                                           build_real (type, dconst1),
7776                                           TREE_OPERAND (exp, 1))),
7777                             target, tmode, unsignedp);
7778       this_optab = sdiv_optab;
7779       goto binop;
7780
7781     case TRUNC_MOD_EXPR:
7782     case FLOOR_MOD_EXPR:
7783     case CEIL_MOD_EXPR:
7784     case ROUND_MOD_EXPR:
7785       if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
7786         subtarget = 0;
7787       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7788       op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
7789       return expand_divmod (1, code, mode, op0, op1, target, unsignedp);
7790
7791     case FIX_ROUND_EXPR:
7792     case FIX_FLOOR_EXPR:
7793     case FIX_CEIL_EXPR:
7794       abort ();                 /* Not used for C.  */
7795
7796     case FIX_TRUNC_EXPR:
7797       op0 = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, VOIDmode, 0);
7798       if (target == 0)
7799         target = gen_reg_rtx (mode);
7800       expand_fix (target, op0, unsignedp);
7801       return target;
7802
7803     case FLOAT_EXPR:
7804       op0 = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, VOIDmode, 0);
7805       if (target == 0)
7806         target = gen_reg_rtx (mode);
7807       /* expand_float can't figure out what to do if FROM has VOIDmode.
7808          So give it the correct mode.  With -O, cse will optimize this.  */
7809       if (GET_MODE (op0) == VOIDmode)
7810         op0 = copy_to_mode_reg (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))),
7811                                 op0);
7812       expand_float (target, op0,
7813                     TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0))));
7814       return target;
7815
7816     case NEGATE_EXPR:
7817       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7818       temp = expand_unop (mode,
7819                           ! unsignedp && flag_trapv
7820                           && (GET_MODE_CLASS(mode) == MODE_INT)
7821                           ? negv_optab : neg_optab, op0, target, 0);
7822       if (temp == 0)
7823         abort ();
7824       return temp;
7825
7826     case ABS_EXPR:
7827       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7828
7829       /* Handle complex values specially.  */
7830       if (GET_MODE_CLASS (mode) == MODE_COMPLEX_INT
7831           || GET_MODE_CLASS (mode) == MODE_COMPLEX_FLOAT)
7832         return expand_complex_abs (mode, op0, target, unsignedp);
7833
7834       /* Unsigned abs is simply the operand.  Testing here means we don't
7835          risk generating incorrect code below.  */
7836       if (TREE_UNSIGNED (type))
7837         return op0;
7838
7839       return expand_abs (mode, op0, target, unsignedp,
7840                          safe_from_p (target, TREE_OPERAND (exp, 0), 1));
7841
7842     case MAX_EXPR:
7843     case MIN_EXPR:
7844       target = original_target;
7845       if (target == 0 || ! safe_from_p (target, TREE_OPERAND (exp, 1), 1)
7846           || (GET_CODE (target) == MEM && MEM_VOLATILE_P (target))
7847           || GET_MODE (target) != mode
7848           || (GET_CODE (target) == REG
7849               && REGNO (target) < FIRST_PSEUDO_REGISTER))
7850         target = gen_reg_rtx (mode);
7851       op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
7852       op0 = expand_expr (TREE_OPERAND (exp, 0), target, VOIDmode, 0);
7853
7854       /* First try to do it with a special MIN or MAX instruction.
7855          If that does not win, use a conditional jump to select the proper
7856          value.  */
7857       this_optab = (TREE_UNSIGNED (type)
7858                     ? (code == MIN_EXPR ? umin_optab : umax_optab)
7859                     : (code == MIN_EXPR ? smin_optab : smax_optab));
7860
7861       temp = expand_binop (mode, this_optab, op0, op1, target, unsignedp,
7862                            OPTAB_WIDEN);
7863       if (temp != 0)
7864         return temp;
7865
7866       /* At this point, a MEM target is no longer useful; we will get better
7867          code without it.  */
7868
7869       if (GET_CODE (target) == MEM)
7870         target = gen_reg_rtx (mode);
7871
7872       if (target != op0)
7873         emit_move_insn (target, op0);
7874
7875       op0 = gen_label_rtx ();
7876
7877       /* If this mode is an integer too wide to compare properly,
7878          compare word by word.  Rely on cse to optimize constant cases.  */
7879       if (GET_MODE_CLASS (mode) == MODE_INT
7880           && ! can_compare_p (GE, mode, ccp_jump))
7881         {
7882           if (code == MAX_EXPR)
7883             do_jump_by_parts_greater_rtx (mode, TREE_UNSIGNED (type),
7884                                           target, op1, NULL_RTX, op0);
7885           else
7886             do_jump_by_parts_greater_rtx (mode, TREE_UNSIGNED (type),
7887                                           op1, target, NULL_RTX, op0);
7888         }
7889       else
7890         {
7891           int unsignedp = TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 1)));
7892           do_compare_rtx_and_jump (target, op1, code == MAX_EXPR ? GE : LE,
7893                                    unsignedp, mode, NULL_RTX, 0, NULL_RTX,
7894                                    op0);
7895         }
7896       emit_move_insn (target, op1);
7897       emit_label (op0);
7898       return target;
7899
7900     case BIT_NOT_EXPR:
7901       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7902       temp = expand_unop (mode, one_cmpl_optab, op0, target, 1);
7903       if (temp == 0)
7904         abort ();
7905       return temp;
7906
7907     case FFS_EXPR:
7908       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7909       temp = expand_unop (mode, ffs_optab, op0, target, 1);
7910       if (temp == 0)
7911         abort ();
7912       return temp;
7913
7914       /* ??? Can optimize bitwise operations with one arg constant.
7915          Can optimize (a bitwise1 n) bitwise2 (a bitwise3 b)
7916          and (a bitwise1 b) bitwise2 b (etc)
7917          but that is probably not worth while.  */
7918
7919       /* BIT_AND_EXPR is for bitwise anding.  TRUTH_AND_EXPR is for anding two
7920          boolean values when we want in all cases to compute both of them.  In
7921          general it is fastest to do TRUTH_AND_EXPR by computing both operands
7922          as actual zero-or-1 values and then bitwise anding.  In cases where
7923          there cannot be any side effects, better code would be made by
7924          treating TRUTH_AND_EXPR like TRUTH_ANDIF_EXPR; but the question is
7925          how to recognize those cases.  */
7926
7927     case TRUTH_AND_EXPR:
7928     case BIT_AND_EXPR:
7929       this_optab = and_optab;
7930       goto binop;
7931
7932     case TRUTH_OR_EXPR:
7933     case BIT_IOR_EXPR:
7934       this_optab = ior_optab;
7935       goto binop;
7936
7937     case TRUTH_XOR_EXPR:
7938     case BIT_XOR_EXPR:
7939       this_optab = xor_optab;
7940       goto binop;
7941
7942     case LSHIFT_EXPR:
7943     case RSHIFT_EXPR:
7944     case LROTATE_EXPR:
7945     case RROTATE_EXPR:
7946       if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
7947         subtarget = 0;
7948       op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
7949       return expand_shift (code, mode, op0, TREE_OPERAND (exp, 1), target,
7950                            unsignedp);
7951
7952       /* Could determine the answer when only additive constants differ.  Also,
7953          the addition of one can be handled by changing the condition.  */
7954     case LT_EXPR:
7955     case LE_EXPR:
7956     case GT_EXPR:
7957     case GE_EXPR:
7958     case EQ_EXPR:
7959     case NE_EXPR:
7960     case UNORDERED_EXPR:
7961     case ORDERED_EXPR:
7962     case UNLT_EXPR:
7963     case UNLE_EXPR:
7964     case UNGT_EXPR:
7965     case UNGE_EXPR:
7966     case UNEQ_EXPR:
7967       temp = do_store_flag (exp, target, tmode != VOIDmode ? tmode : mode, 0);
7968       if (temp != 0)
7969         return temp;
7970
7971       /* For foo != 0, load foo, and if it is nonzero load 1 instead.  */
7972       if (code == NE_EXPR && integer_zerop (TREE_OPERAND (exp, 1))
7973           && original_target
7974           && GET_CODE (original_target) == REG
7975           && (GET_MODE (original_target)
7976               == TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)))))
7977         {
7978           temp = expand_expr (TREE_OPERAND (exp, 0), original_target,
7979                               VOIDmode, 0);
7980
7981           if (temp != original_target)
7982             temp = copy_to_reg (temp);
7983
7984           op1 = gen_label_rtx ();
7985           emit_cmp_and_jump_insns (temp, const0_rtx, EQ, NULL_RTX,
7986                                    GET_MODE (temp), unsignedp, 0, op1);
7987           emit_move_insn (temp, const1_rtx);
7988           emit_label (op1);
7989           return temp;
7990         }
7991
7992       /* If no set-flag instruction, must generate a conditional
7993          store into a temporary variable.  Drop through
7994          and handle this like && and ||.  */
7995
7996     case TRUTH_ANDIF_EXPR:
7997     case TRUTH_ORIF_EXPR:
7998       if (! ignore
7999           && (target == 0 || ! safe_from_p (target, exp, 1)
8000               /* Make sure we don't have a hard reg (such as function's return
8001                  value) live across basic blocks, if not optimizing.  */
8002               || (!optimize && GET_CODE (target) == REG
8003                   && REGNO (target) < FIRST_PSEUDO_REGISTER)))
8004         target = gen_reg_rtx (tmode != VOIDmode ? tmode : mode);
8005
8006       if (target)
8007         emit_clr_insn (target);
8008
8009       op1 = gen_label_rtx ();
8010       jumpifnot (exp, op1);
8011
8012       if (target)
8013         emit_0_to_1_insn (target);
8014
8015       emit_label (op1);
8016       return ignore ? const0_rtx : target;
8017
8018     case TRUTH_NOT_EXPR:
8019       op0 = expand_expr (TREE_OPERAND (exp, 0), target, VOIDmode, 0);
8020       /* The parser is careful to generate TRUTH_NOT_EXPR
8021          only with operands that are always zero or one.  */
8022       temp = expand_binop (mode, xor_optab, op0, const1_rtx,
8023                            target, 1, OPTAB_LIB_WIDEN);
8024       if (temp == 0)
8025         abort ();
8026       return temp;
8027
8028     case COMPOUND_EXPR:
8029       expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode, 0);
8030       emit_queue ();
8031       return expand_expr (TREE_OPERAND (exp, 1),
8032                           (ignore ? const0_rtx : target),
8033                           VOIDmode, 0);
8034
8035     case COND_EXPR:
8036       /* If we would have a "singleton" (see below) were it not for a
8037          conversion in each arm, bring that conversion back out.  */
8038       if (TREE_CODE (TREE_OPERAND (exp, 1)) == NOP_EXPR
8039           && TREE_CODE (TREE_OPERAND (exp, 2)) == NOP_EXPR
8040           && (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 1), 0))
8041               == TREE_TYPE (TREE_OPERAND (TREE_OPERAND (exp, 2), 0))))
8042         {
8043           tree iftrue = TREE_OPERAND (TREE_OPERAND (exp, 1), 0);
8044           tree iffalse = TREE_OPERAND (TREE_OPERAND (exp, 2), 0);
8045
8046           if ((TREE_CODE_CLASS (TREE_CODE (iftrue)) == '2'
8047                && operand_equal_p (iffalse, TREE_OPERAND (iftrue, 0), 0))
8048               || (TREE_CODE_CLASS (TREE_CODE (iffalse)) == '2'
8049                   && operand_equal_p (iftrue, TREE_OPERAND (iffalse, 0), 0))
8050               || (TREE_CODE_CLASS (TREE_CODE (iftrue)) == '1'
8051                   && operand_equal_p (iffalse, TREE_OPERAND (iftrue, 0), 0))
8052               || (TREE_CODE_CLASS (TREE_CODE (iffalse)) == '1'
8053                   && operand_equal_p (iftrue, TREE_OPERAND (iffalse, 0), 0)))
8054             return expand_expr (build1 (NOP_EXPR, type,
8055                                         build (COND_EXPR, TREE_TYPE (iftrue),
8056                                                TREE_OPERAND (exp, 0),
8057                                                iftrue, iffalse)),
8058                                 target, tmode, modifier);
8059         }
8060
8061       {
8062         /* Note that COND_EXPRs whose type is a structure or union
8063            are required to be constructed to contain assignments of
8064            a temporary variable, so that we can evaluate them here
8065            for side effect only.  If type is void, we must do likewise.  */
8066
8067         /* If an arm of the branch requires a cleanup,
8068            only that cleanup is performed.  */
8069
8070         tree singleton = 0;
8071         tree binary_op = 0, unary_op = 0;
8072
8073         /* If this is (A ? 1 : 0) and A is a condition, just evaluate it and
8074            convert it to our mode, if necessary.  */
8075         if (integer_onep (TREE_OPERAND (exp, 1))
8076             && integer_zerop (TREE_OPERAND (exp, 2))
8077             && TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 0))) == '<')
8078           {
8079             if (ignore)
8080               {
8081                 expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode,
8082                              ro_modifier);
8083                 return const0_rtx;
8084               }
8085
8086             op0 = expand_expr (TREE_OPERAND (exp, 0), target, mode, ro_modifier);
8087             if (GET_MODE (op0) == mode)
8088               return op0;
8089
8090             if (target == 0)
8091               target = gen_reg_rtx (mode);
8092             convert_move (target, op0, unsignedp);
8093             return target;
8094           }
8095
8096         /* Check for X ? A + B : A.  If we have this, we can copy A to the
8097            output and conditionally add B.  Similarly for unary operations.
8098            Don't do this if X has side-effects because those side effects
8099            might affect A or B and the "?" operation is a sequence point in
8100            ANSI.  (operand_equal_p tests for side effects.)  */
8101
8102         if (TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 1))) == '2'
8103             && operand_equal_p (TREE_OPERAND (exp, 2),
8104                                 TREE_OPERAND (TREE_OPERAND (exp, 1), 0), 0))
8105           singleton = TREE_OPERAND (exp, 2), binary_op = TREE_OPERAND (exp, 1);
8106         else if (TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 2))) == '2'
8107                  && operand_equal_p (TREE_OPERAND (exp, 1),
8108                                      TREE_OPERAND (TREE_OPERAND (exp, 2), 0), 0))
8109           singleton = TREE_OPERAND (exp, 1), binary_op = TREE_OPERAND (exp, 2);
8110         else if (TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 1))) == '1'
8111                  && operand_equal_p (TREE_OPERAND (exp, 2),
8112                                      TREE_OPERAND (TREE_OPERAND (exp, 1), 0), 0))
8113           singleton = TREE_OPERAND (exp, 2), unary_op = TREE_OPERAND (exp, 1);
8114         else if (TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 2))) == '1'
8115                  && operand_equal_p (TREE_OPERAND (exp, 1),
8116                                      TREE_OPERAND (TREE_OPERAND (exp, 2), 0), 0))
8117           singleton = TREE_OPERAND (exp, 1), unary_op = TREE_OPERAND (exp, 2);
8118
8119         /* If we are not to produce a result, we have no target.  Otherwise,
8120            if a target was specified use it; it will not be used as an
8121            intermediate target unless it is safe.  If no target, use a
8122            temporary.  */
8123
8124         if (ignore)
8125           temp = 0;
8126         else if (original_target
8127                  && (safe_from_p (original_target, TREE_OPERAND (exp, 0), 1)
8128                      || (singleton && GET_CODE (original_target) == REG
8129                          && REGNO (original_target) >= FIRST_PSEUDO_REGISTER
8130                          && original_target == var_rtx (singleton)))
8131                  && GET_MODE (original_target) == mode
8132 #ifdef HAVE_conditional_move
8133                  && (! can_conditionally_move_p (mode)
8134                      || GET_CODE (original_target) == REG
8135                      || TREE_ADDRESSABLE (type))
8136 #endif
8137                  && (GET_CODE (original_target) != MEM
8138                      || TREE_ADDRESSABLE (type)))
8139           temp = original_target;
8140         else if (TREE_ADDRESSABLE (type))
8141           abort ();
8142         else
8143           temp = assign_temp (type, 0, 0, 1);
8144
8145         /* If we had X ? A + C : A, with C a constant power of 2, and we can
8146            do the test of X as a store-flag operation, do this as
8147            A + ((X != 0) << log C).  Similarly for other simple binary
8148            operators.  Only do for C == 1 if BRANCH_COST is low.  */
8149         if (temp && singleton && binary_op
8150             && (TREE_CODE (binary_op) == PLUS_EXPR
8151                 || TREE_CODE (binary_op) == MINUS_EXPR
8152                 || TREE_CODE (binary_op) == BIT_IOR_EXPR
8153                 || TREE_CODE (binary_op) == BIT_XOR_EXPR)
8154             && (BRANCH_COST >= 3 ? integer_pow2p (TREE_OPERAND (binary_op, 1))
8155                 : integer_onep (TREE_OPERAND (binary_op, 1)))
8156             && TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 0))) == '<')
8157           {
8158             rtx result;
8159             optab boptab = (TREE_CODE (binary_op) == PLUS_EXPR
8160                             ? (TYPE_TRAP_SIGNED (TREE_TYPE (binary_op))
8161                                ? addv_optab : add_optab)
8162                             : TREE_CODE (binary_op) == MINUS_EXPR
8163                               ? (TYPE_TRAP_SIGNED (TREE_TYPE (binary_op))
8164                                  ? subv_optab : sub_optab)
8165                             : TREE_CODE (binary_op) == BIT_IOR_EXPR ? ior_optab
8166                             : xor_optab);
8167
8168             /* If we had X ? A : A + 1, do this as A + (X == 0).
8169
8170                We have to invert the truth value here and then put it
8171                back later if do_store_flag fails.  We cannot simply copy
8172                TREE_OPERAND (exp, 0) to another variable and modify that
8173                because invert_truthvalue can modify the tree pointed to
8174                by its argument.  */
8175             if (singleton == TREE_OPERAND (exp, 1))
8176               TREE_OPERAND (exp, 0)
8177                 = invert_truthvalue (TREE_OPERAND (exp, 0));
8178
8179             result = do_store_flag (TREE_OPERAND (exp, 0),
8180                                     (safe_from_p (temp, singleton, 1)
8181                                      ? temp : NULL_RTX),
8182                                     mode, BRANCH_COST <= 1);
8183
8184             if (result != 0 && ! integer_onep (TREE_OPERAND (binary_op, 1)))
8185               result = expand_shift (LSHIFT_EXPR, mode, result,
8186                                      build_int_2 (tree_log2
8187                                                   (TREE_OPERAND
8188                                                    (binary_op, 1)),
8189                                                   0),
8190                                      (safe_from_p (temp, singleton, 1)
8191                                       ? temp : NULL_RTX), 0);
8192
8193             if (result)
8194               {
8195                 op1 = expand_expr (singleton, NULL_RTX, VOIDmode, 0);
8196                 return expand_binop (mode, boptab, op1, result, temp,
8197                                      unsignedp, OPTAB_LIB_WIDEN);
8198               }
8199             else if (singleton == TREE_OPERAND (exp, 1))
8200               TREE_OPERAND (exp, 0)
8201                 = invert_truthvalue (TREE_OPERAND (exp, 0));
8202           }
8203
8204         do_pending_stack_adjust ();
8205         NO_DEFER_POP;
8206         op0 = gen_label_rtx ();
8207
8208         if (singleton && ! TREE_SIDE_EFFECTS (TREE_OPERAND (exp, 0)))
8209           {
8210             if (temp != 0)
8211               {
8212                 /* If the target conflicts with the other operand of the
8213                    binary op, we can't use it.  Also, we can't use the target
8214                    if it is a hard register, because evaluating the condition
8215                    might clobber it.  */
8216                 if ((binary_op
8217                      && ! safe_from_p (temp, TREE_OPERAND (binary_op, 1), 1))
8218                     || (GET_CODE (temp) == REG
8219                         && REGNO (temp) < FIRST_PSEUDO_REGISTER))
8220                   temp = gen_reg_rtx (mode);
8221                 store_expr (singleton, temp, 0);
8222               }
8223             else
8224               expand_expr (singleton,
8225                            ignore ? const0_rtx : NULL_RTX, VOIDmode, 0);
8226             if (singleton == TREE_OPERAND (exp, 1))
8227               jumpif (TREE_OPERAND (exp, 0), op0);
8228             else
8229               jumpifnot (TREE_OPERAND (exp, 0), op0);
8230
8231             start_cleanup_deferral ();
8232             if (binary_op && temp == 0)
8233               /* Just touch the other operand.  */
8234               expand_expr (TREE_OPERAND (binary_op, 1),
8235                            ignore ? const0_rtx : NULL_RTX, VOIDmode, 0);
8236             else if (binary_op)
8237               store_expr (build (TREE_CODE (binary_op), type,
8238                                  make_tree (type, temp),
8239                                  TREE_OPERAND (binary_op, 1)),
8240                           temp, 0);
8241             else
8242               store_expr (build1 (TREE_CODE (unary_op), type,
8243                                   make_tree (type, temp)),
8244                           temp, 0);
8245             op1 = op0;
8246           }
8247         /* Check for A op 0 ? A : FOO and A op 0 ? FOO : A where OP is any
8248            comparison operator.  If we have one of these cases, set the
8249            output to A, branch on A (cse will merge these two references),
8250            then set the output to FOO.  */
8251         else if (temp
8252                  && TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 0))) == '<'
8253                  && integer_zerop (TREE_OPERAND (TREE_OPERAND (exp, 0), 1))
8254                  && operand_equal_p (TREE_OPERAND (TREE_OPERAND (exp, 0), 0),
8255                                      TREE_OPERAND (exp, 1), 0)
8256                  && (! TREE_SIDE_EFFECTS (TREE_OPERAND (exp, 0))
8257                      || TREE_CODE (TREE_OPERAND (exp, 1)) == SAVE_EXPR)
8258                  && safe_from_p (temp, TREE_OPERAND (exp, 2), 1))
8259           {
8260             if (GET_CODE (temp) == REG
8261                 && REGNO (temp) < FIRST_PSEUDO_REGISTER)
8262               temp = gen_reg_rtx (mode);
8263             store_expr (TREE_OPERAND (exp, 1), temp, 0);
8264             jumpif (TREE_OPERAND (exp, 0), op0);
8265
8266             start_cleanup_deferral ();
8267             store_expr (TREE_OPERAND (exp, 2), temp, 0);
8268             op1 = op0;
8269           }
8270         else if (temp
8271                  && TREE_CODE_CLASS (TREE_CODE (TREE_OPERAND (exp, 0))) == '<'
8272                  && integer_zerop (TREE_OPERAND (TREE_OPERAND (exp, 0), 1))
8273                  && operand_equal_p (TREE_OPERAND (TREE_OPERAND (exp, 0), 0),
8274                                      TREE_OPERAND (exp, 2), 0)
8275                  && (! TREE_SIDE_EFFECTS (TREE_OPERAND (exp, 0))
8276                      || TREE_CODE (TREE_OPERAND (exp, 2)) == SAVE_EXPR)
8277                  && safe_from_p (temp, TREE_OPERAND (exp, 1), 1))
8278           {
8279             if (GET_CODE (temp) == REG
8280                 && REGNO (temp) < FIRST_PSEUDO_REGISTER)
8281               temp = gen_reg_rtx (mode);
8282             store_expr (TREE_OPERAND (exp, 2), temp, 0);
8283             jumpifnot (TREE_OPERAND (exp, 0), op0);
8284
8285             start_cleanup_deferral ();
8286             store_expr (TREE_OPERAND (exp, 1), temp, 0);
8287             op1 = op0;
8288           }
8289         else
8290           {
8291             op1 = gen_label_rtx ();
8292             jumpifnot (TREE_OPERAND (exp, 0), op0);
8293
8294             start_cleanup_deferral ();
8295
8296             /* One branch of the cond can be void, if it never returns. For
8297                example A ? throw : E  */
8298             if (temp != 0
8299                 && TREE_TYPE (TREE_OPERAND (exp, 1)) != void_type_node)
8300               store_expr (TREE_OPERAND (exp, 1), temp, 0);
8301             else
8302               expand_expr (TREE_OPERAND (exp, 1),
8303                            ignore ? const0_rtx : NULL_RTX, VOIDmode, 0);
8304             end_cleanup_deferral ();
8305             emit_queue ();
8306             emit_jump_insn (gen_jump (op1));
8307             emit_barrier ();
8308             emit_label (op0);
8309             start_cleanup_deferral ();
8310             if (temp != 0
8311                 && TREE_TYPE (TREE_OPERAND (exp, 2)) != void_type_node)
8312               store_expr (TREE_OPERAND (exp, 2), temp, 0);
8313             else
8314               expand_expr (TREE_OPERAND (exp, 2),
8315                            ignore ? const0_rtx : NULL_RTX, VOIDmode, 0);
8316           }
8317
8318         end_cleanup_deferral ();
8319
8320         emit_queue ();
8321         emit_label (op1);
8322         OK_DEFER_POP;
8323
8324         return temp;
8325       }
8326
8327     case TARGET_EXPR:
8328       {
8329         /* Something needs to be initialized, but we didn't know
8330            where that thing was when building the tree.  For example,
8331            it could be the return value of a function, or a parameter
8332            to a function which lays down in the stack, or a temporary
8333            variable which must be passed by reference.
8334
8335            We guarantee that the expression will either be constructed
8336            or copied into our original target.  */
8337
8338         tree slot = TREE_OPERAND (exp, 0);
8339         tree cleanups = NULL_TREE;
8340         tree exp1;
8341
8342         if (TREE_CODE (slot) != VAR_DECL)
8343           abort ();
8344
8345         if (! ignore)
8346           target = original_target;
8347
8348         /* Set this here so that if we get a target that refers to a
8349            register variable that's already been used, put_reg_into_stack
8350            knows that it should fix up those uses.  */
8351         TREE_USED (slot) = 1;
8352
8353         if (target == 0)
8354           {
8355             if (DECL_RTL_SET_P (slot))
8356               {
8357                 target = DECL_RTL (slot);
8358                 /* If we have already expanded the slot, so don't do
8359                    it again.  (mrs)  */
8360                 if (TREE_OPERAND (exp, 1) == NULL_TREE)
8361                   return target;
8362               }
8363             else
8364               {
8365                 target = assign_temp (type, 2, 0, 1);
8366                 /* All temp slots at this level must not conflict.  */
8367                 preserve_temp_slots (target);
8368                 SET_DECL_RTL (slot, target);
8369                 if (TREE_ADDRESSABLE (slot))
8370                   put_var_into_stack (slot);
8371
8372                 /* Since SLOT is not known to the called function
8373                    to belong to its stack frame, we must build an explicit
8374                    cleanup.  This case occurs when we must build up a reference
8375                    to pass the reference as an argument.  In this case,
8376                    it is very likely that such a reference need not be
8377                    built here.  */
8378
8379                 if (TREE_OPERAND (exp, 2) == 0)
8380                   TREE_OPERAND (exp, 2) = maybe_build_cleanup (slot);
8381                 cleanups = TREE_OPERAND (exp, 2);
8382               }
8383           }
8384         else
8385           {
8386             /* This case does occur, when expanding a parameter which
8387                needs to be constructed on the stack.  The target
8388                is the actual stack address that we want to initialize.
8389                The function we call will perform the cleanup in this case.  */
8390
8391             /* If we have already assigned it space, use that space,
8392                not target that we were passed in, as our target
8393                parameter is only a hint.  */
8394             if (DECL_RTL_SET_P (slot))
8395               {
8396                 target = DECL_RTL (slot);
8397                 /* If we have already expanded the slot, so don't do
8398                    it again.  (mrs)  */
8399                 if (TREE_OPERAND (exp, 1) == NULL_TREE)
8400                   return target;
8401               }
8402             else
8403               {
8404                 SET_DECL_RTL (slot, target);
8405                 /* If we must have an addressable slot, then make sure that
8406                    the RTL that we just stored in slot is OK.  */
8407                 if (TREE_ADDRESSABLE (slot))
8408                   put_var_into_stack (slot);
8409               }
8410           }
8411
8412         exp1 = TREE_OPERAND (exp, 3) = TREE_OPERAND (exp, 1);
8413         /* Mark it as expanded.  */
8414         TREE_OPERAND (exp, 1) = NULL_TREE;
8415
8416         store_expr (exp1, target, 0);
8417
8418         expand_decl_cleanup (NULL_TREE, cleanups);
8419
8420         return target;
8421       }
8422
8423     case INIT_EXPR:
8424       {
8425         tree lhs = TREE_OPERAND (exp, 0);
8426         tree rhs = TREE_OPERAND (exp, 1);
8427
8428         temp = expand_assignment (lhs, rhs, ! ignore, original_target != 0);
8429         return temp;
8430       }
8431
8432     case MODIFY_EXPR:
8433       {
8434         /* If lhs is complex, expand calls in rhs before computing it.
8435            That's so we don't compute a pointer and save it over a
8436            call.  If lhs is simple, compute it first so we can give it
8437            as a target if the rhs is just a call.  This avoids an
8438            extra temp and copy and that prevents a partial-subsumption
8439            which makes bad code.  Actually we could treat
8440            component_ref's of vars like vars.  */
8441
8442         tree lhs = TREE_OPERAND (exp, 0);
8443         tree rhs = TREE_OPERAND (exp, 1);
8444
8445         temp = 0;
8446
8447         /* Check for |= or &= of a bitfield of size one into another bitfield
8448            of size 1.  In this case, (unless we need the result of the
8449            assignment) we can do this more efficiently with a
8450            test followed by an assignment, if necessary.
8451
8452            ??? At this point, we can't get a BIT_FIELD_REF here.  But if
8453            things change so we do, this code should be enhanced to
8454            support it.  */
8455         if (ignore
8456             && TREE_CODE (lhs) == COMPONENT_REF
8457             && (TREE_CODE (rhs) == BIT_IOR_EXPR
8458                 || TREE_CODE (rhs) == BIT_AND_EXPR)
8459             && TREE_OPERAND (rhs, 0) == lhs
8460             && TREE_CODE (TREE_OPERAND (rhs, 1)) == COMPONENT_REF
8461             && integer_onep (DECL_SIZE (TREE_OPERAND (lhs, 1)))
8462             && integer_onep (DECL_SIZE (TREE_OPERAND (TREE_OPERAND (rhs, 1), 1))))
8463           {
8464             rtx label = gen_label_rtx ();
8465
8466             do_jump (TREE_OPERAND (rhs, 1),
8467                      TREE_CODE (rhs) == BIT_IOR_EXPR ? label : 0,
8468                      TREE_CODE (rhs) == BIT_AND_EXPR ? label : 0);
8469             expand_assignment (lhs, convert (TREE_TYPE (rhs),
8470                                              (TREE_CODE (rhs) == BIT_IOR_EXPR
8471                                               ? integer_one_node
8472                                               : integer_zero_node)),
8473                                0, 0);
8474             do_pending_stack_adjust ();
8475             emit_label (label);
8476             return const0_rtx;
8477           }
8478
8479         temp = expand_assignment (lhs, rhs, ! ignore, original_target != 0);
8480         
8481         return temp;
8482       }
8483
8484     case RETURN_EXPR:
8485       if (!TREE_OPERAND (exp, 0))
8486         expand_null_return ();
8487       else
8488         expand_return (TREE_OPERAND (exp, 0));
8489       return const0_rtx;
8490
8491     case PREINCREMENT_EXPR:
8492     case PREDECREMENT_EXPR:
8493       return expand_increment (exp, 0, ignore);
8494
8495     case POSTINCREMENT_EXPR:
8496     case POSTDECREMENT_EXPR:
8497       /* Faster to treat as pre-increment if result is not used.  */
8498       return expand_increment (exp, ! ignore, ignore);
8499
8500     case ADDR_EXPR:
8501       /* If nonzero, TEMP will be set to the address of something that might
8502          be a MEM corresponding to a stack slot.  */
8503       temp = 0;
8504
8505       /* Are we taking the address of a nested function?  */
8506       if (TREE_CODE (TREE_OPERAND (exp, 0)) == FUNCTION_DECL
8507           && decl_function_context (TREE_OPERAND (exp, 0)) != 0
8508           && ! DECL_NO_STATIC_CHAIN (TREE_OPERAND (exp, 0))
8509           && ! TREE_STATIC (exp))
8510         {
8511           op0 = trampoline_address (TREE_OPERAND (exp, 0));
8512           op0 = force_operand (op0, target);
8513         }
8514       /* If we are taking the address of something erroneous, just
8515          return a zero.  */
8516       else if (TREE_CODE (TREE_OPERAND (exp, 0)) == ERROR_MARK)
8517         return const0_rtx;
8518       else
8519         {
8520           /* We make sure to pass const0_rtx down if we came in with
8521              ignore set, to avoid doing the cleanups twice for something.  */
8522           op0 = expand_expr (TREE_OPERAND (exp, 0),
8523                              ignore ? const0_rtx : NULL_RTX, VOIDmode,
8524                              (modifier == EXPAND_INITIALIZER
8525                               ? modifier : EXPAND_CONST_ADDRESS));
8526
8527           /* If we are going to ignore the result, OP0 will have been set
8528              to const0_rtx, so just return it.  Don't get confused and
8529              think we are taking the address of the constant.  */
8530           if (ignore)
8531             return op0;
8532
8533           /* Pass 1 for MODIFY, so that protect_from_queue doesn't get
8534              clever and returns a REG when given a MEM.  */
8535           op0 = protect_from_queue (op0, 1);
8536
8537           /* We would like the object in memory.  If it is a constant, we can
8538              have it be statically allocated into memory.  For a non-constant,
8539              we need to allocate some memory and store the value into it.  */
8540
8541           if (CONSTANT_P (op0))
8542             op0 = force_const_mem (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))),
8543                                    op0);
8544           else if (GET_CODE (op0) == MEM)
8545             {
8546               mark_temp_addr_taken (op0);
8547               temp = XEXP (op0, 0);
8548             }
8549
8550           else if (GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
8551                    || GET_CODE (op0) == CONCAT || GET_CODE (op0) == ADDRESSOF
8552                    || GET_CODE (op0) == PARALLEL)
8553             {
8554               /* If this object is in a register, it must be not
8555                  be BLKmode.  */
8556               tree inner_type = TREE_TYPE (TREE_OPERAND (exp, 0));
8557               tree nt = build_qualified_type (inner_type,
8558                                               (TYPE_QUALS (inner_type)
8559                                                | TYPE_QUAL_CONST));
8560               rtx memloc = assign_temp (nt, 1, 1, 1);
8561
8562               mark_temp_addr_taken (memloc);
8563               if (GET_CODE (op0) == PARALLEL)
8564                 /* Handle calls that pass values in multiple non-contiguous
8565                    locations.  The Irix 6 ABI has examples of this.  */
8566                 emit_group_store (memloc, op0,
8567                                   int_size_in_bytes (inner_type),
8568                                   TYPE_ALIGN (inner_type));
8569               else
8570                 emit_move_insn (memloc, op0);
8571               op0 = memloc;
8572             }
8573
8574           if (GET_CODE (op0) != MEM)
8575             abort ();
8576
8577           if (modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
8578             {
8579               temp = XEXP (op0, 0);
8580 #ifdef POINTERS_EXTEND_UNSIGNED
8581               if (GET_MODE (temp) == Pmode && GET_MODE (temp) != mode
8582                   && mode == ptr_mode)
8583                 temp = convert_memory_address (ptr_mode, temp);
8584 #endif
8585               return temp;
8586             }
8587
8588           op0 = force_operand (XEXP (op0, 0), target);
8589         }
8590
8591       if (flag_force_addr && GET_CODE (op0) != REG)
8592         op0 = force_reg (Pmode, op0);
8593
8594       if (GET_CODE (op0) == REG
8595           && ! REG_USERVAR_P (op0))
8596         mark_reg_pointer (op0, TYPE_ALIGN (TREE_TYPE (type)));
8597
8598       /* If we might have had a temp slot, add an equivalent address
8599          for it.  */
8600       if (temp != 0)
8601         update_temp_slot_address (temp, op0);
8602
8603 #ifdef POINTERS_EXTEND_UNSIGNED
8604       if (GET_MODE (op0) == Pmode && GET_MODE (op0) != mode
8605           && mode == ptr_mode)
8606         op0 = convert_memory_address (ptr_mode, op0);
8607 #endif
8608
8609       return op0;
8610
8611     case ENTRY_VALUE_EXPR:
8612       abort ();
8613
8614     /* COMPLEX type for Extended Pascal & Fortran  */
8615     case COMPLEX_EXPR:
8616       {
8617         enum machine_mode mode = TYPE_MODE (TREE_TYPE (TREE_TYPE (exp)));
8618         rtx insns;
8619
8620         /* Get the rtx code of the operands.  */
8621         op0 = expand_expr (TREE_OPERAND (exp, 0), 0, VOIDmode, 0);
8622         op1 = expand_expr (TREE_OPERAND (exp, 1), 0, VOIDmode, 0);
8623
8624         if (! target)
8625           target = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
8626
8627         start_sequence ();
8628
8629         /* Move the real (op0) and imaginary (op1) parts to their location.  */
8630         emit_move_insn (gen_realpart (mode, target), op0);
8631         emit_move_insn (gen_imagpart (mode, target), op1);
8632
8633         insns = get_insns ();
8634         end_sequence ();
8635
8636         /* Complex construction should appear as a single unit.  */
8637         /* If TARGET is a CONCAT, we got insns like RD = RS, ID = IS,
8638            each with a separate pseudo as destination.
8639            It's not correct for flow to treat them as a unit.  */
8640         if (GET_CODE (target) != CONCAT)
8641           emit_no_conflict_block (insns, target, op0, op1, NULL_RTX);
8642         else
8643           emit_insns (insns);
8644
8645         return target;
8646       }
8647
8648     case REALPART_EXPR:
8649       op0 = expand_expr (TREE_OPERAND (exp, 0), 0, VOIDmode, 0);
8650       return gen_realpart (mode, op0);
8651
8652     case IMAGPART_EXPR:
8653       op0 = expand_expr (TREE_OPERAND (exp, 0), 0, VOIDmode, 0);
8654       return gen_imagpart (mode, op0);
8655
8656     case CONJ_EXPR:
8657       {
8658         enum machine_mode partmode = TYPE_MODE (TREE_TYPE (TREE_TYPE (exp)));
8659         rtx imag_t;
8660         rtx insns;
8661
8662         op0 = expand_expr (TREE_OPERAND (exp, 0), 0, VOIDmode, 0);
8663
8664         if (! target)
8665           target = gen_reg_rtx (mode);
8666
8667         start_sequence ();
8668
8669         /* Store the realpart and the negated imagpart to target.  */
8670         emit_move_insn (gen_realpart (partmode, target),
8671                         gen_realpart (partmode, op0));
8672
8673         imag_t = gen_imagpart (partmode, target);
8674         temp = expand_unop (partmode,
8675                             ! unsignedp && flag_trapv
8676                             && (GET_MODE_CLASS(partmode) == MODE_INT)
8677                             ? negv_optab : neg_optab,
8678                             gen_imagpart (partmode, op0), imag_t, 0);
8679         if (temp != imag_t)
8680           emit_move_insn (imag_t, temp);
8681
8682         insns = get_insns ();
8683         end_sequence ();
8684
8685         /* Conjugate should appear as a single unit
8686            If TARGET is a CONCAT, we got insns like RD = RS, ID = - IS,
8687            each with a separate pseudo as destination.
8688            It's not correct for flow to treat them as a unit.  */
8689         if (GET_CODE (target) != CONCAT)
8690           emit_no_conflict_block (insns, target, op0, NULL_RTX, NULL_RTX);
8691         else
8692           emit_insns (insns);
8693
8694         return target;
8695       }
8696
8697     case TRY_CATCH_EXPR:
8698       {
8699         tree handler = TREE_OPERAND (exp, 1);
8700
8701         expand_eh_region_start ();
8702
8703         op0 = expand_expr (TREE_OPERAND (exp, 0), 0, VOIDmode, 0);
8704
8705         expand_eh_region_end_cleanup (handler);
8706
8707         return op0;
8708       }
8709
8710     case TRY_FINALLY_EXPR:
8711       {
8712         tree try_block = TREE_OPERAND (exp, 0);
8713         tree finally_block = TREE_OPERAND (exp, 1);
8714         rtx finally_label = gen_label_rtx ();
8715         rtx done_label = gen_label_rtx ();
8716         rtx return_link = gen_reg_rtx (Pmode);
8717         tree cleanup = build (GOTO_SUBROUTINE_EXPR, void_type_node,
8718                               (tree) finally_label, (tree) return_link);
8719         TREE_SIDE_EFFECTS (cleanup) = 1;
8720
8721         /* Start a new binding layer that will keep track of all cleanup
8722            actions to be performed.  */
8723         expand_start_bindings (2);
8724
8725         target_temp_slot_level = temp_slot_level;
8726
8727         expand_decl_cleanup (NULL_TREE, cleanup);
8728         op0 = expand_expr (try_block, target, tmode, modifier);
8729
8730         preserve_temp_slots (op0);
8731         expand_end_bindings (NULL_TREE, 0, 0);
8732         emit_jump (done_label);
8733         emit_label (finally_label);
8734         expand_expr (finally_block, const0_rtx, VOIDmode, 0);
8735         emit_indirect_jump (return_link);
8736         emit_label (done_label);
8737         return op0;
8738       }
8739
8740     case GOTO_SUBROUTINE_EXPR:
8741       {
8742         rtx subr = (rtx) TREE_OPERAND (exp, 0);
8743         rtx return_link = *(rtx *) &TREE_OPERAND (exp, 1);
8744         rtx return_address = gen_label_rtx ();
8745         emit_move_insn (return_link,
8746                         gen_rtx_LABEL_REF (Pmode, return_address));
8747         emit_jump (subr);
8748         emit_label (return_address);
8749         return const0_rtx;
8750       }
8751
8752     case VA_ARG_EXPR:
8753       return expand_builtin_va_arg (TREE_OPERAND (exp, 0), type);
8754
8755     case EXC_PTR_EXPR:
8756       return get_exception_pointer (cfun);
8757
8758     default:
8759       return (*lang_expand_expr) (exp, original_target, tmode, modifier);
8760     }
8761
8762   /* Here to do an ordinary binary operator, generating an instruction
8763      from the optab already placed in `this_optab'.  */
8764  binop:
8765   if (! safe_from_p (subtarget, TREE_OPERAND (exp, 1), 1))
8766     subtarget = 0;
8767   op0 = expand_expr (TREE_OPERAND (exp, 0), subtarget, VOIDmode, 0);
8768   op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
8769  binop2:
8770   temp = expand_binop (mode, this_optab, op0, op1, target,
8771                        unsignedp, OPTAB_LIB_WIDEN);
8772   if (temp == 0)
8773     abort ();
8774   return temp;
8775 }
8776 \f
8777 /* Similar to expand_expr, except that we don't specify a target, target
8778    mode, or modifier and we return the alignment of the inner type.  This is
8779    used in cases where it is not necessary to align the result to the
8780    alignment of its type as long as we know the alignment of the result, for
8781    example for comparisons of BLKmode values.  */
8782
8783 static rtx
8784 expand_expr_unaligned (exp, palign)
8785      register tree exp;
8786      unsigned int *palign;
8787 {
8788   register rtx op0;
8789   tree type = TREE_TYPE (exp);
8790   register enum machine_mode mode = TYPE_MODE (type);
8791
8792   /* Default the alignment we return to that of the type.  */
8793   *palign = TYPE_ALIGN (type);
8794
8795   /* The only cases in which we do anything special is if the resulting mode
8796      is BLKmode.  */
8797   if (mode != BLKmode)
8798     return expand_expr (exp, NULL_RTX, VOIDmode, EXPAND_NORMAL);
8799
8800   switch (TREE_CODE (exp))
8801     {
8802     case CONVERT_EXPR:
8803     case NOP_EXPR:
8804     case NON_LVALUE_EXPR:
8805       /* Conversions between BLKmode values don't change the underlying
8806          alignment or value.  */
8807       if (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == BLKmode)
8808         return expand_expr_unaligned (TREE_OPERAND (exp, 0), palign);
8809       break;
8810
8811     case ARRAY_REF:
8812       /* Much of the code for this case is copied directly from expand_expr.
8813          We need to duplicate it here because we will do something different
8814          in the fall-through case, so we need to handle the same exceptions
8815          it does.  */
8816       {
8817         tree array = TREE_OPERAND (exp, 0);
8818         tree domain = TYPE_DOMAIN (TREE_TYPE (array));
8819         tree low_bound = domain ? TYPE_MIN_VALUE (domain) : integer_zero_node;
8820         tree index = convert (sizetype, TREE_OPERAND (exp, 1));
8821         HOST_WIDE_INT i;
8822
8823         if (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) != ARRAY_TYPE)
8824           abort ();
8825
8826         /* Optimize the special-case of a zero lower bound.
8827
8828            We convert the low_bound to sizetype to avoid some problems
8829            with constant folding.  (E.g. suppose the lower bound is 1,
8830            and its mode is QI.  Without the conversion,  (ARRAY
8831            +(INDEX-(unsigned char)1)) becomes ((ARRAY+(-(unsigned char)1))
8832            +INDEX), which becomes (ARRAY+255+INDEX).  Oops!)  */
8833
8834         if (! integer_zerop (low_bound))
8835           index = size_diffop (index, convert (sizetype, low_bound));
8836
8837         /* If this is a constant index into a constant array,
8838            just get the value from the array.  Handle both the cases when
8839            we have an explicit constructor and when our operand is a variable
8840            that was declared const.  */
8841
8842         if (TREE_CODE (array) == CONSTRUCTOR && ! TREE_SIDE_EFFECTS (array)
8843             && host_integerp (index, 0)
8844             && 0 > compare_tree_int (index,
8845                                      list_length (CONSTRUCTOR_ELTS
8846                                                   (TREE_OPERAND (exp, 0)))))
8847           {
8848             tree elem;
8849
8850             for (elem = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)),
8851                  i = tree_low_cst (index, 0);
8852                  elem != 0 && i != 0; i--, elem = TREE_CHAIN (elem))
8853               ;
8854
8855             if (elem)
8856               return expand_expr_unaligned (fold (TREE_VALUE (elem)), palign);
8857           }
8858
8859         else if (optimize >= 1
8860                  && TREE_READONLY (array) && ! TREE_SIDE_EFFECTS (array)
8861                  && TREE_CODE (array) == VAR_DECL && DECL_INITIAL (array)
8862                  && TREE_CODE (DECL_INITIAL (array)) != ERROR_MARK)
8863           {
8864             if (TREE_CODE (index) == INTEGER_CST)
8865               {
8866                 tree init = DECL_INITIAL (array);
8867
8868                 if (TREE_CODE (init) == CONSTRUCTOR)
8869                   {
8870                     tree elem;
8871
8872                     for (elem = CONSTRUCTOR_ELTS (init);
8873                          ! tree_int_cst_equal (TREE_PURPOSE (elem), index);
8874                          elem = TREE_CHAIN (elem))
8875                       ;
8876
8877                     if (elem)
8878                       return expand_expr_unaligned (fold (TREE_VALUE (elem)),
8879                                                     palign);
8880                   }
8881               }
8882           }
8883       }
8884       /* Fall through.  */
8885
8886     case COMPONENT_REF:
8887     case BIT_FIELD_REF:
8888     case ARRAY_RANGE_REF:
8889       /* If the operand is a CONSTRUCTOR, we can just extract the
8890          appropriate field if it is present.  Don't do this if we have
8891          already written the data since we want to refer to that copy
8892          and varasm.c assumes that's what we'll do.  */
8893       if (TREE_CODE (exp) == COMPONENT_REF
8894           && TREE_CODE (TREE_OPERAND (exp, 0)) == CONSTRUCTOR
8895           && TREE_CST_RTL (TREE_OPERAND (exp, 0)) == 0)
8896         {
8897           tree elt;
8898
8899           for (elt = CONSTRUCTOR_ELTS (TREE_OPERAND (exp, 0)); elt;
8900                elt = TREE_CHAIN (elt))
8901             if (TREE_PURPOSE (elt) == TREE_OPERAND (exp, 1))
8902               /* Note that unlike the case in expand_expr, we know this is
8903                  BLKmode and hence not an integer.  */
8904               return expand_expr_unaligned (TREE_VALUE (elt), palign);
8905         }
8906
8907       {
8908         enum machine_mode mode1;
8909         HOST_WIDE_INT bitsize, bitpos;
8910         tree offset;
8911         int volatilep = 0;
8912         unsigned int alignment;
8913         int unsignedp;
8914         tree tem = get_inner_reference (exp, &bitsize, &bitpos, &offset,
8915                                         &mode1, &unsignedp, &volatilep,
8916                                         &alignment);
8917
8918         /* If we got back the original object, something is wrong.  Perhaps
8919            we are evaluating an expression too early.  In any event, don't
8920            infinitely recurse.  */
8921         if (tem == exp)
8922           abort ();
8923
8924         op0 = expand_expr (tem, NULL_RTX, VOIDmode, EXPAND_NORMAL);
8925
8926         /* If this is a constant, put it into a register if it is a
8927            legitimate constant and OFFSET is 0 and memory if it isn't.  */
8928         if (CONSTANT_P (op0))
8929           {
8930             enum machine_mode inner_mode = TYPE_MODE (TREE_TYPE (tem));
8931
8932             if (inner_mode != BLKmode && LEGITIMATE_CONSTANT_P (op0)
8933                 && offset == 0)
8934               op0 = force_reg (inner_mode, op0);
8935             else
8936               op0 = validize_mem (force_const_mem (inner_mode, op0));
8937           }
8938
8939         if (offset != 0)
8940           {
8941             rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, 0);
8942
8943             /* If this object is in a register, put it into memory.
8944                This case can't occur in C, but can in Ada if we have
8945                unchecked conversion of an expression from a scalar type to
8946                an array or record type.  */
8947             if (GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
8948                 || GET_CODE (op0) == CONCAT || GET_CODE (op0) == ADDRESSOF)
8949               {
8950                 tree nt = build_qualified_type (TREE_TYPE (tem),
8951                                                 (TYPE_QUALS (TREE_TYPE (tem))
8952                                                  | TYPE_QUAL_CONST));
8953                 rtx memloc = assign_temp (nt, 1, 1, 1);
8954
8955                 mark_temp_addr_taken (memloc);
8956                 emit_move_insn (memloc, op0);
8957                 op0 = memloc;
8958               }
8959
8960             if (GET_CODE (op0) != MEM)
8961               abort ();
8962
8963             if (GET_MODE (offset_rtx) != ptr_mode)
8964               {
8965 #ifdef POINTERS_EXTEND_UNSIGNED
8966                 offset_rtx = convert_memory_address (ptr_mode, offset_rtx);
8967 #else
8968                 offset_rtx = convert_to_mode (ptr_mode, offset_rtx, 0);
8969 #endif
8970               }
8971
8972             op0 = change_address (op0, VOIDmode,
8973                                   gen_rtx_PLUS (ptr_mode, XEXP (op0, 0),
8974                                                 force_reg (ptr_mode,
8975                                                            offset_rtx)));
8976           }
8977
8978         /* Don't forget about volatility even if this is a bitfield.  */
8979         if (GET_CODE (op0) == MEM && volatilep && ! MEM_VOLATILE_P (op0))
8980           {
8981             op0 = copy_rtx (op0);
8982             MEM_VOLATILE_P (op0) = 1;
8983           }
8984
8985         /* Check the access.  */
8986         if (current_function_check_memory_usage && GET_CODE (op0) == MEM)
8987           {
8988             rtx to;
8989             int size;
8990
8991             to = plus_constant (XEXP (op0, 0), (bitpos / BITS_PER_UNIT));
8992             size = (bitpos % BITS_PER_UNIT) + bitsize + BITS_PER_UNIT - 1;
8993
8994             /* Check the access right of the pointer.  */
8995             in_check_memory_usage = 1;
8996             if (size > BITS_PER_UNIT)
8997               emit_library_call (chkr_check_addr_libfunc,
8998                                  LCT_CONST_MAKE_BLOCK, VOIDmode, 3,
8999                                  to, ptr_mode, GEN_INT (size / BITS_PER_UNIT),
9000                                  TYPE_MODE (sizetype),
9001                                  GEN_INT (MEMORY_USE_RO),
9002                                  TYPE_MODE (integer_type_node));
9003             in_check_memory_usage = 0;
9004           }
9005
9006         /* In cases where an aligned union has an unaligned object
9007            as a field, we might be extracting a BLKmode value from
9008            an integer-mode (e.g., SImode) object.  Handle this case
9009            by doing the extract into an object as wide as the field
9010            (which we know to be the width of a basic mode), then
9011            storing into memory, and changing the mode to BLKmode.
9012            If we ultimately want the address (EXPAND_CONST_ADDRESS or
9013            EXPAND_INITIALIZER), then we must not copy to a temporary.  */
9014         if (mode1 == VOIDmode
9015             || GET_CODE (op0) == REG || GET_CODE (op0) == SUBREG
9016             || (SLOW_UNALIGNED_ACCESS (mode1, alignment)
9017                 && (TYPE_ALIGN (type) > alignment
9018                     || bitpos % TYPE_ALIGN (type) != 0)))
9019           {
9020             enum machine_mode ext_mode = mode_for_size (bitsize, MODE_INT, 1);
9021
9022             if (ext_mode == BLKmode)
9023               {
9024                 /* In this case, BITPOS must start at a byte boundary.  */
9025                 if (GET_CODE (op0) != MEM
9026                     || bitpos % BITS_PER_UNIT != 0)
9027                   abort ();
9028
9029                 op0 = adjust_address (op0, VOIDmode, bitpos / BITS_PER_UNIT);
9030               }
9031             else
9032               {
9033                 tree nt = build_qualified_type (type_for_mode (ext_mode, 0),
9034                                                 TYPE_QUAL_CONST);
9035                 rtx new = assign_temp (nt, 0, 1, 1);
9036
9037                 op0 = extract_bit_field (validize_mem (op0), bitsize, bitpos,
9038                                          unsignedp, NULL_RTX, ext_mode,
9039                                          ext_mode, alignment,
9040                                          int_size_in_bytes (TREE_TYPE (tem)));
9041
9042                 /* If the result is a record type and BITSIZE is narrower than
9043                    the mode of OP0, an integral mode, and this is a big endian
9044                    machine, we must put the field into the high-order bits.  */
9045                 if (TREE_CODE (type) == RECORD_TYPE && BYTES_BIG_ENDIAN
9046                     && GET_MODE_CLASS (GET_MODE (op0)) == MODE_INT
9047                     && bitsize < GET_MODE_BITSIZE (GET_MODE (op0)))
9048                   op0 = expand_shift (LSHIFT_EXPR, GET_MODE (op0), op0,
9049                                       size_int (GET_MODE_BITSIZE
9050                                                 (GET_MODE (op0))
9051                                                 - bitsize),
9052                                       op0, 1);
9053
9054                 emit_move_insn (new, op0);
9055                 op0 = copy_rtx (new);
9056                 PUT_MODE (op0, BLKmode);
9057               }
9058           }
9059         else
9060           /* Get a reference to just this component.  */
9061           op0 = adjust_address (op0, mode1, bitpos / BITS_PER_UNIT);
9062
9063         set_mem_alias_set (op0, get_alias_set (exp));
9064
9065         /* Adjust the alignment in case the bit position is not
9066            a multiple of the alignment of the inner object.  */
9067         while (bitpos % alignment != 0)
9068           alignment >>= 1;
9069
9070         if (GET_CODE (XEXP (op0, 0)) == REG)
9071           mark_reg_pointer (XEXP (op0, 0), alignment);
9072
9073         MEM_IN_STRUCT_P (op0) = 1;
9074         MEM_VOLATILE_P (op0) |= volatilep;
9075
9076         *palign = alignment;
9077         return op0;
9078       }
9079
9080     default:
9081       break;
9082
9083     }
9084
9085   return expand_expr (exp, NULL_RTX, VOIDmode, EXPAND_NORMAL);
9086 }
9087 \f
9088 /* Return the tree node if a ARG corresponds to a string constant or zero
9089    if it doesn't.  If we return non-zero, set *PTR_OFFSET to the offset
9090    in bytes within the string that ARG is accessing.  The type of the
9091    offset will be `sizetype'.  */
9092
9093 tree
9094 string_constant (arg, ptr_offset)
9095      tree arg;
9096      tree *ptr_offset;
9097 {
9098   STRIP_NOPS (arg);
9099
9100   if (TREE_CODE (arg) == ADDR_EXPR
9101       && TREE_CODE (TREE_OPERAND (arg, 0)) == STRING_CST)
9102     {
9103       *ptr_offset = size_zero_node;
9104       return TREE_OPERAND (arg, 0);
9105     }
9106   else if (TREE_CODE (arg) == PLUS_EXPR)
9107     {
9108       tree arg0 = TREE_OPERAND (arg, 0);
9109       tree arg1 = TREE_OPERAND (arg, 1);
9110
9111       STRIP_NOPS (arg0);
9112       STRIP_NOPS (arg1);
9113
9114       if (TREE_CODE (arg0) == ADDR_EXPR
9115           && TREE_CODE (TREE_OPERAND (arg0, 0)) == STRING_CST)
9116         {
9117           *ptr_offset = convert (sizetype, arg1);
9118           return TREE_OPERAND (arg0, 0);
9119         }
9120       else if (TREE_CODE (arg1) == ADDR_EXPR
9121                && TREE_CODE (TREE_OPERAND (arg1, 0)) == STRING_CST)
9122         {
9123           *ptr_offset = convert (sizetype, arg0);
9124           return TREE_OPERAND (arg1, 0);
9125         }
9126     }
9127
9128   return 0;
9129 }
9130 \f
9131 /* Expand code for a post- or pre- increment or decrement
9132    and return the RTX for the result.
9133    POST is 1 for postinc/decrements and 0 for preinc/decrements.  */
9134
9135 static rtx
9136 expand_increment (exp, post, ignore)
9137      register tree exp;
9138      int post, ignore;
9139 {
9140   register rtx op0, op1;
9141   register rtx temp, value;
9142   register tree incremented = TREE_OPERAND (exp, 0);
9143   optab this_optab = add_optab;
9144   int icode;
9145   enum machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
9146   int op0_is_copy = 0;
9147   int single_insn = 0;
9148   /* 1 means we can't store into OP0 directly,
9149      because it is a subreg narrower than a word,
9150      and we don't dare clobber the rest of the word.  */
9151   int bad_subreg = 0;
9152
9153   /* Stabilize any component ref that might need to be
9154      evaluated more than once below.  */
9155   if (!post
9156       || TREE_CODE (incremented) == BIT_FIELD_REF
9157       || (TREE_CODE (incremented) == COMPONENT_REF
9158           && (TREE_CODE (TREE_OPERAND (incremented, 0)) != INDIRECT_REF
9159               || DECL_BIT_FIELD (TREE_OPERAND (incremented, 1)))))
9160     incremented = stabilize_reference (incremented);
9161   /* Nested *INCREMENT_EXPRs can happen in C++.  We must force innermost
9162      ones into save exprs so that they don't accidentally get evaluated
9163      more than once by the code below.  */
9164   if (TREE_CODE (incremented) == PREINCREMENT_EXPR
9165       || TREE_CODE (incremented) == PREDECREMENT_EXPR)
9166     incremented = save_expr (incremented);
9167
9168   /* Compute the operands as RTX.
9169      Note whether OP0 is the actual lvalue or a copy of it:
9170      I believe it is a copy iff it is a register or subreg
9171      and insns were generated in computing it.   */
9172
9173   temp = get_last_insn ();
9174   op0 = expand_expr (incremented, NULL_RTX, VOIDmode, EXPAND_MEMORY_USE_RW);
9175
9176   /* If OP0 is a SUBREG made for a promoted variable, we cannot increment
9177      in place but instead must do sign- or zero-extension during assignment,
9178      so we copy it into a new register and let the code below use it as
9179      a copy.
9180
9181      Note that we can safely modify this SUBREG since it is know not to be
9182      shared (it was made by the expand_expr call above).  */
9183
9184   if (GET_CODE (op0) == SUBREG && SUBREG_PROMOTED_VAR_P (op0))
9185     {
9186       if (post)
9187         SUBREG_REG (op0) = copy_to_reg (SUBREG_REG (op0));
9188       else
9189         bad_subreg = 1;
9190     }
9191   else if (GET_CODE (op0) == SUBREG
9192            && GET_MODE_BITSIZE (GET_MODE (op0)) < BITS_PER_WORD)
9193     {
9194       /* We cannot increment this SUBREG in place.  If we are
9195          post-incrementing, get a copy of the old value.  Otherwise,
9196          just mark that we cannot increment in place.  */
9197       if (post)
9198         op0 = copy_to_reg (op0);
9199       else
9200         bad_subreg = 1;
9201     }
9202
9203   op0_is_copy = ((GET_CODE (op0) == SUBREG || GET_CODE (op0) == REG)
9204                  && temp != get_last_insn ());
9205   op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode,
9206                      EXPAND_MEMORY_USE_BAD);
9207
9208   /* Decide whether incrementing or decrementing.  */
9209   if (TREE_CODE (exp) == POSTDECREMENT_EXPR
9210       || TREE_CODE (exp) == PREDECREMENT_EXPR)
9211     this_optab = sub_optab;
9212
9213   /* Convert decrement by a constant into a negative increment.  */
9214   if (this_optab == sub_optab
9215       && GET_CODE (op1) == CONST_INT)
9216     {
9217       op1 = GEN_INT (-INTVAL (op1));
9218       this_optab = add_optab;
9219     }
9220
9221   if (TYPE_TRAP_SIGNED (TREE_TYPE (exp)))
9222      this_optab = this_optab == add_optab ? addv_optab : subv_optab;
9223
9224   /* For a preincrement, see if we can do this with a single instruction.  */
9225   if (!post)
9226     {
9227       icode = (int) this_optab->handlers[(int) mode].insn_code;
9228       if (icode != (int) CODE_FOR_nothing
9229           /* Make sure that OP0 is valid for operands 0 and 1
9230              of the insn we want to queue.  */
9231           && (*insn_data[icode].operand[0].predicate) (op0, mode)
9232           && (*insn_data[icode].operand[1].predicate) (op0, mode)
9233           && (*insn_data[icode].operand[2].predicate) (op1, mode))
9234         single_insn = 1;
9235     }
9236
9237   /* If OP0 is not the actual lvalue, but rather a copy in a register,
9238      then we cannot just increment OP0.  We must therefore contrive to
9239      increment the original value.  Then, for postincrement, we can return
9240      OP0 since it is a copy of the old value.  For preincrement, expand here
9241      unless we can do it with a single insn.
9242
9243      Likewise if storing directly into OP0 would clobber high bits
9244      we need to preserve (bad_subreg).  */
9245   if (op0_is_copy || (!post && !single_insn) || bad_subreg)
9246     {
9247       /* This is the easiest way to increment the value wherever it is.
9248          Problems with multiple evaluation of INCREMENTED are prevented
9249          because either (1) it is a component_ref or preincrement,
9250          in which case it was stabilized above, or (2) it is an array_ref
9251          with constant index in an array in a register, which is
9252          safe to reevaluate.  */
9253       tree newexp = build (((TREE_CODE (exp) == POSTDECREMENT_EXPR
9254                              || TREE_CODE (exp) == PREDECREMENT_EXPR)
9255                             ? MINUS_EXPR : PLUS_EXPR),
9256                            TREE_TYPE (exp),
9257                            incremented,
9258                            TREE_OPERAND (exp, 1));
9259
9260       while (TREE_CODE (incremented) == NOP_EXPR
9261              || TREE_CODE (incremented) == CONVERT_EXPR)
9262         {
9263           newexp = convert (TREE_TYPE (incremented), newexp);
9264           incremented = TREE_OPERAND (incremented, 0);
9265         }
9266
9267       temp = expand_assignment (incremented, newexp, ! post && ! ignore , 0);
9268       return post ? op0 : temp;
9269     }
9270
9271   if (post)
9272     {
9273       /* We have a true reference to the value in OP0.
9274          If there is an insn to add or subtract in this mode, queue it.
9275          Queueing the increment insn avoids the register shuffling
9276          that often results if we must increment now and first save
9277          the old value for subsequent use.  */
9278
9279 #if 0  /* Turned off to avoid making extra insn for indexed memref.  */
9280       op0 = stabilize (op0);
9281 #endif
9282
9283       icode = (int) this_optab->handlers[(int) mode].insn_code;
9284       if (icode != (int) CODE_FOR_nothing
9285           /* Make sure that OP0 is valid for operands 0 and 1
9286              of the insn we want to queue.  */
9287           && (*insn_data[icode].operand[0].predicate) (op0, mode)
9288           && (*insn_data[icode].operand[1].predicate) (op0, mode))
9289         {
9290           if (! (*insn_data[icode].operand[2].predicate) (op1, mode))
9291             op1 = force_reg (mode, op1);
9292
9293           return enqueue_insn (op0, GEN_FCN (icode) (op0, op0, op1));
9294         }
9295       if (icode != (int) CODE_FOR_nothing && GET_CODE (op0) == MEM)
9296         {
9297           rtx addr = (general_operand (XEXP (op0, 0), mode)
9298                       ? force_reg (Pmode, XEXP (op0, 0))
9299                       : copy_to_reg (XEXP (op0, 0)));
9300           rtx temp, result;
9301
9302           op0 = replace_equiv_address (op0, addr);
9303           temp = force_reg (GET_MODE (op0), op0);
9304           if (! (*insn_data[icode].operand[2].predicate) (op1, mode))
9305             op1 = force_reg (mode, op1);
9306
9307           /* The increment queue is LIFO, thus we have to `queue'
9308              the instructions in reverse order.  */
9309           enqueue_insn (op0, gen_move_insn (op0, temp));
9310           result = enqueue_insn (temp, GEN_FCN (icode) (temp, temp, op1));
9311           return result;
9312         }
9313     }
9314
9315   /* Preincrement, or we can't increment with one simple insn.  */
9316   if (post)
9317     /* Save a copy of the value before inc or dec, to return it later.  */
9318     temp = value = copy_to_reg (op0);
9319   else
9320     /* Arrange to return the incremented value.  */
9321     /* Copy the rtx because expand_binop will protect from the queue,
9322        and the results of that would be invalid for us to return
9323        if our caller does emit_queue before using our result.  */
9324     temp = copy_rtx (value = op0);
9325
9326   /* Increment however we can.  */
9327   op1 = expand_binop (mode, this_optab, value, op1,
9328                       current_function_check_memory_usage ? NULL_RTX : op0,
9329                       TREE_UNSIGNED (TREE_TYPE (exp)), OPTAB_LIB_WIDEN);
9330   /* Make sure the value is stored into OP0.  */
9331   if (op1 != op0)
9332     emit_move_insn (op0, op1);
9333
9334   return temp;
9335 }
9336 \f
9337 /* At the start of a function, record that we have no previously-pushed
9338    arguments waiting to be popped.  */
9339
9340 void
9341 init_pending_stack_adjust ()
9342 {
9343   pending_stack_adjust = 0;
9344 }
9345
9346 /* When exiting from function, if safe, clear out any pending stack adjust
9347    so the adjustment won't get done.
9348
9349    Note, if the current function calls alloca, then it must have a
9350    frame pointer regardless of the value of flag_omit_frame_pointer.  */
9351
9352 void
9353 clear_pending_stack_adjust ()
9354 {
9355 #ifdef EXIT_IGNORE_STACK
9356   if (optimize > 0
9357       && (! flag_omit_frame_pointer || current_function_calls_alloca)
9358       && EXIT_IGNORE_STACK
9359       && ! (DECL_INLINE (current_function_decl) && ! flag_no_inline)
9360       && ! flag_inline_functions)
9361     {
9362       stack_pointer_delta -= pending_stack_adjust,
9363       pending_stack_adjust = 0;
9364     }
9365 #endif
9366 }
9367
9368 /* Pop any previously-pushed arguments that have not been popped yet.  */
9369
9370 void
9371 do_pending_stack_adjust ()
9372 {
9373   if (inhibit_defer_pop == 0)
9374     {
9375       if (pending_stack_adjust != 0)
9376         adjust_stack (GEN_INT (pending_stack_adjust));
9377       pending_stack_adjust = 0;
9378     }
9379 }
9380 \f
9381 /* Expand conditional expressions.  */
9382
9383 /* Generate code to evaluate EXP and jump to LABEL if the value is zero.
9384    LABEL is an rtx of code CODE_LABEL, in this function and all the
9385    functions here.  */
9386
9387 void
9388 jumpifnot (exp, label)
9389      tree exp;
9390      rtx label;
9391 {
9392   do_jump (exp, label, NULL_RTX);
9393 }
9394
9395 /* Generate code to evaluate EXP and jump to LABEL if the value is nonzero.  */
9396
9397 void
9398 jumpif (exp, label)
9399      tree exp;
9400      rtx label;
9401 {
9402   do_jump (exp, NULL_RTX, label);
9403 }
9404
9405 /* Generate code to evaluate EXP and jump to IF_FALSE_LABEL if
9406    the result is zero, or IF_TRUE_LABEL if the result is one.
9407    Either of IF_FALSE_LABEL and IF_TRUE_LABEL may be zero,
9408    meaning fall through in that case.
9409
9410    do_jump always does any pending stack adjust except when it does not
9411    actually perform a jump.  An example where there is no jump
9412    is when EXP is `(foo (), 0)' and IF_FALSE_LABEL is null.
9413
9414    This function is responsible for optimizing cases such as
9415    &&, || and comparison operators in EXP.  */
9416
9417 void
9418 do_jump (exp, if_false_label, if_true_label)
9419      tree exp;
9420      rtx if_false_label, if_true_label;
9421 {
9422   register enum tree_code code = TREE_CODE (exp);
9423   /* Some cases need to create a label to jump to
9424      in order to properly fall through.
9425      These cases set DROP_THROUGH_LABEL nonzero.  */
9426   rtx drop_through_label = 0;
9427   rtx temp;
9428   int i;
9429   tree type;
9430   enum machine_mode mode;
9431
9432 #ifdef MAX_INTEGER_COMPUTATION_MODE
9433   check_max_integer_computation_mode (exp);
9434 #endif
9435
9436   emit_queue ();
9437
9438   switch (code)
9439     {
9440     case ERROR_MARK:
9441       break;
9442
9443     case INTEGER_CST:
9444       temp = integer_zerop (exp) ? if_false_label : if_true_label;
9445       if (temp)
9446         emit_jump (temp);
9447       break;
9448
9449 #if 0
9450       /* This is not true with #pragma weak  */
9451     case ADDR_EXPR:
9452       /* The address of something can never be zero.  */
9453       if (if_true_label)
9454         emit_jump (if_true_label);
9455       break;
9456 #endif
9457
9458     case NOP_EXPR:
9459       if (TREE_CODE (TREE_OPERAND (exp, 0)) == COMPONENT_REF
9460           || TREE_CODE (TREE_OPERAND (exp, 0)) == BIT_FIELD_REF
9461           || TREE_CODE (TREE_OPERAND (exp, 0)) == ARRAY_REF
9462           || TREE_CODE (TREE_OPERAND (exp, 0)) == ARRAY_RANGE_REF)
9463         goto normal;
9464     case CONVERT_EXPR:
9465       /* If we are narrowing the operand, we have to do the compare in the
9466          narrower mode.  */
9467       if ((TYPE_PRECISION (TREE_TYPE (exp))
9468            < TYPE_PRECISION (TREE_TYPE (TREE_OPERAND (exp, 0)))))
9469         goto normal;
9470     case NON_LVALUE_EXPR:
9471     case REFERENCE_EXPR:
9472     case ABS_EXPR:
9473     case NEGATE_EXPR:
9474     case LROTATE_EXPR:
9475     case RROTATE_EXPR:
9476       /* These cannot change zero->non-zero or vice versa.  */
9477       do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
9478       break;
9479
9480     case WITH_RECORD_EXPR:
9481       /* Put the object on the placeholder list, recurse through our first
9482          operand, and pop the list.  */
9483       placeholder_list = tree_cons (TREE_OPERAND (exp, 1), NULL_TREE,
9484                                     placeholder_list);
9485       do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
9486       placeholder_list = TREE_CHAIN (placeholder_list);
9487       break;
9488
9489 #if 0
9490       /* This is never less insns than evaluating the PLUS_EXPR followed by
9491          a test and can be longer if the test is eliminated.  */
9492     case PLUS_EXPR:
9493       /* Reduce to minus.  */
9494       exp = build (MINUS_EXPR, TREE_TYPE (exp),
9495                    TREE_OPERAND (exp, 0),
9496                    fold (build1 (NEGATE_EXPR, TREE_TYPE (TREE_OPERAND (exp, 1)),
9497                                  TREE_OPERAND (exp, 1))));
9498       /* Process as MINUS.  */
9499 #endif
9500
9501     case MINUS_EXPR:
9502       /* Non-zero iff operands of minus differ.  */
9503       do_compare_and_jump (build (NE_EXPR, TREE_TYPE (exp),
9504                                   TREE_OPERAND (exp, 0),
9505                                   TREE_OPERAND (exp, 1)),
9506                            NE, NE, if_false_label, if_true_label);
9507       break;
9508
9509     case BIT_AND_EXPR:
9510       /* If we are AND'ing with a small constant, do this comparison in the
9511          smallest type that fits.  If the machine doesn't have comparisons
9512          that small, it will be converted back to the wider comparison.
9513          This helps if we are testing the sign bit of a narrower object.
9514          combine can't do this for us because it can't know whether a
9515          ZERO_EXTRACT or a compare in a smaller mode exists, but we do.  */
9516
9517       if (! SLOW_BYTE_ACCESS
9518           && TREE_CODE (TREE_OPERAND (exp, 1)) == INTEGER_CST
9519           && TYPE_PRECISION (TREE_TYPE (exp)) <= HOST_BITS_PER_WIDE_INT
9520           && (i = tree_floor_log2 (TREE_OPERAND (exp, 1))) >= 0
9521           && (mode = mode_for_size (i + 1, MODE_INT, 0)) != BLKmode
9522           && (type = type_for_mode (mode, 1)) != 0
9523           && TYPE_PRECISION (type) < TYPE_PRECISION (TREE_TYPE (exp))
9524           && (cmp_optab->handlers[(int) TYPE_MODE (type)].insn_code
9525               != CODE_FOR_nothing))
9526         {
9527           do_jump (convert (type, exp), if_false_label, if_true_label);
9528           break;
9529         }
9530       goto normal;
9531
9532     case TRUTH_NOT_EXPR:
9533       do_jump (TREE_OPERAND (exp, 0), if_true_label, if_false_label);
9534       break;
9535
9536     case TRUTH_ANDIF_EXPR:
9537       if (if_false_label == 0)
9538         if_false_label = drop_through_label = gen_label_rtx ();
9539       do_jump (TREE_OPERAND (exp, 0), if_false_label, NULL_RTX);
9540       start_cleanup_deferral ();
9541       do_jump (TREE_OPERAND (exp, 1), if_false_label, if_true_label);
9542       end_cleanup_deferral ();
9543       break;
9544
9545     case TRUTH_ORIF_EXPR:
9546       if (if_true_label == 0)
9547         if_true_label = drop_through_label = gen_label_rtx ();
9548       do_jump (TREE_OPERAND (exp, 0), NULL_RTX, if_true_label);
9549       start_cleanup_deferral ();
9550       do_jump (TREE_OPERAND (exp, 1), if_false_label, if_true_label);
9551       end_cleanup_deferral ();
9552       break;
9553
9554     case COMPOUND_EXPR:
9555       push_temp_slots ();
9556       expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode, 0);
9557       preserve_temp_slots (NULL_RTX);
9558       free_temp_slots ();
9559       pop_temp_slots ();
9560       emit_queue ();
9561       do_pending_stack_adjust ();
9562       do_jump (TREE_OPERAND (exp, 1), if_false_label, if_true_label);
9563       break;
9564
9565     case COMPONENT_REF:
9566     case BIT_FIELD_REF:
9567     case ARRAY_REF:
9568     case ARRAY_RANGE_REF:
9569       {
9570         HOST_WIDE_INT bitsize, bitpos;
9571         int unsignedp;
9572         enum machine_mode mode;
9573         tree type;
9574         tree offset;
9575         int volatilep = 0;
9576         unsigned int alignment;
9577
9578         /* Get description of this reference.  We don't actually care
9579            about the underlying object here.  */
9580         get_inner_reference (exp, &bitsize, &bitpos, &offset, &mode,
9581                              &unsignedp, &volatilep, &alignment);
9582
9583         type = type_for_size (bitsize, unsignedp);
9584         if (! SLOW_BYTE_ACCESS
9585             && type != 0 && bitsize >= 0
9586             && TYPE_PRECISION (type) < TYPE_PRECISION (TREE_TYPE (exp))
9587             && (cmp_optab->handlers[(int) TYPE_MODE (type)].insn_code
9588                 != CODE_FOR_nothing))
9589           {
9590             do_jump (convert (type, exp), if_false_label, if_true_label);
9591             break;
9592           }
9593         goto normal;
9594       }
9595
9596     case COND_EXPR:
9597       /* Do (a ? 1 : 0) and (a ? 0 : 1) as special cases.  */
9598       if (integer_onep (TREE_OPERAND (exp, 1))
9599           && integer_zerop (TREE_OPERAND (exp, 2)))
9600         do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
9601
9602       else if (integer_zerop (TREE_OPERAND (exp, 1))
9603                && integer_onep (TREE_OPERAND (exp, 2)))
9604         do_jump (TREE_OPERAND (exp, 0), if_true_label, if_false_label);
9605
9606       else
9607         {
9608           register rtx label1 = gen_label_rtx ();
9609           drop_through_label = gen_label_rtx ();
9610
9611           do_jump (TREE_OPERAND (exp, 0), label1, NULL_RTX);
9612
9613           start_cleanup_deferral ();
9614           /* Now the THEN-expression.  */
9615           do_jump (TREE_OPERAND (exp, 1),
9616                    if_false_label ? if_false_label : drop_through_label,
9617                    if_true_label ? if_true_label : drop_through_label);
9618           /* In case the do_jump just above never jumps.  */
9619           do_pending_stack_adjust ();
9620           emit_label (label1);
9621
9622           /* Now the ELSE-expression.  */
9623           do_jump (TREE_OPERAND (exp, 2),
9624                    if_false_label ? if_false_label : drop_through_label,
9625                    if_true_label ? if_true_label : drop_through_label);
9626           end_cleanup_deferral ();
9627         }
9628       break;
9629
9630     case EQ_EXPR:
9631       {
9632         tree inner_type = TREE_TYPE (TREE_OPERAND (exp, 0));
9633
9634         if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_COMPLEX_FLOAT
9635             || GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_COMPLEX_INT)
9636           {
9637             tree exp0 = save_expr (TREE_OPERAND (exp, 0));
9638             tree exp1 = save_expr (TREE_OPERAND (exp, 1));
9639             do_jump
9640               (fold
9641                (build (TRUTH_ANDIF_EXPR, TREE_TYPE (exp),
9642                        fold (build (EQ_EXPR, TREE_TYPE (exp),
9643                                     fold (build1 (REALPART_EXPR,
9644                                                   TREE_TYPE (inner_type),
9645                                                   exp0)),
9646                                     fold (build1 (REALPART_EXPR,
9647                                                   TREE_TYPE (inner_type),
9648                                                   exp1)))),
9649                        fold (build (EQ_EXPR, TREE_TYPE (exp),
9650                                     fold (build1 (IMAGPART_EXPR,
9651                                                   TREE_TYPE (inner_type),
9652                                                   exp0)),
9653                                     fold (build1 (IMAGPART_EXPR,
9654                                                   TREE_TYPE (inner_type),
9655                                                   exp1)))))),
9656                if_false_label, if_true_label);
9657           }
9658
9659         else if (integer_zerop (TREE_OPERAND (exp, 1)))
9660           do_jump (TREE_OPERAND (exp, 0), if_true_label, if_false_label);
9661
9662         else if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_INT
9663                  && !can_compare_p (EQ, TYPE_MODE (inner_type), ccp_jump))
9664           do_jump_by_parts_equality (exp, if_false_label, if_true_label);
9665         else
9666           do_compare_and_jump (exp, EQ, EQ, if_false_label, if_true_label);
9667         break;
9668       }
9669
9670     case NE_EXPR:
9671       {
9672         tree inner_type = TREE_TYPE (TREE_OPERAND (exp, 0));
9673
9674         if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_COMPLEX_FLOAT
9675             || GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_COMPLEX_INT)
9676           {
9677             tree exp0 = save_expr (TREE_OPERAND (exp, 0));
9678             tree exp1 = save_expr (TREE_OPERAND (exp, 1));
9679             do_jump
9680               (fold
9681                (build (TRUTH_ORIF_EXPR, TREE_TYPE (exp),
9682                        fold (build (NE_EXPR, TREE_TYPE (exp),
9683                                     fold (build1 (REALPART_EXPR,
9684                                                   TREE_TYPE (inner_type),
9685                                                   exp0)),
9686                                     fold (build1 (REALPART_EXPR,
9687                                                   TREE_TYPE (inner_type),
9688                                                   exp1)))),
9689                        fold (build (NE_EXPR, TREE_TYPE (exp),
9690                                     fold (build1 (IMAGPART_EXPR,
9691                                                   TREE_TYPE (inner_type),
9692                                                   exp0)),
9693                                     fold (build1 (IMAGPART_EXPR,
9694                                                   TREE_TYPE (inner_type),
9695                                                   exp1)))))),
9696                if_false_label, if_true_label);
9697           }
9698
9699         else if (integer_zerop (TREE_OPERAND (exp, 1)))
9700           do_jump (TREE_OPERAND (exp, 0), if_false_label, if_true_label);
9701
9702         else if (GET_MODE_CLASS (TYPE_MODE (inner_type)) == MODE_INT
9703                  && !can_compare_p (NE, TYPE_MODE (inner_type), ccp_jump))
9704           do_jump_by_parts_equality (exp, if_true_label, if_false_label);
9705         else
9706           do_compare_and_jump (exp, NE, NE, if_false_label, if_true_label);
9707         break;
9708       }
9709
9710     case LT_EXPR:
9711       mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9712       if (GET_MODE_CLASS (mode) == MODE_INT
9713           && ! can_compare_p (LT, mode, ccp_jump))
9714         do_jump_by_parts_greater (exp, 1, if_false_label, if_true_label);
9715       else
9716         do_compare_and_jump (exp, LT, LTU, if_false_label, if_true_label);
9717       break;
9718
9719     case LE_EXPR:
9720       mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9721       if (GET_MODE_CLASS (mode) == MODE_INT
9722           && ! can_compare_p (LE, mode, ccp_jump))
9723         do_jump_by_parts_greater (exp, 0, if_true_label, if_false_label);
9724       else
9725         do_compare_and_jump (exp, LE, LEU, if_false_label, if_true_label);
9726       break;
9727
9728     case GT_EXPR:
9729       mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9730       if (GET_MODE_CLASS (mode) == MODE_INT
9731           && ! can_compare_p (GT, mode, ccp_jump))
9732         do_jump_by_parts_greater (exp, 0, if_false_label, if_true_label);
9733       else
9734         do_compare_and_jump (exp, GT, GTU, if_false_label, if_true_label);
9735       break;
9736
9737     case GE_EXPR:
9738       mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9739       if (GET_MODE_CLASS (mode) == MODE_INT
9740           && ! can_compare_p (GE, mode, ccp_jump))
9741         do_jump_by_parts_greater (exp, 1, if_true_label, if_false_label);
9742       else
9743         do_compare_and_jump (exp, GE, GEU, if_false_label, if_true_label);
9744       break;
9745
9746     case UNORDERED_EXPR:
9747     case ORDERED_EXPR:
9748       {
9749         enum rtx_code cmp, rcmp;
9750         int do_rev;
9751
9752         if (code == UNORDERED_EXPR)
9753           cmp = UNORDERED, rcmp = ORDERED;
9754         else
9755           cmp = ORDERED, rcmp = UNORDERED;
9756         mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9757
9758         do_rev = 0;
9759         if (! can_compare_p (cmp, mode, ccp_jump)
9760             && (can_compare_p (rcmp, mode, ccp_jump)
9761                 /* If the target doesn't provide either UNORDERED or ORDERED
9762                    comparisons, canonicalize on UNORDERED for the library.  */
9763                 || rcmp == UNORDERED))
9764           do_rev = 1;
9765
9766         if (! do_rev)
9767           do_compare_and_jump (exp, cmp, cmp, if_false_label, if_true_label);
9768         else
9769           do_compare_and_jump (exp, rcmp, rcmp, if_true_label, if_false_label);
9770       }
9771       break;
9772
9773     {
9774       enum rtx_code rcode1;
9775       enum tree_code tcode2;
9776
9777       case UNLT_EXPR:
9778         rcode1 = UNLT;
9779         tcode2 = LT_EXPR;
9780         goto unordered_bcc;
9781       case UNLE_EXPR:
9782         rcode1 = UNLE;
9783         tcode2 = LE_EXPR;
9784         goto unordered_bcc;
9785       case UNGT_EXPR:
9786         rcode1 = UNGT;
9787         tcode2 = GT_EXPR;
9788         goto unordered_bcc;
9789       case UNGE_EXPR:
9790         rcode1 = UNGE;
9791         tcode2 = GE_EXPR;
9792         goto unordered_bcc;
9793       case UNEQ_EXPR:
9794         rcode1 = UNEQ;
9795         tcode2 = EQ_EXPR;
9796         goto unordered_bcc;
9797
9798       unordered_bcc:
9799         mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9800         if (can_compare_p (rcode1, mode, ccp_jump))
9801           do_compare_and_jump (exp, rcode1, rcode1, if_false_label,
9802                                if_true_label);
9803         else
9804           {
9805             tree op0 = save_expr (TREE_OPERAND (exp, 0));
9806             tree op1 = save_expr (TREE_OPERAND (exp, 1));
9807             tree cmp0, cmp1;
9808
9809             /* If the target doesn't support combined unordered
9810                compares, decompose into UNORDERED + comparison.  */
9811             cmp0 = fold (build (UNORDERED_EXPR, TREE_TYPE (exp), op0, op1));
9812             cmp1 = fold (build (tcode2, TREE_TYPE (exp), op0, op1));
9813             exp = build (TRUTH_ORIF_EXPR, TREE_TYPE (exp), cmp0, cmp1);
9814             do_jump (exp, if_false_label, if_true_label);
9815           }
9816       }
9817       break;
9818
9819       /* Special case:
9820                 __builtin_expect (<test>, 0)    and
9821                 __builtin_expect (<test>, 1)
9822
9823          We need to do this here, so that <test> is not converted to a SCC
9824          operation on machines that use condition code registers and COMPARE
9825          like the PowerPC, and then the jump is done based on whether the SCC
9826          operation produced a 1 or 0.  */
9827     case CALL_EXPR:
9828       /* Check for a built-in function.  */
9829       if (TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR)
9830         {
9831           tree fndecl = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
9832           tree arglist = TREE_OPERAND (exp, 1);
9833
9834           if (TREE_CODE (fndecl) == FUNCTION_DECL
9835               && DECL_BUILT_IN (fndecl)
9836               && DECL_FUNCTION_CODE (fndecl) == BUILT_IN_EXPECT
9837               && arglist != NULL_TREE
9838               && TREE_CHAIN (arglist) != NULL_TREE)
9839             {
9840               rtx seq = expand_builtin_expect_jump (exp, if_false_label,
9841                                                     if_true_label);
9842
9843               if (seq != NULL_RTX)
9844                 {
9845                   emit_insn (seq);
9846                   return;
9847                 }
9848             }
9849         }
9850       /* fall through and generate the normal code.  */
9851
9852     default:
9853     normal:
9854       temp = expand_expr (exp, NULL_RTX, VOIDmode, 0);
9855 #if 0
9856       /* This is not needed any more and causes poor code since it causes
9857          comparisons and tests from non-SI objects to have different code
9858          sequences.  */
9859       /* Copy to register to avoid generating bad insns by cse
9860          from (set (mem ...) (arithop))  (set (cc0) (mem ...)).  */
9861       if (!cse_not_expected && GET_CODE (temp) == MEM)
9862         temp = copy_to_reg (temp);
9863 #endif
9864       do_pending_stack_adjust ();
9865       /* Do any postincrements in the expression that was tested.  */
9866       emit_queue ();
9867
9868       if (GET_CODE (temp) == CONST_INT 
9869           || (GET_CODE (temp) == CONST_DOUBLE && GET_MODE (temp) == VOIDmode)
9870           || GET_CODE (temp) == LABEL_REF)
9871         {
9872           rtx target = temp == const0_rtx ? if_false_label : if_true_label;
9873           if (target)
9874             emit_jump (target);
9875         }
9876       else if (GET_MODE_CLASS (GET_MODE (temp)) == MODE_INT
9877                && ! can_compare_p (NE, GET_MODE (temp), ccp_jump))
9878         /* Note swapping the labels gives us not-equal.  */
9879         do_jump_by_parts_equality_rtx (temp, if_true_label, if_false_label);
9880       else if (GET_MODE (temp) != VOIDmode)
9881         do_compare_rtx_and_jump (temp, CONST0_RTX (GET_MODE (temp)),
9882                                  NE, TREE_UNSIGNED (TREE_TYPE (exp)),
9883                                  GET_MODE (temp), NULL_RTX, 0,
9884                                  if_false_label, if_true_label);
9885       else
9886         abort ();
9887     }
9888
9889   if (drop_through_label)
9890     {
9891       /* If do_jump produces code that might be jumped around,
9892          do any stack adjusts from that code, before the place
9893          where control merges in.  */
9894       do_pending_stack_adjust ();
9895       emit_label (drop_through_label);
9896     }
9897 }
9898 \f
9899 /* Given a comparison expression EXP for values too wide to be compared
9900    with one insn, test the comparison and jump to the appropriate label.
9901    The code of EXP is ignored; we always test GT if SWAP is 0,
9902    and LT if SWAP is 1.  */
9903
9904 static void
9905 do_jump_by_parts_greater (exp, swap, if_false_label, if_true_label)
9906      tree exp;
9907      int swap;
9908      rtx if_false_label, if_true_label;
9909 {
9910   rtx op0 = expand_expr (TREE_OPERAND (exp, swap), NULL_RTX, VOIDmode, 0);
9911   rtx op1 = expand_expr (TREE_OPERAND (exp, !swap), NULL_RTX, VOIDmode, 0);
9912   enum machine_mode mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9913   int unsignedp = TREE_UNSIGNED (TREE_TYPE (TREE_OPERAND (exp, 0)));
9914
9915   do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true_label);
9916 }
9917
9918 /* Compare OP0 with OP1, word at a time, in mode MODE.
9919    UNSIGNEDP says to do unsigned comparison.
9920    Jump to IF_TRUE_LABEL if OP0 is greater, IF_FALSE_LABEL otherwise.  */
9921
9922 void
9923 do_jump_by_parts_greater_rtx (mode, unsignedp, op0, op1, if_false_label, if_true_label)
9924      enum machine_mode mode;
9925      int unsignedp;
9926      rtx op0, op1;
9927      rtx if_false_label, if_true_label;
9928 {
9929   int nwords = (GET_MODE_SIZE (mode) / UNITS_PER_WORD);
9930   rtx drop_through_label = 0;
9931   int i;
9932
9933   if (! if_true_label || ! if_false_label)
9934     drop_through_label = gen_label_rtx ();
9935   if (! if_true_label)
9936     if_true_label = drop_through_label;
9937   if (! if_false_label)
9938     if_false_label = drop_through_label;
9939
9940   /* Compare a word at a time, high order first.  */
9941   for (i = 0; i < nwords; i++)
9942     {
9943       rtx op0_word, op1_word;
9944
9945       if (WORDS_BIG_ENDIAN)
9946         {
9947           op0_word = operand_subword_force (op0, i, mode);
9948           op1_word = operand_subword_force (op1, i, mode);
9949         }
9950       else
9951         {
9952           op0_word = operand_subword_force (op0, nwords - 1 - i, mode);
9953           op1_word = operand_subword_force (op1, nwords - 1 - i, mode);
9954         }
9955
9956       /* All but high-order word must be compared as unsigned.  */
9957       do_compare_rtx_and_jump (op0_word, op1_word, GT,
9958                                (unsignedp || i > 0), word_mode, NULL_RTX, 0,
9959                                NULL_RTX, if_true_label);
9960
9961       /* Consider lower words only if these are equal.  */
9962       do_compare_rtx_and_jump (op0_word, op1_word, NE, unsignedp, word_mode,
9963                                NULL_RTX, 0, NULL_RTX, if_false_label);
9964     }
9965
9966   if (if_false_label)
9967     emit_jump (if_false_label);
9968   if (drop_through_label)
9969     emit_label (drop_through_label);
9970 }
9971
9972 /* Given an EQ_EXPR expression EXP for values too wide to be compared
9973    with one insn, test the comparison and jump to the appropriate label.  */
9974
9975 static void
9976 do_jump_by_parts_equality (exp, if_false_label, if_true_label)
9977      tree exp;
9978      rtx if_false_label, if_true_label;
9979 {
9980   rtx op0 = expand_expr (TREE_OPERAND (exp, 0), NULL_RTX, VOIDmode, 0);
9981   rtx op1 = expand_expr (TREE_OPERAND (exp, 1), NULL_RTX, VOIDmode, 0);
9982   enum machine_mode mode = TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp, 0)));
9983   int nwords = (GET_MODE_SIZE (mode) / UNITS_PER_WORD);
9984   int i;
9985   rtx drop_through_label = 0;
9986
9987   if (! if_false_label)
9988     drop_through_label = if_false_label = gen_label_rtx ();
9989
9990   for (i = 0; i < nwords; i++)
9991     do_compare_rtx_and_jump (operand_subword_force (op0, i, mode),
9992                              operand_subword_force (op1, i, mode),
9993                              EQ, TREE_UNSIGNED (TREE_TYPE (exp)),
9994                              word_mode, NULL_RTX, 0, if_false_label,
9995                              NULL_RTX);
9996
9997   if (if_true_label)
9998     emit_jump (if_true_label);
9999   if (drop_through_label)
10000     emit_label (drop_through_label);
10001 }
10002 \f
10003 /* Jump according to whether OP0 is 0.
10004    We assume that OP0 has an integer mode that is too wide
10005    for the available compare insns.  */
10006
10007 void
10008 do_jump_by_parts_equality_rtx (op0, if_false_label, if_true_label)
10009      rtx op0;
10010      rtx if_false_label, if_true_label;
10011 {
10012   int nwords = GET_MODE_SIZE (GET_MODE (op0)) / UNITS_PER_WORD;
10013   rtx part;
10014   int i;
10015   rtx drop_through_label = 0;
10016
10017   /* The fastest way of doing this comparison on almost any machine is to
10018      "or" all the words and compare the result.  If all have to be loaded
10019      from memory and this is a very wide item, it's possible this may
10020      be slower, but that's highly unlikely.  */
10021
10022   part = gen_reg_rtx (word_mode);
10023   emit_move_insn (part, operand_subword_force (op0, 0, GET_MODE (op0)));
10024   for (i = 1; i < nwords && part != 0; i++)
10025     part = expand_binop (word_mode, ior_optab, part,
10026                          operand_subword_force (op0, i, GET_MODE (op0)),
10027                          part, 1, OPTAB_WIDEN);
10028
10029   if (part != 0)
10030     {
10031       do_compare_rtx_and_jump (part, const0_rtx, EQ, 1, word_mode,
10032                                NULL_RTX, 0, if_false_label, if_true_label);
10033
10034       return;
10035     }
10036
10037   /* If we couldn't do the "or" simply, do this with a series of compares.  */
10038   if (! if_false_label)
10039     drop_through_label = if_false_label = gen_label_rtx ();
10040
10041   for (i = 0; i < nwords; i++)
10042     do_compare_rtx_and_jump (operand_subword_force (op0, i, GET_MODE (op0)),
10043                              const0_rtx, EQ, 1, word_mode, NULL_RTX, 0,
10044                              if_false_label, NULL_RTX);
10045
10046   if (if_true_label)
10047     emit_jump (if_true_label);
10048
10049   if (drop_through_label)
10050     emit_label (drop_through_label);
10051 }
10052 \f
10053 /* Generate code for a comparison of OP0 and OP1 with rtx code CODE.
10054    (including code to compute the values to be compared)
10055    and set (CC0) according to the result.
10056    The decision as to signed or unsigned comparison must be made by the caller.
10057
10058    We force a stack adjustment unless there are currently
10059    things pushed on the stack that aren't yet used.
10060
10061    If MODE is BLKmode, SIZE is an RTX giving the size of the objects being
10062    compared.
10063
10064    If ALIGN is non-zero, it is the alignment of this type; if zero, the
10065    size of MODE should be used.  */
10066
10067 rtx
10068 compare_from_rtx (op0, op1, code, unsignedp, mode, size, align)
10069      register rtx op0, op1;
10070      enum rtx_code code;
10071      int unsignedp;
10072      enum machine_mode mode;
10073      rtx size;
10074      unsigned int align;
10075 {
10076   rtx tem;
10077
10078   /* If one operand is constant, make it the second one.  Only do this
10079      if the other operand is not constant as well.  */
10080
10081   if (swap_commutative_operands_p (op0, op1))
10082     {
10083       tem = op0;
10084       op0 = op1;
10085       op1 = tem;
10086       code = swap_condition (code);
10087     }
10088
10089   if (flag_force_mem)
10090     {
10091       op0 = force_not_mem (op0);
10092       op1 = force_not_mem (op1);
10093     }
10094
10095   do_pending_stack_adjust ();
10096
10097   if (GET_CODE (op0) == CONST_INT && GET_CODE (op1) == CONST_INT
10098       && (tem = simplify_relational_operation (code, mode, op0, op1)) != 0)
10099     return tem;
10100
10101 #if 0
10102   /* There's no need to do this now that combine.c can eliminate lots of
10103      sign extensions.  This can be less efficient in certain cases on other
10104      machines.  */
10105
10106   /* If this is a signed equality comparison, we can do it as an
10107      unsigned comparison since zero-extension is cheaper than sign
10108      extension and comparisons with zero are done as unsigned.  This is
10109      the case even on machines that can do fast sign extension, since
10110      zero-extension is easier to combine with other operations than
10111      sign-extension is.  If we are comparing against a constant, we must
10112      convert it to what it would look like unsigned.  */
10113   if ((code == EQ || code == NE) && ! unsignedp
10114       && GET_MODE_BITSIZE (GET_MODE (op0)) <= HOST_BITS_PER_WIDE_INT)
10115     {
10116       if (GET_CODE (op1) == CONST_INT
10117           && (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0))) != INTVAL (op1))
10118         op1 = GEN_INT (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0)));
10119       unsignedp = 1;
10120     }
10121 #endif
10122
10123   emit_cmp_insn (op0, op1, code, size, mode, unsignedp, align);
10124
10125   return gen_rtx_fmt_ee (code, VOIDmode, cc0_rtx, const0_rtx);
10126 }
10127
10128 /* Like do_compare_and_jump but expects the values to compare as two rtx's.
10129    The decision as to signed or unsigned comparison must be made by the caller.
10130
10131    If MODE is BLKmode, SIZE is an RTX giving the size of the objects being
10132    compared.
10133
10134    If ALIGN is non-zero, it is the alignment of this type; if zero, the
10135    size of MODE should be used.  */
10136
10137 void
10138 do_compare_rtx_and_jump (op0, op1, code, unsignedp, mode, size, align,
10139                          if_false_label, if_true_label)
10140      register rtx op0, op1;
10141      enum rtx_code code;
10142      int unsignedp;
10143      enum machine_mode mode;
10144      rtx size;
10145      unsigned int align;
10146      rtx if_false_label, if_true_label;
10147 {
10148   rtx tem;
10149   int dummy_true_label = 0;
10150
10151   /* Reverse the comparison if that is safe and we want to jump if it is
10152      false.  */
10153   if (! if_true_label && ! FLOAT_MODE_P (mode))
10154     {
10155       if_true_label = if_false_label;
10156       if_false_label = 0;
10157       code = reverse_condition (code);
10158     }
10159
10160   /* If one operand is constant, make it the second one.  Only do this
10161      if the other operand is not constant as well.  */
10162
10163   if (swap_commutative_operands_p (op0, op1))
10164     {
10165       tem = op0;
10166       op0 = op1;
10167       op1 = tem;
10168       code = swap_condition (code);
10169     }
10170
10171   if (flag_force_mem)
10172     {
10173       op0 = force_not_mem (op0);
10174       op1 = force_not_mem (op1);
10175     }
10176
10177   do_pending_stack_adjust ();
10178
10179   if (GET_CODE (op0) == CONST_INT && GET_CODE (op1) == CONST_INT
10180       && (tem = simplify_relational_operation (code, mode, op0, op1)) != 0)
10181     {
10182       if (tem == const_true_rtx)
10183         {
10184           if (if_true_label)
10185             emit_jump (if_true_label);
10186         }
10187       else
10188         {
10189           if (if_false_label)
10190             emit_jump (if_false_label);
10191         }
10192       return;
10193     }
10194
10195 #if 0
10196   /* There's no need to do this now that combine.c can eliminate lots of
10197      sign extensions.  This can be less efficient in certain cases on other
10198      machines.  */
10199
10200   /* If this is a signed equality comparison, we can do it as an
10201      unsigned comparison since zero-extension is cheaper than sign
10202      extension and comparisons with zero are done as unsigned.  This is
10203      the case even on machines that can do fast sign extension, since
10204      zero-extension is easier to combine with other operations than
10205      sign-extension is.  If we are comparing against a constant, we must
10206      convert it to what it would look like unsigned.  */
10207   if ((code == EQ || code == NE) && ! unsignedp
10208       && GET_MODE_BITSIZE (GET_MODE (op0)) <= HOST_BITS_PER_WIDE_INT)
10209     {
10210       if (GET_CODE (op1) == CONST_INT
10211           && (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0))) != INTVAL (op1))
10212         op1 = GEN_INT (INTVAL (op1) & GET_MODE_MASK (GET_MODE (op0)));
10213       unsignedp = 1;
10214     }
10215 #endif
10216
10217   if (! if_true_label)
10218     {
10219       dummy_true_label = 1;
10220       if_true_label = gen_label_rtx ();
10221     }
10222
10223   emit_cmp_and_jump_insns (op0, op1, code, size, mode, unsignedp, align,
10224                            if_true_label);
10225
10226   if (if_false_label)
10227     emit_jump (if_false_label);
10228   if (dummy_true_label)
10229     emit_label (if_true_label);
10230 }
10231
10232 /* Generate code for a comparison expression EXP (including code to compute
10233    the values to be compared) and a conditional jump to IF_FALSE_LABEL and/or
10234    IF_TRUE_LABEL.  One of the labels can be NULL_RTX, in which case the
10235    generated code will drop through.
10236    SIGNED_CODE should be the rtx operation for this comparison for
10237    signed data; UNSIGNED_CODE, likewise for use if data is unsigned.
10238
10239    We force a stack adjustment unless there are currently
10240    things pushed on the stack that aren't yet used.  */
10241
10242 static void
10243 do_compare_and_jump (exp, signed_code, unsigned_code, if_false_label,
10244                      if_true_label)
10245      register tree exp;
10246      enum rtx_code signed_code, unsigned_code;
10247      rtx if_false_label, if_true_label;
10248 {
10249   unsigned int align0, align1;
10250   register rtx op0, op1;
10251   register tree type;
10252   register enum machine_mode mode;
10253   int unsignedp;
10254   enum rtx_code code;
10255
10256   /* Don't crash if the comparison was erroneous.  */
10257   op0 = expand_expr_unaligned (TREE_OPERAND (exp, 0), &align0);
10258   if (TREE_CODE (TREE_OPERAND (exp, 0)) == ERROR_MARK)
10259     return;
10260
10261   op1 = expand_expr_unaligned (TREE_OPERAND (exp, 1), &align1);
10262   if (TREE_CODE (TREE_OPERAND (exp, 1)) == ERROR_MARK)
10263     return;
10264
10265   type = TREE_TYPE (TREE_OPERAND (exp, 0));
10266   mode = TYPE_MODE (type);
10267   if (TREE_CODE (TREE_OPERAND (exp, 0)) == INTEGER_CST
10268       && (TREE_CODE (TREE_OPERAND (exp, 1)) != INTEGER_CST
10269           || (GET_MODE_BITSIZE (mode)
10270               > GET_MODE_BITSIZE (TYPE_MODE (TREE_TYPE (TREE_OPERAND (exp,
10271                                                                       1)))))))
10272     {
10273       /* op0 might have been replaced by promoted constant, in which
10274          case the type of second argument should be used.  */
10275       type = TREE_TYPE (TREE_OPERAND (exp, 1));
10276       mode = TYPE_MODE (type);
10277     }
10278   unsignedp = TREE_UNSIGNED (type);
10279   code = unsignedp ? unsigned_code : signed_code;
10280
10281 #ifdef HAVE_canonicalize_funcptr_for_compare
10282   /* If function pointers need to be "canonicalized" before they can
10283      be reliably compared, then canonicalize them.  */
10284   if (HAVE_canonicalize_funcptr_for_compare
10285       && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == POINTER_TYPE
10286       && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))))
10287           == FUNCTION_TYPE))
10288     {
10289       rtx new_op0 = gen_reg_rtx (mode);
10290
10291       emit_insn (gen_canonicalize_funcptr_for_compare (new_op0, op0));
10292       op0 = new_op0;
10293     }
10294
10295   if (HAVE_canonicalize_funcptr_for_compare
10296       && TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 1))) == POINTER_TYPE
10297       && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 1))))
10298           == FUNCTION_TYPE))
10299     {
10300       rtx new_op1 = gen_reg_rtx (mode);
10301
10302       emit_insn (gen_canonicalize_funcptr_for_compare (new_op1, op1));
10303       op1 = new_op1;
10304     }
10305 #endif
10306
10307   /* Do any postincrements in the expression that was tested.  */
10308   emit_queue ();
10309
10310   do_compare_rtx_and_jump (op0, op1, code, unsignedp, mode,
10311                            ((mode == BLKmode)
10312                             ? expr_size (TREE_OPERAND (exp, 0)) : NULL_RTX),
10313                            MIN (align0, align1),
10314                            if_false_label, if_true_label);
10315 }
10316 \f
10317 /* Generate code to calculate EXP using a store-flag instruction
10318    and return an rtx for the result.  EXP is either a comparison
10319    or a TRUTH_NOT_EXPR whose operand is a comparison.
10320
10321    If TARGET is nonzero, store the result there if convenient.
10322
10323    If ONLY_CHEAP is non-zero, only do this if it is likely to be very
10324    cheap.
10325
10326    Return zero if there is no suitable set-flag instruction
10327    available on this machine.
10328
10329    Once expand_expr has been called on the arguments of the comparison,
10330    we are committed to doing the store flag, since it is not safe to
10331    re-evaluate the expression.  We emit the store-flag insn by calling
10332    emit_store_flag, but only expand the arguments if we have a reason
10333    to believe that emit_store_flag will be successful.  If we think that
10334    it will, but it isn't, we have to simulate the store-flag with a
10335    set/jump/set sequence.  */
10336
10337 static rtx
10338 do_store_flag (exp, target, mode, only_cheap)
10339      tree exp;
10340      rtx target;
10341      enum machine_mode mode;
10342      int only_cheap;
10343 {
10344   enum rtx_code code;
10345   tree arg0, arg1, type;
10346   tree tem;
10347   enum machine_mode operand_mode;
10348   int invert = 0;
10349   int unsignedp;
10350   rtx op0, op1;
10351   enum insn_code icode;
10352   rtx subtarget = target;
10353   rtx result, label;
10354
10355   /* If this is a TRUTH_NOT_EXPR, set a flag indicating we must invert the
10356      result at the end.  We can't simply invert the test since it would
10357      have already been inverted if it were valid.  This case occurs for
10358      some floating-point comparisons.  */
10359
10360   if (TREE_CODE (exp) == TRUTH_NOT_EXPR)
10361     invert = 1, exp = TREE_OPERAND (exp, 0);
10362
10363   arg0 = TREE_OPERAND (exp, 0);
10364   arg1 = TREE_OPERAND (exp, 1);
10365
10366   /* Don't crash if the comparison was erroneous.  */
10367   if (arg0 == error_mark_node || arg1 == error_mark_node)
10368     return const0_rtx;
10369
10370   type = TREE_TYPE (arg0);
10371   operand_mode = TYPE_MODE (type);
10372   unsignedp = TREE_UNSIGNED (type);
10373
10374   /* We won't bother with BLKmode store-flag operations because it would mean
10375      passing a lot of information to emit_store_flag.  */
10376   if (operand_mode == BLKmode)
10377     return 0;
10378
10379   /* We won't bother with store-flag operations involving function pointers
10380      when function pointers must be canonicalized before comparisons.  */
10381 #ifdef HAVE_canonicalize_funcptr_for_compare
10382   if (HAVE_canonicalize_funcptr_for_compare
10383       && ((TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == POINTER_TYPE
10384            && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))))
10385                == FUNCTION_TYPE))
10386           || (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 1))) == POINTER_TYPE
10387               && (TREE_CODE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 1))))
10388                   == FUNCTION_TYPE))))
10389     return 0;
10390 #endif
10391
10392   STRIP_NOPS (arg0);
10393   STRIP_NOPS (arg1);
10394
10395   /* Get the rtx comparison code to use.  We know that EXP is a comparison
10396      operation of some type.  Some comparisons against 1 and -1 can be
10397      converted to comparisons with zero.  Do so here so that the tests
10398      below will be aware that we have a comparison with zero.   These
10399      tests will not catch constants in the first operand, but constants
10400      are rarely passed as the first operand.  */
10401
10402   switch (TREE_CODE (exp))
10403     {
10404     case EQ_EXPR:
10405       code = EQ;
10406       break;
10407     case NE_EXPR:
10408       code = NE;
10409       break;
10410     case LT_EXPR:
10411       if (integer_onep (arg1))
10412         arg1 = integer_zero_node, code = unsignedp ? LEU : LE;
10413       else
10414         code = unsignedp ? LTU : LT;
10415       break;
10416     case LE_EXPR:
10417       if (! unsignedp && integer_all_onesp (arg1))
10418         arg1 = integer_zero_node, code = LT;
10419       else
10420         code = unsignedp ? LEU : LE;
10421       break;
10422     case GT_EXPR:
10423       if (! unsignedp && integer_all_onesp (arg1))
10424         arg1 = integer_zero_node, code = GE;
10425       else
10426         code = unsignedp ? GTU : GT;
10427       break;
10428     case GE_EXPR:
10429       if (integer_onep (arg1))
10430         arg1 = integer_zero_node, code = unsignedp ? GTU : GT;
10431       else
10432         code = unsignedp ? GEU : GE;
10433       break;
10434
10435     case UNORDERED_EXPR:
10436       code = UNORDERED;
10437       break;
10438     case ORDERED_EXPR:
10439       code = ORDERED;
10440       break;
10441     case UNLT_EXPR:
10442       code = UNLT;
10443       break;
10444     case UNLE_EXPR:
10445       code = UNLE;
10446       break;
10447     case UNGT_EXPR:
10448       code = UNGT;
10449       break;
10450     case UNGE_EXPR:
10451       code = UNGE;
10452       break;
10453     case UNEQ_EXPR:
10454       code = UNEQ;
10455       break;
10456
10457     default:
10458       abort ();
10459     }
10460
10461   /* Put a constant second.  */
10462   if (TREE_CODE (arg0) == REAL_CST || TREE_CODE (arg0) == INTEGER_CST)
10463     {
10464       tem = arg0; arg0 = arg1; arg1 = tem;
10465       code = swap_condition (code);
10466     }
10467
10468   /* If this is an equality or inequality test of a single bit, we can
10469      do this by shifting the bit being tested to the low-order bit and
10470      masking the result with the constant 1.  If the condition was EQ,
10471      we xor it with 1.  This does not require an scc insn and is faster
10472      than an scc insn even if we have it.  */
10473
10474   if ((code == NE || code == EQ)
10475       && TREE_CODE (arg0) == BIT_AND_EXPR && integer_zerop (arg1)
10476       && integer_pow2p (TREE_OPERAND (arg0, 1)))
10477     {
10478       tree inner = TREE_OPERAND (arg0, 0);
10479       int bitnum = tree_log2 (TREE_OPERAND (arg0, 1));
10480       int ops_unsignedp;
10481
10482       /* If INNER is a right shift of a constant and it plus BITNUM does
10483          not overflow, adjust BITNUM and INNER.  */
10484
10485       if (TREE_CODE (inner) == RSHIFT_EXPR
10486           && TREE_CODE (TREE_OPERAND (inner, 1)) == INTEGER_CST
10487           && TREE_INT_CST_HIGH (TREE_OPERAND (inner, 1)) == 0
10488           && bitnum < TYPE_PRECISION (type)
10489           && 0 > compare_tree_int (TREE_OPERAND (inner, 1),
10490                                    bitnum - TYPE_PRECISION (type)))
10491         {
10492           bitnum += TREE_INT_CST_LOW (TREE_OPERAND (inner, 1));
10493           inner = TREE_OPERAND (inner, 0);
10494         }
10495
10496       /* If we are going to be able to omit the AND below, we must do our
10497          operations as unsigned.  If we must use the AND, we have a choice.
10498          Normally unsigned is faster, but for some machines signed is.  */
10499       ops_unsignedp = (bitnum == TYPE_PRECISION (type) - 1 ? 1
10500 #ifdef LOAD_EXTEND_OP
10501                        : (LOAD_EXTEND_OP (operand_mode) == SIGN_EXTEND ? 0 : 1)
10502 #else
10503                        : 1
10504 #endif
10505                        );
10506
10507       if (! get_subtarget (subtarget)
10508           || GET_MODE (subtarget) != operand_mode
10509           || ! safe_from_p (subtarget, inner, 1))
10510         subtarget = 0;
10511
10512       op0 = expand_expr (inner, subtarget, VOIDmode, 0);
10513
10514       if (bitnum != 0)
10515         op0 = expand_shift (RSHIFT_EXPR, operand_mode, op0,
10516                             size_int (bitnum), subtarget, ops_unsignedp);
10517
10518       if (GET_MODE (op0) != mode)
10519         op0 = convert_to_mode (mode, op0, ops_unsignedp);
10520
10521       if ((code == EQ && ! invert) || (code == NE && invert))
10522         op0 = expand_binop (mode, xor_optab, op0, const1_rtx, subtarget,
10523                             ops_unsignedp, OPTAB_LIB_WIDEN);
10524
10525       /* Put the AND last so it can combine with more things.  */
10526       if (bitnum != TYPE_PRECISION (type) - 1)
10527         op0 = expand_and (op0, const1_rtx, subtarget);
10528
10529       return op0;
10530     }
10531
10532   /* Now see if we are likely to be able to do this.  Return if not.  */
10533   if (! can_compare_p (code, operand_mode, ccp_store_flag))
10534     return 0;
10535
10536   icode = setcc_gen_code[(int) code];
10537   if (icode == CODE_FOR_nothing
10538       || (only_cheap && insn_data[(int) icode].operand[0].mode != mode))
10539     {
10540       /* We can only do this if it is one of the special cases that
10541          can be handled without an scc insn.  */
10542       if ((code == LT && integer_zerop (arg1))
10543           || (! only_cheap && code == GE && integer_zerop (arg1)))
10544         ;
10545       else if (BRANCH_COST >= 0
10546                && ! only_cheap && (code == NE || code == EQ)
10547                && TREE_CODE (type) != REAL_TYPE
10548                && ((abs_optab->handlers[(int) operand_mode].insn_code
10549                     != CODE_FOR_nothing)
10550                    || (ffs_optab->handlers[(int) operand_mode].insn_code
10551                        != CODE_FOR_nothing)))
10552         ;
10553       else
10554         return 0;
10555     }
10556
10557   if (! get_subtarget (target)
10558       || GET_MODE (subtarget) != operand_mode
10559       || ! safe_from_p (subtarget, arg1, 1))
10560     subtarget = 0;
10561
10562   op0 = expand_expr (arg0, subtarget, VOIDmode, 0);
10563   op1 = expand_expr (arg1, NULL_RTX, VOIDmode, 0);
10564
10565   if (target == 0)
10566     target = gen_reg_rtx (mode);
10567
10568   /* Pass copies of OP0 and OP1 in case they contain a QUEUED.  This is safe
10569      because, if the emit_store_flag does anything it will succeed and
10570      OP0 and OP1 will not be used subsequently.  */
10571
10572   result = emit_store_flag (target, code,
10573                             queued_subexp_p (op0) ? copy_rtx (op0) : op0,
10574                             queued_subexp_p (op1) ? copy_rtx (op1) : op1,
10575                             operand_mode, unsignedp, 1);
10576
10577   if (result)
10578     {
10579       if (invert)
10580         result = expand_binop (mode, xor_optab, result, const1_rtx,
10581                                result, 0, OPTAB_LIB_WIDEN);
10582       return result;
10583     }
10584
10585   /* If this failed, we have to do this with set/compare/jump/set code.  */
10586   if (GET_CODE (target) != REG
10587       || reg_mentioned_p (target, op0) || reg_mentioned_p (target, op1))
10588     target = gen_reg_rtx (GET_MODE (target));
10589
10590   emit_move_insn (target, invert ? const0_rtx : const1_rtx);
10591   result = compare_from_rtx (op0, op1, code, unsignedp,
10592                              operand_mode, NULL_RTX, 0);
10593   if (GET_CODE (result) == CONST_INT)
10594     return (((result == const0_rtx && ! invert)
10595              || (result != const0_rtx && invert))
10596             ? const0_rtx : const1_rtx);
10597
10598   label = gen_label_rtx ();
10599   if (bcc_gen_fctn[(int) code] == 0)
10600     abort ();
10601
10602   emit_jump_insn ((*bcc_gen_fctn[(int) code]) (label));
10603   emit_move_insn (target, invert ? const1_rtx : const0_rtx);
10604   emit_label (label);
10605
10606   return target;
10607 }
10608 \f
10609
10610 /* Stubs in case we haven't got a casesi insn.  */
10611 #ifndef HAVE_casesi
10612 # define HAVE_casesi 0
10613 # define gen_casesi(a, b, c, d, e) (0)
10614 # define CODE_FOR_casesi CODE_FOR_nothing
10615 #endif
10616
10617 /* If the machine does not have a case insn that compares the bounds,
10618    this means extra overhead for dispatch tables, which raises the
10619    threshold for using them.  */
10620 #ifndef CASE_VALUES_THRESHOLD
10621 #define CASE_VALUES_THRESHOLD (HAVE_casesi ? 4 : 5)
10622 #endif /* CASE_VALUES_THRESHOLD */
10623
10624 unsigned int
10625 case_values_threshold ()
10626 {
10627   return CASE_VALUES_THRESHOLD;
10628 }
10629
10630 /* Attempt to generate a casesi instruction.  Returns 1 if successful,
10631    0 otherwise (i.e. if there is no casesi instruction).  */
10632 int
10633 try_casesi (index_type, index_expr, minval, range,
10634             table_label, default_label)
10635      tree index_type, index_expr, minval, range;
10636      rtx table_label ATTRIBUTE_UNUSED;
10637      rtx default_label;
10638 {
10639   enum machine_mode index_mode = SImode;
10640   int index_bits = GET_MODE_BITSIZE (index_mode);
10641   rtx op1, op2, index;
10642   enum machine_mode op_mode;
10643
10644   if (! HAVE_casesi)
10645     return 0;
10646
10647   /* Convert the index to SImode.  */
10648   if (GET_MODE_BITSIZE (TYPE_MODE (index_type)) > GET_MODE_BITSIZE (index_mode))
10649     {
10650       enum machine_mode omode = TYPE_MODE (index_type);
10651       rtx rangertx = expand_expr (range, NULL_RTX, VOIDmode, 0);
10652
10653       /* We must handle the endpoints in the original mode.  */
10654       index_expr = build (MINUS_EXPR, index_type,
10655                           index_expr, minval);
10656       minval = integer_zero_node;
10657       index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
10658       emit_cmp_and_jump_insns (rangertx, index, LTU, NULL_RTX,
10659                                omode, 1, 0, default_label);
10660       /* Now we can safely truncate.  */
10661       index = convert_to_mode (index_mode, index, 0);
10662     }
10663   else
10664     {
10665       if (TYPE_MODE (index_type) != index_mode)
10666         {
10667           index_expr = convert (type_for_size (index_bits, 0),
10668                                 index_expr);
10669           index_type = TREE_TYPE (index_expr);
10670         }
10671
10672       index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
10673     }
10674   emit_queue ();
10675   index = protect_from_queue (index, 0);
10676   do_pending_stack_adjust ();
10677
10678   op_mode = insn_data[(int) CODE_FOR_casesi].operand[0].mode;
10679   if (! (*insn_data[(int) CODE_FOR_casesi].operand[0].predicate)
10680       (index, op_mode))
10681     index = copy_to_mode_reg (op_mode, index);
10682
10683   op1 = expand_expr (minval, NULL_RTX, VOIDmode, 0);
10684
10685   op_mode = insn_data[(int) CODE_FOR_casesi].operand[1].mode;
10686   op1 = convert_modes (op_mode, TYPE_MODE (TREE_TYPE (minval)),
10687                        op1, TREE_UNSIGNED (TREE_TYPE (minval)));
10688   if (! (*insn_data[(int) CODE_FOR_casesi].operand[1].predicate)
10689       (op1, op_mode))
10690     op1 = copy_to_mode_reg (op_mode, op1);
10691
10692   op2 = expand_expr (range, NULL_RTX, VOIDmode, 0);
10693
10694   op_mode = insn_data[(int) CODE_FOR_casesi].operand[2].mode;
10695   op2 = convert_modes (op_mode, TYPE_MODE (TREE_TYPE (range)),
10696                        op2, TREE_UNSIGNED (TREE_TYPE (range)));
10697   if (! (*insn_data[(int) CODE_FOR_casesi].operand[2].predicate)
10698       (op2, op_mode))
10699     op2 = copy_to_mode_reg (op_mode, op2);
10700
10701   emit_jump_insn (gen_casesi (index, op1, op2,
10702                               table_label, default_label));
10703   return 1;
10704 }
10705
10706 /* Attempt to generate a tablejump instruction; same concept.  */
10707 #ifndef HAVE_tablejump
10708 #define HAVE_tablejump 0
10709 #define gen_tablejump(x, y) (0)
10710 #endif
10711
10712 /* Subroutine of the next function.
10713
10714    INDEX is the value being switched on, with the lowest value
10715    in the table already subtracted.
10716    MODE is its expected mode (needed if INDEX is constant).
10717    RANGE is the length of the jump table.
10718    TABLE_LABEL is a CODE_LABEL rtx for the table itself.
10719
10720    DEFAULT_LABEL is a CODE_LABEL rtx to jump to if the
10721    index value is out of range.  */
10722
10723 static void
10724 do_tablejump (index, mode, range, table_label, default_label)
10725      rtx index, range, table_label, default_label;
10726      enum machine_mode mode;
10727 {
10728   register rtx temp, vector;
10729
10730   /* Do an unsigned comparison (in the proper mode) between the index
10731      expression and the value which represents the length of the range.
10732      Since we just finished subtracting the lower bound of the range
10733      from the index expression, this comparison allows us to simultaneously
10734      check that the original index expression value is both greater than
10735      or equal to the minimum value of the range and less than or equal to
10736      the maximum value of the range.  */
10737
10738   emit_cmp_and_jump_insns (index, range, GTU, NULL_RTX, mode, 1,
10739                            0, default_label);
10740
10741   /* If index is in range, it must fit in Pmode.
10742      Convert to Pmode so we can index with it.  */
10743   if (mode != Pmode)
10744     index = convert_to_mode (Pmode, index, 1);
10745
10746   /* Don't let a MEM slip thru, because then INDEX that comes
10747      out of PIC_CASE_VECTOR_ADDRESS won't be a valid address,
10748      and break_out_memory_refs will go to work on it and mess it up.  */
10749 #ifdef PIC_CASE_VECTOR_ADDRESS
10750   if (flag_pic && GET_CODE (index) != REG)
10751     index = copy_to_mode_reg (Pmode, index);
10752 #endif
10753
10754   /* If flag_force_addr were to affect this address
10755      it could interfere with the tricky assumptions made
10756      about addresses that contain label-refs,
10757      which may be valid only very near the tablejump itself.  */
10758   /* ??? The only correct use of CASE_VECTOR_MODE is the one inside the
10759      GET_MODE_SIZE, because this indicates how large insns are.  The other
10760      uses should all be Pmode, because they are addresses.  This code
10761      could fail if addresses and insns are not the same size.  */
10762   index = gen_rtx_PLUS (Pmode,
10763                         gen_rtx_MULT (Pmode, index,
10764                                       GEN_INT (GET_MODE_SIZE (CASE_VECTOR_MODE))),
10765                         gen_rtx_LABEL_REF (Pmode, table_label));
10766 #ifdef PIC_CASE_VECTOR_ADDRESS
10767   if (flag_pic)
10768     index = PIC_CASE_VECTOR_ADDRESS (index);
10769   else
10770 #endif
10771     index = memory_address_noforce (CASE_VECTOR_MODE, index);
10772   temp = gen_reg_rtx (CASE_VECTOR_MODE);
10773   vector = gen_rtx_MEM (CASE_VECTOR_MODE, index);
10774   RTX_UNCHANGING_P (vector) = 1;
10775   convert_move (temp, vector, 0);
10776
10777   emit_jump_insn (gen_tablejump (temp, table_label));
10778
10779   /* If we are generating PIC code or if the table is PC-relative, the
10780      table and JUMP_INSN must be adjacent, so don't output a BARRIER.  */
10781   if (! CASE_VECTOR_PC_RELATIVE && ! flag_pic)
10782     emit_barrier ();
10783 }
10784
10785 int
10786 try_tablejump (index_type, index_expr, minval, range,
10787                table_label, default_label)
10788      tree index_type, index_expr, minval, range;
10789      rtx table_label, default_label;
10790 {
10791   rtx index;
10792
10793   if (! HAVE_tablejump)
10794     return 0;
10795
10796   index_expr = fold (build (MINUS_EXPR, index_type,
10797                             convert (index_type, index_expr),
10798                             convert (index_type, minval)));
10799   index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
10800   emit_queue ();
10801   index = protect_from_queue (index, 0);
10802   do_pending_stack_adjust ();
10803
10804   do_tablejump (index, TYPE_MODE (index_type),
10805                 convert_modes (TYPE_MODE (index_type),
10806                                TYPE_MODE (TREE_TYPE (range)),
10807                                expand_expr (range, NULL_RTX,
10808                                             VOIDmode, 0),
10809                                TREE_UNSIGNED (TREE_TYPE (range))),
10810                 table_label, default_label);
10811   return 1;
10812 }