OSDN Git Service

libcpp/
[pf3gnuchains/gcc-fork.git] / gcc / reload1.c
1 /* Reload pseudo regs into hard regs for insns that require hard regs.
2    Copyright (C) 1987, 1988, 1989, 1992, 1993, 1994, 1995, 1996, 1997, 1998,
3    1999, 2000, 2001, 2002, 2003, 2004, 2005 Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
20 02110-1301, USA.  */
21
22 #include "config.h"
23 #include "system.h"
24 #include "coretypes.h"
25 #include "tm.h"
26
27 #include "machmode.h"
28 #include "hard-reg-set.h"
29 #include "rtl.h"
30 #include "tm_p.h"
31 #include "obstack.h"
32 #include "insn-config.h"
33 #include "flags.h"
34 #include "function.h"
35 #include "expr.h"
36 #include "optabs.h"
37 #include "regs.h"
38 #include "basic-block.h"
39 #include "reload.h"
40 #include "recog.h"
41 #include "output.h"
42 #include "real.h"
43 #include "toplev.h"
44 #include "except.h"
45 #include "tree.h"
46
47 /* This file contains the reload pass of the compiler, which is
48    run after register allocation has been done.  It checks that
49    each insn is valid (operands required to be in registers really
50    are in registers of the proper class) and fixes up invalid ones
51    by copying values temporarily into registers for the insns
52    that need them.
53
54    The results of register allocation are described by the vector
55    reg_renumber; the insns still contain pseudo regs, but reg_renumber
56    can be used to find which hard reg, if any, a pseudo reg is in.
57
58    The technique we always use is to free up a few hard regs that are
59    called ``reload regs'', and for each place where a pseudo reg
60    must be in a hard reg, copy it temporarily into one of the reload regs.
61
62    Reload regs are allocated locally for every instruction that needs
63    reloads.  When there are pseudos which are allocated to a register that
64    has been chosen as a reload reg, such pseudos must be ``spilled''.
65    This means that they go to other hard regs, or to stack slots if no other
66    available hard regs can be found.  Spilling can invalidate more
67    insns, requiring additional need for reloads, so we must keep checking
68    until the process stabilizes.
69
70    For machines with different classes of registers, we must keep track
71    of the register class needed for each reload, and make sure that
72    we allocate enough reload registers of each class.
73
74    The file reload.c contains the code that checks one insn for
75    validity and reports the reloads that it needs.  This file
76    is in charge of scanning the entire rtl code, accumulating the
77    reload needs, spilling, assigning reload registers to use for
78    fixing up each insn, and generating the new insns to copy values
79    into the reload registers.  */
80 \f
81 /* During reload_as_needed, element N contains a REG rtx for the hard reg
82    into which reg N has been reloaded (perhaps for a previous insn).  */
83 static rtx *reg_last_reload_reg;
84
85 /* Elt N nonzero if reg_last_reload_reg[N] has been set in this insn
86    for an output reload that stores into reg N.  */
87 static char *reg_has_output_reload;
88
89 /* Indicates which hard regs are reload-registers for an output reload
90    in the current insn.  */
91 static HARD_REG_SET reg_is_output_reload;
92
93 /* Element N is the constant value to which pseudo reg N is equivalent,
94    or zero if pseudo reg N is not equivalent to a constant.
95    find_reloads looks at this in order to replace pseudo reg N
96    with the constant it stands for.  */
97 rtx *reg_equiv_constant;
98
99 /* Element N is a memory location to which pseudo reg N is equivalent,
100    prior to any register elimination (such as frame pointer to stack
101    pointer).  Depending on whether or not it is a valid address, this value
102    is transferred to either reg_equiv_address or reg_equiv_mem.  */
103 rtx *reg_equiv_memory_loc;
104
105 /* We allocate reg_equiv_memory_loc inside a varray so that the garbage
106    collector can keep track of what is inside.  */
107 varray_type reg_equiv_memory_loc_varray;
108
109 /* Element N is the address of stack slot to which pseudo reg N is equivalent.
110    This is used when the address is not valid as a memory address
111    (because its displacement is too big for the machine.)  */
112 rtx *reg_equiv_address;
113
114 /* Element N is the memory slot to which pseudo reg N is equivalent,
115    or zero if pseudo reg N is not equivalent to a memory slot.  */
116 rtx *reg_equiv_mem;
117
118 /* Widest width in which each pseudo reg is referred to (via subreg).  */
119 static unsigned int *reg_max_ref_width;
120
121 /* Element N is the list of insns that initialized reg N from its equivalent
122    constant or memory slot.  */
123 rtx *reg_equiv_init;
124 int reg_equiv_init_size;
125
126 /* Vector to remember old contents of reg_renumber before spilling.  */
127 static short *reg_old_renumber;
128
129 /* During reload_as_needed, element N contains the last pseudo regno reloaded
130    into hard register N.  If that pseudo reg occupied more than one register,
131    reg_reloaded_contents points to that pseudo for each spill register in
132    use; all of these must remain set for an inheritance to occur.  */
133 static int reg_reloaded_contents[FIRST_PSEUDO_REGISTER];
134
135 /* During reload_as_needed, element N contains the insn for which
136    hard register N was last used.   Its contents are significant only
137    when reg_reloaded_valid is set for this register.  */
138 static rtx reg_reloaded_insn[FIRST_PSEUDO_REGISTER];
139
140 /* Indicate if reg_reloaded_insn / reg_reloaded_contents is valid.  */
141 static HARD_REG_SET reg_reloaded_valid;
142 /* Indicate if the register was dead at the end of the reload.
143    This is only valid if reg_reloaded_contents is set and valid.  */
144 static HARD_REG_SET reg_reloaded_dead;
145
146 /* Indicate whether the register's current value is one that is not
147    safe to retain across a call, even for registers that are normally
148    call-saved.  */
149 static HARD_REG_SET reg_reloaded_call_part_clobbered;
150
151 /* Number of spill-regs so far; number of valid elements of spill_regs.  */
152 static int n_spills;
153
154 /* In parallel with spill_regs, contains REG rtx's for those regs.
155    Holds the last rtx used for any given reg, or 0 if it has never
156    been used for spilling yet.  This rtx is reused, provided it has
157    the proper mode.  */
158 static rtx spill_reg_rtx[FIRST_PSEUDO_REGISTER];
159
160 /* In parallel with spill_regs, contains nonzero for a spill reg
161    that was stored after the last time it was used.
162    The precise value is the insn generated to do the store.  */
163 static rtx spill_reg_store[FIRST_PSEUDO_REGISTER];
164
165 /* This is the register that was stored with spill_reg_store.  This is a
166    copy of reload_out / reload_out_reg when the value was stored; if
167    reload_out is a MEM, spill_reg_stored_to will be set to reload_out_reg.  */
168 static rtx spill_reg_stored_to[FIRST_PSEUDO_REGISTER];
169
170 /* This table is the inverse mapping of spill_regs:
171    indexed by hard reg number,
172    it contains the position of that reg in spill_regs,
173    or -1 for something that is not in spill_regs.
174
175    ?!?  This is no longer accurate.  */
176 static short spill_reg_order[FIRST_PSEUDO_REGISTER];
177
178 /* This reg set indicates registers that can't be used as spill registers for
179    the currently processed insn.  These are the hard registers which are live
180    during the insn, but not allocated to pseudos, as well as fixed
181    registers.  */
182 static HARD_REG_SET bad_spill_regs;
183
184 /* These are the hard registers that can't be used as spill register for any
185    insn.  This includes registers used for user variables and registers that
186    we can't eliminate.  A register that appears in this set also can't be used
187    to retry register allocation.  */
188 static HARD_REG_SET bad_spill_regs_global;
189
190 /* Describes order of use of registers for reloading
191    of spilled pseudo-registers.  `n_spills' is the number of
192    elements that are actually valid; new ones are added at the end.
193
194    Both spill_regs and spill_reg_order are used on two occasions:
195    once during find_reload_regs, where they keep track of the spill registers
196    for a single insn, but also during reload_as_needed where they show all
197    the registers ever used by reload.  For the latter case, the information
198    is calculated during finish_spills.  */
199 static short spill_regs[FIRST_PSEUDO_REGISTER];
200
201 /* This vector of reg sets indicates, for each pseudo, which hard registers
202    may not be used for retrying global allocation because the register was
203    formerly spilled from one of them.  If we allowed reallocating a pseudo to
204    a register that it was already allocated to, reload might not
205    terminate.  */
206 static HARD_REG_SET *pseudo_previous_regs;
207
208 /* This vector of reg sets indicates, for each pseudo, which hard
209    registers may not be used for retrying global allocation because they
210    are used as spill registers during one of the insns in which the
211    pseudo is live.  */
212 static HARD_REG_SET *pseudo_forbidden_regs;
213
214 /* All hard regs that have been used as spill registers for any insn are
215    marked in this set.  */
216 static HARD_REG_SET used_spill_regs;
217
218 /* Index of last register assigned as a spill register.  We allocate in
219    a round-robin fashion.  */
220 static int last_spill_reg;
221
222 /* Nonzero if indirect addressing is supported on the machine; this means
223    that spilling (REG n) does not require reloading it into a register in
224    order to do (MEM (REG n)) or (MEM (PLUS (REG n) (CONST_INT c))).  The
225    value indicates the level of indirect addressing supported, e.g., two
226    means that (MEM (MEM (REG n))) is also valid if (REG n) does not get
227    a hard register.  */
228 static char spill_indirect_levels;
229
230 /* Nonzero if indirect addressing is supported when the innermost MEM is
231    of the form (MEM (SYMBOL_REF sym)).  It is assumed that the level to
232    which these are valid is the same as spill_indirect_levels, above.  */
233 char indirect_symref_ok;
234
235 /* Nonzero if an address (plus (reg frame_pointer) (reg ...)) is valid.  */
236 char double_reg_address_ok;
237
238 /* Record the stack slot for each spilled hard register.  */
239 static rtx spill_stack_slot[FIRST_PSEUDO_REGISTER];
240
241 /* Width allocated so far for that stack slot.  */
242 static unsigned int spill_stack_slot_width[FIRST_PSEUDO_REGISTER];
243
244 /* Record which pseudos needed to be spilled.  */
245 static regset_head spilled_pseudos;
246
247 /* Used for communication between order_regs_for_reload and count_pseudo.
248    Used to avoid counting one pseudo twice.  */
249 static regset_head pseudos_counted;
250
251 /* First uid used by insns created by reload in this function.
252    Used in find_equiv_reg.  */
253 int reload_first_uid;
254
255 /* Flag set by local-alloc or global-alloc if anything is live in
256    a call-clobbered reg across calls.  */
257 int caller_save_needed;
258
259 /* Set to 1 while reload_as_needed is operating.
260    Required by some machines to handle any generated moves differently.  */
261 int reload_in_progress = 0;
262
263 /* These arrays record the insn_code of insns that may be needed to
264    perform input and output reloads of special objects.  They provide a
265    place to pass a scratch register.  */
266 enum insn_code reload_in_optab[NUM_MACHINE_MODES];
267 enum insn_code reload_out_optab[NUM_MACHINE_MODES];
268
269 /* This obstack is used for allocation of rtl during register elimination.
270    The allocated storage can be freed once find_reloads has processed the
271    insn.  */
272 static struct obstack reload_obstack;
273
274 /* Points to the beginning of the reload_obstack.  All insn_chain structures
275    are allocated first.  */
276 static char *reload_startobj;
277
278 /* The point after all insn_chain structures.  Used to quickly deallocate
279    memory allocated in copy_reloads during calculate_needs_all_insns.  */
280 static char *reload_firstobj;
281
282 /* This points before all local rtl generated by register elimination.
283    Used to quickly free all memory after processing one insn.  */
284 static char *reload_insn_firstobj;
285
286 /* List of insn_chain instructions, one for every insn that reload needs to
287    examine.  */
288 struct insn_chain *reload_insn_chain;
289
290 /* List of all insns needing reloads.  */
291 static struct insn_chain *insns_need_reload;
292 \f
293 /* This structure is used to record information about register eliminations.
294    Each array entry describes one possible way of eliminating a register
295    in favor of another.   If there is more than one way of eliminating a
296    particular register, the most preferred should be specified first.  */
297
298 struct elim_table
299 {
300   int from;                     /* Register number to be eliminated.  */
301   int to;                       /* Register number used as replacement.  */
302   HOST_WIDE_INT initial_offset; /* Initial difference between values.  */
303   int can_eliminate;            /* Nonzero if this elimination can be done.  */
304   int can_eliminate_previous;   /* Value of CAN_ELIMINATE in previous scan over
305                                    insns made by reload.  */
306   HOST_WIDE_INT offset;         /* Current offset between the two regs.  */
307   HOST_WIDE_INT previous_offset;/* Offset at end of previous insn.  */
308   int ref_outside_mem;          /* "to" has been referenced outside a MEM.  */
309   rtx from_rtx;                 /* REG rtx for the register to be eliminated.
310                                    We cannot simply compare the number since
311                                    we might then spuriously replace a hard
312                                    register corresponding to a pseudo
313                                    assigned to the reg to be eliminated.  */
314   rtx to_rtx;                   /* REG rtx for the replacement.  */
315 };
316
317 static struct elim_table *reg_eliminate = 0;
318
319 /* This is an intermediate structure to initialize the table.  It has
320    exactly the members provided by ELIMINABLE_REGS.  */
321 static const struct elim_table_1
322 {
323   const int from;
324   const int to;
325 } reg_eliminate_1[] =
326
327 /* If a set of eliminable registers was specified, define the table from it.
328    Otherwise, default to the normal case of the frame pointer being
329    replaced by the stack pointer.  */
330
331 #ifdef ELIMINABLE_REGS
332   ELIMINABLE_REGS;
333 #else
334   {{ FRAME_POINTER_REGNUM, STACK_POINTER_REGNUM}};
335 #endif
336
337 #define NUM_ELIMINABLE_REGS ARRAY_SIZE (reg_eliminate_1)
338
339 /* Record the number of pending eliminations that have an offset not equal
340    to their initial offset.  If nonzero, we use a new copy of each
341    replacement result in any insns encountered.  */
342 int num_not_at_initial_offset;
343
344 /* Count the number of registers that we may be able to eliminate.  */
345 static int num_eliminable;
346 /* And the number of registers that are equivalent to a constant that
347    can be eliminated to frame_pointer / arg_pointer + constant.  */
348 static int num_eliminable_invariants;
349
350 /* For each label, we record the offset of each elimination.  If we reach
351    a label by more than one path and an offset differs, we cannot do the
352    elimination.  This information is indexed by the difference of the
353    number of the label and the first label number.  We can't offset the
354    pointer itself as this can cause problems on machines with segmented
355    memory.  The first table is an array of flags that records whether we
356    have yet encountered a label and the second table is an array of arrays,
357    one entry in the latter array for each elimination.  */
358
359 static int first_label_num;
360 static char *offsets_known_at;
361 static HOST_WIDE_INT (*offsets_at)[NUM_ELIMINABLE_REGS];
362
363 /* Number of labels in the current function.  */
364
365 static int num_labels;
366 \f
367 static void replace_pseudos_in (rtx *, enum machine_mode, rtx);
368 static void maybe_fix_stack_asms (void);
369 static void copy_reloads (struct insn_chain *);
370 static void calculate_needs_all_insns (int);
371 static int find_reg (struct insn_chain *, int);
372 static void find_reload_regs (struct insn_chain *);
373 static void select_reload_regs (void);
374 static void delete_caller_save_insns (void);
375
376 static void spill_failure (rtx, enum reg_class);
377 static void count_spilled_pseudo (int, int, int);
378 static void delete_dead_insn (rtx);
379 static void alter_reg (int, int);
380 static void set_label_offsets (rtx, rtx, int);
381 static void check_eliminable_occurrences (rtx);
382 static void elimination_effects (rtx, enum machine_mode);
383 static int eliminate_regs_in_insn (rtx, int);
384 static void update_eliminable_offsets (void);
385 static void mark_not_eliminable (rtx, rtx, void *);
386 static void set_initial_elim_offsets (void);
387 static bool verify_initial_elim_offsets (void);
388 static void set_initial_label_offsets (void);
389 static void set_offsets_for_label (rtx);
390 static void init_elim_table (void);
391 static void update_eliminables (HARD_REG_SET *);
392 static void spill_hard_reg (unsigned int, int);
393 static int finish_spills (int);
394 static void scan_paradoxical_subregs (rtx);
395 static void count_pseudo (int);
396 static void order_regs_for_reload (struct insn_chain *);
397 static void reload_as_needed (int);
398 static void forget_old_reloads_1 (rtx, rtx, void *);
399 static int reload_reg_class_lower (const void *, const void *);
400 static void mark_reload_reg_in_use (unsigned int, int, enum reload_type,
401                                     enum machine_mode);
402 static void clear_reload_reg_in_use (unsigned int, int, enum reload_type,
403                                      enum machine_mode);
404 static int reload_reg_free_p (unsigned int, int, enum reload_type);
405 static int reload_reg_free_for_value_p (int, int, int, enum reload_type,
406                                         rtx, rtx, int, int);
407 static int free_for_value_p (int, enum machine_mode, int, enum reload_type,
408                              rtx, rtx, int, int);
409 static int reload_reg_reaches_end_p (unsigned int, int, enum reload_type);
410 static int allocate_reload_reg (struct insn_chain *, int, int);
411 static int conflicts_with_override (rtx);
412 static void failed_reload (rtx, int);
413 static int set_reload_reg (int, int);
414 static void choose_reload_regs_init (struct insn_chain *, rtx *);
415 static void choose_reload_regs (struct insn_chain *);
416 static void merge_assigned_reloads (rtx);
417 static void emit_input_reload_insns (struct insn_chain *, struct reload *,
418                                      rtx, int);
419 static void emit_output_reload_insns (struct insn_chain *, struct reload *,
420                                       int);
421 static void do_input_reload (struct insn_chain *, struct reload *, int);
422 static void do_output_reload (struct insn_chain *, struct reload *, int);
423 static bool inherit_piecemeal_p (int, int);
424 static void emit_reload_insns (struct insn_chain *);
425 static void delete_output_reload (rtx, int, int);
426 static void delete_address_reloads (rtx, rtx);
427 static void delete_address_reloads_1 (rtx, rtx, rtx);
428 static rtx inc_for_reload (rtx, rtx, rtx, int);
429 #ifdef AUTO_INC_DEC
430 static void add_auto_inc_notes (rtx, rtx);
431 #endif
432 static void copy_eh_notes (rtx, rtx);
433 static int reloads_conflict (int, int);
434 static rtx gen_reload (rtx, rtx, int, enum reload_type);
435 \f
436 /* Initialize the reload pass once per compilation.  */
437
438 void
439 init_reload (void)
440 {
441   int i;
442
443   /* Often (MEM (REG n)) is still valid even if (REG n) is put on the stack.
444      Set spill_indirect_levels to the number of levels such addressing is
445      permitted, zero if it is not permitted at all.  */
446
447   rtx tem
448     = gen_rtx_MEM (Pmode,
449                    gen_rtx_PLUS (Pmode,
450                                  gen_rtx_REG (Pmode,
451                                               LAST_VIRTUAL_REGISTER + 1),
452                                  GEN_INT (4)));
453   spill_indirect_levels = 0;
454
455   while (memory_address_p (QImode, tem))
456     {
457       spill_indirect_levels++;
458       tem = gen_rtx_MEM (Pmode, tem);
459     }
460
461   /* See if indirect addressing is valid for (MEM (SYMBOL_REF ...)).  */
462
463   tem = gen_rtx_MEM (Pmode, gen_rtx_SYMBOL_REF (Pmode, "foo"));
464   indirect_symref_ok = memory_address_p (QImode, tem);
465
466   /* See if reg+reg is a valid (and offsettable) address.  */
467
468   for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
469     {
470       tem = gen_rtx_PLUS (Pmode,
471                           gen_rtx_REG (Pmode, HARD_FRAME_POINTER_REGNUM),
472                           gen_rtx_REG (Pmode, i));
473
474       /* This way, we make sure that reg+reg is an offsettable address.  */
475       tem = plus_constant (tem, 4);
476
477       if (memory_address_p (QImode, tem))
478         {
479           double_reg_address_ok = 1;
480           break;
481         }
482     }
483
484   /* Initialize obstack for our rtl allocation.  */
485   gcc_obstack_init (&reload_obstack);
486   reload_startobj = obstack_alloc (&reload_obstack, 0);
487
488   INIT_REG_SET (&spilled_pseudos);
489   INIT_REG_SET (&pseudos_counted);
490   VARRAY_RTX_INIT (reg_equiv_memory_loc_varray, 0, "reg_equiv_memory_loc");
491 }
492
493 /* List of insn chains that are currently unused.  */
494 static struct insn_chain *unused_insn_chains = 0;
495
496 /* Allocate an empty insn_chain structure.  */
497 struct insn_chain *
498 new_insn_chain (void)
499 {
500   struct insn_chain *c;
501
502   if (unused_insn_chains == 0)
503     {
504       c = obstack_alloc (&reload_obstack, sizeof (struct insn_chain));
505       INIT_REG_SET (&c->live_throughout);
506       INIT_REG_SET (&c->dead_or_set);
507     }
508   else
509     {
510       c = unused_insn_chains;
511       unused_insn_chains = c->next;
512     }
513   c->is_caller_save_insn = 0;
514   c->need_operand_change = 0;
515   c->need_reload = 0;
516   c->need_elim = 0;
517   return c;
518 }
519
520 /* Small utility function to set all regs in hard reg set TO which are
521    allocated to pseudos in regset FROM.  */
522
523 void
524 compute_use_by_pseudos (HARD_REG_SET *to, regset from)
525 {
526   unsigned int regno;
527   reg_set_iterator rsi;
528
529   EXECUTE_IF_SET_IN_REG_SET (from, FIRST_PSEUDO_REGISTER, regno, rsi)
530     {
531       int r = reg_renumber[regno];
532       int nregs;
533
534       if (r < 0)
535         {
536           /* reload_combine uses the information from
537              BASIC_BLOCK->global_live_at_start, which might still
538              contain registers that have not actually been allocated
539              since they have an equivalence.  */
540           gcc_assert (reload_completed);
541         }
542       else
543         {
544           nregs = hard_regno_nregs[r][PSEUDO_REGNO_MODE (regno)];
545           while (nregs-- > 0)
546             SET_HARD_REG_BIT (*to, r + nregs);
547         }
548     }
549 }
550
551 /* Replace all pseudos found in LOC with their corresponding
552    equivalences.  */
553
554 static void
555 replace_pseudos_in (rtx *loc, enum machine_mode mem_mode, rtx usage)
556 {
557   rtx x = *loc;
558   enum rtx_code code;
559   const char *fmt;
560   int i, j;
561
562   if (! x)
563     return;
564
565   code = GET_CODE (x);
566   if (code == REG)
567     {
568       unsigned int regno = REGNO (x);
569
570       if (regno < FIRST_PSEUDO_REGISTER)
571         return;
572
573       x = eliminate_regs (x, mem_mode, usage);
574       if (x != *loc)
575         {
576           *loc = x;
577           replace_pseudos_in (loc, mem_mode, usage);
578           return;
579         }
580
581       if (reg_equiv_constant[regno])
582         *loc = reg_equiv_constant[regno];
583       else if (reg_equiv_mem[regno])
584         *loc = reg_equiv_mem[regno];
585       else if (reg_equiv_address[regno])
586         *loc = gen_rtx_MEM (GET_MODE (x), reg_equiv_address[regno]);
587       else
588         {
589           gcc_assert (!REG_P (regno_reg_rtx[regno])
590                       || REGNO (regno_reg_rtx[regno]) != regno);
591           *loc = regno_reg_rtx[regno];
592         }
593
594       return;
595     }
596   else if (code == MEM)
597     {
598       replace_pseudos_in (& XEXP (x, 0), GET_MODE (x), usage);
599       return;
600     }
601
602   /* Process each of our operands recursively.  */
603   fmt = GET_RTX_FORMAT (code);
604   for (i = 0; i < GET_RTX_LENGTH (code); i++, fmt++)
605     if (*fmt == 'e')
606       replace_pseudos_in (&XEXP (x, i), mem_mode, usage);
607     else if (*fmt == 'E')
608       for (j = 0; j < XVECLEN (x, i); j++)
609         replace_pseudos_in (& XVECEXP (x, i, j), mem_mode, usage);
610 }
611
612 \f
613 /* Global variables used by reload and its subroutines.  */
614
615 /* Set during calculate_needs if an insn needs register elimination.  */
616 static int something_needs_elimination;
617 /* Set during calculate_needs if an insn needs an operand changed.  */
618 static int something_needs_operands_changed;
619
620 /* Nonzero means we couldn't get enough spill regs.  */
621 static int failure;
622
623 /* Main entry point for the reload pass.
624
625    FIRST is the first insn of the function being compiled.
626
627    GLOBAL nonzero means we were called from global_alloc
628    and should attempt to reallocate any pseudoregs that we
629    displace from hard regs we will use for reloads.
630    If GLOBAL is zero, we do not have enough information to do that,
631    so any pseudo reg that is spilled must go to the stack.
632
633    Return value is nonzero if reload failed
634    and we must not do any more for this function.  */
635
636 int
637 reload (rtx first, int global)
638 {
639   int i;
640   rtx insn;
641   struct elim_table *ep;
642   basic_block bb;
643
644   /* Make sure even insns with volatile mem refs are recognizable.  */
645   init_recog ();
646
647   failure = 0;
648
649   reload_firstobj = obstack_alloc (&reload_obstack, 0);
650
651   /* Make sure that the last insn in the chain
652      is not something that needs reloading.  */
653   emit_note (NOTE_INSN_DELETED);
654
655   /* Enable find_equiv_reg to distinguish insns made by reload.  */
656   reload_first_uid = get_max_uid ();
657
658 #ifdef SECONDARY_MEMORY_NEEDED
659   /* Initialize the secondary memory table.  */
660   clear_secondary_mem ();
661 #endif
662
663   /* We don't have a stack slot for any spill reg yet.  */
664   memset (spill_stack_slot, 0, sizeof spill_stack_slot);
665   memset (spill_stack_slot_width, 0, sizeof spill_stack_slot_width);
666
667   /* Initialize the save area information for caller-save, in case some
668      are needed.  */
669   init_save_areas ();
670
671   /* Compute which hard registers are now in use
672      as homes for pseudo registers.
673      This is done here rather than (eg) in global_alloc
674      because this point is reached even if not optimizing.  */
675   for (i = FIRST_PSEUDO_REGISTER; i < max_regno; i++)
676     mark_home_live (i);
677
678   /* A function that receives a nonlocal goto must save all call-saved
679      registers.  */
680   if (current_function_has_nonlocal_label)
681     for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
682       if (! call_used_regs[i] && ! fixed_regs[i] && ! LOCAL_REGNO (i))
683         regs_ever_live[i] = 1;
684
685   /* Find all the pseudo registers that didn't get hard regs
686      but do have known equivalent constants or memory slots.
687      These include parameters (known equivalent to parameter slots)
688      and cse'd or loop-moved constant memory addresses.
689
690      Record constant equivalents in reg_equiv_constant
691      so they will be substituted by find_reloads.
692      Record memory equivalents in reg_mem_equiv so they can
693      be substituted eventually by altering the REG-rtx's.  */
694
695   reg_equiv_constant = xcalloc (max_regno, sizeof (rtx));
696   reg_equiv_mem = xcalloc (max_regno, sizeof (rtx));
697   reg_equiv_address = xcalloc (max_regno, sizeof (rtx));
698   reg_max_ref_width = xcalloc (max_regno, sizeof (int));
699   reg_old_renumber = xcalloc (max_regno, sizeof (short));
700   memcpy (reg_old_renumber, reg_renumber, max_regno * sizeof (short));
701   pseudo_forbidden_regs = xmalloc (max_regno * sizeof (HARD_REG_SET));
702   pseudo_previous_regs = xcalloc (max_regno, sizeof (HARD_REG_SET));
703
704   CLEAR_HARD_REG_SET (bad_spill_regs_global);
705
706   /* Look for REG_EQUIV notes; record what each pseudo is equivalent
707      to.  Also find all paradoxical subregs and find largest such for
708      each pseudo.  */
709
710   num_eliminable_invariants = 0;
711   for (insn = first; insn; insn = NEXT_INSN (insn))
712     {
713       rtx set = single_set (insn);
714
715       /* We may introduce USEs that we want to remove at the end, so
716          we'll mark them with QImode.  Make sure there are no
717          previously-marked insns left by say regmove.  */
718       if (INSN_P (insn) && GET_CODE (PATTERN (insn)) == USE
719           && GET_MODE (insn) != VOIDmode)
720         PUT_MODE (insn, VOIDmode);
721
722       if (INSN_P (insn))
723         scan_paradoxical_subregs (PATTERN (insn));
724
725       if (set != 0 && REG_P (SET_DEST (set)))
726         {
727           rtx note = find_reg_note (insn, REG_EQUIV, NULL_RTX);
728           rtx x;
729
730           if (! note)
731             continue;
732
733           i = REGNO (SET_DEST (set));
734           x = XEXP (note, 0);
735
736           if (i <= LAST_VIRTUAL_REGISTER)
737             continue;
738
739           if (! function_invariant_p (x)
740               || ! flag_pic
741               /* A function invariant is often CONSTANT_P but may
742                  include a register.  We promise to only pass
743                  CONSTANT_P objects to LEGITIMATE_PIC_OPERAND_P.  */
744               || (CONSTANT_P (x)
745                   && LEGITIMATE_PIC_OPERAND_P (x)))
746             {
747               /* It can happen that a REG_EQUIV note contains a MEM
748                  that is not a legitimate memory operand.  As later
749                  stages of reload assume that all addresses found
750                  in the reg_equiv_* arrays were originally legitimate,
751                  we ignore such REG_EQUIV notes.  */
752               if (memory_operand (x, VOIDmode))
753                 {
754                   /* Always unshare the equivalence, so we can
755                      substitute into this insn without touching the
756                        equivalence.  */
757                   reg_equiv_memory_loc[i] = copy_rtx (x);
758                 }
759               else if (function_invariant_p (x))
760                 {
761                   if (GET_CODE (x) == PLUS)
762                     {
763                       /* This is PLUS of frame pointer and a constant,
764                          and might be shared.  Unshare it.  */
765                       reg_equiv_constant[i] = copy_rtx (x);
766                       num_eliminable_invariants++;
767                     }
768                   else if (x == frame_pointer_rtx
769                            || x == arg_pointer_rtx)
770                     {
771                       reg_equiv_constant[i] = x;
772                       num_eliminable_invariants++;
773                     }
774                   else if (LEGITIMATE_CONSTANT_P (x))
775                     reg_equiv_constant[i] = x;
776                   else
777                     {
778                       reg_equiv_memory_loc[i]
779                         = force_const_mem (GET_MODE (SET_DEST (set)), x);
780                       if (! reg_equiv_memory_loc[i])
781                         reg_equiv_init[i] = NULL_RTX;
782                     }
783                 }
784               else
785                 {
786                   reg_equiv_init[i] = NULL_RTX;
787                   continue;
788                 }
789             }
790           else
791             reg_equiv_init[i] = NULL_RTX;
792         }
793     }
794
795   if (dump_file)
796     for (i = FIRST_PSEUDO_REGISTER; i < max_regno; i++)
797       if (reg_equiv_init[i])
798         {
799           fprintf (dump_file, "init_insns for %u: ", i);
800           print_inline_rtx (dump_file, reg_equiv_init[i], 20);
801           fprintf (dump_file, "\n");
802         }
803
804   init_elim_table ();
805
806   first_label_num = get_first_label_num ();
807   num_labels = max_label_num () - first_label_num;
808
809   /* Allocate the tables used to store offset information at labels.  */
810   /* We used to use alloca here, but the size of what it would try to
811      allocate would occasionally cause it to exceed the stack limit and
812      cause a core dump.  */
813   offsets_known_at = xmalloc (num_labels);
814   offsets_at = xmalloc (num_labels * NUM_ELIMINABLE_REGS * sizeof (HOST_WIDE_INT));
815
816   /* Alter each pseudo-reg rtx to contain its hard reg number.
817      Assign stack slots to the pseudos that lack hard regs or equivalents.
818      Do not touch virtual registers.  */
819
820   for (i = LAST_VIRTUAL_REGISTER + 1; i < max_regno; i++)
821     alter_reg (i, -1);
822
823   /* If we have some registers we think can be eliminated, scan all insns to
824      see if there is an insn that sets one of these registers to something
825      other than itself plus a constant.  If so, the register cannot be
826      eliminated.  Doing this scan here eliminates an extra pass through the
827      main reload loop in the most common case where register elimination
828      cannot be done.  */
829   for (insn = first; insn && num_eliminable; insn = NEXT_INSN (insn))
830     if (INSN_P (insn))
831       note_stores (PATTERN (insn), mark_not_eliminable, NULL);
832
833   maybe_fix_stack_asms ();
834
835   insns_need_reload = 0;
836   something_needs_elimination = 0;
837
838   /* Initialize to -1, which means take the first spill register.  */
839   last_spill_reg = -1;
840
841   /* Spill any hard regs that we know we can't eliminate.  */
842   CLEAR_HARD_REG_SET (used_spill_regs);
843   /* There can be multiple ways to eliminate a register;
844      they should be listed adjacently.
845      Elimination for any register fails only if all possible ways fail.  */
846   for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; )
847     {
848       int from = ep->from;
849       int can_eliminate = 0;
850       do
851         {
852           can_eliminate |= ep->can_eliminate;
853           ep++;
854         }
855       while (ep < &reg_eliminate[NUM_ELIMINABLE_REGS] && ep->from == from);
856       if (! can_eliminate)
857         spill_hard_reg (from, 1);
858     }
859
860 #if HARD_FRAME_POINTER_REGNUM != FRAME_POINTER_REGNUM
861   if (frame_pointer_needed)
862     spill_hard_reg (HARD_FRAME_POINTER_REGNUM, 1);
863 #endif
864   finish_spills (global);
865
866   /* From now on, we may need to generate moves differently.  We may also
867      allow modifications of insns which cause them to not be recognized.
868      Any such modifications will be cleaned up during reload itself.  */
869   reload_in_progress = 1;
870
871   /* This loop scans the entire function each go-round
872      and repeats until one repetition spills no additional hard regs.  */
873   for (;;)
874     {
875       int something_changed;
876       int did_spill;
877
878       HOST_WIDE_INT starting_frame_size;
879
880       /* Round size of stack frame to stack_alignment_needed.  This must be done
881          here because the stack size may be a part of the offset computation
882          for register elimination, and there might have been new stack slots
883          created in the last iteration of this loop.  */
884       if (cfun->stack_alignment_needed)
885         assign_stack_local (BLKmode, 0, cfun->stack_alignment_needed);
886
887       starting_frame_size = get_frame_size ();
888
889       set_initial_elim_offsets ();
890       set_initial_label_offsets ();
891
892       /* For each pseudo register that has an equivalent location defined,
893          try to eliminate any eliminable registers (such as the frame pointer)
894          assuming initial offsets for the replacement register, which
895          is the normal case.
896
897          If the resulting location is directly addressable, substitute
898          the MEM we just got directly for the old REG.
899
900          If it is not addressable but is a constant or the sum of a hard reg
901          and constant, it is probably not addressable because the constant is
902          out of range, in that case record the address; we will generate
903          hairy code to compute the address in a register each time it is
904          needed.  Similarly if it is a hard register, but one that is not
905          valid as an address register.
906
907          If the location is not addressable, but does not have one of the
908          above forms, assign a stack slot.  We have to do this to avoid the
909          potential of producing lots of reloads if, e.g., a location involves
910          a pseudo that didn't get a hard register and has an equivalent memory
911          location that also involves a pseudo that didn't get a hard register.
912
913          Perhaps at some point we will improve reload_when_needed handling
914          so this problem goes away.  But that's very hairy.  */
915
916       for (i = FIRST_PSEUDO_REGISTER; i < max_regno; i++)
917         if (reg_renumber[i] < 0 && reg_equiv_memory_loc[i])
918           {
919             rtx x = eliminate_regs (reg_equiv_memory_loc[i], 0, NULL_RTX);
920
921             if (strict_memory_address_p (GET_MODE (regno_reg_rtx[i]),
922                                          XEXP (x, 0)))
923               reg_equiv_mem[i] = x, reg_equiv_address[i] = 0;
924             else if (CONSTANT_P (XEXP (x, 0))
925                      || (REG_P (XEXP (x, 0))
926                          && REGNO (XEXP (x, 0)) < FIRST_PSEUDO_REGISTER)
927                      || (GET_CODE (XEXP (x, 0)) == PLUS
928                          && REG_P (XEXP (XEXP (x, 0), 0))
929                          && (REGNO (XEXP (XEXP (x, 0), 0))
930                              < FIRST_PSEUDO_REGISTER)
931                          && CONSTANT_P (XEXP (XEXP (x, 0), 1))))
932               reg_equiv_address[i] = XEXP (x, 0), reg_equiv_mem[i] = 0;
933             else
934               {
935                 /* Make a new stack slot.  Then indicate that something
936                    changed so we go back and recompute offsets for
937                    eliminable registers because the allocation of memory
938                    below might change some offset.  reg_equiv_{mem,address}
939                    will be set up for this pseudo on the next pass around
940                    the loop.  */
941                 reg_equiv_memory_loc[i] = 0;
942                 reg_equiv_init[i] = 0;
943                 alter_reg (i, -1);
944               }
945           }
946
947       if (caller_save_needed)
948         setup_save_areas ();
949
950       /* If we allocated another stack slot, redo elimination bookkeeping.  */
951       if (starting_frame_size != get_frame_size ())
952         continue;
953
954       if (caller_save_needed)
955         {
956           save_call_clobbered_regs ();
957           /* That might have allocated new insn_chain structures.  */
958           reload_firstobj = obstack_alloc (&reload_obstack, 0);
959         }
960
961       calculate_needs_all_insns (global);
962
963       CLEAR_REG_SET (&spilled_pseudos);
964       did_spill = 0;
965
966       something_changed = 0;
967
968       /* If we allocated any new memory locations, make another pass
969          since it might have changed elimination offsets.  */
970       if (starting_frame_size != get_frame_size ())
971         something_changed = 1;
972
973       /* Even if the frame size remained the same, we might still have
974          changed elimination offsets, e.g. if find_reloads called 
975          force_const_mem requiring the back end to allocate a constant
976          pool base register that needs to be saved on the stack.  */
977       else if (!verify_initial_elim_offsets ())
978         something_changed = 1;
979
980       {
981         HARD_REG_SET to_spill;
982         CLEAR_HARD_REG_SET (to_spill);
983         update_eliminables (&to_spill);
984         for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
985           if (TEST_HARD_REG_BIT (to_spill, i))
986             {
987               spill_hard_reg (i, 1);
988               did_spill = 1;
989
990               /* Regardless of the state of spills, if we previously had
991                  a register that we thought we could eliminate, but now can
992                  not eliminate, we must run another pass.
993
994                  Consider pseudos which have an entry in reg_equiv_* which
995                  reference an eliminable register.  We must make another pass
996                  to update reg_equiv_* so that we do not substitute in the
997                  old value from when we thought the elimination could be
998                  performed.  */
999               something_changed = 1;
1000             }
1001       }
1002
1003       select_reload_regs ();
1004       if (failure)
1005         goto failed;
1006
1007       if (insns_need_reload != 0 || did_spill)
1008         something_changed |= finish_spills (global);
1009
1010       if (! something_changed)
1011         break;
1012
1013       if (caller_save_needed)
1014         delete_caller_save_insns ();
1015
1016       obstack_free (&reload_obstack, reload_firstobj);
1017     }
1018
1019   /* If global-alloc was run, notify it of any register eliminations we have
1020      done.  */
1021   if (global)
1022     for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
1023       if (ep->can_eliminate)
1024         mark_elimination (ep->from, ep->to);
1025
1026   /* If a pseudo has no hard reg, delete the insns that made the equivalence.
1027      If that insn didn't set the register (i.e., it copied the register to
1028      memory), just delete that insn instead of the equivalencing insn plus
1029      anything now dead.  If we call delete_dead_insn on that insn, we may
1030      delete the insn that actually sets the register if the register dies
1031      there and that is incorrect.  */
1032
1033   for (i = FIRST_PSEUDO_REGISTER; i < max_regno; i++)
1034     {
1035       if (reg_renumber[i] < 0 && reg_equiv_init[i] != 0)
1036         {
1037           rtx list;
1038           for (list = reg_equiv_init[i]; list; list = XEXP (list, 1))
1039             {
1040               rtx equiv_insn = XEXP (list, 0);
1041
1042               /* If we already deleted the insn or if it may trap, we can't
1043                  delete it.  The latter case shouldn't happen, but can
1044                  if an insn has a variable address, gets a REG_EH_REGION
1045                  note added to it, and then gets converted into a load
1046                  from a constant address.  */
1047               if (NOTE_P (equiv_insn)
1048                   || can_throw_internal (equiv_insn))
1049                 ;
1050               else if (reg_set_p (regno_reg_rtx[i], PATTERN (equiv_insn)))
1051                 delete_dead_insn (equiv_insn);
1052               else
1053                 SET_INSN_DELETED (equiv_insn);
1054             }
1055         }
1056     }
1057
1058   /* Use the reload registers where necessary
1059      by generating move instructions to move the must-be-register
1060      values into or out of the reload registers.  */
1061
1062   if (insns_need_reload != 0 || something_needs_elimination
1063       || something_needs_operands_changed)
1064     {
1065       HOST_WIDE_INT old_frame_size = get_frame_size ();
1066
1067       reload_as_needed (global);
1068
1069       gcc_assert (old_frame_size == get_frame_size ());
1070
1071       gcc_assert (verify_initial_elim_offsets ());
1072     }
1073
1074   /* If we were able to eliminate the frame pointer, show that it is no
1075      longer live at the start of any basic block.  If it ls live by
1076      virtue of being in a pseudo, that pseudo will be marked live
1077      and hence the frame pointer will be known to be live via that
1078      pseudo.  */
1079
1080   if (! frame_pointer_needed)
1081     FOR_EACH_BB (bb)
1082       CLEAR_REGNO_REG_SET (bb->il.rtl->global_live_at_start,
1083                            HARD_FRAME_POINTER_REGNUM);
1084
1085   /* Come here (with failure set nonzero) if we can't get enough spill
1086      regs.  */
1087  failed:
1088
1089   CLEAR_REG_SET (&spilled_pseudos);
1090   reload_in_progress = 0;
1091
1092   /* Now eliminate all pseudo regs by modifying them into
1093      their equivalent memory references.
1094      The REG-rtx's for the pseudos are modified in place,
1095      so all insns that used to refer to them now refer to memory.
1096
1097      For a reg that has a reg_equiv_address, all those insns
1098      were changed by reloading so that no insns refer to it any longer;
1099      but the DECL_RTL of a variable decl may refer to it,
1100      and if so this causes the debugging info to mention the variable.  */
1101
1102   for (i = FIRST_PSEUDO_REGISTER; i < max_regno; i++)
1103     {
1104       rtx addr = 0;
1105
1106       if (reg_equiv_mem[i])
1107         addr = XEXP (reg_equiv_mem[i], 0);
1108
1109       if (reg_equiv_address[i])
1110         addr = reg_equiv_address[i];
1111
1112       if (addr)
1113         {
1114           if (reg_renumber[i] < 0)
1115             {
1116               rtx reg = regno_reg_rtx[i];
1117
1118               REG_USERVAR_P (reg) = 0;
1119               PUT_CODE (reg, MEM);
1120               XEXP (reg, 0) = addr;
1121               if (reg_equiv_memory_loc[i])
1122                 MEM_COPY_ATTRIBUTES (reg, reg_equiv_memory_loc[i]);
1123               else
1124                 {
1125                   MEM_IN_STRUCT_P (reg) = MEM_SCALAR_P (reg) = 0;
1126                   MEM_ATTRS (reg) = 0;
1127                 }
1128               MEM_NOTRAP_P (reg) = 1;
1129             }
1130           else if (reg_equiv_mem[i])
1131             XEXP (reg_equiv_mem[i], 0) = addr;
1132         }
1133     }
1134
1135   /* We must set reload_completed now since the cleanup_subreg_operands call
1136      below will re-recognize each insn and reload may have generated insns
1137      which are only valid during and after reload.  */
1138   reload_completed = 1;
1139
1140   /* Make a pass over all the insns and delete all USEs which we inserted
1141      only to tag a REG_EQUAL note on them.  Remove all REG_DEAD and REG_UNUSED
1142      notes.  Delete all CLOBBER insns, except those that refer to the return
1143      value and the special mem:BLK CLOBBERs added to prevent the scheduler
1144      from misarranging variable-array code, and simplify (subreg (reg))
1145      operands.  Also remove all REG_RETVAL and REG_LIBCALL notes since they
1146      are no longer useful or accurate.  Strip and regenerate REG_INC notes
1147      that may have been moved around.  */
1148
1149   for (insn = first; insn; insn = NEXT_INSN (insn))
1150     if (INSN_P (insn))
1151       {
1152         rtx *pnote;
1153
1154         if (CALL_P (insn))
1155           replace_pseudos_in (& CALL_INSN_FUNCTION_USAGE (insn),
1156                               VOIDmode, CALL_INSN_FUNCTION_USAGE (insn));
1157
1158         if ((GET_CODE (PATTERN (insn)) == USE
1159              /* We mark with QImode USEs introduced by reload itself.  */
1160              && (GET_MODE (insn) == QImode
1161                  || find_reg_note (insn, REG_EQUAL, NULL_RTX)))
1162             || (GET_CODE (PATTERN (insn)) == CLOBBER
1163                 && (!MEM_P (XEXP (PATTERN (insn), 0))
1164                     || GET_MODE (XEXP (PATTERN (insn), 0)) != BLKmode
1165                     || (GET_CODE (XEXP (XEXP (PATTERN (insn), 0), 0)) != SCRATCH
1166                         && XEXP (XEXP (PATTERN (insn), 0), 0)
1167                                 != stack_pointer_rtx))
1168                 && (!REG_P (XEXP (PATTERN (insn), 0))
1169                     || ! REG_FUNCTION_VALUE_P (XEXP (PATTERN (insn), 0)))))
1170           {
1171             delete_insn (insn);
1172             continue;
1173           }
1174
1175         /* Some CLOBBERs may survive until here and still reference unassigned
1176            pseudos with const equivalent, which may in turn cause ICE in later
1177            passes if the reference remains in place.  */
1178         if (GET_CODE (PATTERN (insn)) == CLOBBER)
1179           replace_pseudos_in (& XEXP (PATTERN (insn), 0),
1180                               VOIDmode, PATTERN (insn));
1181
1182         /* Discard obvious no-ops, even without -O.  This optimization
1183            is fast and doesn't interfere with debugging.  */
1184         if (NONJUMP_INSN_P (insn)
1185             && GET_CODE (PATTERN (insn)) == SET
1186             && REG_P (SET_SRC (PATTERN (insn)))
1187             && REG_P (SET_DEST (PATTERN (insn)))
1188             && (REGNO (SET_SRC (PATTERN (insn)))
1189                 == REGNO (SET_DEST (PATTERN (insn)))))
1190           {
1191             delete_insn (insn);
1192             continue;
1193           }
1194
1195         pnote = &REG_NOTES (insn);
1196         while (*pnote != 0)
1197           {
1198             if (REG_NOTE_KIND (*pnote) == REG_DEAD
1199                 || REG_NOTE_KIND (*pnote) == REG_UNUSED
1200                 || REG_NOTE_KIND (*pnote) == REG_INC
1201                 || REG_NOTE_KIND (*pnote) == REG_RETVAL
1202                 || REG_NOTE_KIND (*pnote) == REG_LIBCALL)
1203               *pnote = XEXP (*pnote, 1);
1204             else
1205               pnote = &XEXP (*pnote, 1);
1206           }
1207
1208 #ifdef AUTO_INC_DEC
1209         add_auto_inc_notes (insn, PATTERN (insn));
1210 #endif
1211
1212         /* And simplify (subreg (reg)) if it appears as an operand.  */
1213         cleanup_subreg_operands (insn);
1214       }
1215
1216   /* If we are doing stack checking, give a warning if this function's
1217      frame size is larger than we expect.  */
1218   if (flag_stack_check && ! STACK_CHECK_BUILTIN)
1219     {
1220       HOST_WIDE_INT size = get_frame_size () + STACK_CHECK_FIXED_FRAME_SIZE;
1221       static int verbose_warned = 0;
1222
1223       for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
1224         if (regs_ever_live[i] && ! fixed_regs[i] && call_used_regs[i])
1225           size += UNITS_PER_WORD;
1226
1227       if (size > STACK_CHECK_MAX_FRAME_SIZE)
1228         {
1229           warning (0, "frame size too large for reliable stack checking");
1230           if (! verbose_warned)
1231             {
1232               warning (0, "try reducing the number of local variables");
1233               verbose_warned = 1;
1234             }
1235         }
1236     }
1237
1238   /* Indicate that we no longer have known memory locations or constants.  */
1239   if (reg_equiv_constant)
1240     free (reg_equiv_constant);
1241   reg_equiv_constant = 0;
1242   VARRAY_GROW (reg_equiv_memory_loc_varray, 0);
1243   reg_equiv_memory_loc = 0;
1244
1245   if (offsets_known_at)
1246     free (offsets_known_at);
1247   if (offsets_at)
1248     free (offsets_at);
1249
1250   free (reg_equiv_mem);
1251   reg_equiv_init = 0;
1252   free (reg_equiv_address);
1253   free (reg_max_ref_width);
1254   free (reg_old_renumber);
1255   free (pseudo_previous_regs);
1256   free (pseudo_forbidden_regs);
1257
1258   CLEAR_HARD_REG_SET (used_spill_regs);
1259   for (i = 0; i < n_spills; i++)
1260     SET_HARD_REG_BIT (used_spill_regs, spill_regs[i]);
1261
1262   /* Free all the insn_chain structures at once.  */
1263   obstack_free (&reload_obstack, reload_startobj);
1264   unused_insn_chains = 0;
1265   fixup_abnormal_edges ();
1266
1267   /* Replacing pseudos with their memory equivalents might have
1268      created shared rtx.  Subsequent passes would get confused
1269      by this, so unshare everything here.  */
1270   unshare_all_rtl_again (first);
1271
1272 #ifdef STACK_BOUNDARY
1273   /* init_emit has set the alignment of the hard frame pointer
1274      to STACK_BOUNDARY.  It is very likely no longer valid if
1275      the hard frame pointer was used for register allocation.  */
1276   if (!frame_pointer_needed)
1277     REGNO_POINTER_ALIGN (HARD_FRAME_POINTER_REGNUM) = BITS_PER_UNIT;
1278 #endif
1279
1280   return failure;
1281 }
1282
1283 /* Yet another special case.  Unfortunately, reg-stack forces people to
1284    write incorrect clobbers in asm statements.  These clobbers must not
1285    cause the register to appear in bad_spill_regs, otherwise we'll call
1286    fatal_insn later.  We clear the corresponding regnos in the live
1287    register sets to avoid this.
1288    The whole thing is rather sick, I'm afraid.  */
1289
1290 static void
1291 maybe_fix_stack_asms (void)
1292 {
1293 #ifdef STACK_REGS
1294   const char *constraints[MAX_RECOG_OPERANDS];
1295   enum machine_mode operand_mode[MAX_RECOG_OPERANDS];
1296   struct insn_chain *chain;
1297
1298   for (chain = reload_insn_chain; chain != 0; chain = chain->next)
1299     {
1300       int i, noperands;
1301       HARD_REG_SET clobbered, allowed;
1302       rtx pat;
1303
1304       if (! INSN_P (chain->insn)
1305           || (noperands = asm_noperands (PATTERN (chain->insn))) < 0)
1306         continue;
1307       pat = PATTERN (chain->insn);
1308       if (GET_CODE (pat) != PARALLEL)
1309         continue;
1310
1311       CLEAR_HARD_REG_SET (clobbered);
1312       CLEAR_HARD_REG_SET (allowed);
1313
1314       /* First, make a mask of all stack regs that are clobbered.  */
1315       for (i = 0; i < XVECLEN (pat, 0); i++)
1316         {
1317           rtx t = XVECEXP (pat, 0, i);
1318           if (GET_CODE (t) == CLOBBER && STACK_REG_P (XEXP (t, 0)))
1319             SET_HARD_REG_BIT (clobbered, REGNO (XEXP (t, 0)));
1320         }
1321
1322       /* Get the operand values and constraints out of the insn.  */
1323       decode_asm_operands (pat, recog_data.operand, recog_data.operand_loc,
1324                            constraints, operand_mode);
1325
1326       /* For every operand, see what registers are allowed.  */
1327       for (i = 0; i < noperands; i++)
1328         {
1329           const char *p = constraints[i];
1330           /* For every alternative, we compute the class of registers allowed
1331              for reloading in CLS, and merge its contents into the reg set
1332              ALLOWED.  */
1333           int cls = (int) NO_REGS;
1334
1335           for (;;)
1336             {
1337               char c = *p;
1338
1339               if (c == '\0' || c == ',' || c == '#')
1340                 {
1341                   /* End of one alternative - mark the regs in the current
1342                      class, and reset the class.  */
1343                   IOR_HARD_REG_SET (allowed, reg_class_contents[cls]);
1344                   cls = NO_REGS;
1345                   p++;
1346                   if (c == '#')
1347                     do {
1348                       c = *p++;
1349                     } while (c != '\0' && c != ',');
1350                   if (c == '\0')
1351                     break;
1352                   continue;
1353                 }
1354
1355               switch (c)
1356                 {
1357                 case '=': case '+': case '*': case '%': case '?': case '!':
1358                 case '0': case '1': case '2': case '3': case '4': case 'm':
1359                 case '<': case '>': case 'V': case 'o': case '&': case 'E':
1360                 case 'F': case 's': case 'i': case 'n': case 'X': case 'I':
1361                 case 'J': case 'K': case 'L': case 'M': case 'N': case 'O':
1362                 case 'P':
1363                   break;
1364
1365                 case 'p':
1366                   cls = (int) reg_class_subunion[cls]
1367                     [(int) MODE_BASE_REG_CLASS (VOIDmode)];
1368                   break;
1369
1370                 case 'g':
1371                 case 'r':
1372                   cls = (int) reg_class_subunion[cls][(int) GENERAL_REGS];
1373                   break;
1374
1375                 default:
1376                   if (EXTRA_ADDRESS_CONSTRAINT (c, p))
1377                     cls = (int) reg_class_subunion[cls]
1378                       [(int) MODE_BASE_REG_CLASS (VOIDmode)];
1379                   else
1380                     cls = (int) reg_class_subunion[cls]
1381                       [(int) REG_CLASS_FROM_CONSTRAINT (c, p)];
1382                 }
1383               p += CONSTRAINT_LEN (c, p);
1384             }
1385         }
1386       /* Those of the registers which are clobbered, but allowed by the
1387          constraints, must be usable as reload registers.  So clear them
1388          out of the life information.  */
1389       AND_HARD_REG_SET (allowed, clobbered);
1390       for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
1391         if (TEST_HARD_REG_BIT (allowed, i))
1392           {
1393             CLEAR_REGNO_REG_SET (&chain->live_throughout, i);
1394             CLEAR_REGNO_REG_SET (&chain->dead_or_set, i);
1395           }
1396     }
1397
1398 #endif
1399 }
1400 \f
1401 /* Copy the global variables n_reloads and rld into the corresponding elts
1402    of CHAIN.  */
1403 static void
1404 copy_reloads (struct insn_chain *chain)
1405 {
1406   chain->n_reloads = n_reloads;
1407   chain->rld = obstack_alloc (&reload_obstack,
1408                               n_reloads * sizeof (struct reload));
1409   memcpy (chain->rld, rld, n_reloads * sizeof (struct reload));
1410   reload_insn_firstobj = obstack_alloc (&reload_obstack, 0);
1411 }
1412
1413 /* Walk the chain of insns, and determine for each whether it needs reloads
1414    and/or eliminations.  Build the corresponding insns_need_reload list, and
1415    set something_needs_elimination as appropriate.  */
1416 static void
1417 calculate_needs_all_insns (int global)
1418 {
1419   struct insn_chain **pprev_reload = &insns_need_reload;
1420   struct insn_chain *chain, *next = 0;
1421
1422   something_needs_elimination = 0;
1423
1424   reload_insn_firstobj = obstack_alloc (&reload_obstack, 0);
1425   for (chain = reload_insn_chain; chain != 0; chain = next)
1426     {
1427       rtx insn = chain->insn;
1428
1429       next = chain->next;
1430
1431       /* Clear out the shortcuts.  */
1432       chain->n_reloads = 0;
1433       chain->need_elim = 0;
1434       chain->need_reload = 0;
1435       chain->need_operand_change = 0;
1436
1437       /* If this is a label, a JUMP_INSN, or has REG_NOTES (which might
1438          include REG_LABEL), we need to see what effects this has on the
1439          known offsets at labels.  */
1440
1441       if (LABEL_P (insn) || JUMP_P (insn)
1442           || (INSN_P (insn) && REG_NOTES (insn) != 0))
1443         set_label_offsets (insn, insn, 0);
1444
1445       if (INSN_P (insn))
1446         {
1447           rtx old_body = PATTERN (insn);
1448           int old_code = INSN_CODE (insn);
1449           rtx old_notes = REG_NOTES (insn);
1450           int did_elimination = 0;
1451           int operands_changed = 0;
1452           rtx set = single_set (insn);
1453
1454           /* Skip insns that only set an equivalence.  */
1455           if (set && REG_P (SET_DEST (set))
1456               && reg_renumber[REGNO (SET_DEST (set))] < 0
1457               && reg_equiv_constant[REGNO (SET_DEST (set))])
1458             continue;
1459
1460           /* If needed, eliminate any eliminable registers.  */
1461           if (num_eliminable || num_eliminable_invariants)
1462             did_elimination = eliminate_regs_in_insn (insn, 0);
1463
1464           /* Analyze the instruction.  */
1465           operands_changed = find_reloads (insn, 0, spill_indirect_levels,
1466                                            global, spill_reg_order);
1467
1468           /* If a no-op set needs more than one reload, this is likely
1469              to be something that needs input address reloads.  We
1470              can't get rid of this cleanly later, and it is of no use
1471              anyway, so discard it now.
1472              We only do this when expensive_optimizations is enabled,
1473              since this complements reload inheritance / output
1474              reload deletion, and it can make debugging harder.  */
1475           if (flag_expensive_optimizations && n_reloads > 1)
1476             {
1477               rtx set = single_set (insn);
1478               if (set
1479                   && SET_SRC (set) == SET_DEST (set)
1480                   && REG_P (SET_SRC (set))
1481                   && REGNO (SET_SRC (set)) >= FIRST_PSEUDO_REGISTER)
1482                 {
1483                   delete_insn (insn);
1484                   /* Delete it from the reload chain.  */
1485                   if (chain->prev)
1486                     chain->prev->next = next;
1487                   else
1488                     reload_insn_chain = next;
1489                   if (next)
1490                     next->prev = chain->prev;
1491                   chain->next = unused_insn_chains;
1492                   unused_insn_chains = chain;
1493                   continue;
1494                 }
1495             }
1496           if (num_eliminable)
1497             update_eliminable_offsets ();
1498
1499           /* Remember for later shortcuts which insns had any reloads or
1500              register eliminations.  */
1501           chain->need_elim = did_elimination;
1502           chain->need_reload = n_reloads > 0;
1503           chain->need_operand_change = operands_changed;
1504
1505           /* Discard any register replacements done.  */
1506           if (did_elimination)
1507             {
1508               obstack_free (&reload_obstack, reload_insn_firstobj);
1509               PATTERN (insn) = old_body;
1510               INSN_CODE (insn) = old_code;
1511               REG_NOTES (insn) = old_notes;
1512               something_needs_elimination = 1;
1513             }
1514
1515           something_needs_operands_changed |= operands_changed;
1516
1517           if (n_reloads != 0)
1518             {
1519               copy_reloads (chain);
1520               *pprev_reload = chain;
1521               pprev_reload = &chain->next_need_reload;
1522             }
1523         }
1524     }
1525   *pprev_reload = 0;
1526 }
1527 \f
1528 /* Comparison function for qsort to decide which of two reloads
1529    should be handled first.  *P1 and *P2 are the reload numbers.  */
1530
1531 static int
1532 reload_reg_class_lower (const void *r1p, const void *r2p)
1533 {
1534   int r1 = *(const short *) r1p, r2 = *(const short *) r2p;
1535   int t;
1536
1537   /* Consider required reloads before optional ones.  */
1538   t = rld[r1].optional - rld[r2].optional;
1539   if (t != 0)
1540     return t;
1541
1542   /* Count all solitary classes before non-solitary ones.  */
1543   t = ((reg_class_size[(int) rld[r2].class] == 1)
1544        - (reg_class_size[(int) rld[r1].class] == 1));
1545   if (t != 0)
1546     return t;
1547
1548   /* Aside from solitaires, consider all multi-reg groups first.  */
1549   t = rld[r2].nregs - rld[r1].nregs;
1550   if (t != 0)
1551     return t;
1552
1553   /* Consider reloads in order of increasing reg-class number.  */
1554   t = (int) rld[r1].class - (int) rld[r2].class;
1555   if (t != 0)
1556     return t;
1557
1558   /* If reloads are equally urgent, sort by reload number,
1559      so that the results of qsort leave nothing to chance.  */
1560   return r1 - r2;
1561 }
1562 \f
1563 /* The cost of spilling each hard reg.  */
1564 static int spill_cost[FIRST_PSEUDO_REGISTER];
1565
1566 /* When spilling multiple hard registers, we use SPILL_COST for the first
1567    spilled hard reg and SPILL_ADD_COST for subsequent regs.  SPILL_ADD_COST
1568    only the first hard reg for a multi-reg pseudo.  */
1569 static int spill_add_cost[FIRST_PSEUDO_REGISTER];
1570
1571 /* Update the spill cost arrays, considering that pseudo REG is live.  */
1572
1573 static void
1574 count_pseudo (int reg)
1575 {
1576   int freq = REG_FREQ (reg);
1577   int r = reg_renumber[reg];
1578   int nregs;
1579
1580   if (REGNO_REG_SET_P (&pseudos_counted, reg)
1581       || REGNO_REG_SET_P (&spilled_pseudos, reg))
1582     return;
1583
1584   SET_REGNO_REG_SET (&pseudos_counted, reg);
1585
1586   gcc_assert (r >= 0);
1587
1588   spill_add_cost[r] += freq;
1589
1590   nregs = hard_regno_nregs[r][PSEUDO_REGNO_MODE (reg)];
1591   while (nregs-- > 0)
1592     spill_cost[r + nregs] += freq;
1593 }
1594
1595 /* Calculate the SPILL_COST and SPILL_ADD_COST arrays and determine the
1596    contents of BAD_SPILL_REGS for the insn described by CHAIN.  */
1597
1598 static void
1599 order_regs_for_reload (struct insn_chain *chain)
1600 {
1601   unsigned i;
1602   HARD_REG_SET used_by_pseudos;
1603   HARD_REG_SET used_by_pseudos2;
1604   reg_set_iterator rsi;
1605
1606   COPY_HARD_REG_SET (bad_spill_regs, fixed_reg_set);
1607
1608   memset (spill_cost, 0, sizeof spill_cost);
1609   memset (spill_add_cost, 0, sizeof spill_add_cost);
1610
1611   /* Count number of uses of each hard reg by pseudo regs allocated to it
1612      and then order them by decreasing use.  First exclude hard registers
1613      that are live in or across this insn.  */
1614
1615   REG_SET_TO_HARD_REG_SET (used_by_pseudos, &chain->live_throughout);
1616   REG_SET_TO_HARD_REG_SET (used_by_pseudos2, &chain->dead_or_set);
1617   IOR_HARD_REG_SET (bad_spill_regs, used_by_pseudos);
1618   IOR_HARD_REG_SET (bad_spill_regs, used_by_pseudos2);
1619
1620   /* Now find out which pseudos are allocated to it, and update
1621      hard_reg_n_uses.  */
1622   CLEAR_REG_SET (&pseudos_counted);
1623
1624   EXECUTE_IF_SET_IN_REG_SET
1625     (&chain->live_throughout, FIRST_PSEUDO_REGISTER, i, rsi)
1626     {
1627       count_pseudo (i);
1628     }
1629   EXECUTE_IF_SET_IN_REG_SET
1630     (&chain->dead_or_set, FIRST_PSEUDO_REGISTER, i, rsi)
1631     {
1632       count_pseudo (i);
1633     }
1634   CLEAR_REG_SET (&pseudos_counted);
1635 }
1636 \f
1637 /* Vector of reload-numbers showing the order in which the reloads should
1638    be processed.  */
1639 static short reload_order[MAX_RELOADS];
1640
1641 /* This is used to keep track of the spill regs used in one insn.  */
1642 static HARD_REG_SET used_spill_regs_local;
1643
1644 /* We decided to spill hard register SPILLED, which has a size of
1645    SPILLED_NREGS.  Determine how pseudo REG, which is live during the insn,
1646    is affected.  We will add it to SPILLED_PSEUDOS if necessary, and we will
1647    update SPILL_COST/SPILL_ADD_COST.  */
1648
1649 static void
1650 count_spilled_pseudo (int spilled, int spilled_nregs, int reg)
1651 {
1652   int r = reg_renumber[reg];
1653   int nregs = hard_regno_nregs[r][PSEUDO_REGNO_MODE (reg)];
1654
1655   if (REGNO_REG_SET_P (&spilled_pseudos, reg)
1656       || spilled + spilled_nregs <= r || r + nregs <= spilled)
1657     return;
1658
1659   SET_REGNO_REG_SET (&spilled_pseudos, reg);
1660
1661   spill_add_cost[r] -= REG_FREQ (reg);
1662   while (nregs-- > 0)
1663     spill_cost[r + nregs] -= REG_FREQ (reg);
1664 }
1665
1666 /* Find reload register to use for reload number ORDER.  */
1667
1668 static int
1669 find_reg (struct insn_chain *chain, int order)
1670 {
1671   int rnum = reload_order[order];
1672   struct reload *rl = rld + rnum;
1673   int best_cost = INT_MAX;
1674   int best_reg = -1;
1675   unsigned int i, j;
1676   int k;
1677   HARD_REG_SET not_usable;
1678   HARD_REG_SET used_by_other_reload;
1679   reg_set_iterator rsi;
1680
1681   COPY_HARD_REG_SET (not_usable, bad_spill_regs);
1682   IOR_HARD_REG_SET (not_usable, bad_spill_regs_global);
1683   IOR_COMPL_HARD_REG_SET (not_usable, reg_class_contents[rl->class]);
1684
1685   CLEAR_HARD_REG_SET (used_by_other_reload);
1686   for (k = 0; k < order; k++)
1687     {
1688       int other = reload_order[k];
1689
1690       if (rld[other].regno >= 0 && reloads_conflict (other, rnum))
1691         for (j = 0; j < rld[other].nregs; j++)
1692           SET_HARD_REG_BIT (used_by_other_reload, rld[other].regno + j);
1693     }
1694
1695   for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
1696     {
1697       unsigned int regno = i;
1698
1699       if (! TEST_HARD_REG_BIT (not_usable, regno)
1700           && ! TEST_HARD_REG_BIT (used_by_other_reload, regno)
1701           && HARD_REGNO_MODE_OK (regno, rl->mode))
1702         {
1703           int this_cost = spill_cost[regno];
1704           int ok = 1;
1705           unsigned int this_nregs = hard_regno_nregs[regno][rl->mode];
1706
1707           for (j = 1; j < this_nregs; j++)
1708             {
1709               this_cost += spill_add_cost[regno + j];
1710               if ((TEST_HARD_REG_BIT (not_usable, regno + j))
1711                   || TEST_HARD_REG_BIT (used_by_other_reload, regno + j))
1712                 ok = 0;
1713             }
1714           if (! ok)
1715             continue;
1716           if (rl->in && REG_P (rl->in) && REGNO (rl->in) == regno)
1717             this_cost--;
1718           if (rl->out && REG_P (rl->out) && REGNO (rl->out) == regno)
1719             this_cost--;
1720           if (this_cost < best_cost
1721               /* Among registers with equal cost, prefer caller-saved ones, or
1722                  use REG_ALLOC_ORDER if it is defined.  */
1723               || (this_cost == best_cost
1724 #ifdef REG_ALLOC_ORDER
1725                   && (inv_reg_alloc_order[regno]
1726                       < inv_reg_alloc_order[best_reg])
1727 #else
1728                   && call_used_regs[regno]
1729                   && ! call_used_regs[best_reg]
1730 #endif
1731                   ))
1732             {
1733               best_reg = regno;
1734               best_cost = this_cost;
1735             }
1736         }
1737     }
1738   if (best_reg == -1)
1739     return 0;
1740
1741   if (dump_file)
1742     fprintf (dump_file, "Using reg %d for reload %d\n", best_reg, rnum);
1743
1744   rl->nregs = hard_regno_nregs[best_reg][rl->mode];
1745   rl->regno = best_reg;
1746
1747   EXECUTE_IF_SET_IN_REG_SET
1748     (&chain->live_throughout, FIRST_PSEUDO_REGISTER, j, rsi)
1749     {
1750       count_spilled_pseudo (best_reg, rl->nregs, j);
1751     }
1752
1753   EXECUTE_IF_SET_IN_REG_SET
1754     (&chain->dead_or_set, FIRST_PSEUDO_REGISTER, j, rsi)
1755     {
1756       count_spilled_pseudo (best_reg, rl->nregs, j);
1757     }
1758
1759   for (i = 0; i < rl->nregs; i++)
1760     {
1761       gcc_assert (spill_cost[best_reg + i] == 0);
1762       gcc_assert (spill_add_cost[best_reg + i] == 0);
1763       SET_HARD_REG_BIT (used_spill_regs_local, best_reg + i);
1764     }
1765   return 1;
1766 }
1767
1768 /* Find more reload regs to satisfy the remaining need of an insn, which
1769    is given by CHAIN.
1770    Do it by ascending class number, since otherwise a reg
1771    might be spilled for a big class and might fail to count
1772    for a smaller class even though it belongs to that class.  */
1773
1774 static void
1775 find_reload_regs (struct insn_chain *chain)
1776 {
1777   int i;
1778
1779   /* In order to be certain of getting the registers we need,
1780      we must sort the reloads into order of increasing register class.
1781      Then our grabbing of reload registers will parallel the process
1782      that provided the reload registers.  */
1783   for (i = 0; i < chain->n_reloads; i++)
1784     {
1785       /* Show whether this reload already has a hard reg.  */
1786       if (chain->rld[i].reg_rtx)
1787         {
1788           int regno = REGNO (chain->rld[i].reg_rtx);
1789           chain->rld[i].regno = regno;
1790           chain->rld[i].nregs
1791             = hard_regno_nregs[regno][GET_MODE (chain->rld[i].reg_rtx)];
1792         }
1793       else
1794         chain->rld[i].regno = -1;
1795       reload_order[i] = i;
1796     }
1797
1798   n_reloads = chain->n_reloads;
1799   memcpy (rld, chain->rld, n_reloads * sizeof (struct reload));
1800
1801   CLEAR_HARD_REG_SET (used_spill_regs_local);
1802
1803   if (dump_file)
1804     fprintf (dump_file, "Spilling for insn %d.\n", INSN_UID (chain->insn));
1805
1806   qsort (reload_order, n_reloads, sizeof (short), reload_reg_class_lower);
1807
1808   /* Compute the order of preference for hard registers to spill.  */
1809
1810   order_regs_for_reload (chain);
1811
1812   for (i = 0; i < n_reloads; i++)
1813     {
1814       int r = reload_order[i];
1815
1816       /* Ignore reloads that got marked inoperative.  */
1817       if ((rld[r].out != 0 || rld[r].in != 0 || rld[r].secondary_p)
1818           && ! rld[r].optional
1819           && rld[r].regno == -1)
1820         if (! find_reg (chain, i))
1821           {
1822             spill_failure (chain->insn, rld[r].class);
1823             failure = 1;
1824             return;
1825           }
1826     }
1827
1828   COPY_HARD_REG_SET (chain->used_spill_regs, used_spill_regs_local);
1829   IOR_HARD_REG_SET (used_spill_regs, used_spill_regs_local);
1830
1831   memcpy (chain->rld, rld, n_reloads * sizeof (struct reload));
1832 }
1833
1834 static void
1835 select_reload_regs (void)
1836 {
1837   struct insn_chain *chain;
1838
1839   /* Try to satisfy the needs for each insn.  */
1840   for (chain = insns_need_reload; chain != 0;
1841        chain = chain->next_need_reload)
1842     find_reload_regs (chain);
1843 }
1844 \f
1845 /* Delete all insns that were inserted by emit_caller_save_insns during
1846    this iteration.  */
1847 static void
1848 delete_caller_save_insns (void)
1849 {
1850   struct insn_chain *c = reload_insn_chain;
1851
1852   while (c != 0)
1853     {
1854       while (c != 0 && c->is_caller_save_insn)
1855         {
1856           struct insn_chain *next = c->next;
1857           rtx insn = c->insn;
1858
1859           if (c == reload_insn_chain)
1860             reload_insn_chain = next;
1861           delete_insn (insn);
1862
1863           if (next)
1864             next->prev = c->prev;
1865           if (c->prev)
1866             c->prev->next = next;
1867           c->next = unused_insn_chains;
1868           unused_insn_chains = c;
1869           c = next;
1870         }
1871       if (c != 0)
1872         c = c->next;
1873     }
1874 }
1875 \f
1876 /* Handle the failure to find a register to spill.
1877    INSN should be one of the insns which needed this particular spill reg.  */
1878
1879 static void
1880 spill_failure (rtx insn, enum reg_class class)
1881 {
1882   if (asm_noperands (PATTERN (insn)) >= 0)
1883     error_for_asm (insn, "can't find a register in class %qs while "
1884                    "reloading %<asm%>",
1885                    reg_class_names[class]);
1886   else
1887     {
1888       error ("unable to find a register to spill in class %qs",
1889              reg_class_names[class]);
1890       fatal_insn ("this is the insn:", insn);
1891     }
1892 }
1893 \f
1894 /* Delete an unneeded INSN and any previous insns who sole purpose is loading
1895    data that is dead in INSN.  */
1896
1897 static void
1898 delete_dead_insn (rtx insn)
1899 {
1900   rtx prev = prev_real_insn (insn);
1901   rtx prev_dest;
1902
1903   /* If the previous insn sets a register that dies in our insn, delete it
1904      too.  */
1905   if (prev && GET_CODE (PATTERN (prev)) == SET
1906       && (prev_dest = SET_DEST (PATTERN (prev)), REG_P (prev_dest))
1907       && reg_mentioned_p (prev_dest, PATTERN (insn))
1908       && find_regno_note (insn, REG_DEAD, REGNO (prev_dest))
1909       && ! side_effects_p (SET_SRC (PATTERN (prev))))
1910     delete_dead_insn (prev);
1911
1912   SET_INSN_DELETED (insn);
1913 }
1914
1915 /* Modify the home of pseudo-reg I.
1916    The new home is present in reg_renumber[I].
1917
1918    FROM_REG may be the hard reg that the pseudo-reg is being spilled from;
1919    or it may be -1, meaning there is none or it is not relevant.
1920    This is used so that all pseudos spilled from a given hard reg
1921    can share one stack slot.  */
1922
1923 static void
1924 alter_reg (int i, int from_reg)
1925 {
1926   /* When outputting an inline function, this can happen
1927      for a reg that isn't actually used.  */
1928   if (regno_reg_rtx[i] == 0)
1929     return;
1930
1931   /* If the reg got changed to a MEM at rtl-generation time,
1932      ignore it.  */
1933   if (!REG_P (regno_reg_rtx[i]))
1934     return;
1935
1936   /* Modify the reg-rtx to contain the new hard reg
1937      number or else to contain its pseudo reg number.  */
1938   REGNO (regno_reg_rtx[i])
1939     = reg_renumber[i] >= 0 ? reg_renumber[i] : i;
1940
1941   /* If we have a pseudo that is needed but has no hard reg or equivalent,
1942      allocate a stack slot for it.  */
1943
1944   if (reg_renumber[i] < 0
1945       && REG_N_REFS (i) > 0
1946       && reg_equiv_constant[i] == 0
1947       && reg_equiv_memory_loc[i] == 0)
1948     {
1949       rtx x;
1950       unsigned int inherent_size = PSEUDO_REGNO_BYTES (i);
1951       unsigned int total_size = MAX (inherent_size, reg_max_ref_width[i]);
1952       int adjust = 0;
1953
1954       /* Each pseudo reg has an inherent size which comes from its own mode,
1955          and a total size which provides room for paradoxical subregs
1956          which refer to the pseudo reg in wider modes.
1957
1958          We can use a slot already allocated if it provides both
1959          enough inherent space and enough total space.
1960          Otherwise, we allocate a new slot, making sure that it has no less
1961          inherent space, and no less total space, then the previous slot.  */
1962       if (from_reg == -1)
1963         {
1964           /* No known place to spill from => no slot to reuse.  */
1965           x = assign_stack_local (GET_MODE (regno_reg_rtx[i]), total_size,
1966                                   inherent_size == total_size ? 0 : -1);
1967           if (BYTES_BIG_ENDIAN)
1968             /* Cancel the  big-endian correction done in assign_stack_local.
1969                Get the address of the beginning of the slot.
1970                This is so we can do a big-endian correction unconditionally
1971                below.  */
1972             adjust = inherent_size - total_size;
1973
1974           /* Nothing can alias this slot except this pseudo.  */
1975           set_mem_alias_set (x, new_alias_set ());
1976         }
1977
1978       /* Reuse a stack slot if possible.  */
1979       else if (spill_stack_slot[from_reg] != 0
1980                && spill_stack_slot_width[from_reg] >= total_size
1981                && (GET_MODE_SIZE (GET_MODE (spill_stack_slot[from_reg]))
1982                    >= inherent_size))
1983         x = spill_stack_slot[from_reg];
1984
1985       /* Allocate a bigger slot.  */
1986       else
1987         {
1988           /* Compute maximum size needed, both for inherent size
1989              and for total size.  */
1990           enum machine_mode mode = GET_MODE (regno_reg_rtx[i]);
1991           rtx stack_slot;
1992
1993           if (spill_stack_slot[from_reg])
1994             {
1995               if (GET_MODE_SIZE (GET_MODE (spill_stack_slot[from_reg]))
1996                   > inherent_size)
1997                 mode = GET_MODE (spill_stack_slot[from_reg]);
1998               if (spill_stack_slot_width[from_reg] > total_size)
1999                 total_size = spill_stack_slot_width[from_reg];
2000             }
2001
2002           /* Make a slot with that size.  */
2003           x = assign_stack_local (mode, total_size,
2004                                   inherent_size == total_size ? 0 : -1);
2005           stack_slot = x;
2006
2007           /* All pseudos mapped to this slot can alias each other.  */
2008           if (spill_stack_slot[from_reg])
2009             set_mem_alias_set (x, MEM_ALIAS_SET (spill_stack_slot[from_reg]));
2010           else
2011             set_mem_alias_set (x, new_alias_set ());
2012
2013           if (BYTES_BIG_ENDIAN)
2014             {
2015               /* Cancel the  big-endian correction done in assign_stack_local.
2016                  Get the address of the beginning of the slot.
2017                  This is so we can do a big-endian correction unconditionally
2018                  below.  */
2019               adjust = GET_MODE_SIZE (mode) - total_size;
2020               if (adjust)
2021                 stack_slot
2022                   = adjust_address_nv (x, mode_for_size (total_size
2023                                                          * BITS_PER_UNIT,
2024                                                          MODE_INT, 1),
2025                                        adjust);
2026             }
2027
2028           spill_stack_slot[from_reg] = stack_slot;
2029           spill_stack_slot_width[from_reg] = total_size;
2030         }
2031
2032       /* On a big endian machine, the "address" of the slot
2033          is the address of the low part that fits its inherent mode.  */
2034       if (BYTES_BIG_ENDIAN && inherent_size < total_size)
2035         adjust += (total_size - inherent_size);
2036
2037       /* If we have any adjustment to make, or if the stack slot is the
2038          wrong mode, make a new stack slot.  */
2039       x = adjust_address_nv (x, GET_MODE (regno_reg_rtx[i]), adjust);
2040
2041       /* If we have a decl for the original register, set it for the
2042          memory.  If this is a shared MEM, make a copy.  */
2043       if (REG_EXPR (regno_reg_rtx[i])
2044           && DECL_P (REG_EXPR (regno_reg_rtx[i])))
2045         {
2046           rtx decl = DECL_RTL_IF_SET (REG_EXPR (regno_reg_rtx[i]));
2047
2048           /* We can do this only for the DECLs home pseudo, not for
2049              any copies of it, since otherwise when the stack slot
2050              is reused, nonoverlapping_memrefs_p might think they
2051              cannot overlap.  */
2052           if (decl && REG_P (decl) && REGNO (decl) == (unsigned) i)
2053             {
2054               if (from_reg != -1 && spill_stack_slot[from_reg] == x)
2055                 x = copy_rtx (x);
2056
2057               set_mem_attrs_from_reg (x, regno_reg_rtx[i]);
2058             }
2059         }
2060
2061       /* Save the stack slot for later.  */
2062       reg_equiv_memory_loc[i] = x;
2063     }
2064 }
2065
2066 /* Mark the slots in regs_ever_live for the hard regs
2067    used by pseudo-reg number REGNO.  */
2068
2069 void
2070 mark_home_live (int regno)
2071 {
2072   int i, lim;
2073
2074   i = reg_renumber[regno];
2075   if (i < 0)
2076     return;
2077   lim = i + hard_regno_nregs[i][PSEUDO_REGNO_MODE (regno)];
2078   while (i < lim)
2079     regs_ever_live[i++] = 1;
2080 }
2081 \f
2082 /* This function handles the tracking of elimination offsets around branches.
2083
2084    X is a piece of RTL being scanned.
2085
2086    INSN is the insn that it came from, if any.
2087
2088    INITIAL_P is nonzero if we are to set the offset to be the initial
2089    offset and zero if we are setting the offset of the label to be the
2090    current offset.  */
2091
2092 static void
2093 set_label_offsets (rtx x, rtx insn, int initial_p)
2094 {
2095   enum rtx_code code = GET_CODE (x);
2096   rtx tem;
2097   unsigned int i;
2098   struct elim_table *p;
2099
2100   switch (code)
2101     {
2102     case LABEL_REF:
2103       if (LABEL_REF_NONLOCAL_P (x))
2104         return;
2105
2106       x = XEXP (x, 0);
2107
2108       /* ... fall through ...  */
2109
2110     case CODE_LABEL:
2111       /* If we know nothing about this label, set the desired offsets.  Note
2112          that this sets the offset at a label to be the offset before a label
2113          if we don't know anything about the label.  This is not correct for
2114          the label after a BARRIER, but is the best guess we can make.  If
2115          we guessed wrong, we will suppress an elimination that might have
2116          been possible had we been able to guess correctly.  */
2117
2118       if (! offsets_known_at[CODE_LABEL_NUMBER (x) - first_label_num])
2119         {
2120           for (i = 0; i < NUM_ELIMINABLE_REGS; i++)
2121             offsets_at[CODE_LABEL_NUMBER (x) - first_label_num][i]
2122               = (initial_p ? reg_eliminate[i].initial_offset
2123                  : reg_eliminate[i].offset);
2124           offsets_known_at[CODE_LABEL_NUMBER (x) - first_label_num] = 1;
2125         }
2126
2127       /* Otherwise, if this is the definition of a label and it is
2128          preceded by a BARRIER, set our offsets to the known offset of
2129          that label.  */
2130
2131       else if (x == insn
2132                && (tem = prev_nonnote_insn (insn)) != 0
2133                && BARRIER_P (tem))
2134         set_offsets_for_label (insn);
2135       else
2136         /* If neither of the above cases is true, compare each offset
2137            with those previously recorded and suppress any eliminations
2138            where the offsets disagree.  */
2139
2140         for (i = 0; i < NUM_ELIMINABLE_REGS; i++)
2141           if (offsets_at[CODE_LABEL_NUMBER (x) - first_label_num][i]
2142               != (initial_p ? reg_eliminate[i].initial_offset
2143                   : reg_eliminate[i].offset))
2144             reg_eliminate[i].can_eliminate = 0;
2145
2146       return;
2147
2148     case JUMP_INSN:
2149       set_label_offsets (PATTERN (insn), insn, initial_p);
2150
2151       /* ... fall through ...  */
2152
2153     case INSN:
2154     case CALL_INSN:
2155       /* Any labels mentioned in REG_LABEL notes can be branched to indirectly
2156          and hence must have all eliminations at their initial offsets.  */
2157       for (tem = REG_NOTES (x); tem; tem = XEXP (tem, 1))
2158         if (REG_NOTE_KIND (tem) == REG_LABEL)
2159           set_label_offsets (XEXP (tem, 0), insn, 1);
2160       return;
2161
2162     case PARALLEL:
2163     case ADDR_VEC:
2164     case ADDR_DIFF_VEC:
2165       /* Each of the labels in the parallel or address vector must be
2166          at their initial offsets.  We want the first field for PARALLEL
2167          and ADDR_VEC and the second field for ADDR_DIFF_VEC.  */
2168
2169       for (i = 0; i < (unsigned) XVECLEN (x, code == ADDR_DIFF_VEC); i++)
2170         set_label_offsets (XVECEXP (x, code == ADDR_DIFF_VEC, i),
2171                            insn, initial_p);
2172       return;
2173
2174     case SET:
2175       /* We only care about setting PC.  If the source is not RETURN,
2176          IF_THEN_ELSE, or a label, disable any eliminations not at
2177          their initial offsets.  Similarly if any arm of the IF_THEN_ELSE
2178          isn't one of those possibilities.  For branches to a label,
2179          call ourselves recursively.
2180
2181          Note that this can disable elimination unnecessarily when we have
2182          a non-local goto since it will look like a non-constant jump to
2183          someplace in the current function.  This isn't a significant
2184          problem since such jumps will normally be when all elimination
2185          pairs are back to their initial offsets.  */
2186
2187       if (SET_DEST (x) != pc_rtx)
2188         return;
2189
2190       switch (GET_CODE (SET_SRC (x)))
2191         {
2192         case PC:
2193         case RETURN:
2194           return;
2195
2196         case LABEL_REF:
2197           set_label_offsets (SET_SRC (x), insn, initial_p);
2198           return;
2199
2200         case IF_THEN_ELSE:
2201           tem = XEXP (SET_SRC (x), 1);
2202           if (GET_CODE (tem) == LABEL_REF)
2203             set_label_offsets (XEXP (tem, 0), insn, initial_p);
2204           else if (GET_CODE (tem) != PC && GET_CODE (tem) != RETURN)
2205             break;
2206
2207           tem = XEXP (SET_SRC (x), 2);
2208           if (GET_CODE (tem) == LABEL_REF)
2209             set_label_offsets (XEXP (tem, 0), insn, initial_p);
2210           else if (GET_CODE (tem) != PC && GET_CODE (tem) != RETURN)
2211             break;
2212           return;
2213
2214         default:
2215           break;
2216         }
2217
2218       /* If we reach here, all eliminations must be at their initial
2219          offset because we are doing a jump to a variable address.  */
2220       for (p = reg_eliminate; p < &reg_eliminate[NUM_ELIMINABLE_REGS]; p++)
2221         if (p->offset != p->initial_offset)
2222           p->can_eliminate = 0;
2223       break;
2224
2225     default:
2226       break;
2227     }
2228 }
2229 \f
2230 /* Scan X and replace any eliminable registers (such as fp) with a
2231    replacement (such as sp), plus an offset.
2232
2233    MEM_MODE is the mode of an enclosing MEM.  We need this to know how
2234    much to adjust a register for, e.g., PRE_DEC.  Also, if we are inside a
2235    MEM, we are allowed to replace a sum of a register and the constant zero
2236    with the register, which we cannot do outside a MEM.  In addition, we need
2237    to record the fact that a register is referenced outside a MEM.
2238
2239    If INSN is an insn, it is the insn containing X.  If we replace a REG
2240    in a SET_DEST with an equivalent MEM and INSN is nonzero, write a
2241    CLOBBER of the pseudo after INSN so find_equiv_regs will know that
2242    the REG is being modified.
2243
2244    Alternatively, INSN may be a note (an EXPR_LIST or INSN_LIST).
2245    That's used when we eliminate in expressions stored in notes.
2246    This means, do not set ref_outside_mem even if the reference
2247    is outside of MEMs.
2248
2249    REG_EQUIV_MEM and REG_EQUIV_ADDRESS contain address that have had
2250    replacements done assuming all offsets are at their initial values.  If
2251    they are not, or if REG_EQUIV_ADDRESS is nonzero for a pseudo we
2252    encounter, return the actual location so that find_reloads will do
2253    the proper thing.  */
2254
2255 rtx
2256 eliminate_regs (rtx x, enum machine_mode mem_mode, rtx insn)
2257 {
2258   enum rtx_code code = GET_CODE (x);
2259   struct elim_table *ep;
2260   int regno;
2261   rtx new;
2262   int i, j;
2263   const char *fmt;
2264   int copied = 0;
2265
2266   if (! current_function_decl)
2267     return x;
2268
2269   switch (code)
2270     {
2271     case CONST_INT:
2272     case CONST_DOUBLE:
2273     case CONST_VECTOR:
2274     case CONST:
2275     case SYMBOL_REF:
2276     case CODE_LABEL:
2277     case PC:
2278     case CC0:
2279     case ASM_INPUT:
2280     case ADDR_VEC:
2281     case ADDR_DIFF_VEC:
2282     case RETURN:
2283       return x;
2284
2285     case REG:
2286       regno = REGNO (x);
2287
2288       /* First handle the case where we encounter a bare register that
2289          is eliminable.  Replace it with a PLUS.  */
2290       if (regno < FIRST_PSEUDO_REGISTER)
2291         {
2292           for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS];
2293                ep++)
2294             if (ep->from_rtx == x && ep->can_eliminate)
2295               return plus_constant (ep->to_rtx, ep->previous_offset);
2296
2297         }
2298       else if (reg_renumber && reg_renumber[regno] < 0
2299                && reg_equiv_constant && reg_equiv_constant[regno]
2300                && ! CONSTANT_P (reg_equiv_constant[regno]))
2301         return eliminate_regs (copy_rtx (reg_equiv_constant[regno]),
2302                                mem_mode, insn);
2303       return x;
2304
2305     /* You might think handling MINUS in a manner similar to PLUS is a
2306        good idea.  It is not.  It has been tried multiple times and every
2307        time the change has had to have been reverted.
2308
2309        Other parts of reload know a PLUS is special (gen_reload for example)
2310        and require special code to handle code a reloaded PLUS operand.
2311
2312        Also consider backends where the flags register is clobbered by a
2313        MINUS, but we can emit a PLUS that does not clobber flags (IA-32,
2314        lea instruction comes to mind).  If we try to reload a MINUS, we
2315        may kill the flags register that was holding a useful value.
2316
2317        So, please before trying to handle MINUS, consider reload as a
2318        whole instead of this little section as well as the backend issues.  */
2319     case PLUS:
2320       /* If this is the sum of an eliminable register and a constant, rework
2321          the sum.  */
2322       if (REG_P (XEXP (x, 0))
2323           && REGNO (XEXP (x, 0)) < FIRST_PSEUDO_REGISTER
2324           && CONSTANT_P (XEXP (x, 1)))
2325         {
2326           for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS];
2327                ep++)
2328             if (ep->from_rtx == XEXP (x, 0) && ep->can_eliminate)
2329               {
2330                 /* The only time we want to replace a PLUS with a REG (this
2331                    occurs when the constant operand of the PLUS is the negative
2332                    of the offset) is when we are inside a MEM.  We won't want
2333                    to do so at other times because that would change the
2334                    structure of the insn in a way that reload can't handle.
2335                    We special-case the commonest situation in
2336                    eliminate_regs_in_insn, so just replace a PLUS with a
2337                    PLUS here, unless inside a MEM.  */
2338                 if (mem_mode != 0 && GET_CODE (XEXP (x, 1)) == CONST_INT
2339                     && INTVAL (XEXP (x, 1)) == - ep->previous_offset)
2340                   return ep->to_rtx;
2341                 else
2342                   return gen_rtx_PLUS (Pmode, ep->to_rtx,
2343                                        plus_constant (XEXP (x, 1),
2344                                                       ep->previous_offset));
2345               }
2346
2347           /* If the register is not eliminable, we are done since the other
2348              operand is a constant.  */
2349           return x;
2350         }
2351
2352       /* If this is part of an address, we want to bring any constant to the
2353          outermost PLUS.  We will do this by doing register replacement in
2354          our operands and seeing if a constant shows up in one of them.
2355
2356          Note that there is no risk of modifying the structure of the insn,
2357          since we only get called for its operands, thus we are either
2358          modifying the address inside a MEM, or something like an address
2359          operand of a load-address insn.  */
2360
2361       {
2362         rtx new0 = eliminate_regs (XEXP (x, 0), mem_mode, insn);
2363         rtx new1 = eliminate_regs (XEXP (x, 1), mem_mode, insn);
2364
2365         if (reg_renumber && (new0 != XEXP (x, 0) || new1 != XEXP (x, 1)))
2366           {
2367             /* If one side is a PLUS and the other side is a pseudo that
2368                didn't get a hard register but has a reg_equiv_constant,
2369                we must replace the constant here since it may no longer
2370                be in the position of any operand.  */
2371             if (GET_CODE (new0) == PLUS && REG_P (new1)
2372                 && REGNO (new1) >= FIRST_PSEUDO_REGISTER
2373                 && reg_renumber[REGNO (new1)] < 0
2374                 && reg_equiv_constant != 0
2375                 && reg_equiv_constant[REGNO (new1)] != 0)
2376               new1 = reg_equiv_constant[REGNO (new1)];
2377             else if (GET_CODE (new1) == PLUS && REG_P (new0)
2378                      && REGNO (new0) >= FIRST_PSEUDO_REGISTER
2379                      && reg_renumber[REGNO (new0)] < 0
2380                      && reg_equiv_constant[REGNO (new0)] != 0)
2381               new0 = reg_equiv_constant[REGNO (new0)];
2382
2383             new = form_sum (new0, new1);
2384
2385             /* As above, if we are not inside a MEM we do not want to
2386                turn a PLUS into something else.  We might try to do so here
2387                for an addition of 0 if we aren't optimizing.  */
2388             if (! mem_mode && GET_CODE (new) != PLUS)
2389               return gen_rtx_PLUS (GET_MODE (x), new, const0_rtx);
2390             else
2391               return new;
2392           }
2393       }
2394       return x;
2395
2396     case MULT:
2397       /* If this is the product of an eliminable register and a
2398          constant, apply the distribute law and move the constant out
2399          so that we have (plus (mult ..) ..).  This is needed in order
2400          to keep load-address insns valid.   This case is pathological.
2401          We ignore the possibility of overflow here.  */
2402       if (REG_P (XEXP (x, 0))
2403           && REGNO (XEXP (x, 0)) < FIRST_PSEUDO_REGISTER
2404           && GET_CODE (XEXP (x, 1)) == CONST_INT)
2405         for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS];
2406              ep++)
2407           if (ep->from_rtx == XEXP (x, 0) && ep->can_eliminate)
2408             {
2409               if (! mem_mode
2410                   /* Refs inside notes don't count for this purpose.  */
2411                   && ! (insn != 0 && (GET_CODE (insn) == EXPR_LIST
2412                                       || GET_CODE (insn) == INSN_LIST)))
2413                 ep->ref_outside_mem = 1;
2414
2415               return
2416                 plus_constant (gen_rtx_MULT (Pmode, ep->to_rtx, XEXP (x, 1)),
2417                                ep->previous_offset * INTVAL (XEXP (x, 1)));
2418             }
2419
2420       /* ... fall through ...  */
2421
2422     case CALL:
2423     case COMPARE:
2424     /* See comments before PLUS about handling MINUS.  */
2425     case MINUS:
2426     case DIV:      case UDIV:
2427     case MOD:      case UMOD:
2428     case AND:      case IOR:      case XOR:
2429     case ROTATERT: case ROTATE:
2430     case ASHIFTRT: case LSHIFTRT: case ASHIFT:
2431     case NE:       case EQ:
2432     case GE:       case GT:       case GEU:    case GTU:
2433     case LE:       case LT:       case LEU:    case LTU:
2434       {
2435         rtx new0 = eliminate_regs (XEXP (x, 0), mem_mode, insn);
2436         rtx new1
2437           = XEXP (x, 1) ? eliminate_regs (XEXP (x, 1), mem_mode, insn) : 0;
2438
2439         if (new0 != XEXP (x, 0) || new1 != XEXP (x, 1))
2440           return gen_rtx_fmt_ee (code, GET_MODE (x), new0, new1);
2441       }
2442       return x;
2443
2444     case EXPR_LIST:
2445       /* If we have something in XEXP (x, 0), the usual case, eliminate it.  */
2446       if (XEXP (x, 0))
2447         {
2448           new = eliminate_regs (XEXP (x, 0), mem_mode, insn);
2449           if (new != XEXP (x, 0))
2450             {
2451               /* If this is a REG_DEAD note, it is not valid anymore.
2452                  Using the eliminated version could result in creating a
2453                  REG_DEAD note for the stack or frame pointer.  */
2454               if (GET_MODE (x) == REG_DEAD)
2455                 return (XEXP (x, 1)
2456                         ? eliminate_regs (XEXP (x, 1), mem_mode, insn)
2457                         : NULL_RTX);
2458
2459               x = gen_rtx_EXPR_LIST (REG_NOTE_KIND (x), new, XEXP (x, 1));
2460             }
2461         }
2462
2463       /* ... fall through ...  */
2464
2465     case INSN_LIST:
2466       /* Now do eliminations in the rest of the chain.  If this was
2467          an EXPR_LIST, this might result in allocating more memory than is
2468          strictly needed, but it simplifies the code.  */
2469       if (XEXP (x, 1))
2470         {
2471           new = eliminate_regs (XEXP (x, 1), mem_mode, insn);
2472           if (new != XEXP (x, 1))
2473             return
2474               gen_rtx_fmt_ee (GET_CODE (x), GET_MODE (x), XEXP (x, 0), new);
2475         }
2476       return x;
2477
2478     case PRE_INC:
2479     case POST_INC:
2480     case PRE_DEC:
2481     case POST_DEC:
2482     case STRICT_LOW_PART:
2483     case NEG:          case NOT:
2484     case SIGN_EXTEND:  case ZERO_EXTEND:
2485     case TRUNCATE:     case FLOAT_EXTEND: case FLOAT_TRUNCATE:
2486     case FLOAT:        case FIX:
2487     case UNSIGNED_FIX: case UNSIGNED_FLOAT:
2488     case ABS:
2489     case SQRT:
2490     case FFS:
2491     case CLZ:
2492     case CTZ:
2493     case POPCOUNT:
2494     case PARITY:
2495       new = eliminate_regs (XEXP (x, 0), mem_mode, insn);
2496       if (new != XEXP (x, 0))
2497         return gen_rtx_fmt_e (code, GET_MODE (x), new);
2498       return x;
2499
2500     case SUBREG:
2501       /* Similar to above processing, but preserve SUBREG_BYTE.
2502          Convert (subreg (mem)) to (mem) if not paradoxical.
2503          Also, if we have a non-paradoxical (subreg (pseudo)) and the
2504          pseudo didn't get a hard reg, we must replace this with the
2505          eliminated version of the memory location because push_reload
2506          may do the replacement in certain circumstances.  */
2507       if (REG_P (SUBREG_REG (x))
2508           && (GET_MODE_SIZE (GET_MODE (x))
2509               <= GET_MODE_SIZE (GET_MODE (SUBREG_REG (x))))
2510           && reg_equiv_memory_loc != 0
2511           && reg_equiv_memory_loc[REGNO (SUBREG_REG (x))] != 0)
2512         {
2513           new = SUBREG_REG (x);
2514         }
2515       else
2516         new = eliminate_regs (SUBREG_REG (x), mem_mode, insn);
2517
2518       if (new != SUBREG_REG (x))
2519         {
2520           int x_size = GET_MODE_SIZE (GET_MODE (x));
2521           int new_size = GET_MODE_SIZE (GET_MODE (new));
2522
2523           if (MEM_P (new)
2524               && ((x_size < new_size
2525 #ifdef WORD_REGISTER_OPERATIONS
2526                    /* On these machines, combine can create rtl of the form
2527                       (set (subreg:m1 (reg:m2 R) 0) ...)
2528                       where m1 < m2, and expects something interesting to
2529                       happen to the entire word.  Moreover, it will use the
2530                       (reg:m2 R) later, expecting all bits to be preserved.
2531                       So if the number of words is the same, preserve the
2532                       subreg so that push_reload can see it.  */
2533                    && ! ((x_size - 1) / UNITS_PER_WORD
2534                          == (new_size -1 ) / UNITS_PER_WORD)
2535 #endif
2536                    )
2537                   || x_size == new_size)
2538               )
2539             return adjust_address_nv (new, GET_MODE (x), SUBREG_BYTE (x));
2540           else
2541             return gen_rtx_SUBREG (GET_MODE (x), new, SUBREG_BYTE (x));
2542         }
2543
2544       return x;
2545
2546     case MEM:
2547       /* Our only special processing is to pass the mode of the MEM to our
2548          recursive call and copy the flags.  While we are here, handle this
2549          case more efficiently.  */
2550       return
2551         replace_equiv_address_nv (x,
2552                                   eliminate_regs (XEXP (x, 0),
2553                                                   GET_MODE (x), insn));
2554
2555     case USE:
2556       /* Handle insn_list USE that a call to a pure function may generate.  */
2557       new = eliminate_regs (XEXP (x, 0), 0, insn);
2558       if (new != XEXP (x, 0))
2559         return gen_rtx_USE (GET_MODE (x), new);
2560       return x;
2561
2562     case CLOBBER:
2563     case ASM_OPERANDS:
2564     case SET:
2565       gcc_unreachable ();
2566
2567     default:
2568       break;
2569     }
2570
2571   /* Process each of our operands recursively.  If any have changed, make a
2572      copy of the rtx.  */
2573   fmt = GET_RTX_FORMAT (code);
2574   for (i = 0; i < GET_RTX_LENGTH (code); i++, fmt++)
2575     {
2576       if (*fmt == 'e')
2577         {
2578           new = eliminate_regs (XEXP (x, i), mem_mode, insn);
2579           if (new != XEXP (x, i) && ! copied)
2580             {
2581               rtx new_x = rtx_alloc (code);
2582               memcpy (new_x, x, RTX_SIZE (code));
2583               x = new_x;
2584               copied = 1;
2585             }
2586           XEXP (x, i) = new;
2587         }
2588       else if (*fmt == 'E')
2589         {
2590           int copied_vec = 0;
2591           for (j = 0; j < XVECLEN (x, i); j++)
2592             {
2593               new = eliminate_regs (XVECEXP (x, i, j), mem_mode, insn);
2594               if (new != XVECEXP (x, i, j) && ! copied_vec)
2595                 {
2596                   rtvec new_v = gen_rtvec_v (XVECLEN (x, i),
2597                                              XVEC (x, i)->elem);
2598                   if (! copied)
2599                     {
2600                       rtx new_x = rtx_alloc (code);
2601                       memcpy (new_x, x, RTX_SIZE (code));
2602                       x = new_x;
2603                       copied = 1;
2604                     }
2605                   XVEC (x, i) = new_v;
2606                   copied_vec = 1;
2607                 }
2608               XVECEXP (x, i, j) = new;
2609             }
2610         }
2611     }
2612
2613   return x;
2614 }
2615
2616 /* Scan rtx X for modifications of elimination target registers.  Update
2617    the table of eliminables to reflect the changed state.  MEM_MODE is
2618    the mode of an enclosing MEM rtx, or VOIDmode if not within a MEM.  */
2619
2620 static void
2621 elimination_effects (rtx x, enum machine_mode mem_mode)
2622 {
2623   enum rtx_code code = GET_CODE (x);
2624   struct elim_table *ep;
2625   int regno;
2626   int i, j;
2627   const char *fmt;
2628
2629   switch (code)
2630     {
2631     case CONST_INT:
2632     case CONST_DOUBLE:
2633     case CONST_VECTOR:
2634     case CONST:
2635     case SYMBOL_REF:
2636     case CODE_LABEL:
2637     case PC:
2638     case CC0:
2639     case ASM_INPUT:
2640     case ADDR_VEC:
2641     case ADDR_DIFF_VEC:
2642     case RETURN:
2643       return;
2644
2645     case REG:
2646       regno = REGNO (x);
2647
2648       /* First handle the case where we encounter a bare register that
2649          is eliminable.  Replace it with a PLUS.  */
2650       if (regno < FIRST_PSEUDO_REGISTER)
2651         {
2652           for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS];
2653                ep++)
2654             if (ep->from_rtx == x && ep->can_eliminate)
2655               {
2656                 if (! mem_mode)
2657                   ep->ref_outside_mem = 1;
2658                 return;
2659               }
2660
2661         }
2662       else if (reg_renumber[regno] < 0 && reg_equiv_constant
2663                && reg_equiv_constant[regno]
2664                && ! function_invariant_p (reg_equiv_constant[regno]))
2665         elimination_effects (reg_equiv_constant[regno], mem_mode);
2666       return;
2667
2668     case PRE_INC:
2669     case POST_INC:
2670     case PRE_DEC:
2671     case POST_DEC:
2672     case POST_MODIFY:
2673     case PRE_MODIFY:
2674       for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
2675         if (ep->to_rtx == XEXP (x, 0))
2676           {
2677             int size = GET_MODE_SIZE (mem_mode);
2678
2679             /* If more bytes than MEM_MODE are pushed, account for them.  */
2680 #ifdef PUSH_ROUNDING
2681             if (ep->to_rtx == stack_pointer_rtx)
2682               size = PUSH_ROUNDING (size);
2683 #endif
2684             if (code == PRE_DEC || code == POST_DEC)
2685               ep->offset += size;
2686             else if (code == PRE_INC || code == POST_INC)
2687               ep->offset -= size;
2688             else if ((code == PRE_MODIFY || code == POST_MODIFY)
2689                      && GET_CODE (XEXP (x, 1)) == PLUS
2690                      && XEXP (x, 0) == XEXP (XEXP (x, 1), 0)
2691                      && CONSTANT_P (XEXP (XEXP (x, 1), 1)))
2692               ep->offset -= INTVAL (XEXP (XEXP (x, 1), 1));
2693           }
2694
2695       /* These two aren't unary operators.  */
2696       if (code == POST_MODIFY || code == PRE_MODIFY)
2697         break;
2698
2699       /* Fall through to generic unary operation case.  */
2700     case STRICT_LOW_PART:
2701     case NEG:          case NOT:
2702     case SIGN_EXTEND:  case ZERO_EXTEND:
2703     case TRUNCATE:     case FLOAT_EXTEND: case FLOAT_TRUNCATE:
2704     case FLOAT:        case FIX:
2705     case UNSIGNED_FIX: case UNSIGNED_FLOAT:
2706     case ABS:
2707     case SQRT:
2708     case FFS:
2709     case CLZ:
2710     case CTZ:
2711     case POPCOUNT:
2712     case PARITY:
2713       elimination_effects (XEXP (x, 0), mem_mode);
2714       return;
2715
2716     case SUBREG:
2717       if (REG_P (SUBREG_REG (x))
2718           && (GET_MODE_SIZE (GET_MODE (x))
2719               <= GET_MODE_SIZE (GET_MODE (SUBREG_REG (x))))
2720           && reg_equiv_memory_loc != 0
2721           && reg_equiv_memory_loc[REGNO (SUBREG_REG (x))] != 0)
2722         return;
2723
2724       elimination_effects (SUBREG_REG (x), mem_mode);
2725       return;
2726
2727     case USE:
2728       /* If using a register that is the source of an eliminate we still
2729          think can be performed, note it cannot be performed since we don't
2730          know how this register is used.  */
2731       for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
2732         if (ep->from_rtx == XEXP (x, 0))
2733           ep->can_eliminate = 0;
2734
2735       elimination_effects (XEXP (x, 0), mem_mode);
2736       return;
2737
2738     case CLOBBER:
2739       /* If clobbering a register that is the replacement register for an
2740          elimination we still think can be performed, note that it cannot
2741          be performed.  Otherwise, we need not be concerned about it.  */
2742       for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
2743         if (ep->to_rtx == XEXP (x, 0))
2744           ep->can_eliminate = 0;
2745
2746       elimination_effects (XEXP (x, 0), mem_mode);
2747       return;
2748
2749     case SET:
2750       /* Check for setting a register that we know about.  */
2751       if (REG_P (SET_DEST (x)))
2752         {
2753           /* See if this is setting the replacement register for an
2754              elimination.
2755
2756              If DEST is the hard frame pointer, we do nothing because we
2757              assume that all assignments to the frame pointer are for
2758              non-local gotos and are being done at a time when they are valid
2759              and do not disturb anything else.  Some machines want to
2760              eliminate a fake argument pointer (or even a fake frame pointer)
2761              with either the real frame or the stack pointer.  Assignments to
2762              the hard frame pointer must not prevent this elimination.  */
2763
2764           for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS];
2765                ep++)
2766             if (ep->to_rtx == SET_DEST (x)
2767                 && SET_DEST (x) != hard_frame_pointer_rtx)
2768               {
2769                 /* If it is being incremented, adjust the offset.  Otherwise,
2770                    this elimination can't be done.  */
2771                 rtx src = SET_SRC (x);
2772
2773                 if (GET_CODE (src) == PLUS
2774                     && XEXP (src, 0) == SET_DEST (x)
2775                     && GET_CODE (XEXP (src, 1)) == CONST_INT)
2776                   ep->offset -= INTVAL (XEXP (src, 1));
2777                 else
2778                   ep->can_eliminate = 0;
2779               }
2780         }
2781
2782       elimination_effects (SET_DEST (x), 0);
2783       elimination_effects (SET_SRC (x), 0);
2784       return;
2785
2786     case MEM:
2787       /* Our only special processing is to pass the mode of the MEM to our
2788          recursive call.  */
2789       elimination_effects (XEXP (x, 0), GET_MODE (x));
2790       return;
2791
2792     default:
2793       break;
2794     }
2795
2796   fmt = GET_RTX_FORMAT (code);
2797   for (i = 0; i < GET_RTX_LENGTH (code); i++, fmt++)
2798     {
2799       if (*fmt == 'e')
2800         elimination_effects (XEXP (x, i), mem_mode);
2801       else if (*fmt == 'E')
2802         for (j = 0; j < XVECLEN (x, i); j++)
2803           elimination_effects (XVECEXP (x, i, j), mem_mode);
2804     }
2805 }
2806
2807 /* Descend through rtx X and verify that no references to eliminable registers
2808    remain.  If any do remain, mark the involved register as not
2809    eliminable.  */
2810
2811 static void
2812 check_eliminable_occurrences (rtx x)
2813 {
2814   const char *fmt;
2815   int i;
2816   enum rtx_code code;
2817
2818   if (x == 0)
2819     return;
2820
2821   code = GET_CODE (x);
2822
2823   if (code == REG && REGNO (x) < FIRST_PSEUDO_REGISTER)
2824     {
2825       struct elim_table *ep;
2826
2827       for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
2828         if (ep->from_rtx == x)
2829           ep->can_eliminate = 0;
2830       return;
2831     }
2832
2833   fmt = GET_RTX_FORMAT (code);
2834   for (i = 0; i < GET_RTX_LENGTH (code); i++, fmt++)
2835     {
2836       if (*fmt == 'e')
2837         check_eliminable_occurrences (XEXP (x, i));
2838       else if (*fmt == 'E')
2839         {
2840           int j;
2841           for (j = 0; j < XVECLEN (x, i); j++)
2842             check_eliminable_occurrences (XVECEXP (x, i, j));
2843         }
2844     }
2845 }
2846 \f
2847 /* Scan INSN and eliminate all eliminable registers in it.
2848
2849    If REPLACE is nonzero, do the replacement destructively.  Also
2850    delete the insn as dead it if it is setting an eliminable register.
2851
2852    If REPLACE is zero, do all our allocations in reload_obstack.
2853
2854    If no eliminations were done and this insn doesn't require any elimination
2855    processing (these are not identical conditions: it might be updating sp,
2856    but not referencing fp; this needs to be seen during reload_as_needed so
2857    that the offset between fp and sp can be taken into consideration), zero
2858    is returned.  Otherwise, 1 is returned.  */
2859
2860 static int
2861 eliminate_regs_in_insn (rtx insn, int replace)
2862 {
2863   int icode = recog_memoized (insn);
2864   rtx old_body = PATTERN (insn);
2865   int insn_is_asm = asm_noperands (old_body) >= 0;
2866   rtx old_set = single_set (insn);
2867   rtx new_body;
2868   int val = 0;
2869   int i;
2870   rtx substed_operand[MAX_RECOG_OPERANDS];
2871   rtx orig_operand[MAX_RECOG_OPERANDS];
2872   struct elim_table *ep;
2873   rtx plus_src;
2874
2875   if (! insn_is_asm && icode < 0)
2876     {
2877       gcc_assert (GET_CODE (PATTERN (insn)) == USE
2878                   || GET_CODE (PATTERN (insn)) == CLOBBER
2879                   || GET_CODE (PATTERN (insn)) == ADDR_VEC
2880                   || GET_CODE (PATTERN (insn)) == ADDR_DIFF_VEC
2881                   || GET_CODE (PATTERN (insn)) == ASM_INPUT);
2882       return 0;
2883     }
2884
2885   if (old_set != 0 && REG_P (SET_DEST (old_set))
2886       && REGNO (SET_DEST (old_set)) < FIRST_PSEUDO_REGISTER)
2887     {
2888       /* Check for setting an eliminable register.  */
2889       for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
2890         if (ep->from_rtx == SET_DEST (old_set) && ep->can_eliminate)
2891           {
2892 #if HARD_FRAME_POINTER_REGNUM != FRAME_POINTER_REGNUM
2893             /* If this is setting the frame pointer register to the
2894                hardware frame pointer register and this is an elimination
2895                that will be done (tested above), this insn is really
2896                adjusting the frame pointer downward to compensate for
2897                the adjustment done before a nonlocal goto.  */
2898             if (ep->from == FRAME_POINTER_REGNUM
2899                 && ep->to == HARD_FRAME_POINTER_REGNUM)
2900               {
2901                 rtx base = SET_SRC (old_set);
2902                 rtx base_insn = insn;
2903                 HOST_WIDE_INT offset = 0;
2904
2905                 while (base != ep->to_rtx)
2906                   {
2907                     rtx prev_insn, prev_set;
2908
2909                     if (GET_CODE (base) == PLUS
2910                         && GET_CODE (XEXP (base, 1)) == CONST_INT)
2911                       {
2912                         offset += INTVAL (XEXP (base, 1));
2913                         base = XEXP (base, 0);
2914                       }
2915                     else if ((prev_insn = prev_nonnote_insn (base_insn)) != 0
2916                              && (prev_set = single_set (prev_insn)) != 0
2917                              && rtx_equal_p (SET_DEST (prev_set), base))
2918                       {
2919                         base = SET_SRC (prev_set);
2920                         base_insn = prev_insn;
2921                       }
2922                     else
2923                       break;
2924                   }
2925
2926                 if (base == ep->to_rtx)
2927                   {
2928                     rtx src
2929                       = plus_constant (ep->to_rtx, offset - ep->offset);
2930
2931                     new_body = old_body;
2932                     if (! replace)
2933                       {
2934                         new_body = copy_insn (old_body);
2935                         if (REG_NOTES (insn))
2936                           REG_NOTES (insn) = copy_insn_1 (REG_NOTES (insn));
2937                       }
2938                     PATTERN (insn) = new_body;
2939                     old_set = single_set (insn);
2940
2941                     /* First see if this insn remains valid when we
2942                        make the change.  If not, keep the INSN_CODE
2943                        the same and let reload fit it up.  */
2944                     validate_change (insn, &SET_SRC (old_set), src, 1);
2945                     validate_change (insn, &SET_DEST (old_set),
2946                                      ep->to_rtx, 1);
2947                     if (! apply_change_group ())
2948                       {
2949                         SET_SRC (old_set) = src;
2950                         SET_DEST (old_set) = ep->to_rtx;
2951                       }
2952
2953                     val = 1;
2954                     goto done;
2955                   }
2956               }
2957 #endif
2958
2959             /* In this case this insn isn't serving a useful purpose.  We
2960                will delete it in reload_as_needed once we know that this
2961                elimination is, in fact, being done.
2962
2963                If REPLACE isn't set, we can't delete this insn, but needn't
2964                process it since it won't be used unless something changes.  */
2965             if (replace)
2966               {
2967                 delete_dead_insn (insn);
2968                 return 1;
2969               }
2970             val = 1;
2971             goto done;
2972           }
2973     }
2974
2975   /* We allow one special case which happens to work on all machines we
2976      currently support: a single set with the source or a REG_EQUAL
2977      note being a PLUS of an eliminable register and a constant.  */
2978   plus_src = 0;
2979   if (old_set && REG_P (SET_DEST (old_set)))
2980     {
2981       /* First see if the source is of the form (plus (reg) CST).  */
2982       if (GET_CODE (SET_SRC (old_set)) == PLUS
2983           && REG_P (XEXP (SET_SRC (old_set), 0))
2984           && GET_CODE (XEXP (SET_SRC (old_set), 1)) == CONST_INT
2985           && REGNO (XEXP (SET_SRC (old_set), 0)) < FIRST_PSEUDO_REGISTER)
2986         plus_src = SET_SRC (old_set);
2987       else if (REG_P (SET_SRC (old_set)))
2988         {
2989           /* Otherwise, see if we have a REG_EQUAL note of the form
2990              (plus (reg) CST).  */
2991           rtx links;
2992           for (links = REG_NOTES (insn); links; links = XEXP (links, 1))
2993             {
2994               if (REG_NOTE_KIND (links) == REG_EQUAL
2995                   && GET_CODE (XEXP (links, 0)) == PLUS
2996                   && REG_P (XEXP (XEXP (links, 0), 0))
2997                   && GET_CODE (XEXP (XEXP (links, 0), 1)) == CONST_INT
2998                   && REGNO (XEXP (XEXP (links, 0), 0)) < FIRST_PSEUDO_REGISTER)
2999                 {
3000                   plus_src = XEXP (links, 0);
3001                   break;
3002                 }
3003             }
3004         }
3005     }
3006   if (plus_src)
3007     {
3008       rtx reg = XEXP (plus_src, 0);
3009       HOST_WIDE_INT offset = INTVAL (XEXP (plus_src, 1));
3010
3011       for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3012         if (ep->from_rtx == reg && ep->can_eliminate)
3013           {
3014             offset += ep->offset;
3015
3016             if (offset == 0)
3017               {
3018                 int num_clobbers;
3019                 /* We assume here that if we need a PARALLEL with
3020                    CLOBBERs for this assignment, we can do with the
3021                    MATCH_SCRATCHes that add_clobbers allocates.
3022                    There's not much we can do if that doesn't work.  */
3023                 PATTERN (insn) = gen_rtx_SET (VOIDmode,
3024                                               SET_DEST (old_set),
3025                                               ep->to_rtx);
3026                 num_clobbers = 0;
3027                 INSN_CODE (insn) = recog (PATTERN (insn), insn, &num_clobbers);
3028                 if (num_clobbers)
3029                   {
3030                     rtvec vec = rtvec_alloc (num_clobbers + 1);
3031
3032                     vec->elem[0] = PATTERN (insn);
3033                     PATTERN (insn) = gen_rtx_PARALLEL (VOIDmode, vec);
3034                     add_clobbers (PATTERN (insn), INSN_CODE (insn));
3035                   }
3036                 gcc_assert (INSN_CODE (insn) >= 0);
3037               }
3038             /* If we have a nonzero offset, and the source is already
3039                a simple REG, the following transformation would
3040                increase the cost of the insn by replacing a simple REG
3041                with (plus (reg sp) CST).  So try only when plus_src
3042                comes from old_set proper, not REG_NOTES.  */
3043             else if (SET_SRC (old_set) == plus_src)
3044               {
3045                 new_body = old_body;
3046                 if (! replace)
3047                   {
3048                     new_body = copy_insn (old_body);
3049                     if (REG_NOTES (insn))
3050                       REG_NOTES (insn) = copy_insn_1 (REG_NOTES (insn));
3051                   }
3052                 PATTERN (insn) = new_body;
3053                 old_set = single_set (insn);
3054
3055                 XEXP (SET_SRC (old_set), 0) = ep->to_rtx;
3056                 XEXP (SET_SRC (old_set), 1) = GEN_INT (offset);
3057               }
3058             else
3059               break;
3060
3061             val = 1;
3062             /* This can't have an effect on elimination offsets, so skip right
3063                to the end.  */
3064             goto done;
3065           }
3066     }
3067
3068   /* Determine the effects of this insn on elimination offsets.  */
3069   elimination_effects (old_body, 0);
3070
3071   /* Eliminate all eliminable registers occurring in operands that
3072      can be handled by reload.  */
3073   extract_insn (insn);
3074   for (i = 0; i < recog_data.n_operands; i++)
3075     {
3076       orig_operand[i] = recog_data.operand[i];
3077       substed_operand[i] = recog_data.operand[i];
3078
3079       /* For an asm statement, every operand is eliminable.  */
3080       if (insn_is_asm || insn_data[icode].operand[i].eliminable)
3081         {
3082           /* Check for setting a register that we know about.  */
3083           if (recog_data.operand_type[i] != OP_IN
3084               && REG_P (orig_operand[i]))
3085             {
3086               /* If we are assigning to a register that can be eliminated, it
3087                  must be as part of a PARALLEL, since the code above handles
3088                  single SETs.  We must indicate that we can no longer
3089                  eliminate this reg.  */
3090               for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS];
3091                    ep++)
3092                 if (ep->from_rtx == orig_operand[i])
3093                   ep->can_eliminate = 0;
3094             }
3095
3096           substed_operand[i] = eliminate_regs (recog_data.operand[i], 0,
3097                                                replace ? insn : NULL_RTX);
3098           if (substed_operand[i] != orig_operand[i])
3099             val = 1;
3100           /* Terminate the search in check_eliminable_occurrences at
3101              this point.  */
3102           *recog_data.operand_loc[i] = 0;
3103
3104         /* If an output operand changed from a REG to a MEM and INSN is an
3105            insn, write a CLOBBER insn.  */
3106           if (recog_data.operand_type[i] != OP_IN
3107               && REG_P (orig_operand[i])
3108               && MEM_P (substed_operand[i])
3109               && replace)
3110             emit_insn_after (gen_rtx_CLOBBER (VOIDmode, orig_operand[i]),
3111                              insn);
3112         }
3113     }
3114
3115   for (i = 0; i < recog_data.n_dups; i++)
3116     *recog_data.dup_loc[i]
3117       = *recog_data.operand_loc[(int) recog_data.dup_num[i]];
3118
3119   /* If any eliminable remain, they aren't eliminable anymore.  */
3120   check_eliminable_occurrences (old_body);
3121
3122   /* Substitute the operands; the new values are in the substed_operand
3123      array.  */
3124   for (i = 0; i < recog_data.n_operands; i++)
3125     *recog_data.operand_loc[i] = substed_operand[i];
3126   for (i = 0; i < recog_data.n_dups; i++)
3127     *recog_data.dup_loc[i] = substed_operand[(int) recog_data.dup_num[i]];
3128
3129   /* If we are replacing a body that was a (set X (plus Y Z)), try to
3130      re-recognize the insn.  We do this in case we had a simple addition
3131      but now can do this as a load-address.  This saves an insn in this
3132      common case.
3133      If re-recognition fails, the old insn code number will still be used,
3134      and some register operands may have changed into PLUS expressions.
3135      These will be handled by find_reloads by loading them into a register
3136      again.  */
3137
3138   if (val)
3139     {
3140       /* If we aren't replacing things permanently and we changed something,
3141          make another copy to ensure that all the RTL is new.  Otherwise
3142          things can go wrong if find_reload swaps commutative operands
3143          and one is inside RTL that has been copied while the other is not.  */
3144       new_body = old_body;
3145       if (! replace)
3146         {
3147           new_body = copy_insn (old_body);
3148           if (REG_NOTES (insn))
3149             REG_NOTES (insn) = copy_insn_1 (REG_NOTES (insn));
3150         }
3151       PATTERN (insn) = new_body;
3152
3153       /* If we had a move insn but now we don't, rerecognize it.  This will
3154          cause spurious re-recognition if the old move had a PARALLEL since
3155          the new one still will, but we can't call single_set without
3156          having put NEW_BODY into the insn and the re-recognition won't
3157          hurt in this rare case.  */
3158       /* ??? Why this huge if statement - why don't we just rerecognize the
3159          thing always?  */
3160       if (! insn_is_asm
3161           && old_set != 0
3162           && ((REG_P (SET_SRC (old_set))
3163                && (GET_CODE (new_body) != SET
3164                    || !REG_P (SET_SRC (new_body))))
3165               /* If this was a load from or store to memory, compare
3166                  the MEM in recog_data.operand to the one in the insn.
3167                  If they are not equal, then rerecognize the insn.  */
3168               || (old_set != 0
3169                   && ((MEM_P (SET_SRC (old_set))
3170                        && SET_SRC (old_set) != recog_data.operand[1])
3171                       || (MEM_P (SET_DEST (old_set))
3172                           && SET_DEST (old_set) != recog_data.operand[0])))
3173               /* If this was an add insn before, rerecognize.  */
3174               || GET_CODE (SET_SRC (old_set)) == PLUS))
3175         {
3176           int new_icode = recog (PATTERN (insn), insn, 0);
3177           if (new_icode < 0)
3178             INSN_CODE (insn) = icode;
3179         }
3180     }
3181
3182   /* Restore the old body.  If there were any changes to it, we made a copy
3183      of it while the changes were still in place, so we'll correctly return
3184      a modified insn below.  */
3185   if (! replace)
3186     {
3187       /* Restore the old body.  */
3188       for (i = 0; i < recog_data.n_operands; i++)
3189         *recog_data.operand_loc[i] = orig_operand[i];
3190       for (i = 0; i < recog_data.n_dups; i++)
3191         *recog_data.dup_loc[i] = orig_operand[(int) recog_data.dup_num[i]];
3192     }
3193
3194   /* Update all elimination pairs to reflect the status after the current
3195      insn.  The changes we make were determined by the earlier call to
3196      elimination_effects.
3197
3198      We also detect cases where register elimination cannot be done,
3199      namely, if a register would be both changed and referenced outside a MEM
3200      in the resulting insn since such an insn is often undefined and, even if
3201      not, we cannot know what meaning will be given to it.  Note that it is
3202      valid to have a register used in an address in an insn that changes it
3203      (presumably with a pre- or post-increment or decrement).
3204
3205      If anything changes, return nonzero.  */
3206
3207   for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3208     {
3209       if (ep->previous_offset != ep->offset && ep->ref_outside_mem)
3210         ep->can_eliminate = 0;
3211
3212       ep->ref_outside_mem = 0;
3213
3214       if (ep->previous_offset != ep->offset)
3215         val = 1;
3216     }
3217
3218  done:
3219   /* If we changed something, perform elimination in REG_NOTES.  This is
3220      needed even when REPLACE is zero because a REG_DEAD note might refer
3221      to a register that we eliminate and could cause a different number
3222      of spill registers to be needed in the final reload pass than in
3223      the pre-passes.  */
3224   if (val && REG_NOTES (insn) != 0)
3225     REG_NOTES (insn) = eliminate_regs (REG_NOTES (insn), 0, REG_NOTES (insn));
3226
3227   return val;
3228 }
3229
3230 /* Loop through all elimination pairs.
3231    Recalculate the number not at initial offset.
3232
3233    Compute the maximum offset (minimum offset if the stack does not
3234    grow downward) for each elimination pair.  */
3235
3236 static void
3237 update_eliminable_offsets (void)
3238 {
3239   struct elim_table *ep;
3240
3241   num_not_at_initial_offset = 0;
3242   for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3243     {
3244       ep->previous_offset = ep->offset;
3245       if (ep->can_eliminate && ep->offset != ep->initial_offset)
3246         num_not_at_initial_offset++;
3247     }
3248 }
3249
3250 /* Given X, a SET or CLOBBER of DEST, if DEST is the target of a register
3251    replacement we currently believe is valid, mark it as not eliminable if X
3252    modifies DEST in any way other than by adding a constant integer to it.
3253
3254    If DEST is the frame pointer, we do nothing because we assume that
3255    all assignments to the hard frame pointer are nonlocal gotos and are being
3256    done at a time when they are valid and do not disturb anything else.
3257    Some machines want to eliminate a fake argument pointer with either the
3258    frame or stack pointer.  Assignments to the hard frame pointer must not
3259    prevent this elimination.
3260
3261    Called via note_stores from reload before starting its passes to scan
3262    the insns of the function.  */
3263
3264 static void
3265 mark_not_eliminable (rtx dest, rtx x, void *data ATTRIBUTE_UNUSED)
3266 {
3267   unsigned int i;
3268
3269   /* A SUBREG of a hard register here is just changing its mode.  We should
3270      not see a SUBREG of an eliminable hard register, but check just in
3271      case.  */
3272   if (GET_CODE (dest) == SUBREG)
3273     dest = SUBREG_REG (dest);
3274
3275   if (dest == hard_frame_pointer_rtx)
3276     return;
3277
3278   for (i = 0; i < NUM_ELIMINABLE_REGS; i++)
3279     if (reg_eliminate[i].can_eliminate && dest == reg_eliminate[i].to_rtx
3280         && (GET_CODE (x) != SET
3281             || GET_CODE (SET_SRC (x)) != PLUS
3282             || XEXP (SET_SRC (x), 0) != dest
3283             || GET_CODE (XEXP (SET_SRC (x), 1)) != CONST_INT))
3284       {
3285         reg_eliminate[i].can_eliminate_previous
3286           = reg_eliminate[i].can_eliminate = 0;
3287         num_eliminable--;
3288       }
3289 }
3290
3291 /* Verify that the initial elimination offsets did not change since the
3292    last call to set_initial_elim_offsets.  This is used to catch cases
3293    where something illegal happened during reload_as_needed that could
3294    cause incorrect code to be generated if we did not check for it.  */
3295
3296 static bool
3297 verify_initial_elim_offsets (void)
3298 {
3299   HOST_WIDE_INT t;
3300
3301   if (!num_eliminable)
3302     return true;
3303
3304 #ifdef ELIMINABLE_REGS
3305   {
3306    struct elim_table *ep;
3307
3308    for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3309      {
3310        INITIAL_ELIMINATION_OFFSET (ep->from, ep->to, t);
3311        if (t != ep->initial_offset)
3312          return false;
3313      }
3314   }
3315 #else
3316   INITIAL_FRAME_POINTER_OFFSET (t);
3317   if (t != reg_eliminate[0].initial_offset)
3318     return false;
3319 #endif
3320
3321   return true;
3322 }
3323
3324 /* Reset all offsets on eliminable registers to their initial values.  */
3325
3326 static void
3327 set_initial_elim_offsets (void)
3328 {
3329   struct elim_table *ep = reg_eliminate;
3330
3331 #ifdef ELIMINABLE_REGS
3332   for (; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3333     {
3334       INITIAL_ELIMINATION_OFFSET (ep->from, ep->to, ep->initial_offset);
3335       ep->previous_offset = ep->offset = ep->initial_offset;
3336     }
3337 #else
3338   INITIAL_FRAME_POINTER_OFFSET (ep->initial_offset);
3339   ep->previous_offset = ep->offset = ep->initial_offset;
3340 #endif
3341
3342   num_not_at_initial_offset = 0;
3343 }
3344
3345 /* Subroutine of set_initial_label_offsets called via for_each_eh_label.  */
3346
3347 static void
3348 set_initial_eh_label_offset (rtx label)
3349 {
3350   set_label_offsets (label, NULL_RTX, 1);
3351 }
3352
3353 /* Initialize the known label offsets.
3354    Set a known offset for each forced label to be at the initial offset
3355    of each elimination.  We do this because we assume that all
3356    computed jumps occur from a location where each elimination is
3357    at its initial offset.
3358    For all other labels, show that we don't know the offsets.  */
3359
3360 static void
3361 set_initial_label_offsets (void)
3362 {
3363   rtx x;
3364   memset (offsets_known_at, 0, num_labels);
3365
3366   for (x = forced_labels; x; x = XEXP (x, 1))
3367     if (XEXP (x, 0))
3368       set_label_offsets (XEXP (x, 0), NULL_RTX, 1);
3369
3370   for_each_eh_label (set_initial_eh_label_offset);
3371 }
3372
3373 /* Set all elimination offsets to the known values for the code label given
3374    by INSN.  */
3375
3376 static void
3377 set_offsets_for_label (rtx insn)
3378 {
3379   unsigned int i;
3380   int label_nr = CODE_LABEL_NUMBER (insn);
3381   struct elim_table *ep;
3382
3383   num_not_at_initial_offset = 0;
3384   for (i = 0, ep = reg_eliminate; i < NUM_ELIMINABLE_REGS; ep++, i++)
3385     {
3386       ep->offset = ep->previous_offset
3387                  = offsets_at[label_nr - first_label_num][i];
3388       if (ep->can_eliminate && ep->offset != ep->initial_offset)
3389         num_not_at_initial_offset++;
3390     }
3391 }
3392
3393 /* See if anything that happened changes which eliminations are valid.
3394    For example, on the SPARC, whether or not the frame pointer can
3395    be eliminated can depend on what registers have been used.  We need
3396    not check some conditions again (such as flag_omit_frame_pointer)
3397    since they can't have changed.  */
3398
3399 static void
3400 update_eliminables (HARD_REG_SET *pset)
3401 {
3402   int previous_frame_pointer_needed = frame_pointer_needed;
3403   struct elim_table *ep;
3404
3405   for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3406     if ((ep->from == HARD_FRAME_POINTER_REGNUM && FRAME_POINTER_REQUIRED)
3407 #ifdef ELIMINABLE_REGS
3408         || ! CAN_ELIMINATE (ep->from, ep->to)
3409 #endif
3410         )
3411       ep->can_eliminate = 0;
3412
3413   /* Look for the case where we have discovered that we can't replace
3414      register A with register B and that means that we will now be
3415      trying to replace register A with register C.  This means we can
3416      no longer replace register C with register B and we need to disable
3417      such an elimination, if it exists.  This occurs often with A == ap,
3418      B == sp, and C == fp.  */
3419
3420   for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3421     {
3422       struct elim_table *op;
3423       int new_to = -1;
3424
3425       if (! ep->can_eliminate && ep->can_eliminate_previous)
3426         {
3427           /* Find the current elimination for ep->from, if there is a
3428              new one.  */
3429           for (op = reg_eliminate;
3430                op < &reg_eliminate[NUM_ELIMINABLE_REGS]; op++)
3431             if (op->from == ep->from && op->can_eliminate)
3432               {
3433                 new_to = op->to;
3434                 break;
3435               }
3436
3437           /* See if there is an elimination of NEW_TO -> EP->TO.  If so,
3438              disable it.  */
3439           for (op = reg_eliminate;
3440                op < &reg_eliminate[NUM_ELIMINABLE_REGS]; op++)
3441             if (op->from == new_to && op->to == ep->to)
3442               op->can_eliminate = 0;
3443         }
3444     }
3445
3446   /* See if any registers that we thought we could eliminate the previous
3447      time are no longer eliminable.  If so, something has changed and we
3448      must spill the register.  Also, recompute the number of eliminable
3449      registers and see if the frame pointer is needed; it is if there is
3450      no elimination of the frame pointer that we can perform.  */
3451
3452   frame_pointer_needed = 1;
3453   for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3454     {
3455       if (ep->can_eliminate && ep->from == FRAME_POINTER_REGNUM
3456           && ep->to != HARD_FRAME_POINTER_REGNUM)
3457         frame_pointer_needed = 0;
3458
3459       if (! ep->can_eliminate && ep->can_eliminate_previous)
3460         {
3461           ep->can_eliminate_previous = 0;
3462           SET_HARD_REG_BIT (*pset, ep->from);
3463           num_eliminable--;
3464         }
3465     }
3466
3467   /* If we didn't need a frame pointer last time, but we do now, spill
3468      the hard frame pointer.  */
3469   if (frame_pointer_needed && ! previous_frame_pointer_needed)
3470     SET_HARD_REG_BIT (*pset, HARD_FRAME_POINTER_REGNUM);
3471 }
3472
3473 /* Initialize the table of registers to eliminate.  */
3474
3475 static void
3476 init_elim_table (void)
3477 {
3478   struct elim_table *ep;
3479 #ifdef ELIMINABLE_REGS
3480   const struct elim_table_1 *ep1;
3481 #endif
3482
3483   if (!reg_eliminate)
3484     reg_eliminate = xcalloc (sizeof (struct elim_table), NUM_ELIMINABLE_REGS);
3485
3486   /* Does this function require a frame pointer?  */
3487
3488   frame_pointer_needed = (! flag_omit_frame_pointer
3489                           /* ?? If EXIT_IGNORE_STACK is set, we will not save
3490                              and restore sp for alloca.  So we can't eliminate
3491                              the frame pointer in that case.  At some point,
3492                              we should improve this by emitting the
3493                              sp-adjusting insns for this case.  */
3494                           || (current_function_calls_alloca
3495                               && EXIT_IGNORE_STACK)
3496                           || current_function_accesses_prior_frames
3497                           || FRAME_POINTER_REQUIRED);
3498
3499   num_eliminable = 0;
3500
3501 #ifdef ELIMINABLE_REGS
3502   for (ep = reg_eliminate, ep1 = reg_eliminate_1;
3503        ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++, ep1++)
3504     {
3505       ep->from = ep1->from;
3506       ep->to = ep1->to;
3507       ep->can_eliminate = ep->can_eliminate_previous
3508         = (CAN_ELIMINATE (ep->from, ep->to)
3509            && ! (ep->to == STACK_POINTER_REGNUM && frame_pointer_needed));
3510     }
3511 #else
3512   reg_eliminate[0].from = reg_eliminate_1[0].from;
3513   reg_eliminate[0].to = reg_eliminate_1[0].to;
3514   reg_eliminate[0].can_eliminate = reg_eliminate[0].can_eliminate_previous
3515     = ! frame_pointer_needed;
3516 #endif
3517
3518   /* Count the number of eliminable registers and build the FROM and TO
3519      REG rtx's.  Note that code in gen_rtx_REG will cause, e.g.,
3520      gen_rtx_REG (Pmode, STACK_POINTER_REGNUM) to equal stack_pointer_rtx.
3521      We depend on this.  */
3522   for (ep = reg_eliminate; ep < &reg_eliminate[NUM_ELIMINABLE_REGS]; ep++)
3523     {
3524       num_eliminable += ep->can_eliminate;
3525       ep->from_rtx = gen_rtx_REG (Pmode, ep->from);
3526       ep->to_rtx = gen_rtx_REG (Pmode, ep->to);
3527     }
3528 }
3529 \f
3530 /* Kick all pseudos out of hard register REGNO.
3531
3532    If CANT_ELIMINATE is nonzero, it means that we are doing this spill
3533    because we found we can't eliminate some register.  In the case, no pseudos
3534    are allowed to be in the register, even if they are only in a block that
3535    doesn't require spill registers, unlike the case when we are spilling this
3536    hard reg to produce another spill register.
3537
3538    Return nonzero if any pseudos needed to be kicked out.  */
3539
3540 static void
3541 spill_hard_reg (unsigned int regno, int cant_eliminate)
3542 {
3543   int i;
3544
3545   if (cant_eliminate)
3546     {
3547       SET_HARD_REG_BIT (bad_spill_regs_global, regno);
3548       regs_ever_live[regno] = 1;
3549     }
3550
3551   /* Spill every pseudo reg that was allocated to this reg
3552      or to something that overlaps this reg.  */
3553
3554   for (i = FIRST_PSEUDO_REGISTER; i < max_regno; i++)
3555     if (reg_renumber[i] >= 0
3556         && (unsigned int) reg_renumber[i] <= regno
3557         && ((unsigned int) reg_renumber[i]
3558             + hard_regno_nregs[(unsigned int) reg_renumber[i]]
3559                               [PSEUDO_REGNO_MODE (i)]
3560             > regno))
3561       SET_REGNO_REG_SET (&spilled_pseudos, i);
3562 }
3563
3564 /* After find_reload_regs has been run for all insn that need reloads,
3565    and/or spill_hard_regs was called, this function is used to actually
3566    spill pseudo registers and try to reallocate them.  It also sets up the
3567    spill_regs array for use by choose_reload_regs.  */
3568
3569 static int
3570 finish_spills (int global)
3571 {
3572   struct insn_chain *chain;
3573   int something_changed = 0;
3574   unsigned i;
3575   reg_set_iterator rsi;
3576
3577   /* Build the spill_regs array for the function.  */
3578   /* If there are some registers still to eliminate and one of the spill regs
3579      wasn't ever used before, additional stack space may have to be
3580      allocated to store this register.  Thus, we may have changed the offset
3581      between the stack and frame pointers, so mark that something has changed.
3582
3583      One might think that we need only set VAL to 1 if this is a call-used
3584      register.  However, the set of registers that must be saved by the
3585      prologue is not identical to the call-used set.  For example, the
3586      register used by the call insn for the return PC is a call-used register,
3587      but must be saved by the prologue.  */
3588
3589   n_spills = 0;
3590   for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
3591     if (TEST_HARD_REG_BIT (used_spill_regs, i))
3592       {
3593         spill_reg_order[i] = n_spills;
3594         spill_regs[n_spills++] = i;
3595         if (num_eliminable && ! regs_ever_live[i])
3596           something_changed = 1;
3597         regs_ever_live[i] = 1;
3598       }
3599     else
3600       spill_reg_order[i] = -1;
3601
3602   EXECUTE_IF_SET_IN_REG_SET (&spilled_pseudos, FIRST_PSEUDO_REGISTER, i, rsi)
3603     {
3604       /* Record the current hard register the pseudo is allocated to in
3605          pseudo_previous_regs so we avoid reallocating it to the same
3606          hard reg in a later pass.  */
3607       gcc_assert (reg_renumber[i] >= 0);
3608
3609       SET_HARD_REG_BIT (pseudo_previous_regs[i], reg_renumber[i]);
3610       /* Mark it as no longer having a hard register home.  */
3611       reg_renumber[i] = -1;
3612       /* We will need to scan everything again.  */
3613       something_changed = 1;
3614     }
3615
3616   /* Retry global register allocation if possible.  */
3617   if (global)
3618     {
3619       memset (pseudo_forbidden_regs, 0, max_regno * sizeof (HARD_REG_SET));
3620       /* For every insn that needs reloads, set the registers used as spill
3621          regs in pseudo_forbidden_regs for every pseudo live across the
3622          insn.  */
3623       for (chain = insns_need_reload; chain; chain = chain->next_need_reload)
3624         {
3625           EXECUTE_IF_SET_IN_REG_SET
3626             (&chain->live_throughout, FIRST_PSEUDO_REGISTER, i, rsi)
3627             {
3628               IOR_HARD_REG_SET (pseudo_forbidden_regs[i],
3629                                 chain->used_spill_regs);
3630             }
3631           EXECUTE_IF_SET_IN_REG_SET
3632             (&chain->dead_or_set, FIRST_PSEUDO_REGISTER, i, rsi)
3633             {
3634               IOR_HARD_REG_SET (pseudo_forbidden_regs[i],
3635                                 chain->used_spill_regs);
3636             }
3637         }
3638
3639       /* Retry allocating the spilled pseudos.  For each reg, merge the
3640          various reg sets that indicate which hard regs can't be used,
3641          and call retry_global_alloc.
3642          We change spill_pseudos here to only contain pseudos that did not
3643          get a new hard register.  */
3644       for (i = FIRST_PSEUDO_REGISTER; i < (unsigned)max_regno; i++)
3645         if (reg_old_renumber[i] != reg_renumber[i])
3646           {
3647             HARD_REG_SET forbidden;
3648             COPY_HARD_REG_SET (forbidden, bad_spill_regs_global);
3649             IOR_HARD_REG_SET (forbidden, pseudo_forbidden_regs[i]);
3650             IOR_HARD_REG_SET (forbidden, pseudo_previous_regs[i]);
3651             retry_global_alloc (i, forbidden);
3652             if (reg_renumber[i] >= 0)
3653               CLEAR_REGNO_REG_SET (&spilled_pseudos, i);
3654           }
3655     }
3656
3657   /* Fix up the register information in the insn chain.
3658      This involves deleting those of the spilled pseudos which did not get
3659      a new hard register home from the live_{before,after} sets.  */
3660   for (chain = reload_insn_chain; chain; chain = chain->next)
3661     {
3662       HARD_REG_SET used_by_pseudos;
3663       HARD_REG_SET used_by_pseudos2;
3664
3665       AND_COMPL_REG_SET (&chain->live_throughout, &spilled_pseudos);
3666       AND_COMPL_REG_SET (&chain->dead_or_set, &spilled_pseudos);
3667
3668       /* Mark any unallocated hard regs as available for spills.  That
3669          makes inheritance work somewhat better.  */
3670       if (chain->need_reload)
3671         {
3672           REG_SET_TO_HARD_REG_SET (used_by_pseudos, &chain->live_throughout);
3673           REG_SET_TO_HARD_REG_SET (used_by_pseudos2, &chain->dead_or_set);
3674           IOR_HARD_REG_SET (used_by_pseudos, used_by_pseudos2);
3675
3676           /* Save the old value for the sanity test below.  */
3677           COPY_HARD_REG_SET (used_by_pseudos2, chain->used_spill_regs);
3678
3679           compute_use_by_pseudos (&used_by_pseudos, &chain->live_throughout);
3680           compute_use_by_pseudos (&used_by_pseudos, &chain->dead_or_set);
3681           COMPL_HARD_REG_SET (chain->used_spill_regs, used_by_pseudos);
3682           AND_HARD_REG_SET (chain->used_spill_regs, used_spill_regs);
3683
3684           /* Make sure we only enlarge the set.  */
3685           GO_IF_HARD_REG_SUBSET (used_by_pseudos2, chain->used_spill_regs, ok);
3686           gcc_unreachable ();
3687         ok:;
3688         }
3689     }
3690
3691   /* Let alter_reg modify the reg rtx's for the modified pseudos.  */
3692   for (i = FIRST_PSEUDO_REGISTER; i < (unsigned)max_regno; i++)
3693     {
3694       int regno = reg_renumber[i];
3695       if (reg_old_renumber[i] == regno)
3696         continue;
3697
3698       alter_reg (i, reg_old_renumber[i]);
3699       reg_old_renumber[i] = regno;
3700       if (dump_file)
3701         {
3702           if (regno == -1)
3703             fprintf (dump_file, " Register %d now on stack.\n\n", i);
3704           else
3705             fprintf (dump_file, " Register %d now in %d.\n\n",
3706                      i, reg_renumber[i]);
3707         }
3708     }
3709
3710   return something_changed;
3711 }
3712 \f
3713 /* Find all paradoxical subregs within X and update reg_max_ref_width.  */
3714
3715 static void
3716 scan_paradoxical_subregs (rtx x)
3717 {
3718   int i;
3719   const char *fmt;
3720   enum rtx_code code = GET_CODE (x);
3721
3722   switch (code)
3723     {
3724     case REG:
3725     case CONST_INT:
3726     case CONST:
3727     case SYMBOL_REF:
3728     case LABEL_REF:
3729     case CONST_DOUBLE:
3730     case CONST_VECTOR: /* shouldn't happen, but just in case.  */
3731     case CC0:
3732     case PC:
3733     case USE:
3734     case CLOBBER:
3735       return;
3736
3737     case SUBREG:
3738       if (REG_P (SUBREG_REG (x))
3739           && GET_MODE_SIZE (GET_MODE (x)) > GET_MODE_SIZE (GET_MODE (SUBREG_REG (x))))
3740         reg_max_ref_width[REGNO (SUBREG_REG (x))]
3741           = GET_MODE_SIZE (GET_MODE (x));
3742       return;
3743
3744     default:
3745       break;
3746     }
3747
3748   fmt = GET_RTX_FORMAT (code);
3749   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
3750     {
3751       if (fmt[i] == 'e')
3752         scan_paradoxical_subregs (XEXP (x, i));
3753       else if (fmt[i] == 'E')
3754         {
3755           int j;
3756           for (j = XVECLEN (x, i) - 1; j >= 0; j--)
3757             scan_paradoxical_subregs (XVECEXP (x, i, j));
3758         }
3759     }
3760 }
3761 \f
3762 /* A subroutine of reload_as_needed.  If INSN has a REG_EH_REGION note,
3763    examine all of the reload insns between PREV and NEXT exclusive, and
3764    annotate all that may trap.  */
3765
3766 static void
3767 fixup_eh_region_note (rtx insn, rtx prev, rtx next)
3768 {
3769   rtx note = find_reg_note (insn, REG_EH_REGION, NULL_RTX);
3770   unsigned int trap_count;
3771   rtx i;
3772
3773   if (note == NULL)
3774     return;
3775
3776   if (may_trap_p (PATTERN (insn)))
3777     trap_count = 1;
3778   else
3779     {
3780       remove_note (insn, note);
3781       trap_count = 0;
3782     }
3783
3784   for (i = NEXT_INSN (prev); i != next; i = NEXT_INSN (i))
3785     if (INSN_P (i) && i != insn && may_trap_p (PATTERN (i)))
3786       {
3787         trap_count++;
3788         REG_NOTES (i)
3789           = gen_rtx_EXPR_LIST (REG_EH_REGION, XEXP (note, 0), REG_NOTES (i));
3790       }
3791 }
3792
3793 /* Reload pseudo-registers into hard regs around each insn as needed.
3794    Additional register load insns are output before the insn that needs it
3795    and perhaps store insns after insns that modify the reloaded pseudo reg.
3796
3797    reg_last_reload_reg and reg_reloaded_contents keep track of
3798    which registers are already available in reload registers.
3799    We update these for the reloads that we perform,
3800    as the insns are scanned.  */
3801
3802 static void
3803 reload_as_needed (int live_known)
3804 {
3805   struct insn_chain *chain;
3806 #if defined (AUTO_INC_DEC)
3807   int i;
3808 #endif
3809   rtx x;
3810
3811   memset (spill_reg_rtx, 0, sizeof spill_reg_rtx);
3812   memset (spill_reg_store, 0, sizeof spill_reg_store);
3813   reg_last_reload_reg = xcalloc (max_regno, sizeof (rtx));
3814   reg_has_output_reload = xmalloc (max_regno);
3815   CLEAR_HARD_REG_SET (reg_reloaded_valid);
3816   CLEAR_HARD_REG_SET (reg_reloaded_call_part_clobbered);
3817
3818   set_initial_elim_offsets ();
3819
3820   for (chain = reload_insn_chain; chain; chain = chain->next)
3821     {
3822       rtx prev = 0;
3823       rtx insn = chain->insn;
3824       rtx old_next = NEXT_INSN (insn);
3825
3826       /* If we pass a label, copy the offsets from the label information
3827          into the current offsets of each elimination.  */
3828       if (LABEL_P (insn))
3829         set_offsets_for_label (insn);
3830
3831       else if (INSN_P (insn))
3832         {
3833           rtx oldpat = copy_rtx (PATTERN (insn));
3834
3835           /* If this is a USE and CLOBBER of a MEM, ensure that any
3836              references to eliminable registers have been removed.  */
3837
3838           if ((GET_CODE (PATTERN (insn)) == USE
3839                || GET_CODE (PATTERN (insn)) == CLOBBER)
3840               && MEM_P (XEXP (PATTERN (insn), 0)))
3841             XEXP (XEXP (PATTERN (insn), 0), 0)
3842               = eliminate_regs (XEXP (XEXP (PATTERN (insn), 0), 0),
3843                                 GET_MODE (XEXP (PATTERN (insn), 0)),
3844                                 NULL_RTX);
3845
3846           /* If we need to do register elimination processing, do so.
3847              This might delete the insn, in which case we are done.  */
3848           if ((num_eliminable || num_eliminable_invariants) && chain->need_elim)
3849             {
3850               eliminate_regs_in_insn (insn, 1);
3851               if (NOTE_P (insn))
3852                 {
3853                   update_eliminable_offsets ();
3854                   continue;
3855                 }
3856             }
3857
3858           /* If need_elim is nonzero but need_reload is zero, one might think
3859              that we could simply set n_reloads to 0.  However, find_reloads
3860              could have done some manipulation of the insn (such as swapping
3861              commutative operands), and these manipulations are lost during
3862              the first pass for every insn that needs register elimination.
3863              So the actions of find_reloads must be redone here.  */
3864
3865           if (! chain->need_elim && ! chain->need_reload
3866               && ! chain->need_operand_change)
3867             n_reloads = 0;
3868           /* First find the pseudo regs that must be reloaded for this insn.
3869              This info is returned in the tables reload_... (see reload.h).
3870              Also modify the body of INSN by substituting RELOAD
3871              rtx's for those pseudo regs.  */
3872           else
3873             {
3874               memset (reg_has_output_reload, 0, max_regno);
3875               CLEAR_HARD_REG_SET (reg_is_output_reload);
3876
3877               find_reloads (insn, 1, spill_indirect_levels, live_known,
3878                             spill_reg_order);
3879             }
3880
3881           if (n_reloads > 0)
3882             {
3883               rtx next = NEXT_INSN (insn);
3884               rtx p;
3885
3886               prev = PREV_INSN (insn);
3887
3888               /* Now compute which reload regs to reload them into.  Perhaps
3889                  reusing reload regs from previous insns, or else output
3890                  load insns to reload them.  Maybe output store insns too.
3891                  Record the choices of reload reg in reload_reg_rtx.  */
3892               choose_reload_regs (chain);
3893
3894               /* Merge any reloads that we didn't combine for fear of
3895                  increasing the number of spill registers needed but now
3896                  discover can be safely merged.  */
3897               if (SMALL_REGISTER_CLASSES)
3898                 merge_assigned_reloads (insn);
3899
3900               /* Generate the insns to reload operands into or out of
3901                  their reload regs.  */
3902               emit_reload_insns (chain);
3903
3904               /* Substitute the chosen reload regs from reload_reg_rtx
3905                  into the insn's body (or perhaps into the bodies of other
3906                  load and store insn that we just made for reloading
3907                  and that we moved the structure into).  */
3908               subst_reloads (insn);
3909
3910               /* Adjust the exception region notes for loads and stores.  */
3911               if (flag_non_call_exceptions && !CALL_P (insn))
3912                 fixup_eh_region_note (insn, prev, next);
3913
3914               /* If this was an ASM, make sure that all the reload insns
3915                  we have generated are valid.  If not, give an error
3916                  and delete them.  */
3917               if (asm_noperands (PATTERN (insn)) >= 0)
3918                 for (p = NEXT_INSN (prev); p != next; p = NEXT_INSN (p))
3919                   if (p != insn && INSN_P (p)
3920                       && GET_CODE (PATTERN (p)) != USE
3921                       && (recog_memoized (p) < 0
3922                           || (extract_insn (p), ! constrain_operands (1))))
3923                     {
3924                       error_for_asm (insn,
3925                                      "%<asm%> operand requires "
3926                                      "impossible reload");
3927                       delete_insn (p);
3928                     }
3929             }
3930
3931           if (num_eliminable && chain->need_elim)
3932             update_eliminable_offsets ();
3933
3934           /* Any previously reloaded spilled pseudo reg, stored in this insn,
3935              is no longer validly lying around to save a future reload.
3936              Note that this does not detect pseudos that were reloaded
3937              for this insn in order to be stored in
3938              (obeying register constraints).  That is correct; such reload
3939              registers ARE still valid.  */
3940           note_stores (oldpat, forget_old_reloads_1, NULL);
3941
3942           /* There may have been CLOBBER insns placed after INSN.  So scan
3943              between INSN and NEXT and use them to forget old reloads.  */
3944           for (x = NEXT_INSN (insn); x != old_next; x = NEXT_INSN (x))
3945             if (NONJUMP_INSN_P (x) && GET_CODE (PATTERN (x)) == CLOBBER)
3946               note_stores (PATTERN (x), forget_old_reloads_1, NULL);
3947
3948 #ifdef AUTO_INC_DEC
3949           /* Likewise for regs altered by auto-increment in this insn.
3950              REG_INC notes have been changed by reloading:
3951              find_reloads_address_1 records substitutions for them,
3952              which have been performed by subst_reloads above.  */
3953           for (i = n_reloads - 1; i >= 0; i--)
3954             {
3955               rtx in_reg = rld[i].in_reg;
3956               if (in_reg)
3957                 {
3958                   enum rtx_code code = GET_CODE (in_reg);
3959                   /* PRE_INC / PRE_DEC will have the reload register ending up
3960                      with the same value as the stack slot, but that doesn't
3961                      hold true for POST_INC / POST_DEC.  Either we have to
3962                      convert the memory access to a true POST_INC / POST_DEC,
3963                      or we can't use the reload register for inheritance.  */
3964                   if ((code == POST_INC || code == POST_DEC)
3965                       && TEST_HARD_REG_BIT (reg_reloaded_valid,
3966                                             REGNO (rld[i].reg_rtx))
3967                       /* Make sure it is the inc/dec pseudo, and not
3968                          some other (e.g. output operand) pseudo.  */
3969                       && ((unsigned) reg_reloaded_contents[REGNO (rld[i].reg_rtx)]
3970                           == REGNO (XEXP (in_reg, 0))))
3971
3972                     {
3973                       rtx reload_reg = rld[i].reg_rtx;
3974                       enum machine_mode mode = GET_MODE (reload_reg);
3975                       int n = 0;
3976                       rtx p;
3977
3978                       for (p = PREV_INSN (old_next); p != prev; p = PREV_INSN (p))
3979                         {
3980                           /* We really want to ignore REG_INC notes here, so
3981                              use PATTERN (p) as argument to reg_set_p .  */
3982                           if (reg_set_p (reload_reg, PATTERN (p)))
3983                             break;
3984                           n = count_occurrences (PATTERN (p), reload_reg, 0);
3985                           if (! n)
3986                             continue;
3987                           if (n == 1)
3988                             {
3989                               n = validate_replace_rtx (reload_reg,
3990                                                         gen_rtx_fmt_e (code,
3991                                                                        mode,
3992                                                                        reload_reg),
3993                                                         p);
3994
3995                               /* We must also verify that the constraints
3996                                  are met after the replacement.  */
3997                               extract_insn (p);
3998                               if (n)
3999                                 n = constrain_operands (1);
4000                               else
4001                                 break;
4002
4003                               /* If the constraints were not met, then
4004                                  undo the replacement.  */
4005                               if (!n)
4006                                 {
4007                                   validate_replace_rtx (gen_rtx_fmt_e (code,
4008                                                                        mode,
4009                                                                        reload_reg),
4010                                                         reload_reg, p);
4011                                   break;
4012                                 }
4013
4014                             }
4015                           break;
4016                         }
4017                       if (n == 1)
4018                         {
4019                           REG_NOTES (p)
4020                             = gen_rtx_EXPR_LIST (REG_INC, reload_reg,
4021                                                  REG_NOTES (p));
4022                           /* Mark this as having an output reload so that the
4023                              REG_INC processing code below won't invalidate
4024                              the reload for inheritance.  */
4025                           SET_HARD_REG_BIT (reg_is_output_reload,
4026                                             REGNO (reload_reg));
4027                           reg_has_output_reload[REGNO (XEXP (in_reg, 0))] = 1;
4028                         }
4029                       else
4030                         forget_old_reloads_1 (XEXP (in_reg, 0), NULL_RTX,
4031                                               NULL);
4032                     }
4033                   else if ((code == PRE_INC || code == PRE_DEC)
4034                            && TEST_HARD_REG_BIT (reg_reloaded_valid,
4035                                                  REGNO (rld[i].reg_rtx))
4036                            /* Make sure it is the inc/dec pseudo, and not
4037                               some other (e.g. output operand) pseudo.  */
4038                            && ((unsigned) reg_reloaded_contents[REGNO (rld[i].reg_rtx)]
4039                                == REGNO (XEXP (in_reg, 0))))
4040                     {
4041                       SET_HARD_REG_BIT (reg_is_output_reload,
4042                                         REGNO (rld[i].reg_rtx));
4043                       reg_has_output_reload[REGNO (XEXP (in_reg, 0))] = 1;
4044                     }
4045                 }
4046             }
4047           /* If a pseudo that got a hard register is auto-incremented,
4048              we must purge records of copying it into pseudos without
4049              hard registers.  */
4050           for (x = REG_NOTES (insn); x; x = XEXP (x, 1))
4051             if (REG_NOTE_KIND (x) == REG_INC)
4052               {
4053                 /* See if this pseudo reg was reloaded in this insn.
4054                    If so, its last-reload info is still valid
4055                    because it is based on this insn's reload.  */
4056                 for (i = 0; i < n_reloads; i++)
4057                   if (rld[i].out == XEXP (x, 0))
4058                     break;
4059
4060                 if (i == n_reloads)
4061                   forget_old_reloads_1 (XEXP (x, 0), NULL_RTX, NULL);
4062               }
4063 #endif
4064         }
4065       /* A reload reg's contents are unknown after a label.  */
4066       if (LABEL_P (insn))
4067         CLEAR_HARD_REG_SET (reg_reloaded_valid);
4068
4069       /* Don't assume a reload reg is still good after a call insn
4070          if it is a call-used reg, or if it contains a value that will
4071          be partially clobbered by the call.  */
4072       else if (CALL_P (insn))
4073         {
4074         AND_COMPL_HARD_REG_SET (reg_reloaded_valid, call_used_reg_set);
4075         AND_COMPL_HARD_REG_SET (reg_reloaded_valid, reg_reloaded_call_part_clobbered);
4076         }
4077     }
4078
4079   /* Clean up.  */
4080   free (reg_last_reload_reg);
4081   free (reg_has_output_reload);
4082 }
4083
4084 /* Discard all record of any value reloaded from X,
4085    or reloaded in X from someplace else;
4086    unless X is an output reload reg of the current insn.
4087
4088    X may be a hard reg (the reload reg)
4089    or it may be a pseudo reg that was reloaded from.  */
4090
4091 static void
4092 forget_old_reloads_1 (rtx x, rtx ignored ATTRIBUTE_UNUSED,
4093                       void *data ATTRIBUTE_UNUSED)
4094 {
4095   unsigned int regno;
4096   unsigned int nr;
4097
4098   /* note_stores does give us subregs of hard regs,
4099      subreg_regno_offset requires a hard reg.  */
4100   while (GET_CODE (x) == SUBREG)
4101     {
4102       /* We ignore the subreg offset when calculating the regno,
4103          because we are using the entire underlying hard register
4104          below.  */
4105       x = SUBREG_REG (x);
4106     }
4107
4108   if (!REG_P (x))
4109     return;
4110
4111   regno = REGNO (x);
4112
4113   if (regno >= FIRST_PSEUDO_REGISTER)
4114     nr = 1;
4115   else
4116     {
4117       unsigned int i;
4118
4119       nr = hard_regno_nregs[regno][GET_MODE (x)];
4120       /* Storing into a spilled-reg invalidates its contents.
4121          This can happen if a block-local pseudo is allocated to that reg
4122          and it wasn't spilled because this block's total need is 0.
4123          Then some insn might have an optional reload and use this reg.  */
4124       for (i = 0; i < nr; i++)
4125         /* But don't do this if the reg actually serves as an output
4126            reload reg in the current instruction.  */
4127         if (n_reloads == 0
4128             || ! TEST_HARD_REG_BIT (reg_is_output_reload, regno + i))
4129           {
4130             CLEAR_HARD_REG_BIT (reg_reloaded_valid, regno + i);
4131             CLEAR_HARD_REG_BIT (reg_reloaded_call_part_clobbered, regno + i);
4132             spill_reg_store[regno + i] = 0;
4133           }
4134     }
4135
4136   /* Since value of X has changed,
4137      forget any value previously copied from it.  */
4138
4139   while (nr-- > 0)
4140     /* But don't forget a copy if this is the output reload
4141        that establishes the copy's validity.  */
4142     if (n_reloads == 0 || reg_has_output_reload[regno + nr] == 0)
4143       reg_last_reload_reg[regno + nr] = 0;
4144 }
4145 \f
4146 /* The following HARD_REG_SETs indicate when each hard register is
4147    used for a reload of various parts of the current insn.  */
4148
4149 /* If reg is unavailable for all reloads.  */
4150 static HARD_REG_SET reload_reg_unavailable;
4151 /* If reg is in use as a reload reg for a RELOAD_OTHER reload.  */
4152 static HARD_REG_SET reload_reg_used;
4153 /* If reg is in use for a RELOAD_FOR_INPUT_ADDRESS reload for operand I.  */
4154 static HARD_REG_SET reload_reg_used_in_input_addr[MAX_RECOG_OPERANDS];
4155 /* If reg is in use for a RELOAD_FOR_INPADDR_ADDRESS reload for operand I.  */
4156 static HARD_REG_SET reload_reg_used_in_inpaddr_addr[MAX_RECOG_OPERANDS];
4157 /* If reg is in use for a RELOAD_FOR_OUTPUT_ADDRESS reload for operand I.  */
4158 static HARD_REG_SET reload_reg_used_in_output_addr[MAX_RECOG_OPERANDS];
4159 /* If reg is in use for a RELOAD_FOR_OUTADDR_ADDRESS reload for operand I.  */
4160 static HARD_REG_SET reload_reg_used_in_outaddr_addr[MAX_RECOG_OPERANDS];
4161 /* If reg is in use for a RELOAD_FOR_INPUT reload for operand I.  */
4162 static HARD_REG_SET reload_reg_used_in_input[MAX_RECOG_OPERANDS];
4163 /* If reg is in use for a RELOAD_FOR_OUTPUT reload for operand I.  */
4164 static HARD_REG_SET reload_reg_used_in_output[MAX_RECOG_OPERANDS];
4165 /* If reg is in use for a RELOAD_FOR_OPERAND_ADDRESS reload.  */
4166 static HARD_REG_SET reload_reg_used_in_op_addr;
4167 /* If reg is in use for a RELOAD_FOR_OPADDR_ADDR reload.  */
4168 static HARD_REG_SET reload_reg_used_in_op_addr_reload;
4169 /* If reg is in use for a RELOAD_FOR_INSN reload.  */
4170 static HARD_REG_SET reload_reg_used_in_insn;
4171 /* If reg is in use for a RELOAD_FOR_OTHER_ADDRESS reload.  */
4172 static HARD_REG_SET reload_reg_used_in_other_addr;
4173
4174 /* If reg is in use as a reload reg for any sort of reload.  */
4175 static HARD_REG_SET reload_reg_used_at_all;
4176
4177 /* If reg is use as an inherited reload.  We just mark the first register
4178    in the group.  */
4179 static HARD_REG_SET reload_reg_used_for_inherit;
4180
4181 /* Records which hard regs are used in any way, either as explicit use or
4182    by being allocated to a pseudo during any point of the current insn.  */
4183 static HARD_REG_SET reg_used_in_insn;
4184
4185 /* Mark reg REGNO as in use for a reload of the sort spec'd by OPNUM and
4186    TYPE. MODE is used to indicate how many consecutive regs are
4187    actually used.  */
4188
4189 static void
4190 mark_reload_reg_in_use (unsigned int regno, int opnum, enum reload_type type,
4191                         enum machine_mode mode)
4192 {
4193   unsigned int nregs = hard_regno_nregs[regno][mode];
4194   unsigned int i;
4195
4196   for (i = regno; i < nregs + regno; i++)
4197     {
4198       switch (type)
4199         {
4200         case RELOAD_OTHER:
4201           SET_HARD_REG_BIT (reload_reg_used, i);
4202           break;
4203
4204         case RELOAD_FOR_INPUT_ADDRESS:
4205           SET_HARD_REG_BIT (reload_reg_used_in_input_addr[opnum], i);
4206           break;
4207
4208         case RELOAD_FOR_INPADDR_ADDRESS:
4209           SET_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[opnum], i);
4210           break;
4211
4212         case RELOAD_FOR_OUTPUT_ADDRESS:
4213           SET_HARD_REG_BIT (reload_reg_used_in_output_addr[opnum], i);
4214           break;
4215
4216         case RELOAD_FOR_OUTADDR_ADDRESS:
4217           SET_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[opnum], i);
4218           break;
4219
4220         case RELOAD_FOR_OPERAND_ADDRESS:
4221           SET_HARD_REG_BIT (reload_reg_used_in_op_addr, i);
4222           break;
4223
4224         case RELOAD_FOR_OPADDR_ADDR:
4225           SET_HARD_REG_BIT (reload_reg_used_in_op_addr_reload, i);
4226           break;
4227
4228         case RELOAD_FOR_OTHER_ADDRESS:
4229           SET_HARD_REG_BIT (reload_reg_used_in_other_addr, i);
4230           break;
4231
4232         case RELOAD_FOR_INPUT:
4233           SET_HARD_REG_BIT (reload_reg_used_in_input[opnum], i);
4234           break;
4235
4236         case RELOAD_FOR_OUTPUT:
4237           SET_HARD_REG_BIT (reload_reg_used_in_output[opnum], i);
4238           break;
4239
4240         case RELOAD_FOR_INSN:
4241           SET_HARD_REG_BIT (reload_reg_used_in_insn, i);
4242           break;
4243         }
4244
4245       SET_HARD_REG_BIT (reload_reg_used_at_all, i);
4246     }
4247 }
4248
4249 /* Similarly, but show REGNO is no longer in use for a reload.  */
4250
4251 static void
4252 clear_reload_reg_in_use (unsigned int regno, int opnum,
4253                          enum reload_type type, enum machine_mode mode)
4254 {
4255   unsigned int nregs = hard_regno_nregs[regno][mode];
4256   unsigned int start_regno, end_regno, r;
4257   int i;
4258   /* A complication is that for some reload types, inheritance might
4259      allow multiple reloads of the same types to share a reload register.
4260      We set check_opnum if we have to check only reloads with the same
4261      operand number, and check_any if we have to check all reloads.  */
4262   int check_opnum = 0;
4263   int check_any = 0;
4264   HARD_REG_SET *used_in_set;
4265
4266   switch (type)
4267     {
4268     case RELOAD_OTHER:
4269       used_in_set = &reload_reg_used;
4270       break;
4271
4272     case RELOAD_FOR_INPUT_ADDRESS:
4273       used_in_set = &reload_reg_used_in_input_addr[opnum];
4274       break;
4275
4276     case RELOAD_FOR_INPADDR_ADDRESS:
4277       check_opnum = 1;
4278       used_in_set = &reload_reg_used_in_inpaddr_addr[opnum];
4279       break;
4280
4281     case RELOAD_FOR_OUTPUT_ADDRESS:
4282       used_in_set = &reload_reg_used_in_output_addr[opnum];
4283       break;
4284
4285     case RELOAD_FOR_OUTADDR_ADDRESS:
4286       check_opnum = 1;
4287       used_in_set = &reload_reg_used_in_outaddr_addr[opnum];
4288       break;
4289
4290     case RELOAD_FOR_OPERAND_ADDRESS:
4291       used_in_set = &reload_reg_used_in_op_addr;
4292       break;
4293
4294     case RELOAD_FOR_OPADDR_ADDR:
4295       check_any = 1;
4296       used_in_set = &reload_reg_used_in_op_addr_reload;
4297       break;
4298
4299     case RELOAD_FOR_OTHER_ADDRESS:
4300       used_in_set = &reload_reg_used_in_other_addr;
4301       check_any = 1;
4302       break;
4303
4304     case RELOAD_FOR_INPUT:
4305       used_in_set = &reload_reg_used_in_input[opnum];
4306       break;
4307
4308     case RELOAD_FOR_OUTPUT:
4309       used_in_set = &reload_reg_used_in_output[opnum];
4310       break;
4311
4312     case RELOAD_FOR_INSN:
4313       used_in_set = &reload_reg_used_in_insn;
4314       break;
4315     default:
4316       gcc_unreachable ();
4317     }
4318   /* We resolve conflicts with remaining reloads of the same type by
4319      excluding the intervals of reload registers by them from the
4320      interval of freed reload registers.  Since we only keep track of
4321      one set of interval bounds, we might have to exclude somewhat
4322      more than what would be necessary if we used a HARD_REG_SET here.
4323      But this should only happen very infrequently, so there should
4324      be no reason to worry about it.  */
4325
4326   start_regno = regno;
4327   end_regno = regno + nregs;
4328   if (check_opnum || check_any)
4329     {
4330       for (i = n_reloads - 1; i >= 0; i--)
4331         {
4332           if (rld[i].when_needed == type
4333               && (check_any || rld[i].opnum == opnum)
4334               && rld[i].reg_rtx)
4335             {
4336               unsigned int conflict_start = true_regnum (rld[i].reg_rtx);
4337               unsigned int conflict_end
4338                 = (conflict_start
4339                    + hard_regno_nregs[conflict_start][rld[i].mode]);
4340
4341               /* If there is an overlap with the first to-be-freed register,
4342                  adjust the interval start.  */
4343               if (conflict_start <= start_regno && conflict_end > start_regno)
4344                 start_regno = conflict_end;
4345               /* Otherwise, if there is a conflict with one of the other
4346                  to-be-freed registers, adjust the interval end.  */
4347               if (conflict_start > start_regno && conflict_start < end_regno)
4348                 end_regno = conflict_start;
4349             }
4350         }
4351     }
4352
4353   for (r = start_regno; r < end_regno; r++)
4354     CLEAR_HARD_REG_BIT (*used_in_set, r);
4355 }
4356
4357 /* 1 if reg REGNO is free as a reload reg for a reload of the sort
4358    specified by OPNUM and TYPE.  */
4359
4360 static int
4361 reload_reg_free_p (unsigned int regno, int opnum, enum reload_type type)
4362 {
4363   int i;
4364
4365   /* In use for a RELOAD_OTHER means it's not available for anything.  */
4366   if (TEST_HARD_REG_BIT (reload_reg_used, regno)
4367       || TEST_HARD_REG_BIT (reload_reg_unavailable, regno))
4368     return 0;
4369
4370   switch (type)
4371     {
4372     case RELOAD_OTHER:
4373       /* In use for anything means we can't use it for RELOAD_OTHER.  */
4374       if (TEST_HARD_REG_BIT (reload_reg_used_in_other_addr, regno)
4375           || TEST_HARD_REG_BIT (reload_reg_used_in_op_addr, regno)
4376           || TEST_HARD_REG_BIT (reload_reg_used_in_op_addr_reload, regno)
4377           || TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno))
4378         return 0;
4379
4380       for (i = 0; i < reload_n_operands; i++)
4381         if (TEST_HARD_REG_BIT (reload_reg_used_in_input_addr[i], regno)
4382             || TEST_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[i], regno)
4383             || TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[i], regno)
4384             || TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[i], regno)
4385             || TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno)
4386             || TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4387           return 0;
4388
4389       return 1;
4390
4391     case RELOAD_FOR_INPUT:
4392       if (TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno)
4393           || TEST_HARD_REG_BIT (reload_reg_used_in_op_addr, regno))
4394         return 0;
4395
4396       if (TEST_HARD_REG_BIT (reload_reg_used_in_op_addr_reload, regno))
4397         return 0;
4398
4399       /* If it is used for some other input, can't use it.  */
4400       for (i = 0; i < reload_n_operands; i++)
4401         if (TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4402           return 0;
4403
4404       /* If it is used in a later operand's address, can't use it.  */
4405       for (i = opnum + 1; i < reload_n_operands; i++)
4406         if (TEST_HARD_REG_BIT (reload_reg_used_in_input_addr[i], regno)
4407             || TEST_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[i], regno))
4408           return 0;
4409
4410       return 1;
4411
4412     case RELOAD_FOR_INPUT_ADDRESS:
4413       /* Can't use a register if it is used for an input address for this
4414          operand or used as an input in an earlier one.  */
4415       if (TEST_HARD_REG_BIT (reload_reg_used_in_input_addr[opnum], regno)
4416           || TEST_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[opnum], regno))
4417         return 0;
4418
4419       for (i = 0; i < opnum; i++)
4420         if (TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4421           return 0;
4422
4423       return 1;
4424
4425     case RELOAD_FOR_INPADDR_ADDRESS:
4426       /* Can't use a register if it is used for an input address
4427          for this operand or used as an input in an earlier
4428          one.  */
4429       if (TEST_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[opnum], regno))
4430         return 0;
4431
4432       for (i = 0; i < opnum; i++)
4433         if (TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4434           return 0;
4435
4436       return 1;
4437
4438     case RELOAD_FOR_OUTPUT_ADDRESS:
4439       /* Can't use a register if it is used for an output address for this
4440          operand or used as an output in this or a later operand.  Note
4441          that multiple output operands are emitted in reverse order, so
4442          the conflicting ones are those with lower indices.  */
4443       if (TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[opnum], regno))
4444         return 0;
4445
4446       for (i = 0; i <= opnum; i++)
4447         if (TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4448           return 0;
4449
4450       return 1;
4451
4452     case RELOAD_FOR_OUTADDR_ADDRESS:
4453       /* Can't use a register if it is used for an output address
4454          for this operand or used as an output in this or a
4455          later operand.  Note that multiple output operands are
4456          emitted in reverse order, so the conflicting ones are
4457          those with lower indices.  */
4458       if (TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[opnum], regno))
4459         return 0;
4460
4461       for (i = 0; i <= opnum; i++)
4462         if (TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4463           return 0;
4464
4465       return 1;
4466
4467     case RELOAD_FOR_OPERAND_ADDRESS:
4468       for (i = 0; i < reload_n_operands; i++)
4469         if (TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4470           return 0;
4471
4472       return (! TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno)
4473               && ! TEST_HARD_REG_BIT (reload_reg_used_in_op_addr, regno));
4474
4475     case RELOAD_FOR_OPADDR_ADDR:
4476       for (i = 0; i < reload_n_operands; i++)
4477         if (TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4478           return 0;
4479
4480       return (!TEST_HARD_REG_BIT (reload_reg_used_in_op_addr_reload, regno));
4481
4482     case RELOAD_FOR_OUTPUT:
4483       /* This cannot share a register with RELOAD_FOR_INSN reloads, other
4484          outputs, or an operand address for this or an earlier output.
4485          Note that multiple output operands are emitted in reverse order,
4486          so the conflicting ones are those with higher indices.  */
4487       if (TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno))
4488         return 0;
4489
4490       for (i = 0; i < reload_n_operands; i++)
4491         if (TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4492           return 0;
4493
4494       for (i = opnum; i < reload_n_operands; i++)
4495         if (TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[i], regno)
4496             || TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[i], regno))
4497           return 0;
4498
4499       return 1;
4500
4501     case RELOAD_FOR_INSN:
4502       for (i = 0; i < reload_n_operands; i++)
4503         if (TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno)
4504             || TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4505           return 0;
4506
4507       return (! TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno)
4508               && ! TEST_HARD_REG_BIT (reload_reg_used_in_op_addr, regno));
4509
4510     case RELOAD_FOR_OTHER_ADDRESS:
4511       return ! TEST_HARD_REG_BIT (reload_reg_used_in_other_addr, regno);
4512
4513     default:
4514       gcc_unreachable ();
4515     }
4516 }
4517
4518 /* Return 1 if the value in reload reg REGNO, as used by a reload
4519    needed for the part of the insn specified by OPNUM and TYPE,
4520    is still available in REGNO at the end of the insn.
4521
4522    We can assume that the reload reg was already tested for availability
4523    at the time it is needed, and we should not check this again,
4524    in case the reg has already been marked in use.  */
4525
4526 static int
4527 reload_reg_reaches_end_p (unsigned int regno, int opnum, enum reload_type type)
4528 {
4529   int i;
4530
4531   switch (type)
4532     {
4533     case RELOAD_OTHER:
4534       /* Since a RELOAD_OTHER reload claims the reg for the entire insn,
4535          its value must reach the end.  */
4536       return 1;
4537
4538       /* If this use is for part of the insn,
4539          its value reaches if no subsequent part uses the same register.
4540          Just like the above function, don't try to do this with lots
4541          of fallthroughs.  */
4542
4543     case RELOAD_FOR_OTHER_ADDRESS:
4544       /* Here we check for everything else, since these don't conflict
4545          with anything else and everything comes later.  */
4546
4547       for (i = 0; i < reload_n_operands; i++)
4548         if (TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[i], regno)
4549             || TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[i], regno)
4550             || TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno)
4551             || TEST_HARD_REG_BIT (reload_reg_used_in_input_addr[i], regno)
4552             || TEST_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[i], regno)
4553             || TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4554           return 0;
4555
4556       return (! TEST_HARD_REG_BIT (reload_reg_used_in_op_addr, regno)
4557               && ! TEST_HARD_REG_BIT (reload_reg_used_in_op_addr_reload, regno)
4558               && ! TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno)
4559               && ! TEST_HARD_REG_BIT (reload_reg_used, regno));
4560
4561     case RELOAD_FOR_INPUT_ADDRESS:
4562     case RELOAD_FOR_INPADDR_ADDRESS:
4563       /* Similar, except that we check only for this and subsequent inputs
4564          and the address of only subsequent inputs and we do not need
4565          to check for RELOAD_OTHER objects since they are known not to
4566          conflict.  */
4567
4568       for (i = opnum; i < reload_n_operands; i++)
4569         if (TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4570           return 0;
4571
4572       for (i = opnum + 1; i < reload_n_operands; i++)
4573         if (TEST_HARD_REG_BIT (reload_reg_used_in_input_addr[i], regno)
4574             || TEST_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[i], regno))
4575           return 0;
4576
4577       for (i = 0; i < reload_n_operands; i++)
4578         if (TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[i], regno)
4579             || TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[i], regno)
4580             || TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4581           return 0;
4582
4583       if (TEST_HARD_REG_BIT (reload_reg_used_in_op_addr_reload, regno))
4584         return 0;
4585
4586       return (!TEST_HARD_REG_BIT (reload_reg_used_in_op_addr, regno)
4587               && !TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno)
4588               && !TEST_HARD_REG_BIT (reload_reg_used, regno));
4589
4590     case RELOAD_FOR_INPUT:
4591       /* Similar to input address, except we start at the next operand for
4592          both input and input address and we do not check for
4593          RELOAD_FOR_OPERAND_ADDRESS and RELOAD_FOR_INSN since these
4594          would conflict.  */
4595
4596       for (i = opnum + 1; i < reload_n_operands; i++)
4597         if (TEST_HARD_REG_BIT (reload_reg_used_in_input_addr[i], regno)
4598             || TEST_HARD_REG_BIT (reload_reg_used_in_inpaddr_addr[i], regno)
4599             || TEST_HARD_REG_BIT (reload_reg_used_in_input[i], regno))
4600           return 0;
4601
4602       /* ... fall through ...  */
4603
4604     case RELOAD_FOR_OPERAND_ADDRESS:
4605       /* Check outputs and their addresses.  */
4606
4607       for (i = 0; i < reload_n_operands; i++)
4608         if (TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[i], regno)
4609             || TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[i], regno)
4610             || TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4611           return 0;
4612
4613       return (!TEST_HARD_REG_BIT (reload_reg_used, regno));
4614
4615     case RELOAD_FOR_OPADDR_ADDR:
4616       for (i = 0; i < reload_n_operands; i++)
4617         if (TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[i], regno)
4618             || TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[i], regno)
4619             || TEST_HARD_REG_BIT (reload_reg_used_in_output[i], regno))
4620           return 0;
4621
4622       return (!TEST_HARD_REG_BIT (reload_reg_used_in_op_addr, regno)
4623               && !TEST_HARD_REG_BIT (reload_reg_used_in_insn, regno)
4624               && !TEST_HARD_REG_BIT (reload_reg_used, regno));
4625
4626     case RELOAD_FOR_INSN:
4627       /* These conflict with other outputs with RELOAD_OTHER.  So
4628          we need only check for output addresses.  */
4629
4630       opnum = reload_n_operands;
4631
4632       /* ... fall through ...  */
4633
4634     case RELOAD_FOR_OUTPUT:
4635     case RELOAD_FOR_OUTPUT_ADDRESS:
4636     case RELOAD_FOR_OUTADDR_ADDRESS:
4637       /* We already know these can't conflict with a later output.  So the
4638          only thing to check are later output addresses.
4639          Note that multiple output operands are emitted in reverse order,
4640          so the conflicting ones are those with lower indices.  */
4641       for (i = 0; i < opnum; i++)
4642         if (TEST_HARD_REG_BIT (reload_reg_used_in_output_addr[i], regno)
4643             || TEST_HARD_REG_BIT (reload_reg_used_in_outaddr_addr[i], regno))
4644           return 0;
4645
4646       return 1;
4647
4648     default:
4649       gcc_unreachable ();
4650     }
4651 }
4652 \f
4653 /* Return 1 if the reloads denoted by R1 and R2 cannot share a register.
4654    Return 0 otherwise.
4655
4656    This function uses the same algorithm as reload_reg_free_p above.  */
4657
4658 static int
4659 reloads_conflict (int r1, int r2)
4660 {
4661   enum reload_type r1_type = rld[r1].when_needed;
4662   enum reload_type r2_type = rld[r2].when_needed;
4663   int r1_opnum = rld[r1].opnum;
4664   int r2_opnum = rld[r2].opnum;
4665
4666   /* RELOAD_OTHER conflicts with everything.  */
4667   if (r2_type == RELOAD_OTHER)
4668     return 1;
4669
4670   /* Otherwise, check conflicts differently for each type.  */
4671
4672   switch (r1_type)
4673     {
4674     case RELOAD_FOR_INPUT:
4675       return (r2_type == RELOAD_FOR_INSN
4676               || r2_type == RELOAD_FOR_OPERAND_ADDRESS
4677               || r2_type == RELOAD_FOR_OPADDR_ADDR
4678               || r2_type == RELOAD_FOR_INPUT
4679               || ((r2_type == RELOAD_FOR_INPUT_ADDRESS
4680                    || r2_type == RELOAD_FOR_INPADDR_ADDRESS)
4681                   && r2_opnum > r1_opnum));
4682
4683     case RELOAD_FOR_INPUT_ADDRESS:
4684       return ((r2_type == RELOAD_FOR_INPUT_ADDRESS && r1_opnum == r2_opnum)
4685               || (r2_type == RELOAD_FOR_INPUT && r2_opnum < r1_opnum));
4686
4687     case RELOAD_FOR_INPADDR_ADDRESS:
4688       return ((r2_type == RELOAD_FOR_INPADDR_ADDRESS && r1_opnum == r2_opnum)
4689               || (r2_type == RELOAD_FOR_INPUT && r2_opnum < r1_opnum));
4690
4691     case RELOAD_FOR_OUTPUT_ADDRESS:
4692       return ((r2_type == RELOAD_FOR_OUTPUT_ADDRESS && r2_opnum == r1_opnum)
4693               || (r2_type == RELOAD_FOR_OUTPUT && r2_opnum <= r1_opnum));
4694
4695     case RELOAD_FOR_OUTADDR_ADDRESS:
4696       return ((r2_type == RELOAD_FOR_OUTADDR_ADDRESS && r2_opnum == r1_opnum)
4697               || (r2_type == RELOAD_FOR_OUTPUT && r2_opnum <= r1_opnum));
4698
4699     case RELOAD_FOR_OPERAND_ADDRESS:
4700       return (r2_type == RELOAD_FOR_INPUT || r2_type == RELOAD_FOR_INSN
4701               || r2_type == RELOAD_FOR_OPERAND_ADDRESS);
4702
4703     case RELOAD_FOR_OPADDR_ADDR:
4704       return (r2_type == RELOAD_FOR_INPUT
4705               || r2_type == RELOAD_FOR_OPADDR_ADDR);
4706
4707     case RELOAD_FOR_OUTPUT:
4708       return (r2_type == RELOAD_FOR_INSN || r2_type == RELOAD_FOR_OUTPUT
4709               || ((r2_type == RELOAD_FOR_OUTPUT_ADDRESS
4710                    || r2_type == RELOAD_FOR_OUTADDR_ADDRESS)
4711                   && r2_opnum >= r1_opnum));
4712
4713     case RELOAD_FOR_INSN:
4714       return (r2_type == RELOAD_FOR_INPUT || r2_type == RELOAD_FOR_OUTPUT
4715               || r2_type == RELOAD_FOR_INSN
4716               || r2_type == RELOAD_FOR_OPERAND_ADDRESS);
4717
4718     case RELOAD_FOR_OTHER_ADDRESS:
4719       return r2_type == RELOAD_FOR_OTHER_ADDRESS;
4720
4721     case RELOAD_OTHER:
4722       return 1;
4723
4724     default:
4725       gcc_unreachable ();
4726     }
4727 }
4728 \f
4729 /* Indexed by reload number, 1 if incoming value
4730    inherited from previous insns.  */
4731 static char reload_inherited[MAX_RELOADS];
4732
4733 /* For an inherited reload, this is the insn the reload was inherited from,
4734    if we know it.  Otherwise, this is 0.  */
4735 static rtx reload_inheritance_insn[MAX_RELOADS];
4736
4737 /* If nonzero, this is a place to get the value of the reload,
4738    rather than using reload_in.  */
4739 static rtx reload_override_in[MAX_RELOADS];
4740
4741 /* For each reload, the hard register number of the register used,
4742    or -1 if we did not need a register for this reload.  */
4743 static int reload_spill_index[MAX_RELOADS];
4744
4745 /* Subroutine of free_for_value_p, used to check a single register.
4746    START_REGNO is the starting regno of the full reload register
4747    (possibly comprising multiple hard registers) that we are considering.  */
4748
4749 static int
4750 reload_reg_free_for_value_p (int start_regno, int regno, int opnum,
4751                              enum reload_type type, rtx value, rtx out,
4752                              int reloadnum, int ignore_address_reloads)
4753 {
4754   int time1;
4755   /* Set if we see an input reload that must not share its reload register
4756      with any new earlyclobber, but might otherwise share the reload
4757      register with an output or input-output reload.  */
4758   int check_earlyclobber = 0;
4759   int i;
4760   int copy = 0;
4761
4762   if (TEST_HARD_REG_BIT (reload_reg_unavailable, regno))
4763     return 0;
4764
4765   if (out == const0_rtx)
4766     {
4767       copy = 1;
4768       out = NULL_RTX;
4769     }
4770
4771   /* We use some pseudo 'time' value to check if the lifetimes of the
4772      new register use would overlap with the one of a previous reload
4773      that is not read-only or uses a different value.
4774      The 'time' used doesn't have to be linear in any shape or form, just
4775      monotonic.
4776      Some reload types use different 'buckets' for each operand.
4777      So there are MAX_RECOG_OPERANDS different time values for each
4778      such reload type.
4779      We compute TIME1 as the time when the register for the prospective
4780      new reload ceases to be live, and TIME2 for each existing
4781      reload as the time when that the reload register of that reload
4782      becomes live.
4783      Where there is little to be gained by exact lifetime calculations,
4784      we just make conservative assumptions, i.e. a longer lifetime;
4785      this is done in the 'default:' cases.  */
4786   switch (type)
4787     {
4788     case RELOAD_FOR_OTHER_ADDRESS:
4789       /* RELOAD_FOR_OTHER_ADDRESS conflicts with RELOAD_OTHER reloads.  */
4790       time1 = copy ? 0 : 1;
4791       break;
4792     case RELOAD_OTHER:
4793       time1 = copy ? 1 : MAX_RECOG_OPERANDS * 5 + 5;
4794       break;
4795       /* For each input, we may have a sequence of RELOAD_FOR_INPADDR_ADDRESS,
4796          RELOAD_FOR_INPUT_ADDRESS and RELOAD_FOR_INPUT.  By adding 0 / 1 / 2 ,
4797          respectively, to the time values for these, we get distinct time
4798          values.  To get distinct time values for each operand, we have to
4799          multiply opnum by at least three.  We round that up to four because
4800          multiply by four is often cheaper.  */
4801     case RELOAD_FOR_INPADDR_ADDRESS:
4802       time1 = opnum * 4 + 2;
4803       break;
4804     case RELOAD_FOR_INPUT_ADDRESS:
4805       time1 = opnum * 4 + 3;
4806       break;
4807     case RELOAD_FOR_INPUT:
4808       /* All RELOAD_FOR_INPUT reloads remain live till the instruction
4809          executes (inclusive).  */
4810       time1 = copy ? opnum * 4 + 4 : MAX_RECOG_OPERANDS * 4 + 3;
4811       break;
4812     case RELOAD_FOR_OPADDR_ADDR:
4813       /* opnum * 4 + 4
4814          <= (MAX_RECOG_OPERANDS - 1) * 4 + 4 == MAX_RECOG_OPERANDS * 4 */
4815       time1 = MAX_RECOG_OPERANDS * 4 + 1;
4816       break;
4817     case RELOAD_FOR_OPERAND_ADDRESS:
4818       /* RELOAD_FOR_OPERAND_ADDRESS reloads are live even while the insn
4819          is executed.  */
4820       time1 = copy ? MAX_RECOG_OPERANDS * 4 + 2 : MAX_RECOG_OPERANDS * 4 + 3;
4821       break;
4822     case RELOAD_FOR_OUTADDR_ADDRESS:
4823       time1 = MAX_RECOG_OPERANDS * 4 + 4 + opnum;
4824       break;
4825     case RELOAD_FOR_OUTPUT_ADDRESS:
4826       time1 = MAX_RECOG_OPERANDS * 4 + 5 + opnum;
4827       break;
4828     default:
4829       time1 = MAX_RECOG_OPERANDS * 5 + 5;
4830     }
4831
4832   for (i = 0; i < n_reloads; i++)
4833     {
4834       rtx reg = rld[i].reg_rtx;
4835       if (reg && REG_P (reg)
4836           && ((unsigned) regno - true_regnum (reg)
4837               <= hard_regno_nregs[REGNO (reg)][GET_MODE (reg)] - (unsigned) 1)
4838           && i != reloadnum)
4839         {
4840           rtx other_input = rld[i].in;
4841
4842           /* If the other reload loads the same input value, that
4843              will not cause a conflict only if it's loading it into
4844              the same register.  */
4845           if (true_regnum (reg) != start_regno)
4846             other_input = NULL_RTX;
4847           if (! other_input || ! rtx_equal_p (other_input, value)
4848               || rld[i].out || out)
4849             {
4850               int time2;
4851               switch (rld[i].when_needed)
4852                 {
4853                 case RELOAD_FOR_OTHER_ADDRESS:
4854                   time2 = 0;
4855                   break;
4856                 case RELOAD_FOR_INPADDR_ADDRESS:
4857                   /* find_reloads makes sure that a
4858                      RELOAD_FOR_{INP,OP,OUT}ADDR_ADDRESS reload is only used
4859                      by at most one - the first -
4860                      RELOAD_FOR_{INPUT,OPERAND,OUTPUT}_ADDRESS .  If the
4861                      address reload is inherited, the address address reload
4862                      goes away, so we can ignore this conflict.  */
4863                   if (type == RELOAD_FOR_INPUT_ADDRESS && reloadnum == i + 1
4864                       && ignore_address_reloads
4865                       /* Unless the RELOAD_FOR_INPUT is an auto_inc expression.
4866                          Then the address address is still needed to store
4867                          back the new address.  */
4868                       && ! rld[reloadnum].out)
4869                     continue;
4870                   /* Likewise, if a RELOAD_FOR_INPUT can inherit a value, its
4871                      RELOAD_FOR_INPUT_ADDRESS / RELOAD_FOR_INPADDR_ADDRESS
4872                      reloads go away.  */
4873                   if (type == RELOAD_FOR_INPUT && opnum == rld[i].opnum
4874                       && ignore_address_reloads
4875                       /* Unless we are reloading an auto_inc expression.  */
4876                       && ! rld[reloadnum].out)
4877                     continue;
4878                   time2 = rld[i].opnum * 4 + 2;
4879                   break;
4880                 case RELOAD_FOR_INPUT_ADDRESS:
4881                   if (type == RELOAD_FOR_INPUT && opnum == rld[i].opnum
4882                       && ignore_address_reloads
4883                       && ! rld[reloadnum].out)
4884                     continue;
4885                   time2 = rld[i].opnum * 4 + 3;
4886                   break;
4887                 case RELOAD_FOR_INPUT:
4888                   time2 = rld[i].opnum * 4 + 4;
4889                   check_earlyclobber = 1;
4890                   break;
4891                   /* rld[i].opnum * 4 + 4 <= (MAX_RECOG_OPERAND - 1) * 4 + 4
4892                      == MAX_RECOG_OPERAND * 4  */
4893                 case RELOAD_FOR_OPADDR_ADDR:
4894                   if (type == RELOAD_FOR_OPERAND_ADDRESS && reloadnum == i + 1
4895                       && ignore_address_reloads
4896                       && ! rld[reloadnum].out)
4897                     continue;
4898                   time2 = MAX_RECOG_OPERANDS * 4 + 1;
4899                   break;
4900                 case RELOAD_FOR_OPERAND_ADDRESS:
4901                   time2 = MAX_RECOG_OPERANDS * 4 + 2;
4902                   check_earlyclobber = 1;
4903                   break;
4904                 case RELOAD_FOR_INSN:
4905                   time2 = MAX_RECOG_OPERANDS * 4 + 3;
4906                   break;
4907                 case RELOAD_FOR_OUTPUT:
4908                   /* All RELOAD_FOR_OUTPUT reloads become live just after the
4909                      instruction is executed.  */
4910                   time2 = MAX_RECOG_OPERANDS * 4 + 4;
4911                   break;
4912                   /* The first RELOAD_FOR_OUTADDR_ADDRESS reload conflicts with
4913                      the RELOAD_FOR_OUTPUT reloads, so assign it the same time
4914                      value.  */
4915                 case RELOAD_FOR_OUTADDR_ADDRESS:
4916                   if (type == RELOAD_FOR_OUTPUT_ADDRESS && reloadnum == i + 1
4917                       && ignore_address_reloads
4918                       && ! rld[reloadnum].out)
4919                     continue;
4920                   time2 = MAX_RECOG_OPERANDS * 4 + 4 + rld[i].opnum;
4921                   break;
4922                 case RELOAD_FOR_OUTPUT_ADDRESS:
4923                   time2 = MAX_RECOG_OPERANDS * 4 + 5 + rld[i].opnum;
4924                   break;
4925                 case RELOAD_OTHER:
4926                   /* If there is no conflict in the input part, handle this
4927                      like an output reload.  */
4928                   if (! rld[i].in || rtx_equal_p (other_input, value))
4929                     {
4930                       time2 = MAX_RECOG_OPERANDS * 4 + 4;
4931                       /* Earlyclobbered outputs must conflict with inputs.  */
4932                       if (earlyclobber_operand_p (rld[i].out))
4933                         time2 = MAX_RECOG_OPERANDS * 4 + 3;
4934
4935                       break;
4936                     }
4937                   time2 = 1;
4938                   /* RELOAD_OTHER might be live beyond instruction execution,
4939                      but this is not obvious when we set time2 = 1.  So check
4940                      here if there might be a problem with the new reload
4941                      clobbering the register used by the RELOAD_OTHER.  */
4942                   if (out)
4943                     return 0;
4944                   break;
4945                 default:
4946                   return 0;
4947                 }
4948               if ((time1 >= time2
4949                    && (! rld[i].in || rld[i].out
4950                        || ! rtx_equal_p (other_input, value)))
4951                   || (out && rld[reloadnum].out_reg
4952                       && time2 >= MAX_RECOG_OPERANDS * 4 + 3))
4953                 return 0;
4954             }
4955         }
4956     }
4957
4958   /* Earlyclobbered outputs must conflict with inputs.  */
4959   if (check_earlyclobber && out && earlyclobber_operand_p (out))
4960     return 0;
4961
4962   return 1;
4963 }
4964
4965 /* Return 1 if the value in reload reg REGNO, as used by a reload
4966    needed for the part of the insn specified by OPNUM and TYPE,
4967    may be used to load VALUE into it.
4968
4969    MODE is the mode in which the register is used, this is needed to
4970    determine how many hard regs to test.
4971
4972    Other read-only reloads with the same value do not conflict
4973    unless OUT is nonzero and these other reloads have to live while
4974    output reloads live.
4975    If OUT is CONST0_RTX, this is a special case: it means that the
4976    test should not be for using register REGNO as reload register, but
4977    for copying from register REGNO into the reload register.
4978
4979    RELOADNUM is the number of the reload we want to load this value for;
4980    a reload does not conflict with itself.
4981
4982    When IGNORE_ADDRESS_RELOADS is set, we can not have conflicts with
4983    reloads that load an address for the very reload we are considering.
4984
4985    The caller has to make sure that there is no conflict with the return
4986    register.  */
4987
4988 static int
4989 free_for_value_p (int regno, enum machine_mode mode, int opnum,
4990                   enum reload_type type, rtx value, rtx out, int reloadnum,
4991                   int ignore_address_reloads)
4992 {
4993   int nregs = hard_regno_nregs[regno][mode];
4994   while (nregs-- > 0)
4995     if (! reload_reg_free_for_value_p (regno, regno + nregs, opnum, type,
4996                                        value, out, reloadnum,
4997                                        ignore_address_reloads))
4998       return 0;
4999   return 1;
5000 }
5001
5002 /* Return nonzero if the rtx X is invariant over the current function.  */
5003 /* ??? Actually, the places where we use this expect exactly what is
5004    tested here, and not everything that is function invariant.  In
5005    particular, the frame pointer and arg pointer are special cased;
5006    pic_offset_table_rtx is not, and we must not spill these things to
5007    memory.  */
5008
5009 int
5010 function_invariant_p (rtx x)
5011 {
5012   if (CONSTANT_P (x))
5013     return 1;
5014   if (x == frame_pointer_rtx || x == arg_pointer_rtx)
5015     return 1;
5016   if (GET_CODE (x) == PLUS
5017       && (XEXP (x, 0) == frame_pointer_rtx || XEXP (x, 0) == arg_pointer_rtx)
5018       && CONSTANT_P (XEXP (x, 1)))
5019     return 1;
5020   return 0;
5021 }
5022
5023 /* Determine whether the reload reg X overlaps any rtx'es used for
5024    overriding inheritance.  Return nonzero if so.  */
5025
5026 static int
5027 conflicts_with_override (rtx x)
5028 {
5029   int i;
5030   for (i = 0; i < n_reloads; i++)
5031     if (reload_override_in[i]
5032         && reg_overlap_mentioned_p (x, reload_override_in[i]))
5033       return 1;
5034   return 0;
5035 }
5036 \f
5037 /* Give an error message saying we failed to find a reload for INSN,
5038    and clear out reload R.  */
5039 static void
5040 failed_reload (rtx insn, int r)
5041 {
5042   if (asm_noperands (PATTERN (insn)) < 0)
5043     /* It's the compiler's fault.  */
5044     fatal_insn ("could not find a spill register", insn);
5045
5046   /* It's the user's fault; the operand's mode and constraint
5047      don't match.  Disable this reload so we don't crash in final.  */
5048   error_for_asm (insn,
5049                  "%<asm%> operand constraint incompatible with operand size");
5050   rld[r].in = 0;
5051   rld[r].out = 0;
5052   rld[r].reg_rtx = 0;
5053   rld[r].optional = 1;
5054   rld[r].secondary_p = 1;
5055 }
5056
5057 /* I is the index in SPILL_REG_RTX of the reload register we are to allocate
5058    for reload R.  If it's valid, get an rtx for it.  Return nonzero if
5059    successful.  */
5060 static int
5061 set_reload_reg (int i, int r)
5062 {
5063   int regno;
5064   rtx reg = spill_reg_rtx[i];
5065
5066   if (reg == 0 || GET_MODE (reg) != rld[r].mode)
5067     spill_reg_rtx[i] = reg
5068       = gen_rtx_REG (rld[r].mode, spill_regs[i]);
5069
5070   regno = true_regnum (reg);
5071
5072   /* Detect when the reload reg can't hold the reload mode.
5073      This used to be one `if', but Sequent compiler can't handle that.  */
5074   if (HARD_REGNO_MODE_OK (regno, rld[r].mode))
5075     {
5076       enum machine_mode test_mode = VOIDmode;
5077       if (rld[r].in)
5078         test_mode = GET_MODE (rld[r].in);
5079       /* If rld[r].in has VOIDmode, it means we will load it
5080          in whatever mode the reload reg has: to wit, rld[r].mode.
5081          We have already tested that for validity.  */
5082       /* Aside from that, we need to test that the expressions
5083          to reload from or into have modes which are valid for this
5084          reload register.  Otherwise the reload insns would be invalid.  */
5085       if (! (rld[r].in != 0 && test_mode != VOIDmode
5086              && ! HARD_REGNO_MODE_OK (regno, test_mode)))
5087         if (! (rld[r].out != 0
5088                && ! HARD_REGNO_MODE_OK (regno, GET_MODE (rld[r].out))))
5089           {
5090             /* The reg is OK.  */
5091             last_spill_reg = i;
5092
5093             /* Mark as in use for this insn the reload regs we use
5094                for this.  */
5095             mark_reload_reg_in_use (spill_regs[i], rld[r].opnum,
5096                                     rld[r].when_needed, rld[r].mode);
5097
5098             rld[r].reg_rtx = reg;
5099             reload_spill_index[r] = spill_regs[i];
5100             return 1;
5101           }
5102     }
5103   return 0;
5104 }
5105
5106 /* Find a spill register to use as a reload register for reload R.
5107    LAST_RELOAD is nonzero if this is the last reload for the insn being
5108    processed.
5109
5110    Set rld[R].reg_rtx to the register allocated.
5111
5112    We return 1 if successful, or 0 if we couldn't find a spill reg and
5113    we didn't change anything.  */
5114
5115 static int
5116 allocate_reload_reg (struct insn_chain *chain ATTRIBUTE_UNUSED, int r,
5117                      int last_reload)
5118 {
5119   int i, pass, count;
5120
5121   /* If we put this reload ahead, thinking it is a group,
5122      then insist on finding a group.  Otherwise we can grab a
5123      reg that some other reload needs.
5124      (That can happen when we have a 68000 DATA_OR_FP_REG
5125      which is a group of data regs or one fp reg.)
5126      We need not be so restrictive if there are no more reloads
5127      for this insn.
5128
5129      ??? Really it would be nicer to have smarter handling
5130      for that kind of reg class, where a problem like this is normal.
5131      Perhaps those classes should be avoided for reloading
5132      by use of more alternatives.  */
5133
5134   int force_group = rld[r].nregs > 1 && ! last_reload;
5135
5136   /* If we want a single register and haven't yet found one,
5137      take any reg in the right class and not in use.
5138      If we want a consecutive group, here is where we look for it.
5139
5140      We use two passes so we can first look for reload regs to
5141      reuse, which are already in use for other reloads in this insn,
5142      and only then use additional registers.
5143      I think that maximizing reuse is needed to make sure we don't
5144      run out of reload regs.  Suppose we have three reloads, and
5145      reloads A and B can share regs.  These need two regs.
5146      Suppose A and B are given different regs.
5147      That leaves none for C.  */
5148   for (pass = 0; pass < 2; pass++)
5149     {
5150       /* I is the index in spill_regs.
5151          We advance it round-robin between insns to use all spill regs
5152          equally, so that inherited reloads have a chance
5153          of leapfrogging each other.  */
5154
5155       i = last_spill_reg;
5156
5157       for (count = 0; count < n_spills; count++)
5158         {
5159           int class = (int) rld[r].class;
5160           int regnum;
5161
5162           i++;
5163           if (i >= n_spills)
5164             i -= n_spills;
5165           regnum = spill_regs[i];
5166
5167           if ((reload_reg_free_p (regnum, rld[r].opnum,
5168                                   rld[r].when_needed)
5169                || (rld[r].in
5170                    /* We check reload_reg_used to make sure we
5171                       don't clobber the return register.  */
5172                    && ! TEST_HARD_REG_BIT (reload_reg_used, regnum)
5173                    && free_for_value_p (regnum, rld[r].mode, rld[r].opnum,
5174                                         rld[r].when_needed, rld[r].in,
5175                                         rld[r].out, r, 1)))
5176               && TEST_HARD_REG_BIT (reg_class_contents[class], regnum)
5177               && HARD_REGNO_MODE_OK (regnum, rld[r].mode)
5178               /* Look first for regs to share, then for unshared.  But
5179                  don't share regs used for inherited reloads; they are
5180                  the ones we want to preserve.  */
5181               && (pass
5182                   || (TEST_HARD_REG_BIT (reload_reg_used_at_all,
5183                                          regnum)
5184                       && ! TEST_HARD_REG_BIT (reload_reg_used_for_inherit,
5185                                               regnum))))
5186             {
5187               int nr = hard_regno_nregs[regnum][rld[r].mode];
5188               /* Avoid the problem where spilling a GENERAL_OR_FP_REG
5189                  (on 68000) got us two FP regs.  If NR is 1,
5190                  we would reject both of them.  */
5191               if (force_group)
5192                 nr = rld[r].nregs;
5193               /* If we need only one reg, we have already won.  */
5194               if (nr == 1)
5195                 {
5196                   /* But reject a single reg if we demand a group.  */
5197                   if (force_group)
5198                     continue;
5199                   break;
5200                 }
5201               /* Otherwise check that as many consecutive regs as we need
5202                  are available here.  */
5203               while (nr > 1)
5204                 {
5205                   int regno = regnum + nr - 1;
5206                   if (!(TEST_HARD_REG_BIT (reg_class_contents[class], regno)
5207                         && spill_reg_order[regno] >= 0
5208                         && reload_reg_free_p (regno, rld[r].opnum,
5209                                               rld[r].when_needed)))
5210                     break;
5211                   nr--;
5212                 }
5213               if (nr == 1)
5214                 break;
5215             }
5216         }
5217
5218       /* If we found something on pass 1, omit pass 2.  */
5219       if (count < n_spills)
5220         break;
5221     }
5222
5223   /* We should have found a spill register by now.  */
5224   if (count >= n_spills)
5225     return 0;
5226
5227   /* I is the index in SPILL_REG_RTX of the reload register we are to
5228      allocate.  Get an rtx for it and find its register number.  */
5229
5230   return set_reload_reg (i, r);
5231 }
5232 \f
5233 /* Initialize all the tables needed to allocate reload registers.
5234    CHAIN is the insn currently being processed; SAVE_RELOAD_REG_RTX
5235    is the array we use to restore the reg_rtx field for every reload.  */
5236
5237 static void
5238 choose_reload_regs_init (struct insn_chain *chain, rtx *save_reload_reg_rtx)
5239 {
5240   int i;
5241
5242   for (i = 0; i < n_reloads; i++)
5243     rld[i].reg_rtx = save_reload_reg_rtx[i];
5244
5245   memset (reload_inherited, 0, MAX_RELOADS);
5246   memset (reload_inheritance_insn, 0, MAX_RELOADS * sizeof (rtx));
5247   memset (reload_override_in, 0, MAX_RELOADS * sizeof (rtx));
5248
5249   CLEAR_HARD_REG_SET (reload_reg_used);
5250   CLEAR_HARD_REG_SET (reload_reg_used_at_all);
5251   CLEAR_HARD_REG_SET (reload_reg_used_in_op_addr);
5252   CLEAR_HARD_REG_SET (reload_reg_used_in_op_addr_reload);
5253   CLEAR_HARD_REG_SET (reload_reg_used_in_insn);
5254   CLEAR_HARD_REG_SET (reload_reg_used_in_other_addr);
5255
5256   CLEAR_HARD_REG_SET (reg_used_in_insn);
5257   {
5258     HARD_REG_SET tmp;
5259     REG_SET_TO_HARD_REG_SET (tmp, &chain->live_throughout);
5260     IOR_HARD_REG_SET (reg_used_in_insn, tmp);
5261     REG_SET_TO_HARD_REG_SET (tmp, &chain->dead_or_set);
5262     IOR_HARD_REG_SET (reg_used_in_insn, tmp);
5263     compute_use_by_pseudos (&reg_used_in_insn, &chain->live_throughout);
5264     compute_use_by_pseudos (&reg_used_in_insn, &chain->dead_or_set);
5265   }
5266
5267   for (i = 0; i < reload_n_operands; i++)
5268     {
5269       CLEAR_HARD_REG_SET (reload_reg_used_in_output[i]);
5270       CLEAR_HARD_REG_SET (reload_reg_used_in_input[i]);
5271       CLEAR_HARD_REG_SET (reload_reg_used_in_input_addr[i]);
5272       CLEAR_HARD_REG_SET (reload_reg_used_in_inpaddr_addr[i]);
5273       CLEAR_HARD_REG_SET (reload_reg_used_in_output_addr[i]);
5274       CLEAR_HARD_REG_SET (reload_reg_used_in_outaddr_addr[i]);
5275     }
5276
5277   COMPL_HARD_REG_SET (reload_reg_unavailable, chain->used_spill_regs);
5278
5279   CLEAR_HARD_REG_SET (reload_reg_used_for_inherit);
5280
5281   for (i = 0; i < n_reloads; i++)
5282     /* If we have already decided to use a certain register,
5283        don't use it in another way.  */
5284     if (rld[i].reg_rtx)
5285       mark_reload_reg_in_use (REGNO (rld[i].reg_rtx), rld[i].opnum,
5286                               rld[i].when_needed, rld[i].mode);
5287 }
5288
5289 /* Assign hard reg targets for the pseudo-registers we must reload
5290    into hard regs for this insn.
5291    Also output the instructions to copy them in and out of the hard regs.
5292
5293    For machines with register classes, we are responsible for
5294    finding a reload reg in the proper class.  */
5295
5296 static void
5297 choose_reload_regs (struct insn_chain *chain)
5298 {
5299   rtx insn = chain->insn;
5300   int i, j;
5301   unsigned int max_group_size = 1;
5302   enum reg_class group_class = NO_REGS;
5303   int pass, win, inheritance;
5304
5305   rtx save_reload_reg_rtx[MAX_RELOADS];
5306
5307   /* In order to be certain of getting the registers we need,
5308      we must sort the reloads into order of increasing register class.
5309      Then our grabbing of reload registers will parallel the process
5310      that provided the reload registers.
5311
5312      Also note whether any of the reloads wants a consecutive group of regs.
5313      If so, record the maximum size of the group desired and what
5314      register class contains all the groups needed by this insn.  */
5315
5316   for (j = 0; j < n_reloads; j++)
5317     {
5318       reload_order[j] = j;
5319       reload_spill_index[j] = -1;
5320
5321       if (rld[j].nregs > 1)
5322         {
5323           max_group_size = MAX (rld[j].nregs, max_group_size);
5324           group_class
5325             = reg_class_superunion[(int) rld[j].class][(int) group_class];
5326         }
5327
5328       save_reload_reg_rtx[j] = rld[j].reg_rtx;
5329     }
5330
5331   if (n_reloads > 1)
5332     qsort (reload_order, n_reloads, sizeof (short), reload_reg_class_lower);
5333
5334   /* If -O, try first with inheritance, then turning it off.
5335      If not -O, don't do inheritance.
5336      Using inheritance when not optimizing leads to paradoxes
5337      with fp on the 68k: fp numbers (not NaNs) fail to be equal to themselves
5338      because one side of the comparison might be inherited.  */
5339   win = 0;
5340   for (inheritance = optimize > 0; inheritance >= 0; inheritance--)
5341     {
5342       choose_reload_regs_init (chain, save_reload_reg_rtx);
5343
5344       /* Process the reloads in order of preference just found.
5345          Beyond this point, subregs can be found in reload_reg_rtx.
5346
5347          This used to look for an existing reloaded home for all of the
5348          reloads, and only then perform any new reloads.  But that could lose
5349          if the reloads were done out of reg-class order because a later
5350          reload with a looser constraint might have an old home in a register
5351          needed by an earlier reload with a tighter constraint.
5352
5353          To solve this, we make two passes over the reloads, in the order
5354          described above.  In the first pass we try to inherit a reload
5355          from a previous insn.  If there is a later reload that needs a
5356          class that is a proper subset of the class being processed, we must
5357          also allocate a spill register during the first pass.
5358
5359          Then make a second pass over the reloads to allocate any reloads
5360          that haven't been given registers yet.  */
5361
5362       for (j = 0; j < n_reloads; j++)
5363         {
5364           int r = reload_order[j];
5365           rtx search_equiv = NULL_RTX;
5366
5367           /* Ignore reloads that got marked inoperative.  */
5368           if (rld[r].out == 0 && rld[r].in == 0
5369               && ! rld[r].secondary_p)
5370             continue;
5371
5372           /* If find_reloads chose to use reload_in or reload_out as a reload
5373              register, we don't need to chose one.  Otherwise, try even if it
5374              found one since we might save an insn if we find the value lying
5375              around.
5376              Try also when reload_in is a pseudo without a hard reg.  */
5377           if (rld[r].in != 0 && rld[r].reg_rtx != 0
5378               && (rtx_equal_p (rld[r].in, rld[r].reg_rtx)
5379                   || (rtx_equal_p (rld[r].out, rld[r].reg_rtx)
5380                       && !MEM_P (rld[r].in)
5381                       && true_regnum (rld[r].in) < FIRST_PSEUDO_REGISTER)))
5382             continue;
5383
5384 #if 0 /* No longer needed for correct operation.
5385          It might give better code, or might not; worth an experiment?  */
5386           /* If this is an optional reload, we can't inherit from earlier insns
5387              until we are sure that any non-optional reloads have been allocated.
5388              The following code takes advantage of the fact that optional reloads
5389              are at the end of reload_order.  */
5390           if (rld[r].optional != 0)
5391             for (i = 0; i < j; i++)
5392               if ((rld[reload_order[i]].out != 0
5393                    || rld[reload_order[i]].in != 0
5394                    || rld[reload_order[i]].secondary_p)
5395                   && ! rld[reload_order[i]].optional
5396                   && rld[reload_order[i]].reg_rtx == 0)
5397                 allocate_reload_reg (chain, reload_order[i], 0);
5398 #endif
5399
5400           /* First see if this pseudo is already available as reloaded
5401              for a previous insn.  We cannot try to inherit for reloads
5402              that are smaller than the maximum number of registers needed
5403              for groups unless the register we would allocate cannot be used
5404              for the groups.
5405
5406              We could check here to see if this is a secondary reload for
5407              an object that is already in a register of the desired class.
5408              This would avoid the need for the secondary reload register.
5409              But this is complex because we can't easily determine what
5410              objects might want to be loaded via this reload.  So let a
5411              register be allocated here.  In `emit_reload_insns' we suppress
5412              one of the loads in the case described above.  */
5413
5414           if (inheritance)
5415             {
5416               int byte = 0;
5417               int regno = -1;
5418               enum machine_mode mode = VOIDmode;
5419
5420               if (rld[r].in == 0)
5421                 ;
5422               else if (REG_P (rld[r].in))
5423                 {
5424                   regno = REGNO (rld[r].in);
5425                   mode = GET_MODE (rld[r].in);
5426                 }
5427               else if (REG_P (rld[r].in_reg))
5428                 {
5429                   regno = REGNO (rld[r].in_reg);
5430                   mode = GET_MODE (rld[r].in_reg);
5431                 }
5432               else if (GET_CODE (rld[r].in_reg) == SUBREG
5433                        && REG_P (SUBREG_REG (rld[r].in_reg)))
5434                 {
5435                   byte = SUBREG_BYTE (rld[r].in_reg);
5436                   regno = REGNO (SUBREG_REG (rld[r].in_reg));
5437                   if (regno < FIRST_PSEUDO_REGISTER)
5438                     regno = subreg_regno (rld[r].in_reg);
5439                   mode = GET_MODE (rld[r].in_reg);
5440                 }
5441 #ifdef AUTO_INC_DEC
5442               else if ((GET_CODE (rld[r].in_reg) == PRE_INC
5443                         || GET_CODE (rld[r].in_reg) == PRE_DEC
5444                         || GET_CODE (rld[r].in_reg) == POST_INC
5445                         || GET_CODE (rld[r].in_reg) == POST_DEC)
5446                        && REG_P (XEXP (rld[r].in_reg, 0)))
5447                 {
5448                   regno = REGNO (XEXP (rld[r].in_reg, 0));
5449                   mode = GET_MODE (XEXP (rld[r].in_reg, 0));
5450                   rld[r].out = rld[r].in;
5451                 }
5452 #endif
5453 #if 0
5454               /* This won't work, since REGNO can be a pseudo reg number.
5455                  Also, it takes much more hair to keep track of all the things
5456                  that can invalidate an inherited reload of part of a pseudoreg.  */
5457               else if (GET_CODE (rld[r].in) == SUBREG
5458                        && REG_P (SUBREG_REG (rld[r].in)))
5459                 regno = subreg_regno (rld[r].in);
5460 #endif
5461
5462               if (regno >= 0 && reg_last_reload_reg[regno] != 0)
5463                 {
5464                   enum reg_class class = rld[r].class, last_class;
5465                   rtx last_reg = reg_last_reload_reg[regno];
5466                   enum machine_mode need_mode;
5467
5468                   i = REGNO (last_reg);
5469                   i += subreg_regno_offset (i, GET_MODE (last_reg), byte, mode);
5470                   last_class = REGNO_REG_CLASS (i);
5471
5472                   if (byte == 0)
5473                     need_mode = mode;
5474                   else
5475                     need_mode
5476                       = smallest_mode_for_size (GET_MODE_BITSIZE (mode)
5477                                                 + byte * BITS_PER_UNIT,
5478                                                 GET_MODE_CLASS (mode));
5479
5480                   if ((GET_MODE_SIZE (GET_MODE (last_reg))
5481                        >= GET_MODE_SIZE (need_mode))
5482 #ifdef CANNOT_CHANGE_MODE_CLASS
5483                       /* Verify that the register in "i" can be obtained
5484                          from LAST_REG.  */
5485                       && !REG_CANNOT_CHANGE_MODE_P (REGNO (last_reg),
5486                                                     GET_MODE (last_reg),
5487                                                     mode)
5488 #endif
5489                       && reg_reloaded_contents[i] == regno
5490                       && TEST_HARD_REG_BIT (reg_reloaded_valid, i)
5491                       && HARD_REGNO_MODE_OK (i, rld[r].mode)
5492                       && (TEST_HARD_REG_BIT (reg_class_contents[(int) class], i)
5493                           /* Even if we can't use this register as a reload
5494                              register, we might use it for reload_override_in,
5495                              if copying it to the desired class is cheap
5496                              enough.  */
5497                           || ((REGISTER_MOVE_COST (mode, last_class, class)
5498                                < MEMORY_MOVE_COST (mode, class, 1))
5499 #ifdef SECONDARY_INPUT_RELOAD_CLASS
5500                               && (SECONDARY_INPUT_RELOAD_CLASS (class, mode,
5501                                                                 last_reg)
5502                                   == NO_REGS)
5503 #endif
5504 #ifdef SECONDARY_MEMORY_NEEDED
5505                               && ! SECONDARY_MEMORY_NEEDED (last_class, class,
5506                                                             mode)
5507 #endif
5508                               ))
5509
5510                       && (rld[r].nregs == max_group_size
5511                           || ! TEST_HARD_REG_BIT (reg_class_contents[(int) group_class],
5512                                                   i))
5513                       && free_for_value_p (i, rld[r].mode, rld[r].opnum,
5514                                            rld[r].when_needed, rld[r].in,
5515                                            const0_rtx, r, 1))
5516                     {
5517                       /* If a group is needed, verify that all the subsequent
5518                          registers still have their values intact.  */
5519                       int nr = hard_regno_nregs[i][rld[r].mode];
5520                       int k;
5521
5522                       for (k = 1; k < nr; k++)
5523                         if (reg_reloaded_contents[i + k] != regno
5524                             || ! TEST_HARD_REG_BIT (reg_reloaded_valid, i + k))
5525                           break;
5526
5527                       if (k == nr)
5528                         {
5529                           int i1;
5530                           int bad_for_class;
5531
5532                           last_reg = (GET_MODE (last_reg) == mode
5533                                       ? last_reg : gen_rtx_REG (mode, i));
5534
5535                           bad_for_class = 0;
5536                           for (k = 0; k < nr; k++)
5537                             bad_for_class |= ! TEST_HARD_REG_BIT (reg_class_contents[(int) rld[r].class],
5538                                                                   i+k);
5539
5540                           /* We found a register that contains the
5541                              value we need.  If this register is the
5542                              same as an `earlyclobber' operand of the
5543                              current insn, just mark it as a place to
5544                              reload from since we can't use it as the
5545                              reload register itself.  */
5546
5547                           for (i1 = 0; i1 < n_earlyclobbers; i1++)
5548                             if (reg_overlap_mentioned_for_reload_p
5549                                 (reg_last_reload_reg[regno],
5550                                  reload_earlyclobbers[i1]))
5551                               break;
5552
5553                           if (i1 != n_earlyclobbers
5554                               || ! (free_for_value_p (i, rld[r].mode,
5555                                                       rld[r].opnum,
5556                                                       rld[r].when_needed, rld[r].in,
5557                                                       rld[r].out, r, 1))
5558                               /* Don't use it if we'd clobber a pseudo reg.  */
5559                               || (TEST_HARD_REG_BIT (reg_used_in_insn, i)
5560                                   && rld[r].out
5561                                   && ! TEST_HARD_REG_BIT (reg_reloaded_dead, i))
5562                               /* Don't clobber the frame pointer.  */
5563                               || (i == HARD_FRAME_POINTER_REGNUM
5564                                   && frame_pointer_needed
5565                                   && rld[r].out)
5566                               /* Don't really use the inherited spill reg
5567                                  if we need it wider than we've got it.  */
5568                               || (GET_MODE_SIZE (rld[r].mode)
5569                                   > GET_MODE_SIZE (mode))
5570                               || bad_for_class
5571
5572                               /* If find_reloads chose reload_out as reload
5573                                  register, stay with it - that leaves the
5574                                  inherited register for subsequent reloads.  */
5575                               || (rld[r].out && rld[r].reg_rtx
5576                                   && rtx_equal_p (rld[r].out, rld[r].reg_rtx)))
5577                             {
5578                               if (! rld[r].optional)
5579                                 {
5580                                   reload_override_in[r] = last_reg;
5581                                   reload_inheritance_insn[r]
5582                                     = reg_reloaded_insn[i];
5583                                 }
5584                             }
5585                           else
5586                             {
5587                               int k;
5588                               /* We can use this as a reload reg.  */
5589                               /* Mark the register as in use for this part of
5590                                  the insn.  */
5591                               mark_reload_reg_in_use (i,
5592                                                       rld[r].opnum,
5593                                                       rld[r].when_needed,
5594                                                       rld[r].mode);
5595                               rld[r].reg_rtx = last_reg;
5596                               reload_inherited[r] = 1;
5597                               reload_inheritance_insn[r]
5598                                 = reg_reloaded_insn[i];
5599                               reload_spill_index[r] = i;
5600                               for (k = 0; k < nr; k++)
5601                                 SET_HARD_REG_BIT (reload_reg_used_for_inherit,
5602                                                   i + k);
5603                             }
5604                         }
5605                     }
5606                 }
5607             }
5608
5609           /* Here's another way to see if the value is already lying around.  */
5610           if (inheritance
5611               && rld[r].in != 0
5612               && ! reload_inherited[r]
5613               && rld[r].out == 0
5614               && (CONSTANT_P (rld[r].in)
5615                   || GET_CODE (rld[r].in) == PLUS
5616                   || REG_P (rld[r].in)
5617                   || MEM_P (rld[r].in))
5618               && (rld[r].nregs == max_group_size
5619                   || ! reg_classes_intersect_p (rld[r].class, group_class)))
5620             search_equiv = rld[r].in;
5621           /* If this is an output reload from a simple move insn, look
5622              if an equivalence for the input is available.  */
5623           else if (inheritance && rld[r].in == 0 && rld[r].out != 0)
5624             {
5625               rtx set = single_set (insn);
5626
5627               if (set
5628                   && rtx_equal_p (rld[r].out, SET_DEST (set))
5629                   && CONSTANT_P (SET_SRC (set)))
5630                 search_equiv = SET_SRC (set);
5631             }
5632
5633           if (search_equiv)
5634             {
5635               rtx equiv
5636                 = find_equiv_reg (search_equiv, insn, rld[r].class,
5637                                   -1, NULL, 0, rld[r].mode);
5638               int regno = 0;
5639
5640               if (equiv != 0)
5641                 {
5642                   if (REG_P (equiv))
5643                     regno = REGNO (equiv);
5644                   else
5645                     {
5646                       /* This must be a SUBREG of a hard register.
5647                          Make a new REG since this might be used in an
5648                          address and not all machines support SUBREGs
5649                          there.  */
5650                       gcc_assert (GET_CODE (equiv) == SUBREG);
5651                       regno = subreg_regno (equiv);
5652                       equiv = gen_rtx_REG (rld[r].mode, regno);
5653                       /* If we choose EQUIV as the reload register, but the
5654                          loop below decides to cancel the inheritance, we'll
5655                          end up reloading EQUIV in rld[r].mode, not the mode
5656                          it had originally.  That isn't safe when EQUIV isn't
5657                          available as a spill register since its value might
5658                          still be live at this point.  */
5659                       for (i = regno; i < regno + (int) rld[r].nregs; i++)
5660                         if (TEST_HARD_REG_BIT (reload_reg_unavailable, i))
5661                           equiv = 0;
5662                     }
5663                 }
5664
5665               /* If we found a spill reg, reject it unless it is free
5666                  and of the desired class.  */
5667               if (equiv != 0)
5668                 {
5669                   int regs_used = 0;
5670                   int bad_for_class = 0;
5671                   int max_regno = regno + rld[r].nregs;
5672
5673                   for (i = regno; i < max_regno; i++)
5674                     {
5675                       regs_used |= TEST_HARD_REG_BIT (reload_reg_used_at_all,
5676                                                       i);
5677                       bad_for_class |= ! TEST_HARD_REG_BIT (reg_class_contents[(int) rld[r].class],
5678                                                            i);
5679                     }
5680
5681                   if ((regs_used
5682                        && ! free_for_value_p (regno, rld[r].mode,
5683                                               rld[r].opnum, rld[r].when_needed,
5684                                               rld[r].in, rld[r].out, r, 1))
5685                       || bad_for_class)
5686                     equiv = 0;
5687                 }
5688
5689               if (equiv != 0 && ! HARD_REGNO_MODE_OK (regno, rld[r].mode))
5690                 equiv = 0;
5691
5692               /* We found a register that contains the value we need.
5693                  If this register is the same as an `earlyclobber' operand
5694                  of the current insn, just mark it as a place to reload from
5695                  since we can't use it as the reload register itself.  */
5696
5697               if (equiv != 0)
5698                 for (i = 0; i < n_earlyclobbers; i++)
5699                   if (reg_overlap_mentioned_for_reload_p (equiv,
5700                                                           reload_earlyclobbers[i]))
5701                     {
5702                       if (! rld[r].optional)
5703                         reload_override_in[r] = equiv;
5704                       equiv = 0;
5705                       break;
5706                     }
5707
5708               /* If the equiv register we have found is explicitly clobbered
5709                  in the current insn, it depends on the reload type if we
5710                  can use it, use it for reload_override_in, or not at all.
5711                  In particular, we then can't use EQUIV for a
5712                  RELOAD_FOR_OUTPUT_ADDRESS reload.  */
5713
5714               if (equiv != 0)
5715                 {
5716                   if (regno_clobbered_p (regno, insn, rld[r].mode, 0))
5717                     switch (rld[r].when_needed)
5718                       {
5719                       case RELOAD_FOR_OTHER_ADDRESS:
5720                       case RELOAD_FOR_INPADDR_ADDRESS:
5721                       case RELOAD_FOR_INPUT_ADDRESS:
5722                       case RELOAD_FOR_OPADDR_ADDR:
5723                         break;
5724                       case RELOAD_OTHER:
5725                       case RELOAD_FOR_INPUT:
5726                       case RELOAD_FOR_OPERAND_ADDRESS:
5727                         if (! rld[r].optional)
5728                           reload_override_in[r] = equiv;
5729                         /* Fall through.  */
5730                       default:
5731                         equiv = 0;
5732                         break;
5733                       }
5734                   else if (regno_clobbered_p (regno, insn, rld[r].mode, 1))
5735                     switch (rld[r].when_needed)
5736                       {
5737                       case RELOAD_FOR_OTHER_ADDRESS:
5738                       case RELOAD_FOR_INPADDR_ADDRESS:
5739                       case RELOAD_FOR_INPUT_ADDRESS:
5740                       case RELOAD_FOR_OPADDR_ADDR:
5741                       case RELOAD_FOR_OPERAND_ADDRESS:
5742                       case RELOAD_FOR_INPUT:
5743                         break;
5744                       case RELOAD_OTHER:
5745                         if (! rld[r].optional)
5746                           reload_override_in[r] = equiv;
5747                         /* Fall through.  */
5748                       default:
5749                         equiv = 0;
5750                         break;
5751                       }
5752                 }
5753
5754               /* If we found an equivalent reg, say no code need be generated
5755                  to load it, and use it as our reload reg.  */
5756               if (equiv != 0
5757                   && (regno != HARD_FRAME_POINTER_REGNUM
5758                       || !frame_pointer_needed))
5759                 {
5760                   int nr = hard_regno_nregs[regno][rld[r].mode];
5761                   int k;
5762                   rld[r].reg_rtx = equiv;
5763                   reload_inherited[r] = 1;
5764
5765                   /* If reg_reloaded_valid is not set for this register,
5766                      there might be a stale spill_reg_store lying around.
5767                      We must clear it, since otherwise emit_reload_insns
5768                      might delete the store.  */
5769                   if (! TEST_HARD_REG_BIT (reg_reloaded_valid, regno))
5770                     spill_reg_store[regno] = NULL_RTX;
5771                   /* If any of the hard registers in EQUIV are spill
5772                      registers, mark them as in use for this insn.  */
5773                   for (k = 0; k < nr; k++)
5774                     {
5775                       i = spill_reg_order[regno + k];
5776                       if (i >= 0)
5777                         {
5778                           mark_reload_reg_in_use (regno, rld[r].opnum,
5779                                                   rld[r].when_needed,
5780                                                   rld[r].mode);
5781                           SET_HARD_REG_BIT (reload_reg_used_for_inherit,
5782                                             regno + k);
5783                         }
5784                     }
5785                 }
5786             }
5787
5788           /* If we found a register to use already, or if this is an optional
5789              reload, we are done.  */
5790           if (rld[r].reg_rtx != 0 || rld[r].optional != 0)
5791             continue;
5792
5793 #if 0
5794           /* No longer needed for correct operation.  Might or might
5795              not give better code on the average.  Want to experiment?  */
5796
5797           /* See if there is a later reload that has a class different from our
5798              class that intersects our class or that requires less register
5799              than our reload.  If so, we must allocate a register to this
5800              reload now, since that reload might inherit a previous reload
5801              and take the only available register in our class.  Don't do this
5802              for optional reloads since they will force all previous reloads
5803              to be allocated.  Also don't do this for reloads that have been
5804              turned off.  */
5805
5806           for (i = j + 1; i < n_reloads; i++)
5807             {
5808               int s = reload_order[i];
5809
5810               if ((rld[s].in == 0 && rld[s].out == 0
5811                    && ! rld[s].secondary_p)
5812                   || rld[s].optional)
5813                 continue;
5814
5815               if ((rld[s].class != rld[r].class
5816                    && reg_classes_intersect_p (rld[r].class,
5817                                                rld[s].class))
5818                   || rld[s].nregs < rld[r].nregs)
5819                 break;
5820             }
5821
5822           if (i == n_reloads)
5823             continue;
5824
5825           allocate_reload_reg (chain, r, j == n_reloads - 1);
5826 #endif
5827         }
5828
5829       /* Now allocate reload registers for anything non-optional that
5830          didn't get one yet.  */
5831       for (j = 0; j < n_reloads; j++)
5832         {
5833           int r = reload_order[j];
5834
5835           /* Ignore reloads that got marked inoperative.  */
5836           if (rld[r].out == 0 && rld[r].in == 0 && ! rld[r].secondary_p)
5837             continue;
5838
5839           /* Skip reloads that already have a register allocated or are
5840              optional.  */
5841           if (rld[r].reg_rtx != 0 || rld[r].optional)
5842             continue;
5843
5844           if (! allocate_reload_reg (chain, r, j == n_reloads - 1))
5845             break;
5846         }
5847
5848       /* If that loop got all the way, we have won.  */
5849       if (j == n_reloads)
5850         {
5851           win = 1;
5852           break;
5853         }
5854
5855       /* Loop around and try without any inheritance.  */
5856     }
5857
5858   if (! win)
5859     {
5860       /* First undo everything done by the failed attempt
5861          to allocate with inheritance.  */
5862       choose_reload_regs_init (chain, save_reload_reg_rtx);
5863
5864       /* Some sanity tests to verify that the reloads found in the first
5865          pass are identical to the ones we have now.  */
5866       gcc_assert (chain->n_reloads == n_reloads);
5867
5868       for (i = 0; i < n_reloads; i++)
5869         {
5870           if (chain->rld[i].regno < 0 || chain->rld[i].reg_rtx != 0)
5871             continue;
5872           gcc_assert (chain->rld[i].when_needed == rld[i].when_needed);
5873           for (j = 0; j < n_spills; j++)
5874             if (spill_regs[j] == chain->rld[i].regno)
5875               if (! set_reload_reg (j, i))
5876                 failed_reload (chain->insn, i);
5877         }
5878     }
5879
5880   /* If we thought we could inherit a reload, because it seemed that
5881      nothing else wanted the same reload register earlier in the insn,
5882      verify that assumption, now that all reloads have been assigned.
5883      Likewise for reloads where reload_override_in has been set.  */
5884
5885   /* If doing expensive optimizations, do one preliminary pass that doesn't
5886      cancel any inheritance, but removes reloads that have been needed only
5887      for reloads that we know can be inherited.  */
5888   for (pass = flag_expensive_optimizations; pass >= 0; pass--)
5889     {
5890       for (j = 0; j < n_reloads; j++)
5891         {
5892           int r = reload_order[j];
5893           rtx check_reg;
5894           if (reload_inherited[r] && rld[r].reg_rtx)
5895             check_reg = rld[r].reg_rtx;
5896           else if (reload_override_in[r]
5897                    && (REG_P (reload_override_in[r])
5898                        || GET_CODE (reload_override_in[r]) == SUBREG))
5899             check_reg = reload_override_in[r];
5900           else
5901             continue;
5902           if (! free_for_value_p (true_regnum (check_reg), rld[r].mode,
5903                                   rld[r].opnum, rld[r].when_needed, rld[r].in,
5904                                   (reload_inherited[r]
5905                                    ? rld[r].out : const0_rtx),
5906                                   r, 1))
5907             {
5908               if (pass)
5909                 continue;
5910               reload_inherited[r] = 0;
5911               reload_override_in[r] = 0;
5912             }
5913           /* If we can inherit a RELOAD_FOR_INPUT, or can use a
5914              reload_override_in, then we do not need its related
5915              RELOAD_FOR_INPUT_ADDRESS / RELOAD_FOR_INPADDR_ADDRESS reloads;
5916              likewise for other reload types.
5917              We handle this by removing a reload when its only replacement
5918              is mentioned in reload_in of the reload we are going to inherit.
5919              A special case are auto_inc expressions; even if the input is
5920              inherited, we still need the address for the output.  We can
5921              recognize them because they have RELOAD_OUT set to RELOAD_IN.
5922              If we succeeded removing some reload and we are doing a preliminary
5923              pass just to remove such reloads, make another pass, since the
5924              removal of one reload might allow us to inherit another one.  */
5925           else if (rld[r].in
5926                    && rld[r].out != rld[r].in
5927                    && remove_address_replacements (rld[r].in) && pass)
5928             pass = 2;
5929         }
5930     }
5931
5932   /* Now that reload_override_in is known valid,
5933      actually override reload_in.  */
5934   for (j = 0; j < n_reloads; j++)
5935     if (reload_override_in[j])
5936       rld[j].in = reload_override_in[j];
5937
5938   /* If this reload won't be done because it has been canceled or is
5939      optional and not inherited, clear reload_reg_rtx so other
5940      routines (such as subst_reloads) don't get confused.  */
5941   for (j = 0; j < n_reloads; j++)
5942     if (rld[j].reg_rtx != 0
5943         && ((rld[j].optional && ! reload_inherited[j])
5944             || (rld[j].in == 0 && rld[j].out == 0
5945                 && ! rld[j].secondary_p)))
5946       {
5947         int regno = true_regnum (rld[j].reg_rtx);
5948
5949         if (spill_reg_order[regno] >= 0)
5950           clear_reload_reg_in_use (regno, rld[j].opnum,
5951                                    rld[j].when_needed, rld[j].mode);
5952         rld[j].reg_rtx = 0;
5953         reload_spill_index[j] = -1;
5954       }
5955
5956   /* Record which pseudos and which spill regs have output reloads.  */
5957   for (j = 0; j < n_reloads; j++)
5958     {
5959       int r = reload_order[j];
5960
5961       i = reload_spill_index[r];
5962
5963       /* I is nonneg if this reload uses a register.
5964          If rld[r].reg_rtx is 0, this is an optional reload
5965          that we opted to ignore.  */
5966       if (rld[r].out_reg != 0 && REG_P (rld[r].out_reg)
5967           && rld[r].reg_rtx != 0)
5968         {
5969           int nregno = REGNO (rld[r].out_reg);
5970           int nr = 1;
5971
5972           if (nregno < FIRST_PSEUDO_REGISTER)
5973             nr = hard_regno_nregs[nregno][rld[r].mode];
5974
5975           while (--nr >= 0)
5976             reg_has_output_reload[nregno + nr] = 1;
5977
5978           if (i >= 0)
5979             {
5980               nr = hard_regno_nregs[i][rld[r].mode];
5981               while (--nr >= 0)
5982                 SET_HARD_REG_BIT (reg_is_output_reload, i + nr);
5983             }
5984
5985           gcc_assert (rld[r].when_needed == RELOAD_OTHER
5986                       || rld[r].when_needed == RELOAD_FOR_OUTPUT
5987                       || rld[r].when_needed == RELOAD_FOR_INSN);
5988         }
5989     }
5990 }
5991
5992 /* Deallocate the reload register for reload R.  This is called from
5993    remove_address_replacements.  */
5994
5995 void
5996 deallocate_reload_reg (int r)
5997 {
5998   int regno;
5999
6000   if (! rld[r].reg_rtx)
6001     return;
6002   regno = true_regnum (rld[r].reg_rtx);
6003   rld[r].reg_rtx = 0;
6004   if (spill_reg_order[regno] >= 0)
6005     clear_reload_reg_in_use (regno, rld[r].opnum, rld[r].when_needed,
6006                              rld[r].mode);
6007   reload_spill_index[r] = -1;
6008 }
6009 \f
6010 /* If SMALL_REGISTER_CLASSES is nonzero, we may not have merged two
6011    reloads of the same item for fear that we might not have enough reload
6012    registers. However, normally they will get the same reload register
6013    and hence actually need not be loaded twice.
6014
6015    Here we check for the most common case of this phenomenon: when we have
6016    a number of reloads for the same object, each of which were allocated
6017    the same reload_reg_rtx, that reload_reg_rtx is not used for any other
6018    reload, and is not modified in the insn itself.  If we find such,
6019    merge all the reloads and set the resulting reload to RELOAD_OTHER.
6020    This will not increase the number of spill registers needed and will
6021    prevent redundant code.  */
6022
6023 static void
6024 merge_assigned_reloads (rtx insn)
6025 {
6026   int i, j;
6027
6028   /* Scan all the reloads looking for ones that only load values and
6029      are not already RELOAD_OTHER and ones whose reload_reg_rtx are
6030      assigned and not modified by INSN.  */
6031
6032   for (i = 0; i < n_reloads; i++)
6033     {
6034       int conflicting_input = 0;
6035       int max_input_address_opnum = -1;
6036       int min_conflicting_input_opnum = MAX_RECOG_OPERANDS;
6037
6038       if (rld[i].in == 0 || rld[i].when_needed == RELOAD_OTHER
6039           || rld[i].out != 0 || rld[i].reg_rtx == 0
6040           || reg_set_p (rld[i].reg_rtx, insn))
6041         continue;
6042
6043       /* Look at all other reloads.  Ensure that the only use of this
6044          reload_reg_rtx is in a reload that just loads the same value
6045          as we do.  Note that any secondary reloads must be of the identical
6046          class since the values, modes, and result registers are the
6047          same, so we need not do anything with any secondary reloads.  */
6048
6049       for (j = 0; j < n_reloads; j++)
6050         {
6051           if (i == j || rld[j].reg_rtx == 0
6052               || ! reg_overlap_mentioned_p (rld[j].reg_rtx,
6053                                             rld[i].reg_rtx))
6054             continue;
6055
6056           if (rld[j].when_needed == RELOAD_FOR_INPUT_ADDRESS
6057               && rld[j].opnum > max_input_address_opnum)
6058             max_input_address_opnum = rld[j].opnum;
6059
6060           /* If the reload regs aren't exactly the same (e.g, different modes)
6061              or if the values are different, we can't merge this reload.
6062              But if it is an input reload, we might still merge
6063              RELOAD_FOR_INPUT_ADDRESS and RELOAD_FOR_OTHER_ADDRESS reloads.  */
6064
6065           if (! rtx_equal_p (rld[i].reg_rtx, rld[j].reg_rtx)
6066               || rld[j].out != 0 || rld[j].in == 0
6067               || ! rtx_equal_p (rld[i].in, rld[j].in))
6068             {
6069               if (rld[j].when_needed != RELOAD_FOR_INPUT
6070                   || ((rld[i].when_needed != RELOAD_FOR_INPUT_ADDRESS
6071                        || rld[i].opnum > rld[j].opnum)
6072                       && rld[i].when_needed != RELOAD_FOR_OTHER_ADDRESS))
6073                 break;
6074               conflicting_input = 1;
6075               if (min_conflicting_input_opnum > rld[j].opnum)
6076                 min_conflicting_input_opnum = rld[j].opnum;
6077             }
6078         }
6079
6080       /* If all is OK, merge the reloads.  Only set this to RELOAD_OTHER if
6081          we, in fact, found any matching reloads.  */
6082
6083       if (j == n_reloads
6084           && max_input_address_opnum <= min_conflicting_input_opnum)
6085         {
6086           gcc_assert (rld[i].when_needed != RELOAD_FOR_OUTPUT);
6087
6088           for (j = 0; j < n_reloads; j++)
6089             if (i != j && rld[j].reg_rtx != 0
6090                 && rtx_equal_p (rld[i].reg_rtx, rld[j].reg_rtx)
6091                 && (! conflicting_input
6092                     || rld[j].when_needed == RELOAD_FOR_INPUT_ADDRESS
6093                     || rld[j].when_needed == RELOAD_FOR_OTHER_ADDRESS))
6094               {
6095                 rld[i].when_needed = RELOAD_OTHER;
6096                 rld[j].in = 0;
6097                 reload_spill_index[j] = -1;
6098                 transfer_replacements (i, j);
6099               }
6100
6101           /* If this is now RELOAD_OTHER, look for any reloads that load
6102              parts of this operand and set them to RELOAD_FOR_OTHER_ADDRESS
6103              if they were for inputs, RELOAD_OTHER for outputs.  Note that
6104              this test is equivalent to looking for reloads for this operand
6105              number.  */
6106           /* We must take special care with RELOAD_FOR_OUTPUT_ADDRESS; it may
6107              share registers with a RELOAD_FOR_INPUT, so we can not change it
6108              to RELOAD_FOR_OTHER_ADDRESS.  We should never need to, since we
6109              do not modify RELOAD_FOR_OUTPUT.  */
6110
6111           if (rld[i].when_needed == RELOAD_OTHER)
6112             for (j = 0; j < n_reloads; j++)
6113               if (rld[j].in != 0
6114                   && rld[j].when_needed != RELOAD_OTHER
6115                   && rld[j].when_needed != RELOAD_FOR_OTHER_ADDRESS
6116                   && rld[j].when_needed != RELOAD_FOR_OUTPUT_ADDRESS
6117                   && (! conflicting_input
6118                       || rld[j].when_needed == RELOAD_FOR_INPUT_ADDRESS
6119                       || rld[j].when_needed == RELOAD_FOR_INPADDR_ADDRESS)
6120                   && reg_overlap_mentioned_for_reload_p (rld[j].in,
6121                                                          rld[i].in))
6122                 {
6123                   int k;
6124
6125                   rld[j].when_needed
6126                     = ((rld[j].when_needed == RELOAD_FOR_INPUT_ADDRESS
6127                         || rld[j].when_needed == RELOAD_FOR_INPADDR_ADDRESS)
6128                        ? RELOAD_FOR_OTHER_ADDRESS : RELOAD_OTHER);
6129
6130                   /* Check to see if we accidentally converted two
6131                      reloads that use the same reload register with
6132                      different inputs to the same type.  If so, the
6133                      resulting code won't work.  */
6134                   if (rld[j].reg_rtx)
6135                     for (k = 0; k < j; k++)
6136                       gcc_assert (rld[k].in == 0 || rld[k].reg_rtx == 0
6137                                   || rld[k].when_needed != rld[j].when_needed
6138                                   || !rtx_equal_p (rld[k].reg_rtx,
6139                                                    rld[j].reg_rtx)
6140                                   || rtx_equal_p (rld[k].in,
6141                                                   rld[j].in));
6142                 }
6143         }
6144     }
6145 }
6146 \f
6147 /* These arrays are filled by emit_reload_insns and its subroutines.  */
6148 static rtx input_reload_insns[MAX_RECOG_OPERANDS];
6149 static rtx other_input_address_reload_insns = 0;
6150 static rtx other_input_reload_insns = 0;
6151 static rtx input_address_reload_insns[MAX_RECOG_OPERANDS];
6152 static rtx inpaddr_address_reload_insns[MAX_RECOG_OPERANDS];
6153 static rtx output_reload_insns[MAX_RECOG_OPERANDS];
6154 static rtx output_address_reload_insns[MAX_RECOG_OPERANDS];
6155 static rtx outaddr_address_reload_insns[MAX_RECOG_OPERANDS];
6156 static rtx operand_reload_insns = 0;
6157 static rtx other_operand_reload_insns = 0;
6158 static rtx other_output_reload_insns[MAX_RECOG_OPERANDS];
6159
6160 /* Values to be put in spill_reg_store are put here first.  */
6161 static rtx new_spill_reg_store[FIRST_PSEUDO_REGISTER];
6162 static HARD_REG_SET reg_reloaded_died;
6163
6164 /* Generate insns to perform reload RL, which is for the insn in CHAIN and
6165    has the number J.  OLD contains the value to be used as input.  */
6166
6167 static void
6168 emit_input_reload_insns (struct insn_chain *chain, struct reload *rl,
6169                          rtx old, int j)
6170 {
6171   rtx insn = chain->insn;
6172   rtx reloadreg = rl->reg_rtx;
6173   rtx oldequiv_reg = 0;
6174   rtx oldequiv = 0;
6175   int special = 0;
6176   enum machine_mode mode;
6177   rtx *where;
6178
6179   /* Determine the mode to reload in.
6180      This is very tricky because we have three to choose from.
6181      There is the mode the insn operand wants (rl->inmode).
6182      There is the mode of the reload register RELOADREG.
6183      There is the intrinsic mode of the operand, which we could find
6184      by stripping some SUBREGs.
6185      It turns out that RELOADREG's mode is irrelevant:
6186      we can change that arbitrarily.
6187
6188      Consider (SUBREG:SI foo:QI) as an operand that must be SImode;
6189      then the reload reg may not support QImode moves, so use SImode.
6190      If foo is in memory due to spilling a pseudo reg, this is safe,
6191      because the QImode value is in the least significant part of a
6192      slot big enough for a SImode.  If foo is some other sort of
6193      memory reference, then it is impossible to reload this case,
6194      so previous passes had better make sure this never happens.
6195
6196      Then consider a one-word union which has SImode and one of its
6197      members is a float, being fetched as (SUBREG:SF union:SI).
6198      We must fetch that as SFmode because we could be loading into
6199      a float-only register.  In this case OLD's mode is correct.
6200
6201      Consider an immediate integer: it has VOIDmode.  Here we need
6202      to get a mode from something else.
6203
6204      In some cases, there is a fourth mode, the operand's
6205      containing mode.  If the insn specifies a containing mode for
6206      this operand, it overrides all others.
6207
6208      I am not sure whether the algorithm here is always right,
6209      but it does the right things in those cases.  */
6210
6211   mode = GET_MODE (old);
6212   if (mode == VOIDmode)
6213     mode = rl->inmode;
6214
6215 #ifdef SECONDARY_INPUT_RELOAD_CLASS
6216   /* If we need a secondary register for this operation, see if
6217      the value is already in a register in that class.  Don't
6218      do this if the secondary register will be used as a scratch
6219      register.  */
6220
6221   if (rl->secondary_in_reload >= 0
6222       && rl->secondary_in_icode == CODE_FOR_nothing
6223       && optimize)
6224     oldequiv
6225       = find_equiv_reg (old, insn,
6226                         rld[rl->secondary_in_reload].class,
6227                         -1, NULL, 0, mode);
6228 #endif
6229
6230   /* If reloading from memory, see if there is a register
6231      that already holds the same value.  If so, reload from there.
6232      We can pass 0 as the reload_reg_p argument because
6233      any other reload has either already been emitted,
6234      in which case find_equiv_reg will see the reload-insn,
6235      or has yet to be emitted, in which case it doesn't matter
6236      because we will use this equiv reg right away.  */
6237
6238   if (oldequiv == 0 && optimize
6239       && (MEM_P (old)
6240           || (REG_P (old)
6241               && REGNO (old) >= FIRST_PSEUDO_REGISTER
6242               && reg_renumber[REGNO (old)] < 0)))
6243     oldequiv = find_equiv_reg (old, insn, ALL_REGS, -1, NULL, 0, mode);
6244
6245   if (oldequiv)
6246     {
6247       unsigned int regno = true_regnum (oldequiv);
6248
6249       /* Don't use OLDEQUIV if any other reload changes it at an
6250          earlier stage of this insn or at this stage.  */
6251       if (! free_for_value_p (regno, rl->mode, rl->opnum, rl->when_needed,
6252                               rl->in, const0_rtx, j, 0))
6253         oldequiv = 0;
6254
6255       /* If it is no cheaper to copy from OLDEQUIV into the
6256          reload register than it would be to move from memory,
6257          don't use it. Likewise, if we need a secondary register
6258          or memory.  */
6259
6260       if (oldequiv != 0
6261           && (((enum reg_class) REGNO_REG_CLASS (regno) != rl->class
6262                && (REGISTER_MOVE_COST (mode, REGNO_REG_CLASS (regno),
6263                                        rl->class)
6264                    >= MEMORY_MOVE_COST (mode, rl->class, 1)))
6265 #ifdef SECONDARY_INPUT_RELOAD_CLASS
6266               || (SECONDARY_INPUT_RELOAD_CLASS (rl->class,
6267                                                 mode, oldequiv)
6268                   != NO_REGS)
6269 #endif
6270 #ifdef SECONDARY_MEMORY_NEEDED
6271               || SECONDARY_MEMORY_NEEDED (REGNO_REG_CLASS (regno),
6272                                           rl->class,
6273                                           mode)
6274 #endif
6275               ))
6276         oldequiv = 0;
6277     }
6278
6279   /* delete_output_reload is only invoked properly if old contains
6280      the original pseudo register.  Since this is replaced with a
6281      hard reg when RELOAD_OVERRIDE_IN is set, see if we can
6282      find the pseudo in RELOAD_IN_REG.  */
6283   if (oldequiv == 0
6284       && reload_override_in[j]
6285       && REG_P (rl->in_reg))
6286     {
6287       oldequiv = old;
6288       old = rl->in_reg;
6289     }
6290   if (oldequiv == 0)
6291     oldequiv = old;
6292   else if (REG_P (oldequiv))
6293     oldequiv_reg = oldequiv;
6294   else if (GET_CODE (oldequiv) == SUBREG)
6295     oldequiv_reg = SUBREG_REG (oldequiv);
6296
6297   /* If we are reloading from a register that was recently stored in
6298      with an output-reload, see if we can prove there was
6299      actually no need to store the old value in it.  */
6300
6301   if (optimize && REG_P (oldequiv)
6302       && REGNO (oldequiv) < FIRST_PSEUDO_REGISTER
6303       && spill_reg_store[REGNO (oldequiv)]
6304       && REG_P (old)
6305       && (dead_or_set_p (insn, spill_reg_stored_to[REGNO (oldequiv)])
6306           || rtx_equal_p (spill_reg_stored_to[REGNO (oldequiv)],
6307                           rl->out_reg)))
6308     delete_output_reload (insn, j, REGNO (oldequiv));
6309
6310   /* Encapsulate both RELOADREG and OLDEQUIV into that mode,
6311      then load RELOADREG from OLDEQUIV.  Note that we cannot use
6312      gen_lowpart_common since it can do the wrong thing when
6313      RELOADREG has a multi-word mode.  Note that RELOADREG
6314      must always be a REG here.  */
6315
6316   if (GET_MODE (reloadreg) != mode)
6317     reloadreg = reload_adjust_reg_for_mode (reloadreg, mode);
6318   while (GET_CODE (oldequiv) == SUBREG && GET_MODE (oldequiv) != mode)
6319     oldequiv = SUBREG_REG (oldequiv);
6320   if (GET_MODE (oldequiv) != VOIDmode
6321       && mode != GET_MODE (oldequiv))
6322     oldequiv = gen_lowpart_SUBREG (mode, oldequiv);
6323
6324   /* Switch to the right place to emit the reload insns.  */
6325   switch (rl->when_needed)
6326     {
6327     case RELOAD_OTHER:
6328       where = &other_input_reload_insns;
6329       break;
6330     case RELOAD_FOR_INPUT:
6331       where = &input_reload_insns[rl->opnum];
6332       break;
6333     case RELOAD_FOR_INPUT_ADDRESS:
6334       where = &input_address_reload_insns[rl->opnum];
6335       break;
6336     case RELOAD_FOR_INPADDR_ADDRESS:
6337       where = &inpaddr_address_reload_insns[rl->opnum];
6338       break;
6339     case RELOAD_FOR_OUTPUT_ADDRESS:
6340       where = &output_address_reload_insns[rl->opnum];
6341       break;
6342     case RELOAD_FOR_OUTADDR_ADDRESS:
6343       where = &outaddr_address_reload_insns[rl->opnum];
6344       break;
6345     case RELOAD_FOR_OPERAND_ADDRESS:
6346       where = &operand_reload_insns;
6347       break;
6348     case RELOAD_FOR_OPADDR_ADDR:
6349       where = &other_operand_reload_insns;
6350       break;
6351     case RELOAD_FOR_OTHER_ADDRESS:
6352       where = &other_input_address_reload_insns;
6353       break;
6354     default:
6355       gcc_unreachable ();
6356     }
6357
6358   push_to_sequence (*where);
6359
6360   /* Auto-increment addresses must be reloaded in a special way.  */
6361   if (rl->out && ! rl->out_reg)
6362     {
6363       /* We are not going to bother supporting the case where a
6364          incremented register can't be copied directly from
6365          OLDEQUIV since this seems highly unlikely.  */
6366       gcc_assert (rl->secondary_in_reload < 0);
6367
6368       if (reload_inherited[j])
6369         oldequiv = reloadreg;
6370
6371       old = XEXP (rl->in_reg, 0);
6372
6373       if (optimize && REG_P (oldequiv)
6374           && REGNO (oldequiv) < FIRST_PSEUDO_REGISTER
6375           && spill_reg_store[REGNO (oldequiv)]
6376           && REG_P (old)
6377           && (dead_or_set_p (insn,
6378                              spill_reg_stored_to[REGNO (oldequiv)])
6379               || rtx_equal_p (spill_reg_stored_to[REGNO (oldequiv)],
6380                               old)))
6381         delete_output_reload (insn, j, REGNO (oldequiv));
6382
6383       /* Prevent normal processing of this reload.  */
6384       special = 1;
6385       /* Output a special code sequence for this case.  */
6386       new_spill_reg_store[REGNO (reloadreg)]
6387         = inc_for_reload (reloadreg, oldequiv, rl->out,
6388                           rl->inc);
6389     }
6390
6391   /* If we are reloading a pseudo-register that was set by the previous
6392      insn, see if we can get rid of that pseudo-register entirely
6393      by redirecting the previous insn into our reload register.  */
6394
6395   else if (optimize && REG_P (old)
6396            && REGNO (old) >= FIRST_PSEUDO_REGISTER
6397            && dead_or_set_p (insn, old)
6398            /* This is unsafe if some other reload
6399               uses the same reg first.  */
6400            && ! conflicts_with_override (reloadreg)
6401            && free_for_value_p (REGNO (reloadreg), rl->mode, rl->opnum,
6402                                 rl->when_needed, old, rl->out, j, 0))
6403     {
6404       rtx temp = PREV_INSN (insn);
6405       while (temp && NOTE_P (temp))
6406         temp = PREV_INSN (temp);
6407       if (temp
6408           && NONJUMP_INSN_P (temp)
6409           && GET_CODE (PATTERN (temp)) == SET
6410           && SET_DEST (PATTERN (temp)) == old
6411           /* Make sure we can access insn_operand_constraint.  */
6412           && asm_noperands (PATTERN (temp)) < 0
6413           /* This is unsafe if operand occurs more than once in current
6414              insn.  Perhaps some occurrences aren't reloaded.  */
6415           && count_occurrences (PATTERN (insn), old, 0) == 1)
6416         {
6417           rtx old = SET_DEST (PATTERN (temp));
6418           /* Store into the reload register instead of the pseudo.  */
6419           SET_DEST (PATTERN (temp)) = reloadreg;
6420
6421           /* Verify that resulting insn is valid.  */
6422           extract_insn (temp);
6423           if (constrain_operands (1))
6424             {
6425               /* If the previous insn is an output reload, the source is
6426                  a reload register, and its spill_reg_store entry will
6427                  contain the previous destination.  This is now
6428                  invalid.  */
6429               if (REG_P (SET_SRC (PATTERN (temp)))
6430                   && REGNO (SET_SRC (PATTERN (temp))) < FIRST_PSEUDO_REGISTER)
6431                 {
6432                   spill_reg_store[REGNO (SET_SRC (PATTERN (temp)))] = 0;
6433                   spill_reg_stored_to[REGNO (SET_SRC (PATTERN (temp)))] = 0;
6434                 }
6435
6436               /* If these are the only uses of the pseudo reg,
6437                  pretend for GDB it lives in the reload reg we used.  */
6438               if (REG_N_DEATHS (REGNO (old)) == 1
6439                   && REG_N_SETS (REGNO (old)) == 1)
6440                 {
6441                   reg_renumber[REGNO (old)] = REGNO (rl->reg_rtx);
6442                   alter_reg (REGNO (old), -1);
6443                 }
6444               special = 1;
6445             }
6446           else
6447             {
6448               SET_DEST (PATTERN (temp)) = old;
6449             }
6450         }
6451     }
6452
6453   /* We can't do that, so output an insn to load RELOADREG.  */
6454
6455 #ifdef SECONDARY_INPUT_RELOAD_CLASS
6456   /* If we have a secondary reload, pick up the secondary register
6457      and icode, if any.  If OLDEQUIV and OLD are different or
6458      if this is an in-out reload, recompute whether or not we
6459      still need a secondary register and what the icode should
6460      be.  If we still need a secondary register and the class or
6461      icode is different, go back to reloading from OLD if using
6462      OLDEQUIV means that we got the wrong type of register.  We
6463      cannot have different class or icode due to an in-out reload
6464      because we don't make such reloads when both the input and
6465      output need secondary reload registers.  */
6466
6467   if (! special && rl->secondary_in_reload >= 0)
6468     {
6469       rtx second_reload_reg = 0;
6470       int secondary_reload = rl->secondary_in_reload;
6471       rtx real_oldequiv = oldequiv;
6472       rtx real_old = old;
6473       rtx tmp;
6474       enum insn_code icode;
6475
6476       /* If OLDEQUIV is a pseudo with a MEM, get the real MEM
6477          and similarly for OLD.
6478          See comments in get_secondary_reload in reload.c.  */
6479       /* If it is a pseudo that cannot be replaced with its
6480          equivalent MEM, we must fall back to reload_in, which
6481          will have all the necessary substitutions registered.
6482          Likewise for a pseudo that can't be replaced with its
6483          equivalent constant.
6484
6485          Take extra care for subregs of such pseudos.  Note that
6486          we cannot use reg_equiv_mem in this case because it is
6487          not in the right mode.  */
6488
6489       tmp = oldequiv;
6490       if (GET_CODE (tmp) == SUBREG)
6491         tmp = SUBREG_REG (tmp);
6492       if (REG_P (tmp)
6493           && REGNO (tmp) >= FIRST_PSEUDO_REGISTER
6494           && (reg_equiv_memory_loc[REGNO (tmp)] != 0
6495               || reg_equiv_constant[REGNO (tmp)] != 0))
6496         {
6497           if (! reg_equiv_mem[REGNO (tmp)]
6498               || num_not_at_initial_offset
6499               || GET_CODE (oldequiv) == SUBREG)
6500             real_oldequiv = rl->in;
6501           else
6502             real_oldequiv = reg_equiv_mem[REGNO (tmp)];
6503         }
6504
6505       tmp = old;
6506       if (GET_CODE (tmp) == SUBREG)
6507         tmp = SUBREG_REG (tmp);
6508       if (REG_P (tmp)
6509           && REGNO (tmp) >= FIRST_PSEUDO_REGISTER
6510           && (reg_equiv_memory_loc[REGNO (tmp)] != 0
6511               || reg_equiv_constant[REGNO (tmp)] != 0))
6512         {
6513           if (! reg_equiv_mem[REGNO (tmp)]
6514               || num_not_at_initial_offset
6515               || GET_CODE (old) == SUBREG)
6516             real_old = rl->in;
6517           else
6518             real_old = reg_equiv_mem[REGNO (tmp)];
6519         }
6520
6521       second_reload_reg = rld[secondary_reload].reg_rtx;
6522       icode = rl->secondary_in_icode;
6523
6524       if ((old != oldequiv && ! rtx_equal_p (old, oldequiv))
6525           || (rl->in != 0 && rl->out != 0))
6526         {
6527           enum reg_class new_class
6528             = SECONDARY_INPUT_RELOAD_CLASS (rl->class,
6529                                             mode, real_oldequiv);
6530
6531           if (new_class == NO_REGS)
6532             second_reload_reg = 0;
6533           else
6534             {
6535               enum insn_code new_icode;
6536               enum machine_mode new_mode;
6537
6538               if (! TEST_HARD_REG_BIT (reg_class_contents[(int) new_class],
6539                                        REGNO (second_reload_reg)))
6540                 oldequiv = old, real_oldequiv = real_old;
6541               else
6542                 {
6543                   new_icode = reload_in_optab[(int) mode];
6544                   if (new_icode != CODE_FOR_nothing
6545                       && ((insn_data[(int) new_icode].operand[0].predicate
6546                            && ! ((*insn_data[(int) new_icode].operand[0].predicate)
6547                                  (reloadreg, mode)))
6548                           || (insn_data[(int) new_icode].operand[1].predicate
6549                               && ! ((*insn_data[(int) new_icode].operand[1].predicate)
6550                                     (real_oldequiv, mode)))))
6551                     new_icode = CODE_FOR_nothing;
6552
6553                   if (new_icode == CODE_FOR_nothing)
6554                     new_mode = mode;
6555                   else
6556                     new_mode = insn_data[(int) new_icode].operand[2].mode;
6557
6558                   if (GET_MODE (second_reload_reg) != new_mode)
6559                     {
6560                       if (!HARD_REGNO_MODE_OK (REGNO (second_reload_reg),
6561                                                new_mode))
6562                         oldequiv = old, real_oldequiv = real_old;
6563                       else
6564                         second_reload_reg
6565                           = reload_adjust_reg_for_mode (second_reload_reg,
6566                                                         new_mode);
6567                     }
6568                 }
6569             }
6570         }
6571
6572       /* If we still need a secondary reload register, check
6573          to see if it is being used as a scratch or intermediate
6574          register and generate code appropriately.  If we need
6575          a scratch register, use REAL_OLDEQUIV since the form of
6576          the insn may depend on the actual address if it is
6577          a MEM.  */
6578
6579       if (second_reload_reg)
6580         {
6581           if (icode != CODE_FOR_nothing)
6582             {
6583               emit_insn (GEN_FCN (icode) (reloadreg, real_oldequiv,
6584                                           second_reload_reg));
6585               special = 1;
6586             }
6587           else
6588             {
6589               /* See if we need a scratch register to load the
6590                  intermediate register (a tertiary reload).  */
6591               enum insn_code tertiary_icode
6592                 = rld[secondary_reload].secondary_in_icode;
6593
6594               if (tertiary_icode != CODE_FOR_nothing)
6595                 {
6596                   rtx third_reload_reg
6597                     = rld[rld[secondary_reload].secondary_in_reload].reg_rtx;
6598
6599                   emit_insn ((GEN_FCN (tertiary_icode)
6600                               (second_reload_reg, real_oldequiv,
6601                                third_reload_reg)));
6602                 }
6603               else
6604                 gen_reload (second_reload_reg, real_oldequiv,
6605                             rl->opnum,
6606                             rl->when_needed);
6607
6608               oldequiv = second_reload_reg;
6609             }
6610         }
6611     }
6612 #endif
6613
6614   if (! special && ! rtx_equal_p (reloadreg, oldequiv))
6615     {
6616       rtx real_oldequiv = oldequiv;
6617
6618       if ((REG_P (oldequiv)
6619            && REGNO (oldequiv) >= FIRST_PSEUDO_REGISTER
6620            && (reg_equiv_memory_loc[REGNO (oldequiv)] != 0
6621                || reg_equiv_constant[REGNO (oldequiv)] != 0))
6622           || (GET_CODE (oldequiv) == SUBREG
6623               && REG_P (SUBREG_REG (oldequiv))
6624               && (REGNO (SUBREG_REG (oldequiv))
6625                   >= FIRST_PSEUDO_REGISTER)
6626               && ((reg_equiv_memory_loc
6627                    [REGNO (SUBREG_REG (oldequiv))] != 0)
6628                   || (reg_equiv_constant
6629                       [REGNO (SUBREG_REG (oldequiv))] != 0)))
6630           || (CONSTANT_P (oldequiv)
6631               && (PREFERRED_RELOAD_CLASS (oldequiv,
6632                                           REGNO_REG_CLASS (REGNO (reloadreg)))
6633                   == NO_REGS)))
6634         real_oldequiv = rl->in;
6635       gen_reload (reloadreg, real_oldequiv, rl->opnum,
6636                   rl->when_needed);
6637     }
6638
6639   if (flag_non_call_exceptions)
6640     copy_eh_notes (insn, get_insns ());
6641
6642   /* End this sequence.  */
6643   *where = get_insns ();
6644   end_sequence ();
6645
6646   /* Update reload_override_in so that delete_address_reloads_1
6647      can see the actual register usage.  */
6648   if (oldequiv_reg)
6649     reload_override_in[j] = oldequiv;
6650 }
6651
6652 /* Generate insns to for the output reload RL, which is for the insn described
6653    by CHAIN and has the number J.  */
6654 static void
6655 emit_output_reload_insns (struct insn_chain *chain, struct reload *rl,
6656                           int j)
6657 {
6658   rtx reloadreg = rl->reg_rtx;
6659   rtx insn = chain->insn;
6660   int special = 0;
6661   rtx old = rl->out;
6662   enum machine_mode mode = GET_MODE (old);
6663   rtx p;
6664
6665   if (rl->when_needed == RELOAD_OTHER)
6666     start_sequence ();
6667   else
6668     push_to_sequence (output_reload_insns[rl->opnum]);
6669
6670   /* Determine the mode to reload in.
6671      See comments above (for input reloading).  */
6672
6673   if (mode == VOIDmode)
6674     {
6675       /* VOIDmode should never happen for an output.  */
6676       if (asm_noperands (PATTERN (insn)) < 0)
6677         /* It's the compiler's fault.  */
6678         fatal_insn ("VOIDmode on an output", insn);
6679       error_for_asm (insn, "output operand is constant in %<asm%>");
6680       /* Prevent crash--use something we know is valid.  */
6681       mode = word_mode;
6682       old = gen_rtx_REG (mode, REGNO (reloadreg));
6683     }
6684
6685   if (GET_MODE (reloadreg) != mode)
6686     reloadreg = reload_adjust_reg_for_mode (reloadreg, mode);
6687
6688 #ifdef SECONDARY_OUTPUT_RELOAD_CLASS
6689
6690   /* If we need two reload regs, set RELOADREG to the intermediate
6691      one, since it will be stored into OLD.  We might need a secondary
6692      register only for an input reload, so check again here.  */
6693
6694   if (rl->secondary_out_reload >= 0)
6695     {
6696       rtx real_old = old;
6697
6698       if (REG_P (old) && REGNO (old) >= FIRST_PSEUDO_REGISTER
6699           && reg_equiv_mem[REGNO (old)] != 0)
6700         real_old = reg_equiv_mem[REGNO (old)];
6701
6702       if ((SECONDARY_OUTPUT_RELOAD_CLASS (rl->class,
6703                                           mode, real_old)
6704            != NO_REGS))
6705         {
6706           rtx second_reloadreg = reloadreg;
6707           reloadreg = rld[rl->secondary_out_reload].reg_rtx;
6708
6709           /* See if RELOADREG is to be used as a scratch register
6710              or as an intermediate register.  */
6711           if (rl->secondary_out_icode != CODE_FOR_nothing)
6712             {
6713               emit_insn ((GEN_FCN (rl->secondary_out_icode)
6714                           (real_old, second_reloadreg, reloadreg)));
6715               special = 1;
6716             }
6717           else
6718             {
6719               /* See if we need both a scratch and intermediate reload
6720                  register.  */
6721
6722               int secondary_reload = rl->secondary_out_reload;
6723               enum insn_code tertiary_icode
6724                 = rld[secondary_reload].secondary_out_icode;
6725
6726               if (GET_MODE (reloadreg) != mode)
6727                 reloadreg = reload_adjust_reg_for_mode (reloadreg, mode);
6728
6729               if (tertiary_icode != CODE_FOR_nothing)
6730                 {
6731                   rtx third_reloadreg
6732                     = rld[rld[secondary_reload].secondary_out_reload].reg_rtx;
6733                   rtx tem;
6734
6735                   /* Copy primary reload reg to secondary reload reg.
6736                      (Note that these have been swapped above, then
6737                      secondary reload reg to OLD using our insn.)  */
6738
6739                   /* If REAL_OLD is a paradoxical SUBREG, remove it
6740                      and try to put the opposite SUBREG on
6741                      RELOADREG.  */
6742                   if (GET_CODE (real_old) == SUBREG
6743                       && (GET_MODE_SIZE (GET_MODE (real_old))
6744                           > GET_MODE_SIZE (GET_MODE (SUBREG_REG (real_old))))
6745                       && 0 != (tem = gen_lowpart_common
6746                                (GET_MODE (SUBREG_REG (real_old)),
6747                                 reloadreg)))
6748                     real_old = SUBREG_REG (real_old), reloadreg = tem;
6749
6750                   gen_reload (reloadreg, second_reloadreg,
6751                               rl->opnum, rl->when_needed);
6752                   emit_insn ((GEN_FCN (tertiary_icode)
6753                               (real_old, reloadreg, third_reloadreg)));
6754                   special = 1;
6755                 }
6756
6757               else
6758                 /* Copy between the reload regs here and then to
6759                    OUT later.  */
6760
6761                 gen_reload (reloadreg, second_reloadreg,
6762                             rl->opnum, rl->when_needed);
6763             }
6764         }
6765     }
6766 #endif
6767
6768   /* Output the last reload insn.  */
6769   if (! special)
6770     {
6771       rtx set;
6772
6773       /* Don't output the last reload if OLD is not the dest of
6774          INSN and is in the src and is clobbered by INSN.  */
6775       if (! flag_expensive_optimizations
6776           || !REG_P (old)
6777           || !(set = single_set (insn))
6778           || rtx_equal_p (old, SET_DEST (set))
6779           || !reg_mentioned_p (old, SET_SRC (set))
6780           || !((REGNO (old) < FIRST_PSEUDO_REGISTER)
6781                && regno_clobbered_p (REGNO (old), insn, rl->mode, 0)))
6782         gen_reload (old, reloadreg, rl->opnum,
6783                     rl->when_needed);
6784     }
6785
6786   /* Look at all insns we emitted, just to be safe.  */
6787   for (p = get_insns (); p; p = NEXT_INSN (p))
6788     if (INSN_P (p))
6789       {
6790         rtx pat = PATTERN (p);
6791
6792         /* If this output reload doesn't come from a spill reg,
6793            clear any memory of reloaded copies of the pseudo reg.
6794            If this output reload comes from a spill reg,
6795            reg_has_output_reload will make this do nothing.  */
6796         note_stores (pat, forget_old_reloads_1, NULL);
6797
6798         if (reg_mentioned_p (rl->reg_rtx, pat))
6799           {
6800             rtx set = single_set (insn);
6801             if (reload_spill_index[j] < 0
6802                 && set
6803                 && SET_SRC (set) == rl->reg_rtx)
6804               {
6805                 int src = REGNO (SET_SRC (set));
6806
6807                 reload_spill_index[j] = src;
6808                 SET_HARD_REG_BIT (reg_is_output_reload, src);
6809                 if (find_regno_note (insn, REG_DEAD, src))
6810                   SET_HARD_REG_BIT (reg_reloaded_died, src);
6811               }
6812             if (REGNO (rl->reg_rtx) < FIRST_PSEUDO_REGISTER)
6813               {
6814                 int s = rl->secondary_out_reload;
6815                 set = single_set (p);
6816                 /* If this reload copies only to the secondary reload
6817                    register, the secondary reload does the actual
6818                    store.  */
6819                 if (s >= 0 && set == NULL_RTX)
6820                   /* We can't tell what function the secondary reload
6821                      has and where the actual store to the pseudo is
6822                      made; leave new_spill_reg_store alone.  */
6823                   ;
6824                 else if (s >= 0
6825                          && SET_SRC (set) == rl->reg_rtx
6826                          && SET_DEST (set) == rld[s].reg_rtx)
6827                   {
6828                     /* Usually the next instruction will be the
6829                        secondary reload insn;  if we can confirm
6830                        that it is, setting new_spill_reg_store to
6831                        that insn will allow an extra optimization.  */
6832                     rtx s_reg = rld[s].reg_rtx;
6833                     rtx next = NEXT_INSN (p);
6834                     rld[s].out = rl->out;
6835                     rld[s].out_reg = rl->out_reg;
6836                     set = single_set (next);
6837                     if (set && SET_SRC (set) == s_reg
6838                         && ! new_spill_reg_store[REGNO (s_reg)])
6839                       {
6840                         SET_HARD_REG_BIT (reg_is_output_reload,
6841                                           REGNO (s_reg));
6842                         new_spill_reg_store[REGNO (s_reg)] = next;
6843                       }
6844                   }
6845                 else
6846                   new_spill_reg_store[REGNO (rl->reg_rtx)] = p;
6847               }
6848           }
6849       }
6850
6851   if (rl->when_needed == RELOAD_OTHER)
6852     {
6853       emit_insn (other_output_reload_insns[rl->opnum]);
6854       other_output_reload_insns[rl->opnum] = get_insns ();
6855     }
6856   else
6857     output_reload_insns[rl->opnum] = get_insns ();
6858
6859   if (flag_non_call_exceptions)
6860     copy_eh_notes (insn, get_insns ());
6861
6862   end_sequence ();
6863 }
6864
6865 /* Do input reloading for reload RL, which is for the insn described by CHAIN
6866    and has the number J.  */
6867 static void
6868 do_input_reload (struct insn_chain *chain, struct reload *rl, int j)
6869 {
6870   rtx insn = chain->insn;
6871   rtx old = (rl->in && MEM_P (rl->in)
6872              ? rl->in_reg : rl->in);
6873
6874   if (old != 0
6875       /* AUTO_INC reloads need to be handled even if inherited.  We got an
6876          AUTO_INC reload if reload_out is set but reload_out_reg isn't.  */
6877       && (! reload_inherited[j] || (rl->out && ! rl->out_reg))
6878       && ! rtx_equal_p (rl->reg_rtx, old)
6879       && rl->reg_rtx != 0)
6880     emit_input_reload_insns (chain, rld + j, old, j);
6881
6882   /* When inheriting a wider reload, we have a MEM in rl->in,
6883      e.g. inheriting a SImode output reload for
6884      (mem:HI (plus:SI (reg:SI 14 fp) (const_int 10)))  */
6885   if (optimize && reload_inherited[j] && rl->in
6886       && MEM_P (rl->in)
6887       && MEM_P (rl->in_reg)
6888       && reload_spill_index[j] >= 0
6889       && TEST_HARD_REG_BIT (reg_reloaded_valid, reload_spill_index[j]))
6890     rl->in = regno_reg_rtx[reg_reloaded_contents[reload_spill_index[j]]];
6891
6892   /* If we are reloading a register that was recently stored in with an
6893      output-reload, see if we can prove there was
6894      actually no need to store the old value in it.  */
6895
6896   if (optimize
6897       /* Only attempt this for input reloads; for RELOAD_OTHER we miss
6898          that there may be multiple uses of the previous output reload.
6899          Restricting to RELOAD_FOR_INPUT is mostly paranoia.  */
6900       && rl->when_needed == RELOAD_FOR_INPUT
6901       && (reload_inherited[j] || reload_override_in[j])
6902       && rl->reg_rtx
6903       && REG_P (rl->reg_rtx)
6904       && spill_reg_store[REGNO (rl->reg_rtx)] != 0
6905 #if 0
6906       /* There doesn't seem to be any reason to restrict this to pseudos
6907          and doing so loses in the case where we are copying from a
6908          register of the wrong class.  */
6909       && (REGNO (spill_reg_stored_to[REGNO (rl->reg_rtx)])
6910           >= FIRST_PSEUDO_REGISTER)
6911 #endif
6912       /* The insn might have already some references to stackslots
6913          replaced by MEMs, while reload_out_reg still names the
6914          original pseudo.  */
6915       && (dead_or_set_p (insn,
6916                          spill_reg_stored_to[REGNO (rl->reg_rtx)])
6917           || rtx_equal_p (spill_reg_stored_to[REGNO (rl->reg_rtx)],
6918                           rl->out_reg)))
6919     delete_output_reload (insn, j, REGNO (rl->reg_rtx));
6920 }
6921
6922 /* Do output reloading for reload RL, which is for the insn described by
6923    CHAIN and has the number J.
6924    ??? At some point we need to support handling output reloads of
6925    JUMP_INSNs or insns that set cc0.  */
6926 static void
6927 do_output_reload (struct insn_chain *chain, struct reload *rl, int j)
6928 {
6929   rtx note, old;
6930   rtx insn = chain->insn;
6931   /* If this is an output reload that stores something that is
6932      not loaded in this same reload, see if we can eliminate a previous
6933      store.  */
6934   rtx pseudo = rl->out_reg;
6935
6936   if (pseudo
6937       && optimize
6938       && REG_P (pseudo)
6939       && ! rtx_equal_p (rl->in_reg, pseudo)
6940       && REGNO (pseudo) >= FIRST_PSEUDO_REGISTER
6941       && reg_last_reload_reg[REGNO (pseudo)])
6942     {
6943       int pseudo_no = REGNO (pseudo);
6944       int last_regno = REGNO (reg_last_reload_reg[pseudo_no]);
6945
6946       /* We don't need to test full validity of last_regno for
6947          inherit here; we only want to know if the store actually
6948          matches the pseudo.  */
6949       if (TEST_HARD_REG_BIT (reg_reloaded_valid, last_regno)
6950           && reg_reloaded_contents[last_regno] == pseudo_no
6951           && spill_reg_store[last_regno]
6952           && rtx_equal_p (pseudo, spill_reg_stored_to[last_regno]))
6953         delete_output_reload (insn, j, last_regno);
6954     }
6955
6956   old = rl->out_reg;
6957   if (old == 0
6958       || rl->reg_rtx == old
6959       || rl->reg_rtx == 0)
6960     return;
6961
6962   /* An output operand that dies right away does need a reload,
6963      but need not be copied from it.  Show the new location in the
6964      REG_UNUSED note.  */
6965   if ((REG_P (old) || GET_CODE (old) == SCRATCH)
6966       && (note = find_reg_note (insn, REG_UNUSED, old)) != 0)
6967     {
6968       XEXP (note, 0) = rl->reg_rtx;
6969       return;
6970     }
6971   /* Likewise for a SUBREG of an operand that dies.  */
6972   else if (GET_CODE (old) == SUBREG
6973            && REG_P (SUBREG_REG (old))
6974            && 0 != (note = find_reg_note (insn, REG_UNUSED,
6975                                           SUBREG_REG (old))))
6976     {
6977       XEXP (note, 0) = gen_lowpart_common (GET_MODE (old),
6978                                            rl->reg_rtx);
6979       return;
6980     }
6981   else if (GET_CODE (old) == SCRATCH)
6982     /* If we aren't optimizing, there won't be a REG_UNUSED note,
6983        but we don't want to make an output reload.  */
6984     return;
6985
6986   /* If is a JUMP_INSN, we can't support output reloads yet.  */
6987   gcc_assert (!JUMP_P (insn));
6988
6989   emit_output_reload_insns (chain, rld + j, j);
6990 }
6991
6992 /* Reload number R reloads from or to a group of hard registers starting at
6993    register REGNO.  Return true if it can be treated for inheritance purposes
6994    like a group of reloads, each one reloading a single hard register.
6995    The caller has already checked that the spill register and REGNO use
6996    the same number of registers to store the reload value.  */
6997
6998 static bool
6999 inherit_piecemeal_p (int r ATTRIBUTE_UNUSED, int regno ATTRIBUTE_UNUSED)
7000 {
7001 #ifdef CANNOT_CHANGE_MODE_CLASS
7002   return (!REG_CANNOT_CHANGE_MODE_P (reload_spill_index[r],
7003                                      GET_MODE (rld[r].reg_rtx),
7004                                      reg_raw_mode[reload_spill_index[r]])
7005           && !REG_CANNOT_CHANGE_MODE_P (regno,
7006                                         GET_MODE (rld[r].reg_rtx),
7007                                         reg_raw_mode[regno]));
7008 #else
7009   return true;
7010 #endif
7011 }
7012
7013 /* Output insns to reload values in and out of the chosen reload regs.  */
7014
7015 static void
7016 emit_reload_insns (struct insn_chain *chain)
7017 {
7018   rtx insn = chain->insn;
7019
7020   int j;
7021
7022   CLEAR_HARD_REG_SET (reg_reloaded_died);
7023
7024   for (j = 0; j < reload_n_operands; j++)
7025     input_reload_insns[j] = input_address_reload_insns[j]
7026       = inpaddr_address_reload_insns[j]
7027       = output_reload_insns[j] = output_address_reload_insns[j]
7028       = outaddr_address_reload_insns[j]
7029       = other_output_reload_insns[j] = 0;
7030   other_input_address_reload_insns = 0;
7031   other_input_reload_insns = 0;
7032   operand_reload_insns = 0;
7033   other_operand_reload_insns = 0;
7034
7035   /* Dump reloads into the dump file.  */
7036   if (dump_file)
7037     {
7038       fprintf (dump_file, "\nReloads for insn # %d\n", INSN_UID (insn));
7039       debug_reload_to_stream (dump_file);
7040     }
7041
7042   /* Now output the instructions to copy the data into and out of the
7043      reload registers.  Do these in the order that the reloads were reported,
7044      since reloads of base and index registers precede reloads of operands
7045      and the operands may need the base and index registers reloaded.  */
7046
7047   for (j = 0; j < n_reloads; j++)
7048     {
7049       if (rld[j].reg_rtx
7050           && REGNO (rld[j].reg_rtx) < FIRST_PSEUDO_REGISTER)
7051         new_spill_reg_store[REGNO (rld[j].reg_rtx)] = 0;
7052
7053       do_input_reload (chain, rld + j, j);
7054       do_output_reload (chain, rld + j, j);
7055     }
7056
7057   /* Now write all the insns we made for reloads in the order expected by
7058      the allocation functions.  Prior to the insn being reloaded, we write
7059      the following reloads:
7060
7061      RELOAD_FOR_OTHER_ADDRESS reloads for input addresses.
7062
7063      RELOAD_OTHER reloads.
7064
7065      For each operand, any RELOAD_FOR_INPADDR_ADDRESS reloads followed
7066      by any RELOAD_FOR_INPUT_ADDRESS reloads followed by the
7067      RELOAD_FOR_INPUT reload for the operand.
7068
7069      RELOAD_FOR_OPADDR_ADDRS reloads.
7070
7071      RELOAD_FOR_OPERAND_ADDRESS reloads.
7072
7073      After the insn being reloaded, we write the following:
7074
7075      For each operand, any RELOAD_FOR_OUTADDR_ADDRESS reloads followed
7076      by any RELOAD_FOR_OUTPUT_ADDRESS reload followed by the
7077      RELOAD_FOR_OUTPUT reload, followed by any RELOAD_OTHER output
7078      reloads for the operand.  The RELOAD_OTHER output reloads are
7079      output in descending order by reload number.  */
7080
7081   emit_insn_before (other_input_address_reload_insns, insn);
7082   emit_insn_before (other_input_reload_insns, insn);
7083
7084   for (j = 0; j < reload_n_operands; j++)
7085     {
7086       emit_insn_before (inpaddr_address_reload_insns[j], insn);
7087       emit_insn_before (input_address_reload_insns[j], insn);
7088       emit_insn_before (input_reload_insns[j], insn);
7089     }
7090
7091   emit_insn_before (other_operand_reload_insns, insn);
7092   emit_insn_before (operand_reload_insns, insn);
7093
7094   for (j = 0; j < reload_n_operands; j++)
7095     {
7096       rtx x = emit_insn_after (outaddr_address_reload_insns[j], insn);
7097       x = emit_insn_after (output_address_reload_insns[j], x);
7098       x = emit_insn_after (output_reload_insns[j], x);
7099       emit_insn_after (other_output_reload_insns[j], x);
7100     }
7101
7102   /* For all the spill regs newly reloaded in this instruction,
7103      record what they were reloaded from, so subsequent instructions
7104      can inherit the reloads.
7105
7106      Update spill_reg_store for the reloads of this insn.
7107      Copy the elements that were updated in the loop above.  */
7108
7109   for (j = 0; j < n_reloads; j++)
7110     {
7111       int r = reload_order[j];
7112       int i = reload_spill_index[r];
7113
7114       /* If this is a non-inherited input reload from a pseudo, we must
7115          clear any memory of a previous store to the same pseudo.  Only do
7116          something if there will not be an output reload for the pseudo
7117          being reloaded.  */
7118       if (rld[r].in_reg != 0
7119           && ! (reload_inherited[r] || reload_override_in[r]))
7120         {
7121           rtx reg = rld[r].in_reg;
7122
7123           if (GET_CODE (reg) == SUBREG)
7124             reg = SUBREG_REG (reg);
7125
7126           if (REG_P (reg)
7127               && REGNO (reg) >= FIRST_PSEUDO_REGISTER
7128               && ! reg_has_output_reload[REGNO (reg)])
7129             {
7130               int nregno = REGNO (reg);
7131
7132               if (reg_last_reload_reg[nregno])
7133                 {
7134                   int last_regno = REGNO (reg_last_reload_reg[nregno]);
7135
7136                   if (reg_reloaded_contents[last_regno] == nregno)
7137                     spill_reg_store[last_regno] = 0;
7138                 }
7139             }
7140         }
7141
7142       /* I is nonneg if this reload used a register.
7143          If rld[r].reg_rtx is 0, this is an optional reload
7144          that we opted to ignore.  */
7145
7146       if (i >= 0 && rld[r].reg_rtx != 0)
7147         {
7148           int nr = hard_regno_nregs[i][GET_MODE (rld[r].reg_rtx)];
7149           int k;
7150           int part_reaches_end = 0;
7151           int all_reaches_end = 1;
7152
7153           /* For a multi register reload, we need to check if all or part
7154              of the value lives to the end.  */
7155           for (k = 0; k < nr; k++)
7156             {
7157               if (reload_reg_reaches_end_p (i + k, rld[r].opnum,
7158                                             rld[r].when_needed))
7159                 part_reaches_end = 1;
7160               else
7161                 all_reaches_end = 0;
7162             }
7163
7164           /* Ignore reloads that don't reach the end of the insn in
7165              entirety.  */
7166           if (all_reaches_end)
7167             {
7168               /* First, clear out memory of what used to be in this spill reg.
7169                  If consecutive registers are used, clear them all.  */
7170
7171               for (k = 0; k < nr; k++)
7172                 {
7173                 CLEAR_HARD_REG_BIT (reg_reloaded_valid, i + k);
7174                   CLEAR_HARD_REG_BIT (reg_reloaded_call_part_clobbered, i + k);
7175                 }
7176
7177               /* Maybe the spill reg contains a copy of reload_out.  */
7178               if (rld[r].out != 0
7179                   && (REG_P (rld[r].out)
7180 #ifdef AUTO_INC_DEC
7181                       || ! rld[r].out_reg
7182 #endif
7183                       || REG_P (rld[r].out_reg)))
7184                 {
7185                   rtx out = (REG_P (rld[r].out)
7186                              ? rld[r].out
7187                              : rld[r].out_reg
7188                              ? rld[r].out_reg
7189 /* AUTO_INC */               : XEXP (rld[r].in_reg, 0));
7190                   int nregno = REGNO (out);
7191                   int nnr = (nregno >= FIRST_PSEUDO_REGISTER ? 1
7192                              : hard_regno_nregs[nregno]
7193                                                [GET_MODE (rld[r].reg_rtx)]);
7194                   bool piecemeal;
7195
7196                   spill_reg_store[i] = new_spill_reg_store[i];
7197                   spill_reg_stored_to[i] = out;
7198                   reg_last_reload_reg[nregno] = rld[r].reg_rtx;
7199
7200                   piecemeal = (nregno < FIRST_PSEUDO_REGISTER
7201                                && nr == nnr
7202                                && inherit_piecemeal_p (r, nregno));
7203
7204                   /* If NREGNO is a hard register, it may occupy more than
7205                      one register.  If it does, say what is in the
7206                      rest of the registers assuming that both registers
7207                      agree on how many words the object takes.  If not,
7208                      invalidate the subsequent registers.  */
7209
7210                   if (nregno < FIRST_PSEUDO_REGISTER)
7211                     for (k = 1; k < nnr; k++)
7212                       reg_last_reload_reg[nregno + k]
7213                         = (piecemeal
7214                            ? regno_reg_rtx[REGNO (rld[r].reg_rtx) + k]
7215                            : 0);
7216
7217                   /* Now do the inverse operation.  */
7218                   for (k = 0; k < nr; k++)
7219                     {
7220                       CLEAR_HARD_REG_BIT (reg_reloaded_dead, i + k);
7221                       reg_reloaded_contents[i + k]
7222                         = (nregno >= FIRST_PSEUDO_REGISTER || !piecemeal
7223                            ? nregno
7224                            : nregno + k);
7225                       reg_reloaded_insn[i + k] = insn;
7226                       SET_HARD_REG_BIT (reg_reloaded_valid, i + k);
7227                       if (HARD_REGNO_CALL_PART_CLOBBERED (i + k, GET_MODE (out)))
7228                         SET_HARD_REG_BIT (reg_reloaded_call_part_clobbered, i + k);
7229                     }
7230                 }
7231
7232               /* Maybe the spill reg contains a copy of reload_in.  Only do
7233                  something if there will not be an output reload for
7234                  the register being reloaded.  */
7235               else if (rld[r].out_reg == 0
7236                        && rld[r].in != 0
7237                        && ((REG_P (rld[r].in)
7238                             && REGNO (rld[r].in) >= FIRST_PSEUDO_REGISTER
7239                             && ! reg_has_output_reload[REGNO (rld[r].in)])
7240                            || (REG_P (rld[r].in_reg)
7241                                && ! reg_has_output_reload[REGNO (rld[r].in_reg)]))
7242                        && ! reg_set_p (rld[r].reg_rtx, PATTERN (insn)))
7243                 {
7244                   int nregno;
7245                   int nnr;
7246                   rtx in;
7247                   bool piecemeal;
7248
7249                   if (REG_P (rld[r].in)
7250                       && REGNO (rld[r].in) >= FIRST_PSEUDO_REGISTER)
7251                     in = rld[r].in;
7252                   else if (REG_P (rld[r].in_reg))
7253                     in = rld[r].in_reg;
7254                   else
7255                     in = XEXP (rld[r].in_reg, 0);
7256                   nregno = REGNO (in);
7257
7258                   nnr = (nregno >= FIRST_PSEUDO_REGISTER ? 1
7259                          : hard_regno_nregs[nregno]
7260                                            [GET_MODE (rld[r].reg_rtx)]);
7261
7262                   reg_last_reload_reg[nregno] = rld[r].reg_rtx;
7263
7264                   piecemeal = (nregno < FIRST_PSEUDO_REGISTER
7265                                && nr == nnr
7266                                && inherit_piecemeal_p (r, nregno));
7267
7268                   if (nregno < FIRST_PSEUDO_REGISTER)
7269                     for (k = 1; k < nnr; k++)
7270                       reg_last_reload_reg[nregno + k]
7271                         = (piecemeal
7272                            ? regno_reg_rtx[REGNO (rld[r].reg_rtx) + k]
7273                            : 0);
7274
7275                   /* Unless we inherited this reload, show we haven't
7276                      recently done a store.
7277                      Previous stores of inherited auto_inc expressions
7278                      also have to be discarded.  */
7279                   if (! reload_inherited[r]
7280                       || (rld[r].out && ! rld[r].out_reg))
7281                     spill_reg_store[i] = 0;
7282
7283                   for (k = 0; k < nr; k++)
7284                     {
7285                       CLEAR_HARD_REG_BIT (reg_reloaded_dead, i + k);
7286                       reg_reloaded_contents[i + k]
7287                         = (nregno >= FIRST_PSEUDO_REGISTER || !piecemeal
7288                            ? nregno
7289                            : nregno + k);
7290                       reg_reloaded_insn[i + k] = insn;
7291                       SET_HARD_REG_BIT (reg_reloaded_valid, i + k);
7292                       if (HARD_REGNO_CALL_PART_CLOBBERED (i + k, GET_MODE (in)))
7293                         SET_HARD_REG_BIT (reg_reloaded_call_part_clobbered, i + k);
7294                     }
7295                 }
7296             }
7297
7298           /* However, if part of the reload reaches the end, then we must
7299              invalidate the old info for the part that survives to the end.  */
7300           else if (part_reaches_end)
7301             {
7302               for (k = 0; k < nr; k++)
7303                 if (reload_reg_reaches_end_p (i + k,
7304                                               rld[r].opnum,
7305                                               rld[r].when_needed))
7306                   CLEAR_HARD_REG_BIT (reg_reloaded_valid, i + k);
7307             }
7308         }
7309
7310       /* The following if-statement was #if 0'd in 1.34 (or before...).
7311          It's reenabled in 1.35 because supposedly nothing else
7312          deals with this problem.  */
7313
7314       /* If a register gets output-reloaded from a non-spill register,
7315          that invalidates any previous reloaded copy of it.
7316          But forget_old_reloads_1 won't get to see it, because
7317          it thinks only about the original insn.  So invalidate it here.  */
7318       if (i < 0 && rld[r].out != 0
7319           && (REG_P (rld[r].out)
7320               || (MEM_P (rld[r].out)
7321                   && REG_P (rld[r].out_reg))))
7322         {
7323           rtx out = (REG_P (rld[r].out)
7324                      ? rld[r].out : rld[r].out_reg);
7325           int nregno = REGNO (out);
7326           if (nregno >= FIRST_PSEUDO_REGISTER)
7327             {
7328               rtx src_reg, store_insn = NULL_RTX;
7329
7330               reg_last_reload_reg[nregno] = 0;
7331
7332               /* If we can find a hard register that is stored, record
7333                  the storing insn so that we may delete this insn with
7334                  delete_output_reload.  */
7335               src_reg = rld[r].reg_rtx;
7336
7337               /* If this is an optional reload, try to find the source reg
7338                  from an input reload.  */
7339               if (! src_reg)
7340                 {
7341                   rtx set = single_set (insn);
7342                   if (set && SET_DEST (set) == rld[r].out)
7343                     {
7344                       int k;
7345
7346                       src_reg = SET_SRC (set);
7347                       store_insn = insn;
7348                       for (k = 0; k < n_reloads; k++)
7349                         {
7350                           if (rld[k].in == src_reg)
7351                             {
7352                               src_reg = rld[k].reg_rtx;
7353                               break;
7354                             }
7355                         }
7356                     }
7357                 }
7358               else
7359                 store_insn = new_spill_reg_store[REGNO (src_reg)];
7360               if (src_reg && REG_P (src_reg)
7361                   && REGNO (src_reg) < FIRST_PSEUDO_REGISTER)
7362                 {
7363                   int src_regno = REGNO (src_reg);
7364                   int nr = hard_regno_nregs[src_regno][rld[r].mode];
7365                   /* The place where to find a death note varies with
7366                      PRESERVE_DEATH_INFO_REGNO_P .  The condition is not
7367                      necessarily checked exactly in the code that moves
7368                      notes, so just check both locations.  */
7369                   rtx note = find_regno_note (insn, REG_DEAD, src_regno);
7370                   if (! note && store_insn)
7371                     note = find_regno_note (store_insn, REG_DEAD, src_regno);
7372                   while (nr-- > 0)
7373                     {
7374                       spill_reg_store[src_regno + nr] = store_insn;
7375                       spill_reg_stored_to[src_regno + nr] = out;
7376                       reg_reloaded_contents[src_regno + nr] = nregno;
7377                       reg_reloaded_insn[src_regno + nr] = store_insn;
7378                       CLEAR_HARD_REG_BIT (reg_reloaded_dead, src_regno + nr);
7379                       SET_HARD_REG_BIT (reg_reloaded_valid, src_regno + nr);
7380                       if (HARD_REGNO_CALL_PART_CLOBBERED (src_regno + nr, 
7381                                                           GET_MODE (src_reg)))
7382                         SET_HARD_REG_BIT (reg_reloaded_call_part_clobbered, 
7383                                           src_regno + nr);
7384                       SET_HARD_REG_BIT (reg_is_output_reload, src_regno + nr);
7385                       if (note)
7386                         SET_HARD_REG_BIT (reg_reloaded_died, src_regno);
7387                       else
7388                         CLEAR_HARD_REG_BIT (reg_reloaded_died, src_regno);
7389                     }
7390                   reg_last_reload_reg[nregno] = src_reg;
7391                   /* We have to set reg_has_output_reload here, or else 
7392                      forget_old_reloads_1 will clear reg_last_reload_reg
7393                      right away.  */
7394                   reg_has_output_reload[nregno] = 1;
7395                 }
7396             }
7397           else
7398             {
7399               int num_regs = hard_regno_nregs[nregno][GET_MODE (rld[r].out)];
7400
7401               while (num_regs-- > 0)
7402                 reg_last_reload_reg[nregno + num_regs] = 0;
7403             }
7404         }
7405     }
7406   IOR_HARD_REG_SET (reg_reloaded_dead, reg_reloaded_died);
7407 }
7408 \f
7409 /* Emit code to perform a reload from IN (which may be a reload register) to
7410    OUT (which may also be a reload register).  IN or OUT is from operand
7411    OPNUM with reload type TYPE.
7412
7413    Returns first insn emitted.  */
7414
7415 static rtx
7416 gen_reload (rtx out, rtx in, int opnum, enum reload_type type)
7417 {
7418   rtx last = get_last_insn ();
7419   rtx tem;
7420
7421   /* If IN is a paradoxical SUBREG, remove it and try to put the
7422      opposite SUBREG on OUT.  Likewise for a paradoxical SUBREG on OUT.  */
7423   if (GET_CODE (in) == SUBREG
7424       && (GET_MODE_SIZE (GET_MODE (in))
7425           > GET_MODE_SIZE (GET_MODE (SUBREG_REG (in))))
7426       && (tem = gen_lowpart_common (GET_MODE (SUBREG_REG (in)), out)) != 0)
7427     in = SUBREG_REG (in), out = tem;
7428   else if (GET_CODE (out) == SUBREG
7429            && (GET_MODE_SIZE (GET_MODE (out))
7430                > GET_MODE_SIZE (GET_MODE (SUBREG_REG (out))))
7431            && (tem = gen_lowpart_common (GET_MODE (SUBREG_REG (out)), in)) != 0)
7432     out = SUBREG_REG (out), in = tem;
7433
7434   /* How to do this reload can get quite tricky.  Normally, we are being
7435      asked to reload a simple operand, such as a MEM, a constant, or a pseudo
7436      register that didn't get a hard register.  In that case we can just
7437      call emit_move_insn.
7438
7439      We can also be asked to reload a PLUS that adds a register or a MEM to
7440      another register, constant or MEM.  This can occur during frame pointer
7441      elimination and while reloading addresses.  This case is handled by
7442      trying to emit a single insn to perform the add.  If it is not valid,
7443      we use a two insn sequence.
7444
7445      Finally, we could be called to handle an 'o' constraint by putting
7446      an address into a register.  In that case, we first try to do this
7447      with a named pattern of "reload_load_address".  If no such pattern
7448      exists, we just emit a SET insn and hope for the best (it will normally
7449      be valid on machines that use 'o').
7450
7451      This entire process is made complex because reload will never
7452      process the insns we generate here and so we must ensure that
7453      they will fit their constraints and also by the fact that parts of
7454      IN might be being reloaded separately and replaced with spill registers.
7455      Because of this, we are, in some sense, just guessing the right approach
7456      here.  The one listed above seems to work.
7457
7458      ??? At some point, this whole thing needs to be rethought.  */
7459
7460   if (GET_CODE (in) == PLUS
7461       && (REG_P (XEXP (in, 0))
7462           || GET_CODE (XEXP (in, 0)) == SUBREG
7463           || MEM_P (XEXP (in, 0)))
7464       && (REG_P (XEXP (in, 1))
7465           || GET_CODE (XEXP (in, 1)) == SUBREG
7466           || CONSTANT_P (XEXP (in, 1))
7467           || MEM_P (XEXP (in, 1))))
7468     {
7469       /* We need to compute the sum of a register or a MEM and another
7470          register, constant, or MEM, and put it into the reload
7471          register.  The best possible way of doing this is if the machine
7472          has a three-operand ADD insn that accepts the required operands.
7473
7474          The simplest approach is to try to generate such an insn and see if it
7475          is recognized and matches its constraints.  If so, it can be used.
7476
7477          It might be better not to actually emit the insn unless it is valid,
7478          but we need to pass the insn as an operand to `recog' and
7479          `extract_insn' and it is simpler to emit and then delete the insn if
7480          not valid than to dummy things up.  */
7481
7482       rtx op0, op1, tem, insn;
7483       int code;
7484
7485       op0 = find_replacement (&XEXP (in, 0));
7486       op1 = find_replacement (&XEXP (in, 1));
7487
7488       /* Since constraint checking is strict, commutativity won't be
7489          checked, so we need to do that here to avoid spurious failure
7490          if the add instruction is two-address and the second operand
7491          of the add is the same as the reload reg, which is frequently
7492          the case.  If the insn would be A = B + A, rearrange it so
7493          it will be A = A + B as constrain_operands expects.  */
7494
7495       if (REG_P (XEXP (in, 1))
7496           && REGNO (out) == REGNO (XEXP (in, 1)))
7497         tem = op0, op0 = op1, op1 = tem;
7498
7499       if (op0 != XEXP (in, 0) || op1 != XEXP (in, 1))
7500         in = gen_rtx_PLUS (GET_MODE (in), op0, op1);
7501
7502       insn = emit_insn (gen_rtx_SET (VOIDmode, out, in));
7503       code = recog_memoized (insn);
7504
7505       if (code >= 0)
7506         {
7507           extract_insn (insn);
7508           /* We want constrain operands to treat this insn strictly in
7509              its validity determination, i.e., the way it would after reload
7510              has completed.  */
7511           if (constrain_operands (1))
7512             return insn;
7513         }
7514
7515       delete_insns_since (last);
7516
7517       /* If that failed, we must use a conservative two-insn sequence.
7518
7519          Use a move to copy one operand into the reload register.  Prefer
7520          to reload a constant, MEM or pseudo since the move patterns can
7521          handle an arbitrary operand.  If OP1 is not a constant, MEM or
7522          pseudo and OP1 is not a valid operand for an add instruction, then
7523          reload OP1.
7524
7525          After reloading one of the operands into the reload register, add
7526          the reload register to the output register.
7527
7528          If there is another way to do this for a specific machine, a
7529          DEFINE_PEEPHOLE should be specified that recognizes the sequence
7530          we emit below.  */
7531
7532       code = (int) add_optab->handlers[(int) GET_MODE (out)].insn_code;
7533
7534       if (CONSTANT_P (op1) || MEM_P (op1) || GET_CODE (op1) == SUBREG
7535           || (REG_P (op1)
7536               && REGNO (op1) >= FIRST_PSEUDO_REGISTER)
7537           || (code != CODE_FOR_nothing
7538               && ! ((*insn_data[code].operand[2].predicate)
7539                     (op1, insn_data[code].operand[2].mode))))
7540         tem = op0, op0 = op1, op1 = tem;
7541
7542       gen_reload (out, op0, opnum, type);
7543
7544       /* If OP0 and OP1 are the same, we can use OUT for OP1.
7545          This fixes a problem on the 32K where the stack pointer cannot
7546          be used as an operand of an add insn.  */
7547
7548       if (rtx_equal_p (op0, op1))
7549         op1 = out;
7550
7551       insn = emit_insn (gen_add2_insn (out, op1));
7552
7553       /* If that failed, copy the address register to the reload register.
7554          Then add the constant to the reload register.  */
7555
7556       code = recog_memoized (insn);
7557
7558       if (code >= 0)
7559         {
7560           extract_insn (insn);
7561           /* We want constrain operands to treat this insn strictly in
7562              its validity determination, i.e., the way it would after reload
7563              has completed.  */
7564           if (constrain_operands (1))
7565             {
7566               /* Add a REG_EQUIV note so that find_equiv_reg can find it.  */
7567               REG_NOTES (insn)
7568                 = gen_rtx_EXPR_LIST (REG_EQUIV, in, REG_NOTES (insn));
7569               return insn;
7570             }
7571         }
7572
7573       delete_insns_since (last);
7574
7575       gen_reload (out, op1, opnum, type);
7576       insn = emit_insn (gen_add2_insn (out, op0));
7577       REG_NOTES (insn) = gen_rtx_EXPR_LIST (REG_EQUIV, in, REG_NOTES (insn));
7578     }
7579
7580 #ifdef SECONDARY_MEMORY_NEEDED
7581   /* If we need a memory location to do the move, do it that way.  */
7582   else if ((REG_P (in) || GET_CODE (in) == SUBREG)
7583            && reg_or_subregno (in) < FIRST_PSEUDO_REGISTER
7584            && (REG_P (out) || GET_CODE (out) == SUBREG)
7585            && reg_or_subregno (out) < FIRST_PSEUDO_REGISTER
7586            && SECONDARY_MEMORY_NEEDED (REGNO_REG_CLASS (reg_or_subregno (in)),
7587                                        REGNO_REG_CLASS (reg_or_subregno (out)),
7588                                        GET_MODE (out)))
7589     {
7590       /* Get the memory to use and rewrite both registers to its mode.  */
7591       rtx loc = get_secondary_mem (in, GET_MODE (out), opnum, type);
7592
7593       if (GET_MODE (loc) != GET_MODE (out))
7594         out = gen_rtx_REG (GET_MODE (loc), REGNO (out));
7595
7596       if (GET_MODE (loc) != GET_MODE (in))
7597         in = gen_rtx_REG (GET_MODE (loc), REGNO (in));
7598
7599       gen_reload (loc, in, opnum, type);
7600       gen_reload (out, loc, opnum, type);
7601     }
7602 #endif
7603
7604   /* If IN is a simple operand, use gen_move_insn.  */
7605   else if (OBJECT_P (in) || GET_CODE (in) == SUBREG)
7606     emit_insn (gen_move_insn (out, in));
7607
7608 #ifdef HAVE_reload_load_address
7609   else if (HAVE_reload_load_address)
7610     emit_insn (gen_reload_load_address (out, in));
7611 #endif
7612
7613   /* Otherwise, just write (set OUT IN) and hope for the best.  */
7614   else
7615     emit_insn (gen_rtx_SET (VOIDmode, out, in));
7616
7617   /* Return the first insn emitted.
7618      We can not just return get_last_insn, because there may have
7619      been multiple instructions emitted.  Also note that gen_move_insn may
7620      emit more than one insn itself, so we can not assume that there is one
7621      insn emitted per emit_insn_before call.  */
7622
7623   return last ? NEXT_INSN (last) : get_insns ();
7624 }
7625 \f
7626 /* Delete a previously made output-reload whose result we now believe
7627    is not needed.  First we double-check.
7628
7629    INSN is the insn now being processed.
7630    LAST_RELOAD_REG is the hard register number for which we want to delete
7631    the last output reload.
7632    J is the reload-number that originally used REG.  The caller has made
7633    certain that reload J doesn't use REG any longer for input.  */
7634
7635 static void
7636 delete_output_reload (rtx insn, int j, int last_reload_reg)
7637 {
7638   rtx output_reload_insn = spill_reg_store[last_reload_reg];
7639   rtx reg = spill_reg_stored_to[last_reload_reg];
7640   int k;
7641   int n_occurrences;
7642   int n_inherited = 0;
7643   rtx i1;
7644   rtx substed;
7645
7646   /* It is possible that this reload has been only used to set another reload
7647      we eliminated earlier and thus deleted this instruction too.  */
7648   if (INSN_DELETED_P (output_reload_insn))
7649     return;
7650
7651   /* Get the raw pseudo-register referred to.  */
7652
7653   while (GET_CODE (reg) == SUBREG)
7654     reg = SUBREG_REG (reg);
7655   substed = reg_equiv_memory_loc[REGNO (reg)];
7656
7657   /* This is unsafe if the operand occurs more often in the current
7658      insn than it is inherited.  */
7659   for (k = n_reloads - 1; k >= 0; k--)
7660     {
7661       rtx reg2 = rld[k].in;
7662       if (! reg2)
7663         continue;
7664       if (MEM_P (reg2) || reload_override_in[k])
7665         reg2 = rld[k].in_reg;
7666 #ifdef AUTO_INC_DEC
7667       if (rld[k].out && ! rld[k].out_reg)
7668         reg2 = XEXP (rld[k].in_reg, 0);
7669 #endif
7670       while (GET_CODE (reg2) == SUBREG)
7671         reg2 = SUBREG_REG (reg2);
7672       if (rtx_equal_p (reg2, reg))
7673         {
7674           if (reload_inherited[k] || reload_override_in[k] || k == j)
7675             {
7676               n_inherited++;
7677               reg2 = rld[k].out_reg;
7678               if (! reg2)
7679                 continue;
7680               while (GET_CODE (reg2) == SUBREG)
7681                 reg2 = XEXP (reg2, 0);
7682               if (rtx_equal_p (reg2, reg))
7683                 n_inherited++;
7684             }
7685           else
7686             return;
7687         }
7688     }
7689   n_occurrences = count_occurrences (PATTERN (insn), reg, 0);
7690   if (substed)
7691     n_occurrences += count_occurrences (PATTERN (insn),
7692                                         eliminate_regs (substed, 0,
7693                                                         NULL_RTX), 0);
7694   if (n_occurrences > n_inherited)
7695     return;
7696
7697   /* If the pseudo-reg we are reloading is no longer referenced
7698      anywhere between the store into it and here,
7699      and we're within the same basic block, then the value can only
7700      pass through the reload reg and end up here.
7701      Otherwise, give up--return.  */
7702   for (i1 = NEXT_INSN (output_reload_insn);
7703        i1 != insn; i1 = NEXT_INSN (i1))
7704     {
7705       if (NOTE_INSN_BASIC_BLOCK_P (i1))
7706         return;
7707       if ((NONJUMP_INSN_P (i1) || CALL_P (i1))
7708           && reg_mentioned_p (reg, PATTERN (i1)))
7709         {
7710           /* If this is USE in front of INSN, we only have to check that
7711              there are no more references than accounted for by inheritance.  */
7712           while (NONJUMP_INSN_P (i1) && GET_CODE (PATTERN (i1)) == USE)
7713             {
7714               n_occurrences += rtx_equal_p (reg, XEXP (PATTERN (i1), 0)) != 0;
7715               i1 = NEXT_INSN (i1);
7716             }
7717           if (n_occurrences <= n_inherited && i1 == insn)
7718             break;
7719           return;
7720         }
7721     }
7722
7723   /* We will be deleting the insn.  Remove the spill reg information.  */
7724   for (k = hard_regno_nregs[last_reload_reg][GET_MODE (reg)]; k-- > 0; )
7725     {
7726       spill_reg_store[last_reload_reg + k] = 0;
7727       spill_reg_stored_to[last_reload_reg + k] = 0;
7728     }
7729
7730   /* The caller has already checked that REG dies or is set in INSN.
7731      It has also checked that we are optimizing, and thus some
7732      inaccuracies in the debugging information are acceptable.
7733      So we could just delete output_reload_insn.  But in some cases
7734      we can improve the debugging information without sacrificing
7735      optimization - maybe even improving the code: See if the pseudo
7736      reg has been completely replaced with reload regs.  If so, delete
7737      the store insn and forget we had a stack slot for the pseudo.  */
7738   if (rld[j].out != rld[j].in
7739       && REG_N_DEATHS (REGNO (reg)) == 1
7740       && REG_N_SETS (REGNO (reg)) == 1
7741       && REG_BASIC_BLOCK (REGNO (reg)) >= 0
7742       && find_regno_note (insn, REG_DEAD, REGNO (reg)))
7743     {
7744       rtx i2;
7745
7746       /* We know that it was used only between here and the beginning of
7747          the current basic block.  (We also know that the last use before
7748          INSN was the output reload we are thinking of deleting, but never
7749          mind that.)  Search that range; see if any ref remains.  */
7750       for (i2 = PREV_INSN (insn); i2; i2 = PREV_INSN (i2))
7751         {
7752           rtx set = single_set (i2);
7753
7754           /* Uses which just store in the pseudo don't count,
7755              since if they are the only uses, they are dead.  */
7756           if (set != 0 && SET_DEST (set) == reg)
7757             continue;
7758           if (LABEL_P (i2)
7759               || JUMP_P (i2))
7760             break;
7761           if ((NONJUMP_INSN_P (i2) || CALL_P (i2))
7762               && reg_mentioned_p (reg, PATTERN (i2)))
7763             {
7764               /* Some other ref remains; just delete the output reload we
7765                  know to be dead.  */
7766               delete_address_reloads (output_reload_insn, insn);
7767               delete_insn (output_reload_insn);
7768               return;
7769             }
7770         }
7771
7772       /* Delete the now-dead stores into this pseudo.  Note that this
7773          loop also takes care of deleting output_reload_insn.  */
7774       for (i2 = PREV_INSN (insn); i2; i2 = PREV_INSN (i2))
7775         {
7776           rtx set = single_set (i2);
7777
7778           if (set != 0 && SET_DEST (set) == reg)
7779             {
7780               delete_address_reloads (i2, insn);
7781               delete_insn (i2);
7782             }
7783           if (LABEL_P (i2)
7784               || JUMP_P (i2))
7785             break;
7786         }
7787
7788       /* For the debugging info, say the pseudo lives in this reload reg.  */
7789       reg_renumber[REGNO (reg)] = REGNO (rld[j].reg_rtx);
7790       alter_reg (REGNO (reg), -1);
7791     }
7792   else
7793     {
7794       delete_address_reloads (output_reload_insn, insn);
7795       delete_insn (output_reload_insn);
7796     }
7797 }
7798
7799 /* We are going to delete DEAD_INSN.  Recursively delete loads of
7800    reload registers used in DEAD_INSN that are not used till CURRENT_INSN.
7801    CURRENT_INSN is being reloaded, so we have to check its reloads too.  */
7802 static void
7803 delete_address_reloads (rtx dead_insn, rtx current_insn)
7804 {
7805   rtx set = single_set (dead_insn);
7806   rtx set2, dst, prev, next;
7807   if (set)
7808     {
7809       rtx dst = SET_DEST (set);
7810       if (MEM_P (dst))
7811         delete_address_reloads_1 (dead_insn, XEXP (dst, 0), current_insn);
7812     }
7813   /* If we deleted the store from a reloaded post_{in,de}c expression,
7814      we can delete the matching adds.  */
7815   prev = PREV_INSN (dead_insn);
7816   next = NEXT_INSN (dead_insn);
7817   if (! prev || ! next)
7818     return;
7819   set = single_set (next);
7820   set2 = single_set (prev);
7821   if (! set || ! set2
7822       || GET_CODE (SET_SRC (set)) != PLUS || GET_CODE (SET_SRC (set2)) != PLUS
7823       || GET_CODE (XEXP (SET_SRC (set), 1)) != CONST_INT
7824       || GET_CODE (XEXP (SET_SRC (set2), 1)) != CONST_INT)
7825     return;
7826   dst = SET_DEST (set);
7827   if (! rtx_equal_p (dst, SET_DEST (set2))
7828       || ! rtx_equal_p (dst, XEXP (SET_SRC (set), 0))
7829       || ! rtx_equal_p (dst, XEXP (SET_SRC (set2), 0))
7830       || (INTVAL (XEXP (SET_SRC (set), 1))
7831           != -INTVAL (XEXP (SET_SRC (set2), 1))))
7832     return;
7833   delete_related_insns (prev);
7834   delete_related_insns (next);
7835 }
7836
7837 /* Subfunction of delete_address_reloads: process registers found in X.  */
7838 static void
7839 delete_address_reloads_1 (rtx dead_insn, rtx x, rtx current_insn)
7840 {
7841   rtx prev, set, dst, i2;
7842   int i, j;
7843   enum rtx_code code = GET_CODE (x);
7844
7845   if (code != REG)
7846     {
7847       const char *fmt = GET_RTX_FORMAT (code);
7848       for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
7849         {
7850           if (fmt[i] == 'e')
7851             delete_address_reloads_1 (dead_insn, XEXP (x, i), current_insn);
7852           else if (fmt[i] == 'E')
7853             {
7854               for (j = XVECLEN (x, i) - 1; j >= 0; j--)
7855                 delete_address_reloads_1 (dead_insn, XVECEXP (x, i, j),
7856                                           current_insn);
7857             }
7858         }
7859       return;
7860     }
7861
7862   if (spill_reg_order[REGNO (x)] < 0)
7863     return;
7864
7865   /* Scan backwards for the insn that sets x.  This might be a way back due
7866      to inheritance.  */
7867   for (prev = PREV_INSN (dead_insn); prev; prev = PREV_INSN (prev))
7868     {
7869       code = GET_CODE (prev);
7870       if (code == CODE_LABEL || code == JUMP_INSN)
7871         return;
7872       if (!INSN_P (prev))
7873         continue;
7874       if (reg_set_p (x, PATTERN (prev)))
7875         break;
7876       if (reg_referenced_p (x, PATTERN (prev)))
7877         return;
7878     }
7879   if (! prev || INSN_UID (prev) < reload_first_uid)
7880     return;
7881   /* Check that PREV only sets the reload register.  */
7882   set = single_set (prev);
7883   if (! set)
7884     return;
7885   dst = SET_DEST (set);
7886   if (!REG_P (dst)
7887       || ! rtx_equal_p (dst, x))
7888     return;
7889   if (! reg_set_p (dst, PATTERN (dead_insn)))
7890     {
7891       /* Check if DST was used in a later insn -
7892          it might have been inherited.  */
7893       for (i2 = NEXT_INSN (dead_insn); i2; i2 = NEXT_INSN (i2))
7894         {
7895           if (LABEL_P (i2))
7896             break;
7897           if (! INSN_P (i2))
7898             continue;
7899           if (reg_referenced_p (dst, PATTERN (i2)))
7900             {
7901               /* If there is a reference to the register in the current insn,
7902                  it might be loaded in a non-inherited reload.  If no other
7903                  reload uses it, that means the register is set before
7904                  referenced.  */
7905               if (i2 == current_insn)
7906                 {
7907                   for (j = n_reloads - 1; j >= 0; j--)
7908                     if ((rld[j].reg_rtx == dst && reload_inherited[j])
7909                         || reload_override_in[j] == dst)
7910                       return;
7911                   for (j = n_reloads - 1; j >= 0; j--)
7912                     if (rld[j].in && rld[j].reg_rtx == dst)
7913                       break;
7914                   if (j >= 0)
7915                     break;
7916                 }
7917               return;
7918             }
7919           if (JUMP_P (i2))
7920             break;
7921           /* If DST is still live at CURRENT_INSN, check if it is used for
7922              any reload.  Note that even if CURRENT_INSN sets DST, we still
7923              have to check the reloads.  */
7924           if (i2 == current_insn)
7925             {
7926               for (j = n_reloads - 1; j >= 0; j--)
7927                 if ((rld[j].reg_rtx == dst && reload_inherited[j])
7928                     || reload_override_in[j] == dst)
7929                   return;
7930               /* ??? We can't finish the loop here, because dst might be
7931                  allocated to a pseudo in this block if no reload in this
7932                  block needs any of the classes containing DST - see
7933                  spill_hard_reg.  There is no easy way to tell this, so we
7934                  have to scan till the end of the basic block.  */
7935             }
7936           if (reg_set_p (dst, PATTERN (i2)))
7937             break;
7938         }
7939     }
7940   delete_address_reloads_1 (prev, SET_SRC (set), current_insn);
7941   reg_reloaded_contents[REGNO (dst)] = -1;
7942   delete_insn (prev);
7943 }
7944 \f
7945 /* Output reload-insns to reload VALUE into RELOADREG.
7946    VALUE is an autoincrement or autodecrement RTX whose operand
7947    is a register or memory location;
7948    so reloading involves incrementing that location.
7949    IN is either identical to VALUE, or some cheaper place to reload from.
7950
7951    INC_AMOUNT is the number to increment or decrement by (always positive).
7952    This cannot be deduced from VALUE.
7953
7954    Return the instruction that stores into RELOADREG.  */
7955
7956 static rtx
7957 inc_for_reload (rtx reloadreg, rtx in, rtx value, int inc_amount)
7958 {
7959   /* REG or MEM to be copied and incremented.  */
7960   rtx incloc = XEXP (value, 0);
7961   /* Nonzero if increment after copying.  */
7962   int post = (GET_CODE (value) == POST_DEC || GET_CODE (value) == POST_INC);
7963   rtx last;
7964   rtx inc;
7965   rtx add_insn;
7966   int code;
7967   rtx store;
7968   rtx real_in = in == value ? XEXP (in, 0) : in;
7969
7970   /* No hard register is equivalent to this register after
7971      inc/dec operation.  If REG_LAST_RELOAD_REG were nonzero,
7972      we could inc/dec that register as well (maybe even using it for
7973      the source), but I'm not sure it's worth worrying about.  */
7974   if (REG_P (incloc))
7975     reg_last_reload_reg[REGNO (incloc)] = 0;
7976
7977   if (GET_CODE (value) == PRE_DEC || GET_CODE (value) == POST_DEC)
7978     inc_amount = -inc_amount;
7979
7980   inc = GEN_INT (inc_amount);
7981
7982   /* If this is post-increment, first copy the location to the reload reg.  */
7983   if (post && real_in != reloadreg)
7984     emit_insn (gen_move_insn (reloadreg, real_in));
7985
7986   if (in == value)
7987     {
7988       /* See if we can directly increment INCLOC.  Use a method similar to
7989          that in gen_reload.  */
7990
7991       last = get_last_insn ();
7992       add_insn = emit_insn (gen_rtx_SET (VOIDmode, incloc,
7993                                          gen_rtx_PLUS (GET_MODE (incloc),
7994                                                        incloc, inc)));
7995
7996       code = recog_memoized (add_insn);
7997       if (code >= 0)
7998         {
7999           extract_insn (add_insn);
8000           if (constrain_operands (1))
8001             {
8002               /* If this is a pre-increment and we have incremented the value
8003                  where it lives, copy the incremented value to RELOADREG to
8004                  be used as an address.  */
8005
8006               if (! post)
8007                 emit_insn (gen_move_insn (reloadreg, incloc));
8008
8009               return add_insn;
8010             }
8011         }
8012       delete_insns_since (last);
8013     }
8014
8015   /* If couldn't do the increment directly, must increment in RELOADREG.
8016      The way we do this depends on whether this is pre- or post-increment.
8017      For pre-increment, copy INCLOC to the reload register, increment it
8018      there, then save back.  */
8019
8020   if (! post)
8021     {
8022       if (in != reloadreg)
8023         emit_insn (gen_move_insn (reloadreg, real_in));
8024       emit_insn (gen_add2_insn (reloadreg, inc));
8025       store = emit_insn (gen_move_insn (incloc, reloadreg));
8026     }
8027   else
8028     {
8029       /* Postincrement.
8030          Because this might be a jump insn or a compare, and because RELOADREG
8031          may not be available after the insn in an input reload, we must do
8032          the incrementation before the insn being reloaded for.
8033
8034          We have already copied IN to RELOADREG.  Increment the copy in
8035          RELOADREG, save that back, then decrement RELOADREG so it has
8036          the original value.  */
8037
8038       emit_insn (gen_add2_insn (reloadreg, inc));
8039       store = emit_insn (gen_move_insn (incloc, reloadreg));
8040       emit_insn (gen_add2_insn (reloadreg, GEN_INT (-inc_amount)));
8041     }
8042
8043   return store;
8044 }
8045 \f
8046 #ifdef AUTO_INC_DEC
8047 static void
8048 add_auto_inc_notes (rtx insn, rtx x)
8049 {
8050   enum rtx_code code = GET_CODE (x);
8051   const char *fmt;
8052   int i, j;
8053
8054   if (code == MEM && auto_inc_p (XEXP (x, 0)))
8055     {
8056       REG_NOTES (insn)
8057         = gen_rtx_EXPR_LIST (REG_INC, XEXP (XEXP (x, 0), 0), REG_NOTES (insn));
8058       return;
8059     }
8060
8061   /* Scan all the operand sub-expressions.  */
8062   fmt = GET_RTX_FORMAT (code);
8063   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
8064     {
8065       if (fmt[i] == 'e')
8066         add_auto_inc_notes (insn, XEXP (x, i));
8067       else if (fmt[i] == 'E')
8068         for (j = XVECLEN (x, i) - 1; j >= 0; j--)
8069           add_auto_inc_notes (insn, XVECEXP (x, i, j));
8070     }
8071 }
8072 #endif
8073
8074 /* Copy EH notes from an insn to its reloads.  */
8075 static void
8076 copy_eh_notes (rtx insn, rtx x)
8077 {
8078   rtx eh_note = find_reg_note (insn, REG_EH_REGION, NULL_RTX);
8079   if (eh_note)
8080     {
8081       for (; x != 0; x = NEXT_INSN (x))
8082         {
8083           if (may_trap_p (PATTERN (x)))
8084             REG_NOTES (x)
8085               = gen_rtx_EXPR_LIST (REG_EH_REGION, XEXP (eh_note, 0),
8086                                    REG_NOTES (x));
8087         }
8088     }
8089 }
8090
8091 /* This is used by reload pass, that does emit some instructions after
8092    abnormal calls moving basic block end, but in fact it wants to emit
8093    them on the edge.  Looks for abnormal call edges, find backward the
8094    proper call and fix the damage.
8095
8096    Similar handle instructions throwing exceptions internally.  */
8097 void
8098 fixup_abnormal_edges (void)
8099 {
8100   bool inserted = false;
8101   basic_block bb;
8102
8103   FOR_EACH_BB (bb)
8104     {
8105       edge e;
8106       edge_iterator ei;
8107
8108       /* Look for cases we are interested in - calls or instructions causing
8109          exceptions.  */
8110       FOR_EACH_EDGE (e, ei, bb->succs)
8111         {
8112           if (e->flags & EDGE_ABNORMAL_CALL)
8113             break;
8114           if ((e->flags & (EDGE_ABNORMAL | EDGE_EH))
8115               == (EDGE_ABNORMAL | EDGE_EH))
8116             break;
8117         }
8118       if (e && !CALL_P (BB_END (bb))
8119           && !can_throw_internal (BB_END (bb)))
8120         {
8121           rtx insn;
8122
8123           /* Get past the new insns generated.  Allow notes, as the insns
8124              may be already deleted.  */
8125           insn = BB_END (bb);
8126           while ((NONJUMP_INSN_P (insn) || NOTE_P (insn))
8127                  && !can_throw_internal (insn)
8128                  && insn != BB_HEAD (bb))
8129             insn = PREV_INSN (insn);
8130
8131           if (CALL_P (insn) || can_throw_internal (insn))
8132             {
8133               rtx stop, next;
8134
8135               stop = NEXT_INSN (BB_END (bb));
8136               BB_END (bb) = insn;
8137               insn = NEXT_INSN (insn);
8138
8139               FOR_EACH_EDGE (e, ei, bb->succs)
8140                 if (e->flags & EDGE_FALLTHRU)
8141                   break;
8142
8143               while (insn && insn != stop)
8144                 {
8145                   next = NEXT_INSN (insn);
8146                   if (INSN_P (insn))
8147                     {
8148                       delete_insn (insn);
8149
8150                       /* Sometimes there's still the return value USE.
8151                          If it's placed after a trapping call (i.e. that
8152                          call is the last insn anyway), we have no fallthru
8153                          edge.  Simply delete this use and don't try to insert
8154                          on the non-existent edge.  */
8155                       if (GET_CODE (PATTERN (insn)) != USE)
8156                         {
8157                           /* We're not deleting it, we're moving it.  */
8158                           INSN_DELETED_P (insn) = 0;
8159                           PREV_INSN (insn) = NULL_RTX;
8160                           NEXT_INSN (insn) = NULL_RTX;
8161
8162                           insert_insn_on_edge (insn, e);
8163                           inserted = true;
8164                         }
8165                     }
8166                   insn = next;
8167                 }
8168             }
8169
8170           /* It may be that we don't find any such trapping insn.  In this
8171              case we discovered quite late that the insn that had been 
8172              marked as can_throw_internal in fact couldn't trap at all.
8173              So we should in fact delete the EH edges out of the block.  */
8174           else
8175             purge_dead_edges (bb);
8176         }
8177     }
8178
8179   /* We've possibly turned single trapping insn into multiple ones.  */
8180   if (flag_non_call_exceptions)
8181     {
8182       sbitmap blocks;
8183       blocks = sbitmap_alloc (last_basic_block);
8184       sbitmap_ones (blocks);
8185       find_many_sub_basic_blocks (blocks);
8186     }
8187
8188   if (inserted)
8189     commit_edge_insertions ();
8190
8191 #ifdef ENABLE_CHECKING
8192   /* Verify that we didn't turn one trapping insn into many, and that
8193      we found and corrected all of the problems wrt fixups on the
8194      fallthru edge.  */
8195   verify_flow_info ();
8196 #endif
8197 }