OSDN Git Service

(memop_valid): Memory indirection now valid.
[pf3gnuchains/gcc-fork.git] / gcc / cse.c
1 /* Common subexpression elimination for GNU compiler.
2    Copyright (C) 1987, 88, 89, 92-6, 1997 Free Software Foundation, Inc.
3
4 This file is part of GNU CC.
5
6 GNU CC is free software; you can redistribute it and/or modify
7 it under the terms of the GNU General Public License as published by
8 the Free Software Foundation; either version 2, or (at your option)
9 any later version.
10
11 GNU CC is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14 GNU General Public License for more details.
15
16 You should have received a copy of the GNU General Public License
17 along with GNU CC; see the file COPYING.  If not, write to
18 the Free Software Foundation, 59 Temple Place - Suite 330,
19 Boston, MA 02111-1307, USA.  */
20
21
22 #include "config.h"
23 /* Must precede rtl.h for FFS.  */
24 #include <stdio.h>
25
26 #include "rtl.h"
27 #include "regs.h"
28 #include "hard-reg-set.h"
29 #include "flags.h"
30 #include "real.h"
31 #include "insn-config.h"
32 #include "recog.h"
33
34 #include <setjmp.h>
35
36 /* The basic idea of common subexpression elimination is to go
37    through the code, keeping a record of expressions that would
38    have the same value at the current scan point, and replacing
39    expressions encountered with the cheapest equivalent expression.
40
41    It is too complicated to keep track of the different possibilities
42    when control paths merge; so, at each label, we forget all that is
43    known and start fresh.  This can be described as processing each
44    basic block separately.  Note, however, that these are not quite
45    the same as the basic blocks found by a later pass and used for
46    data flow analysis and register packing.  We do not need to start fresh
47    after a conditional jump instruction if there is no label there.
48
49    We use two data structures to record the equivalent expressions:
50    a hash table for most expressions, and several vectors together
51    with "quantity numbers" to record equivalent (pseudo) registers.
52
53    The use of the special data structure for registers is desirable
54    because it is faster.  It is possible because registers references
55    contain a fairly small number, the register number, taken from
56    a contiguously allocated series, and two register references are
57    identical if they have the same number.  General expressions
58    do not have any such thing, so the only way to retrieve the
59    information recorded on an expression other than a register
60    is to keep it in a hash table.
61
62 Registers and "quantity numbers":
63    
64    At the start of each basic block, all of the (hardware and pseudo)
65    registers used in the function are given distinct quantity
66    numbers to indicate their contents.  During scan, when the code
67    copies one register into another, we copy the quantity number.
68    When a register is loaded in any other way, we allocate a new
69    quantity number to describe the value generated by this operation.
70    `reg_qty' records what quantity a register is currently thought
71    of as containing.
72
73    All real quantity numbers are greater than or equal to `max_reg'.
74    If register N has not been assigned a quantity, reg_qty[N] will equal N.
75
76    Quantity numbers below `max_reg' do not exist and none of the `qty_...'
77    variables should be referenced with an index below `max_reg'.
78
79    We also maintain a bidirectional chain of registers for each
80    quantity number.  `qty_first_reg', `qty_last_reg',
81    `reg_next_eqv' and `reg_prev_eqv' hold these chains.
82
83    The first register in a chain is the one whose lifespan is least local.
84    Among equals, it is the one that was seen first.
85    We replace any equivalent register with that one.
86
87    If two registers have the same quantity number, it must be true that
88    REG expressions with `qty_mode' must be in the hash table for both
89    registers and must be in the same class.
90
91    The converse is not true.  Since hard registers may be referenced in
92    any mode, two REG expressions might be equivalent in the hash table
93    but not have the same quantity number if the quantity number of one
94    of the registers is not the same mode as those expressions.
95    
96 Constants and quantity numbers
97
98    When a quantity has a known constant value, that value is stored
99    in the appropriate element of qty_const.  This is in addition to
100    putting the constant in the hash table as is usual for non-regs.
101
102    Whether a reg or a constant is preferred is determined by the configuration
103    macro CONST_COSTS and will often depend on the constant value.  In any
104    event, expressions containing constants can be simplified, by fold_rtx.
105
106    When a quantity has a known nearly constant value (such as an address
107    of a stack slot), that value is stored in the appropriate element
108    of qty_const.
109
110    Integer constants don't have a machine mode.  However, cse
111    determines the intended machine mode from the destination
112    of the instruction that moves the constant.  The machine mode
113    is recorded in the hash table along with the actual RTL
114    constant expression so that different modes are kept separate.
115
116 Other expressions:
117
118    To record known equivalences among expressions in general
119    we use a hash table called `table'.  It has a fixed number of buckets
120    that contain chains of `struct table_elt' elements for expressions.
121    These chains connect the elements whose expressions have the same
122    hash codes.
123
124    Other chains through the same elements connect the elements which
125    currently have equivalent values.
126
127    Register references in an expression are canonicalized before hashing
128    the expression.  This is done using `reg_qty' and `qty_first_reg'.
129    The hash code of a register reference is computed using the quantity
130    number, not the register number.
131
132    When the value of an expression changes, it is necessary to remove from the
133    hash table not just that expression but all expressions whose values
134    could be different as a result.
135
136      1. If the value changing is in memory, except in special cases
137      ANYTHING referring to memory could be changed.  That is because
138      nobody knows where a pointer does not point.
139      The function `invalidate_memory' removes what is necessary.
140
141      The special cases are when the address is constant or is
142      a constant plus a fixed register such as the frame pointer
143      or a static chain pointer.  When such addresses are stored in,
144      we can tell exactly which other such addresses must be invalidated
145      due to overlap.  `invalidate' does this.
146      All expressions that refer to non-constant
147      memory addresses are also invalidated.  `invalidate_memory' does this.
148
149      2. If the value changing is a register, all expressions
150      containing references to that register, and only those,
151      must be removed.
152
153    Because searching the entire hash table for expressions that contain
154    a register is very slow, we try to figure out when it isn't necessary.
155    Precisely, this is necessary only when expressions have been
156    entered in the hash table using this register, and then the value has
157    changed, and then another expression wants to be added to refer to
158    the register's new value.  This sequence of circumstances is rare
159    within any one basic block.
160
161    The vectors `reg_tick' and `reg_in_table' are used to detect this case.
162    reg_tick[i] is incremented whenever a value is stored in register i.
163    reg_in_table[i] holds -1 if no references to register i have been
164    entered in the table; otherwise, it contains the value reg_tick[i] had
165    when the references were entered.  If we want to enter a reference
166    and reg_in_table[i] != reg_tick[i], we must scan and remove old references.
167    Until we want to enter a new entry, the mere fact that the two vectors
168    don't match makes the entries be ignored if anyone tries to match them.
169
170    Registers themselves are entered in the hash table as well as in
171    the equivalent-register chains.  However, the vectors `reg_tick'
172    and `reg_in_table' do not apply to expressions which are simple
173    register references.  These expressions are removed from the table
174    immediately when they become invalid, and this can be done even if
175    we do not immediately search for all the expressions that refer to
176    the register.
177
178    A CLOBBER rtx in an instruction invalidates its operand for further
179    reuse.  A CLOBBER or SET rtx whose operand is a MEM:BLK
180    invalidates everything that resides in memory.
181
182 Related expressions:
183
184    Constant expressions that differ only by an additive integer
185    are called related.  When a constant expression is put in
186    the table, the related expression with no constant term
187    is also entered.  These are made to point at each other
188    so that it is possible to find out if there exists any
189    register equivalent to an expression related to a given expression.  */
190    
191 /* One plus largest register number used in this function.  */
192
193 static int max_reg;
194
195 /* Length of vectors indexed by quantity number.
196    We know in advance we will not need a quantity number this big.  */
197
198 static int max_qty;
199
200 /* Next quantity number to be allocated.
201    This is 1 + the largest number needed so far.  */
202
203 static int next_qty;
204
205 /* Indexed by quantity number, gives the first (or last) (pseudo) register 
206    in the chain of registers that currently contain this quantity.  */
207
208 static int *qty_first_reg;
209 static int *qty_last_reg;
210
211 /* Index by quantity number, gives the mode of the quantity.  */
212
213 static enum machine_mode *qty_mode;
214
215 /* Indexed by quantity number, gives the rtx of the constant value of the
216    quantity, or zero if it does not have a known value.
217    A sum of the frame pointer (or arg pointer) plus a constant
218    can also be entered here.  */
219
220 static rtx *qty_const;
221
222 /* Indexed by qty number, gives the insn that stored the constant value
223    recorded in `qty_const'.  */
224
225 static rtx *qty_const_insn;
226
227 /* The next three variables are used to track when a comparison between a
228    quantity and some constant or register has been passed.  In that case, we
229    know the results of the comparison in case we see it again.  These variables
230    record a comparison that is known to be true.  */
231
232 /* Indexed by qty number, gives the rtx code of a comparison with a known
233    result involving this quantity.  If none, it is UNKNOWN.  */
234 static enum rtx_code *qty_comparison_code;
235
236 /* Indexed by qty number, gives the constant being compared against in a
237    comparison of known result.  If no such comparison, it is undefined.
238    If the comparison is not with a constant, it is zero.  */
239
240 static rtx *qty_comparison_const;
241
242 /* Indexed by qty number, gives the quantity being compared against in a
243    comparison of known result.  If no such comparison, if it undefined.
244    If the comparison is not with a register, it is -1.  */
245
246 static int *qty_comparison_qty;
247
248 #ifdef HAVE_cc0
249 /* For machines that have a CC0, we do not record its value in the hash
250    table since its use is guaranteed to be the insn immediately following
251    its definition and any other insn is presumed to invalidate it.
252
253    Instead, we store below the value last assigned to CC0.  If it should
254    happen to be a constant, it is stored in preference to the actual
255    assigned value.  In case it is a constant, we store the mode in which
256    the constant should be interpreted.  */
257
258 static rtx prev_insn_cc0;
259 static enum machine_mode prev_insn_cc0_mode;
260 #endif
261
262 /* Previous actual insn.  0 if at first insn of basic block.  */
263
264 static rtx prev_insn;
265
266 /* Insn being scanned.  */
267
268 static rtx this_insn;
269
270 /* Index by (pseudo) register number, gives the quantity number
271    of the register's current contents.  */
272
273 static int *reg_qty;
274
275 /* Index by (pseudo) register number, gives the number of the next (or
276    previous) (pseudo) register in the chain of registers sharing the same
277    value.
278
279    Or -1 if this register is at the end of the chain.
280
281    If reg_qty[N] == N, reg_next_eqv[N] is undefined.  */
282
283 static int *reg_next_eqv;
284 static int *reg_prev_eqv;
285
286 /* Index by (pseudo) register number, gives the number of times
287    that register has been altered in the current basic block.  */
288
289 static int *reg_tick;
290
291 /* Index by (pseudo) register number, gives the reg_tick value at which
292    rtx's containing this register are valid in the hash table.
293    If this does not equal the current reg_tick value, such expressions
294    existing in the hash table are invalid.
295    If this is -1, no expressions containing this register have been
296    entered in the table.  */
297
298 static int *reg_in_table;
299
300 /* A HARD_REG_SET containing all the hard registers for which there is 
301    currently a REG expression in the hash table.  Note the difference
302    from the above variables, which indicate if the REG is mentioned in some
303    expression in the table.  */
304
305 static HARD_REG_SET hard_regs_in_table;
306
307 /* A HARD_REG_SET containing all the hard registers that are invalidated
308    by a CALL_INSN.  */
309
310 static HARD_REG_SET regs_invalidated_by_call;
311
312 /* Two vectors of ints:
313    one containing max_reg -1's; the other max_reg + 500 (an approximation
314    for max_qty) elements where element i contains i.
315    These are used to initialize various other vectors fast.  */
316
317 static int *all_minus_one;
318 static int *consec_ints;
319
320 /* CUID of insn that starts the basic block currently being cse-processed.  */
321
322 static int cse_basic_block_start;
323
324 /* CUID of insn that ends the basic block currently being cse-processed.  */
325
326 static int cse_basic_block_end;
327
328 /* Vector mapping INSN_UIDs to cuids.
329    The cuids are like uids but increase monotonically always.
330    We use them to see whether a reg is used outside a given basic block.  */
331
332 static int *uid_cuid;
333
334 /* Highest UID in UID_CUID.  */
335 static int max_uid;
336
337 /* Get the cuid of an insn.  */
338
339 #define INSN_CUID(INSN) (uid_cuid[INSN_UID (INSN)])
340
341 /* Nonzero if cse has altered conditional jump insns
342    in such a way that jump optimization should be redone.  */
343
344 static int cse_jumps_altered;
345
346 /* Nonzero if we put a LABEL_REF into the hash table.  Since we may have put
347    it into an INSN without a REG_LABEL, we have to rerun jump after CSE
348    to put in the note.  */
349 static int recorded_label_ref;
350
351 /* canon_hash stores 1 in do_not_record
352    if it notices a reference to CC0, PC, or some other volatile
353    subexpression.  */
354
355 static int do_not_record;
356
357 #ifdef LOAD_EXTEND_OP
358
359 /* Scratch rtl used when looking for load-extended copy of a MEM.  */
360 static rtx memory_extend_rtx;
361 #endif
362
363 /* canon_hash stores 1 in hash_arg_in_memory
364    if it notices a reference to memory within the expression being hashed.  */
365
366 static int hash_arg_in_memory;
367
368 /* canon_hash stores 1 in hash_arg_in_struct
369    if it notices a reference to memory that's part of a structure.  */
370
371 static int hash_arg_in_struct;
372
373 /* The hash table contains buckets which are chains of `struct table_elt's,
374    each recording one expression's information.
375    That expression is in the `exp' field.
376
377    Those elements with the same hash code are chained in both directions
378    through the `next_same_hash' and `prev_same_hash' fields.
379
380    Each set of expressions with equivalent values
381    are on a two-way chain through the `next_same_value'
382    and `prev_same_value' fields, and all point with
383    the `first_same_value' field at the first element in
384    that chain.  The chain is in order of increasing cost.
385    Each element's cost value is in its `cost' field.
386
387    The `in_memory' field is nonzero for elements that
388    involve any reference to memory.  These elements are removed
389    whenever a write is done to an unidentified location in memory.
390    To be safe, we assume that a memory address is unidentified unless
391    the address is either a symbol constant or a constant plus
392    the frame pointer or argument pointer.
393
394    The `in_struct' field is nonzero for elements that
395    involve any reference to memory inside a structure or array.
396
397    The `related_value' field is used to connect related expressions
398    (that differ by adding an integer).
399    The related expressions are chained in a circular fashion.
400    `related_value' is zero for expressions for which this
401    chain is not useful.
402
403    The `cost' field stores the cost of this element's expression.
404
405    The `is_const' flag is set if the element is a constant (including
406    a fixed address).
407
408    The `flag' field is used as a temporary during some search routines.
409
410    The `mode' field is usually the same as GET_MODE (`exp'), but
411    if `exp' is a CONST_INT and has no machine mode then the `mode'
412    field is the mode it was being used as.  Each constant is
413    recorded separately for each mode it is used with.  */
414
415
416 struct table_elt
417 {
418   rtx exp;
419   struct table_elt *next_same_hash;
420   struct table_elt *prev_same_hash;
421   struct table_elt *next_same_value;
422   struct table_elt *prev_same_value;
423   struct table_elt *first_same_value;
424   struct table_elt *related_value;
425   int cost;
426   enum machine_mode mode;
427   char in_memory;
428   char in_struct;
429   char is_const;
430   char flag;
431 };
432
433 /* We don't want a lot of buckets, because we rarely have very many
434    things stored in the hash table, and a lot of buckets slows
435    down a lot of loops that happen frequently.  */
436 #define NBUCKETS 31
437
438 /* Compute hash code of X in mode M.  Special-case case where X is a pseudo
439    register (hard registers may require `do_not_record' to be set).  */
440
441 #define HASH(X, M)      \
442  (GET_CODE (X) == REG && REGNO (X) >= FIRST_PSEUDO_REGISTER     \
443   ? (((unsigned) REG << 7) + (unsigned) reg_qty[REGNO (X)]) % NBUCKETS  \
444   : canon_hash (X, M) % NBUCKETS)
445
446 /* Determine whether register number N is considered a fixed register for CSE.
447    It is desirable to replace other regs with fixed regs, to reduce need for
448    non-fixed hard regs.
449    A reg wins if it is either the frame pointer or designated as fixed,
450    but not if it is an overlapping register.  */
451 #ifdef OVERLAPPING_REGNO_P
452 #define FIXED_REGNO_P(N)  \
453   (((N) == FRAME_POINTER_REGNUM || (N) == HARD_FRAME_POINTER_REGNUM \
454     || fixed_regs[N] || global_regs[N])   \
455    && ! OVERLAPPING_REGNO_P ((N)))
456 #else
457 #define FIXED_REGNO_P(N)  \
458   ((N) == FRAME_POINTER_REGNUM || (N) == HARD_FRAME_POINTER_REGNUM \
459    || fixed_regs[N] || global_regs[N])
460 #endif
461
462 /* Compute cost of X, as stored in the `cost' field of a table_elt.  Fixed
463    hard registers and pointers into the frame are the cheapest with a cost
464    of 0.  Next come pseudos with a cost of one and other hard registers with
465    a cost of 2.  Aside from these special cases, call `rtx_cost'.  */
466
467 #define CHEAP_REGNO(N) \
468   ((N) == FRAME_POINTER_REGNUM || (N) == HARD_FRAME_POINTER_REGNUM      \
469    || (N) == STACK_POINTER_REGNUM || (N) == ARG_POINTER_REGNUM          \
470    || ((N) >= FIRST_VIRTUAL_REGISTER && (N) <= LAST_VIRTUAL_REGISTER)   \
471    || ((N) < FIRST_PSEUDO_REGISTER                                      \
472        && FIXED_REGNO_P (N) && REGNO_REG_CLASS (N) != NO_REGS))
473
474 /* A register is cheap if it is a user variable assigned to the register
475    or if its register number always corresponds to a cheap register.  */
476
477 #define CHEAP_REG(N) \
478   ((REG_USERVAR_P (N) && REGNO (N) < FIRST_PSEUDO_REGISTER)     \
479    || CHEAP_REGNO (REGNO (N)))
480
481 #define COST(X)                                                         \
482   (GET_CODE (X) == REG                                                  \
483    ? (CHEAP_REG (X) ? 0                                                 \
484       : REGNO (X) >= FIRST_PSEUDO_REGISTER ? 1                          \
485       : 2)                                                              \
486    : ((GET_CODE (X) == SUBREG                                           \
487        && GET_CODE (SUBREG_REG (X)) == REG                              \
488        && GET_MODE_CLASS (GET_MODE (X)) == MODE_INT                     \
489        && GET_MODE_CLASS (GET_MODE (SUBREG_REG (X))) == MODE_INT        \
490        && (GET_MODE_SIZE (GET_MODE (X))                                 \
491            < GET_MODE_SIZE (GET_MODE (SUBREG_REG (X))))                 \
492        && subreg_lowpart_p (X)                                          \
493        && TRULY_NOOP_TRUNCATION (GET_MODE_BITSIZE (GET_MODE (X)),       \
494                                  GET_MODE_BITSIZE (GET_MODE (SUBREG_REG (X))))) \
495       ? (CHEAP_REG (SUBREG_REG (X)) ? 0                                 \
496          : REGNO (SUBREG_REG (X)) >= FIRST_PSEUDO_REGISTER ? 1          \
497          : 2)                                                           \
498       : rtx_cost (X, SET) * 2))
499
500 /* Determine if the quantity number for register X represents a valid index
501    into the `qty_...' variables.  */
502
503 #define REGNO_QTY_VALID_P(N) (reg_qty[N] != (N))
504
505 static struct table_elt *table[NBUCKETS];
506
507 /* Chain of `struct table_elt's made so far for this function
508    but currently removed from the table.  */
509
510 static struct table_elt *free_element_chain;
511
512 /* Number of `struct table_elt' structures made so far for this function.  */
513
514 static int n_elements_made;
515
516 /* Maximum value `n_elements_made' has had so far in this compilation
517    for functions previously processed.  */
518
519 static int max_elements_made;
520
521 /* Surviving equivalence class when two equivalence classes are merged 
522    by recording the effects of a jump in the last insn.  Zero if the
523    last insn was not a conditional jump.  */
524
525 static struct table_elt *last_jump_equiv_class;
526
527 /* Set to the cost of a constant pool reference if one was found for a
528    symbolic constant.  If this was found, it means we should try to
529    convert constants into constant pool entries if they don't fit in
530    the insn.  */
531
532 static int constant_pool_entries_cost;
533
534 /* Bits describing what kind of values in memory must be invalidated
535    for a particular instruction.  If all three bits are zero,
536    no memory refs need to be invalidated.  Each bit is more powerful
537    than the preceding ones, and if a bit is set then the preceding
538    bits are also set.
539
540    Here is how the bits are set:
541    Pushing onto the stack invalidates only the stack pointer,
542    writing at a fixed address invalidates only variable addresses,
543    writing in a structure element at variable address
544      invalidates all but scalar variables,
545    and writing in anything else at variable address invalidates everything.  */
546
547 struct write_data
548 {
549   int sp : 1;                   /* Invalidate stack pointer.  */
550   int var : 1;                  /* Invalidate variable addresses.  */
551   int nonscalar : 1;            /* Invalidate all but scalar variables.  */
552   int all : 1;                  /* Invalidate all memory refs.  */
553 };
554
555 /* Define maximum length of a branch path.  */
556
557 #define PATHLENGTH      10
558
559 /* This data describes a block that will be processed by cse_basic_block.  */
560
561 struct cse_basic_block_data {
562   /* Lowest CUID value of insns in block.  */
563   int low_cuid;
564   /* Highest CUID value of insns in block.  */
565   int high_cuid;
566   /* Total number of SETs in block.  */
567   int nsets;
568   /* Last insn in the block.  */
569   rtx last;
570   /* Size of current branch path, if any.  */
571   int path_size;
572   /* Current branch path, indicating which branches will be taken.  */
573   struct branch_path {
574     /* The branch insn.  */
575     rtx branch;
576     /* Whether it should be taken or not.  AROUND is the same as taken
577        except that it is used when the destination label is not preceded
578        by a BARRIER.  */
579     enum taken {TAKEN, NOT_TAKEN, AROUND} status;
580   } path[PATHLENGTH];
581 };
582
583 /* Nonzero if X has the form (PLUS frame-pointer integer).  We check for
584    virtual regs here because the simplify_*_operation routines are called
585    by integrate.c, which is called before virtual register instantiation.  */
586
587 #define FIXED_BASE_PLUS_P(X)                                    \
588   ((X) == frame_pointer_rtx || (X) == hard_frame_pointer_rtx    \
589    || (X) == arg_pointer_rtx                                    \
590    || (X) == virtual_stack_vars_rtx                             \
591    || (X) == virtual_incoming_args_rtx                          \
592    || (GET_CODE (X) == PLUS && GET_CODE (XEXP (X, 1)) == CONST_INT \
593        && (XEXP (X, 0) == frame_pointer_rtx                     \
594            || XEXP (X, 0) == hard_frame_pointer_rtx             \
595            || XEXP (X, 0) == arg_pointer_rtx                    \
596            || XEXP (X, 0) == virtual_stack_vars_rtx             \
597            || XEXP (X, 0) == virtual_incoming_args_rtx)))
598
599 /* Similar, but also allows reference to the stack pointer.
600
601    This used to include FIXED_BASE_PLUS_P, however, we can't assume that
602    arg_pointer_rtx by itself is nonzero, because on at least one machine,
603    the i960, the arg pointer is zero when it is unused.  */
604
605 #define NONZERO_BASE_PLUS_P(X)                                  \
606   ((X) == frame_pointer_rtx || (X) == hard_frame_pointer_rtx    \
607    || (X) == virtual_stack_vars_rtx                             \
608    || (X) == virtual_incoming_args_rtx                          \
609    || (GET_CODE (X) == PLUS && GET_CODE (XEXP (X, 1)) == CONST_INT \
610        && (XEXP (X, 0) == frame_pointer_rtx                     \
611            || XEXP (X, 0) == hard_frame_pointer_rtx             \
612            || XEXP (X, 0) == arg_pointer_rtx                    \
613            || XEXP (X, 0) == virtual_stack_vars_rtx             \
614            || XEXP (X, 0) == virtual_incoming_args_rtx))        \
615    || (X) == stack_pointer_rtx                                  \
616    || (X) == virtual_stack_dynamic_rtx                          \
617    || (X) == virtual_outgoing_args_rtx                          \
618    || (GET_CODE (X) == PLUS && GET_CODE (XEXP (X, 1)) == CONST_INT \
619        && (XEXP (X, 0) == stack_pointer_rtx                     \
620            || XEXP (X, 0) == virtual_stack_dynamic_rtx          \
621            || XEXP (X, 0) == virtual_outgoing_args_rtx)))
622
623 static void new_basic_block     PROTO((void));
624 static void make_new_qty        PROTO((int));
625 static void make_regs_eqv       PROTO((int, int));
626 static void delete_reg_equiv    PROTO((int));
627 static int mention_regs         PROTO((rtx));
628 static int insert_regs          PROTO((rtx, struct table_elt *, int));
629 static void free_element        PROTO((struct table_elt *));
630 static void remove_from_table   PROTO((struct table_elt *, unsigned));
631 static struct table_elt *get_element PROTO((void));
632 static struct table_elt *lookup PROTO((rtx, unsigned, enum machine_mode)),
633        *lookup_for_remove PROTO((rtx, unsigned, enum machine_mode));
634 static rtx lookup_as_function   PROTO((rtx, enum rtx_code));
635 static struct table_elt *insert PROTO((rtx, struct table_elt *, unsigned,
636                                        enum machine_mode));
637 static void merge_equiv_classes PROTO((struct table_elt *,
638                                        struct table_elt *));
639 static void invalidate          PROTO((rtx, enum machine_mode));
640 static void remove_invalid_refs PROTO((int));
641 static void rehash_using_reg    PROTO((rtx));
642 static void invalidate_memory   PROTO((struct write_data *));
643 static void invalidate_for_call PROTO((void));
644 static rtx use_related_value    PROTO((rtx, struct table_elt *));
645 static unsigned canon_hash      PROTO((rtx, enum machine_mode));
646 static unsigned safe_hash       PROTO((rtx, enum machine_mode));
647 static int exp_equiv_p          PROTO((rtx, rtx, int, int));
648 static void set_nonvarying_address_components PROTO((rtx, int, rtx *,
649                                                      HOST_WIDE_INT *,
650                                                      HOST_WIDE_INT *));
651 static int refers_to_p          PROTO((rtx, rtx));
652 static int refers_to_mem_p      PROTO((rtx, rtx, HOST_WIDE_INT,
653                                        HOST_WIDE_INT));
654 static int cse_rtx_addr_varies_p PROTO((rtx));
655 static rtx canon_reg            PROTO((rtx, rtx));
656 static void find_best_addr      PROTO((rtx, rtx *));
657 static enum rtx_code find_comparison_args PROTO((enum rtx_code, rtx *, rtx *,
658                                                  enum machine_mode *,
659                                                  enum machine_mode *));
660 static rtx cse_gen_binary       PROTO((enum rtx_code, enum machine_mode,
661                                        rtx, rtx));
662 static rtx simplify_plus_minus  PROTO((enum rtx_code, enum machine_mode,
663                                        rtx, rtx));
664 static rtx fold_rtx             PROTO((rtx, rtx));
665 static rtx equiv_constant       PROTO((rtx));
666 static void record_jump_equiv   PROTO((rtx, int));
667 static void record_jump_cond    PROTO((enum rtx_code, enum machine_mode,
668                                        rtx, rtx, int));
669 static void cse_insn            PROTO((rtx, int));
670 static void note_mem_written    PROTO((rtx, struct write_data *));
671 static void invalidate_from_clobbers PROTO((struct write_data *, rtx));
672 static rtx cse_process_notes    PROTO((rtx, rtx));
673 static void cse_around_loop     PROTO((rtx));
674 static void invalidate_skipped_set PROTO((rtx, rtx));
675 static void invalidate_skipped_block PROTO((rtx));
676 static void cse_check_loop_start PROTO((rtx, rtx));
677 static void cse_set_around_loop PROTO((rtx, rtx, rtx));
678 static rtx cse_basic_block      PROTO((rtx, rtx, struct branch_path *, int));
679 static void count_reg_usage     PROTO((rtx, int *, rtx, int));
680
681 extern int rtx_equal_function_value_matters;
682 \f
683 /* Return an estimate of the cost of computing rtx X.
684    One use is in cse, to decide which expression to keep in the hash table.
685    Another is in rtl generation, to pick the cheapest way to multiply.
686    Other uses like the latter are expected in the future.  */
687
688 /* Return the right cost to give to an operation
689    to make the cost of the corresponding register-to-register instruction
690    N times that of a fast register-to-register instruction.  */
691
692 #define COSTS_N_INSNS(N) ((N) * 4 - 2)
693
694 int
695 rtx_cost (x, outer_code)
696      rtx x;
697      enum rtx_code outer_code;
698 {
699   register int i, j;
700   register enum rtx_code code;
701   register char *fmt;
702   register int total;
703
704   if (x == 0)
705     return 0;
706
707   /* Compute the default costs of certain things.
708      Note that RTX_COSTS can override the defaults.  */
709
710   code = GET_CODE (x);
711   switch (code)
712     {
713     case MULT:
714       /* Count multiplication by 2**n as a shift,
715          because if we are considering it, we would output it as a shift.  */
716       if (GET_CODE (XEXP (x, 1)) == CONST_INT
717           && exact_log2 (INTVAL (XEXP (x, 1))) >= 0)
718         total = 2;
719       else
720         total = COSTS_N_INSNS (5);
721       break;
722     case DIV:
723     case UDIV:
724     case MOD:
725     case UMOD:
726       total = COSTS_N_INSNS (7);
727       break;
728     case USE:
729       /* Used in loop.c and combine.c as a marker.  */
730       total = 0;
731       break;
732     case ASM_OPERANDS:
733       /* We don't want these to be used in substitutions because
734          we have no way of validating the resulting insn.  So assign
735          anything containing an ASM_OPERANDS a very high cost.  */
736       total = 1000;
737       break;
738     default:
739       total = 2;
740     }
741
742   switch (code)
743     {
744     case REG:
745       return ! CHEAP_REG (x);
746
747     case SUBREG:
748       /* If we can't tie these modes, make this expensive.  The larger
749          the mode, the more expensive it is.  */
750       if (! MODES_TIEABLE_P (GET_MODE (x), GET_MODE (SUBREG_REG (x))))
751         return COSTS_N_INSNS (2
752                               + GET_MODE_SIZE (GET_MODE (x)) / UNITS_PER_WORD);
753       return 2;
754 #ifdef RTX_COSTS
755       RTX_COSTS (x, code, outer_code);
756 #endif 
757       CONST_COSTS (x, code, outer_code);
758     }
759
760   /* Sum the costs of the sub-rtx's, plus cost of this operation,
761      which is already in total.  */
762
763   fmt = GET_RTX_FORMAT (code);
764   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
765     if (fmt[i] == 'e')
766       total += rtx_cost (XEXP (x, i), code);
767     else if (fmt[i] == 'E')
768       for (j = 0; j < XVECLEN (x, i); j++)
769         total += rtx_cost (XVECEXP (x, i, j), code);
770
771   return total;
772 }
773 \f
774 /* Clear the hash table and initialize each register with its own quantity,
775    for a new basic block.  */
776
777 static void
778 new_basic_block ()
779 {
780   register int i;
781
782   next_qty = max_reg;
783
784   bzero ((char *) reg_tick, max_reg * sizeof (int));
785
786   bcopy ((char *) all_minus_one, (char *) reg_in_table,
787          max_reg * sizeof (int));
788   bcopy ((char *) consec_ints, (char *) reg_qty, max_reg * sizeof (int));
789   CLEAR_HARD_REG_SET (hard_regs_in_table);
790
791   /* The per-quantity values used to be initialized here, but it is
792      much faster to initialize each as it is made in `make_new_qty'.  */
793
794   for (i = 0; i < NBUCKETS; i++)
795     {
796       register struct table_elt *this, *next;
797       for (this = table[i]; this; this = next)
798         {
799           next = this->next_same_hash;
800           free_element (this);
801         }
802     }
803
804   bzero ((char *) table, sizeof table);
805
806   prev_insn = 0;
807
808 #ifdef HAVE_cc0
809   prev_insn_cc0 = 0;
810 #endif
811 }
812
813 /* Say that register REG contains a quantity not in any register before
814    and initialize that quantity.  */
815
816 static void
817 make_new_qty (reg)
818      register int reg;
819 {
820   register int q;
821
822   if (next_qty >= max_qty)
823     abort ();
824
825   q = reg_qty[reg] = next_qty++;
826   qty_first_reg[q] = reg;
827   qty_last_reg[q] = reg;
828   qty_const[q] = qty_const_insn[q] = 0;
829   qty_comparison_code[q] = UNKNOWN;
830
831   reg_next_eqv[reg] = reg_prev_eqv[reg] = -1;
832 }
833
834 /* Make reg NEW equivalent to reg OLD.
835    OLD is not changing; NEW is.  */
836
837 static void
838 make_regs_eqv (new, old)
839      register int new, old;
840 {
841   register int lastr, firstr;
842   register int q = reg_qty[old];
843
844   /* Nothing should become eqv until it has a "non-invalid" qty number.  */
845   if (! REGNO_QTY_VALID_P (old))
846     abort ();
847
848   reg_qty[new] = q;
849   firstr = qty_first_reg[q];
850   lastr = qty_last_reg[q];
851
852   /* Prefer fixed hard registers to anything.  Prefer pseudo regs to other
853      hard regs.  Among pseudos, if NEW will live longer than any other reg
854      of the same qty, and that is beyond the current basic block,
855      make it the new canonical replacement for this qty.  */
856   if (! (firstr < FIRST_PSEUDO_REGISTER && FIXED_REGNO_P (firstr))
857       /* Certain fixed registers might be of the class NO_REGS.  This means
858          that not only can they not be allocated by the compiler, but
859          they cannot be used in substitutions or canonicalizations
860          either.  */
861       && (new >= FIRST_PSEUDO_REGISTER || REGNO_REG_CLASS (new) != NO_REGS)
862       && ((new < FIRST_PSEUDO_REGISTER && FIXED_REGNO_P (new))
863           || (new >= FIRST_PSEUDO_REGISTER
864               && (firstr < FIRST_PSEUDO_REGISTER
865                   || ((uid_cuid[regno_last_uid[new]] > cse_basic_block_end
866                        || (uid_cuid[regno_first_uid[new]]
867                            < cse_basic_block_start))
868                       && (uid_cuid[regno_last_uid[new]]
869                           > uid_cuid[regno_last_uid[firstr]]))))))
870     {
871       reg_prev_eqv[firstr] = new;
872       reg_next_eqv[new] = firstr;
873       reg_prev_eqv[new] = -1;
874       qty_first_reg[q] = new;
875     }
876   else
877     {
878       /* If NEW is a hard reg (known to be non-fixed), insert at end.
879          Otherwise, insert before any non-fixed hard regs that are at the
880          end.  Registers of class NO_REGS cannot be used as an
881          equivalent for anything.  */
882       while (lastr < FIRST_PSEUDO_REGISTER && reg_prev_eqv[lastr] >= 0
883              && (REGNO_REG_CLASS (lastr) == NO_REGS || ! FIXED_REGNO_P (lastr))
884              && new >= FIRST_PSEUDO_REGISTER)
885         lastr = reg_prev_eqv[lastr];
886       reg_next_eqv[new] = reg_next_eqv[lastr];
887       if (reg_next_eqv[lastr] >= 0)
888         reg_prev_eqv[reg_next_eqv[lastr]] = new;
889       else
890         qty_last_reg[q] = new;
891       reg_next_eqv[lastr] = new;
892       reg_prev_eqv[new] = lastr;
893     }
894 }
895
896 /* Remove REG from its equivalence class.  */
897
898 static void
899 delete_reg_equiv (reg)
900      register int reg;
901 {
902   register int q = reg_qty[reg];
903   register int p, n;
904
905   /* If invalid, do nothing.  */
906   if (q == reg)
907     return;
908
909   p = reg_prev_eqv[reg];
910   n = reg_next_eqv[reg];
911
912   if (n != -1)
913     reg_prev_eqv[n] = p;
914   else
915     qty_last_reg[q] = p;
916   if (p != -1)
917     reg_next_eqv[p] = n;
918   else
919     qty_first_reg[q] = n;
920
921   reg_qty[reg] = reg;
922 }
923
924 /* Remove any invalid expressions from the hash table
925    that refer to any of the registers contained in expression X.
926
927    Make sure that newly inserted references to those registers
928    as subexpressions will be considered valid.
929
930    mention_regs is not called when a register itself
931    is being stored in the table.
932
933    Return 1 if we have done something that may have changed the hash code
934    of X.  */
935
936 static int
937 mention_regs (x)
938      rtx x;
939 {
940   register enum rtx_code code;
941   register int i, j;
942   register char *fmt;
943   register int changed = 0;
944
945   if (x == 0)
946     return 0;
947
948   code = GET_CODE (x);
949   if (code == REG)
950     {
951       register int regno = REGNO (x);
952       register int endregno
953         = regno + (regno >= FIRST_PSEUDO_REGISTER ? 1
954                    : HARD_REGNO_NREGS (regno, GET_MODE (x)));
955       int i;
956
957       for (i = regno; i < endregno; i++)
958         {
959           if (reg_in_table[i] >= 0 && reg_in_table[i] != reg_tick[i])
960             remove_invalid_refs (i);
961
962           reg_in_table[i] = reg_tick[i];
963         }
964
965       return 0;
966     }
967
968   /* If X is a comparison or a COMPARE and either operand is a register
969      that does not have a quantity, give it one.  This is so that a later
970      call to record_jump_equiv won't cause X to be assigned a different
971      hash code and not found in the table after that call.
972
973      It is not necessary to do this here, since rehash_using_reg can
974      fix up the table later, but doing this here eliminates the need to
975      call that expensive function in the most common case where the only
976      use of the register is in the comparison.  */
977
978   if (code == COMPARE || GET_RTX_CLASS (code) == '<')
979     {
980       if (GET_CODE (XEXP (x, 0)) == REG
981           && ! REGNO_QTY_VALID_P (REGNO (XEXP (x, 0))))
982         if (insert_regs (XEXP (x, 0), NULL_PTR, 0))
983           {
984             rehash_using_reg (XEXP (x, 0));
985             changed = 1;
986           }
987
988       if (GET_CODE (XEXP (x, 1)) == REG
989           && ! REGNO_QTY_VALID_P (REGNO (XEXP (x, 1))))
990         if (insert_regs (XEXP (x, 1), NULL_PTR, 0))
991           {
992             rehash_using_reg (XEXP (x, 1));
993             changed = 1;
994           }
995     }
996
997   fmt = GET_RTX_FORMAT (code);
998   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
999     if (fmt[i] == 'e')
1000       changed |= mention_regs (XEXP (x, i));
1001     else if (fmt[i] == 'E')
1002       for (j = 0; j < XVECLEN (x, i); j++)
1003         changed |= mention_regs (XVECEXP (x, i, j));
1004
1005   return changed;
1006 }
1007
1008 /* Update the register quantities for inserting X into the hash table
1009    with a value equivalent to CLASSP.
1010    (If the class does not contain a REG, it is irrelevant.)
1011    If MODIFIED is nonzero, X is a destination; it is being modified.
1012    Note that delete_reg_equiv should be called on a register
1013    before insert_regs is done on that register with MODIFIED != 0.
1014
1015    Nonzero value means that elements of reg_qty have changed
1016    so X's hash code may be different.  */
1017
1018 static int
1019 insert_regs (x, classp, modified)
1020      rtx x;
1021      struct table_elt *classp;
1022      int modified;
1023 {
1024   if (GET_CODE (x) == REG)
1025     {
1026       register int regno = REGNO (x);
1027
1028       /* If REGNO is in the equivalence table already but is of the
1029          wrong mode for that equivalence, don't do anything here.  */
1030
1031       if (REGNO_QTY_VALID_P (regno)
1032           && qty_mode[reg_qty[regno]] != GET_MODE (x))
1033         return 0;
1034
1035       if (modified || ! REGNO_QTY_VALID_P (regno))
1036         {
1037           if (classp)
1038             for (classp = classp->first_same_value;
1039                  classp != 0;
1040                  classp = classp->next_same_value)
1041               if (GET_CODE (classp->exp) == REG
1042                   && GET_MODE (classp->exp) == GET_MODE (x))
1043                 {
1044                   make_regs_eqv (regno, REGNO (classp->exp));
1045                   return 1;
1046                 }
1047
1048           make_new_qty (regno);
1049           qty_mode[reg_qty[regno]] = GET_MODE (x);
1050           return 1;
1051         }
1052
1053       return 0;
1054     }
1055
1056   /* If X is a SUBREG, we will likely be inserting the inner register in the
1057      table.  If that register doesn't have an assigned quantity number at
1058      this point but does later, the insertion that we will be doing now will
1059      not be accessible because its hash code will have changed.  So assign
1060      a quantity number now.  */
1061
1062   else if (GET_CODE (x) == SUBREG && GET_CODE (SUBREG_REG (x)) == REG
1063            && ! REGNO_QTY_VALID_P (REGNO (SUBREG_REG (x))))
1064     {
1065       insert_regs (SUBREG_REG (x), NULL_PTR, 0);
1066       mention_regs (SUBREG_REG (x));
1067       return 1;
1068     }
1069   else
1070     return mention_regs (x);
1071 }
1072 \f
1073 /* Look in or update the hash table.  */
1074
1075 /* Put the element ELT on the list of free elements.  */
1076
1077 static void
1078 free_element (elt)
1079      struct table_elt *elt;
1080 {
1081   elt->next_same_hash = free_element_chain;
1082   free_element_chain = elt;
1083 }
1084
1085 /* Return an element that is free for use.  */
1086
1087 static struct table_elt *
1088 get_element ()
1089 {
1090   struct table_elt *elt = free_element_chain;
1091   if (elt)
1092     {
1093       free_element_chain = elt->next_same_hash;
1094       return elt;
1095     }
1096   n_elements_made++;
1097   return (struct table_elt *) oballoc (sizeof (struct table_elt));
1098 }
1099
1100 /* Remove table element ELT from use in the table.
1101    HASH is its hash code, made using the HASH macro.
1102    It's an argument because often that is known in advance
1103    and we save much time not recomputing it.  */
1104
1105 static void
1106 remove_from_table (elt, hash)
1107      register struct table_elt *elt;
1108      unsigned hash;
1109 {
1110   if (elt == 0)
1111     return;
1112
1113   /* Mark this element as removed.  See cse_insn.  */
1114   elt->first_same_value = 0;
1115
1116   /* Remove the table element from its equivalence class.  */
1117      
1118   {
1119     register struct table_elt *prev = elt->prev_same_value;
1120     register struct table_elt *next = elt->next_same_value;
1121
1122     if (next) next->prev_same_value = prev;
1123
1124     if (prev)
1125       prev->next_same_value = next;
1126     else
1127       {
1128         register struct table_elt *newfirst = next;
1129         while (next)
1130           {
1131             next->first_same_value = newfirst;
1132             next = next->next_same_value;
1133           }
1134       }
1135   }
1136
1137   /* Remove the table element from its hash bucket.  */
1138
1139   {
1140     register struct table_elt *prev = elt->prev_same_hash;
1141     register struct table_elt *next = elt->next_same_hash;
1142
1143     if (next) next->prev_same_hash = prev;
1144
1145     if (prev)
1146       prev->next_same_hash = next;
1147     else if (table[hash] == elt)
1148       table[hash] = next;
1149     else
1150       {
1151         /* This entry is not in the proper hash bucket.  This can happen
1152            when two classes were merged by `merge_equiv_classes'.  Search
1153            for the hash bucket that it heads.  This happens only very
1154            rarely, so the cost is acceptable.  */
1155         for (hash = 0; hash < NBUCKETS; hash++)
1156           if (table[hash] == elt)
1157             table[hash] = next;
1158       }
1159   }
1160
1161   /* Remove the table element from its related-value circular chain.  */
1162
1163   if (elt->related_value != 0 && elt->related_value != elt)
1164     {
1165       register struct table_elt *p = elt->related_value;
1166       while (p->related_value != elt)
1167         p = p->related_value;
1168       p->related_value = elt->related_value;
1169       if (p->related_value == p)
1170         p->related_value = 0;
1171     }
1172
1173   free_element (elt);
1174 }
1175
1176 /* Look up X in the hash table and return its table element,
1177    or 0 if X is not in the table.
1178
1179    MODE is the machine-mode of X, or if X is an integer constant
1180    with VOIDmode then MODE is the mode with which X will be used.
1181
1182    Here we are satisfied to find an expression whose tree structure
1183    looks like X.  */
1184
1185 static struct table_elt *
1186 lookup (x, hash, mode)
1187      rtx x;
1188      unsigned hash;
1189      enum machine_mode mode;
1190 {
1191   register struct table_elt *p;
1192
1193   for (p = table[hash]; p; p = p->next_same_hash)
1194     if (mode == p->mode && ((x == p->exp && GET_CODE (x) == REG)
1195                             || exp_equiv_p (x, p->exp, GET_CODE (x) != REG, 0)))
1196       return p;
1197
1198   return 0;
1199 }
1200
1201 /* Like `lookup' but don't care whether the table element uses invalid regs.
1202    Also ignore discrepancies in the machine mode of a register.  */
1203
1204 static struct table_elt *
1205 lookup_for_remove (x, hash, mode)
1206      rtx x;
1207      unsigned hash;
1208      enum machine_mode mode;
1209 {
1210   register struct table_elt *p;
1211
1212   if (GET_CODE (x) == REG)
1213     {
1214       int regno = REGNO (x);
1215       /* Don't check the machine mode when comparing registers;
1216          invalidating (REG:SI 0) also invalidates (REG:DF 0).  */
1217       for (p = table[hash]; p; p = p->next_same_hash)
1218         if (GET_CODE (p->exp) == REG
1219             && REGNO (p->exp) == regno)
1220           return p;
1221     }
1222   else
1223     {
1224       for (p = table[hash]; p; p = p->next_same_hash)
1225         if (mode == p->mode && (x == p->exp || exp_equiv_p (x, p->exp, 0, 0)))
1226           return p;
1227     }
1228
1229   return 0;
1230 }
1231
1232 /* Look for an expression equivalent to X and with code CODE.
1233    If one is found, return that expression.  */
1234
1235 static rtx
1236 lookup_as_function (x, code)
1237      rtx x;
1238      enum rtx_code code;
1239 {
1240   register struct table_elt *p = lookup (x, safe_hash (x, VOIDmode) % NBUCKETS,
1241                                          GET_MODE (x));
1242   if (p == 0)
1243     return 0;
1244
1245   for (p = p->first_same_value; p; p = p->next_same_value)
1246     {
1247       if (GET_CODE (p->exp) == code
1248           /* Make sure this is a valid entry in the table.  */
1249           && exp_equiv_p (p->exp, p->exp, 1, 0))
1250         return p->exp;
1251     }
1252   
1253   return 0;
1254 }
1255
1256 /* Insert X in the hash table, assuming HASH is its hash code
1257    and CLASSP is an element of the class it should go in
1258    (or 0 if a new class should be made).
1259    It is inserted at the proper position to keep the class in
1260    the order cheapest first.
1261
1262    MODE is the machine-mode of X, or if X is an integer constant
1263    with VOIDmode then MODE is the mode with which X will be used.
1264
1265    For elements of equal cheapness, the most recent one
1266    goes in front, except that the first element in the list
1267    remains first unless a cheaper element is added.  The order of
1268    pseudo-registers does not matter, as canon_reg will be called to
1269    find the cheapest when a register is retrieved from the table.
1270
1271    The in_memory field in the hash table element is set to 0.
1272    The caller must set it nonzero if appropriate.
1273
1274    You should call insert_regs (X, CLASSP, MODIFY) before calling here,
1275    and if insert_regs returns a nonzero value
1276    you must then recompute its hash code before calling here.
1277
1278    If necessary, update table showing constant values of quantities.  */
1279
1280 #define CHEAPER(X,Y)   ((X)->cost < (Y)->cost)
1281
1282 static struct table_elt *
1283 insert (x, classp, hash, mode)
1284      register rtx x;
1285      register struct table_elt *classp;
1286      unsigned hash;
1287      enum machine_mode mode;
1288 {
1289   register struct table_elt *elt;
1290
1291   /* If X is a register and we haven't made a quantity for it,
1292      something is wrong.  */
1293   if (GET_CODE (x) == REG && ! REGNO_QTY_VALID_P (REGNO (x)))
1294     abort ();
1295
1296   /* If X is a hard register, show it is being put in the table.  */
1297   if (GET_CODE (x) == REG && REGNO (x) < FIRST_PSEUDO_REGISTER)
1298     {
1299       int regno = REGNO (x);
1300       int endregno = regno + HARD_REGNO_NREGS (regno, GET_MODE (x));
1301       int i;
1302
1303       for (i = regno; i < endregno; i++)
1304             SET_HARD_REG_BIT (hard_regs_in_table, i);
1305     }
1306
1307   /* If X is a label, show we recorded it.  */
1308   if (GET_CODE (x) == LABEL_REF
1309       || (GET_CODE (x) == CONST && GET_CODE (XEXP (x, 0)) == PLUS
1310           && GET_CODE (XEXP (XEXP (x, 0), 0)) == LABEL_REF))
1311     recorded_label_ref = 1;
1312
1313   /* Put an element for X into the right hash bucket.  */
1314
1315   elt = get_element ();
1316   elt->exp = x;
1317   elt->cost = COST (x);
1318   elt->next_same_value = 0;
1319   elt->prev_same_value = 0;
1320   elt->next_same_hash = table[hash];
1321   elt->prev_same_hash = 0;
1322   elt->related_value = 0;
1323   elt->in_memory = 0;
1324   elt->mode = mode;
1325   elt->is_const = (CONSTANT_P (x)
1326                    /* GNU C++ takes advantage of this for `this'
1327                       (and other const values).  */
1328                    || (RTX_UNCHANGING_P (x)
1329                        && GET_CODE (x) == REG
1330                        && REGNO (x) >= FIRST_PSEUDO_REGISTER)
1331                    || FIXED_BASE_PLUS_P (x));
1332
1333   if (table[hash])
1334     table[hash]->prev_same_hash = elt;
1335   table[hash] = elt;
1336
1337   /* Put it into the proper value-class.  */
1338   if (classp)
1339     {
1340       classp = classp->first_same_value;
1341       if (CHEAPER (elt, classp))
1342         /* Insert at the head of the class */
1343         {
1344           register struct table_elt *p;
1345           elt->next_same_value = classp;
1346           classp->prev_same_value = elt;
1347           elt->first_same_value = elt;
1348
1349           for (p = classp; p; p = p->next_same_value)
1350             p->first_same_value = elt;
1351         }
1352       else
1353         {
1354           /* Insert not at head of the class.  */
1355           /* Put it after the last element cheaper than X.  */
1356           register struct table_elt *p, *next;
1357           for (p = classp; (next = p->next_same_value) && CHEAPER (next, elt);
1358                p = next);
1359           /* Put it after P and before NEXT.  */
1360           elt->next_same_value = next;
1361           if (next)
1362             next->prev_same_value = elt;
1363           elt->prev_same_value = p;
1364           p->next_same_value = elt;
1365           elt->first_same_value = classp;
1366         }
1367     }
1368   else
1369     elt->first_same_value = elt;
1370
1371   /* If this is a constant being set equivalent to a register or a register
1372      being set equivalent to a constant, note the constant equivalence.
1373
1374      If this is a constant, it cannot be equivalent to a different constant,
1375      and a constant is the only thing that can be cheaper than a register.  So
1376      we know the register is the head of the class (before the constant was
1377      inserted).
1378
1379      If this is a register that is not already known equivalent to a
1380      constant, we must check the entire class.
1381
1382      If this is a register that is already known equivalent to an insn,
1383      update `qty_const_insn' to show that `this_insn' is the latest
1384      insn making that quantity equivalent to the constant.  */
1385
1386   if (elt->is_const && classp && GET_CODE (classp->exp) == REG
1387       && GET_CODE (x) != REG)
1388     {
1389       qty_const[reg_qty[REGNO (classp->exp)]]
1390         = gen_lowpart_if_possible (qty_mode[reg_qty[REGNO (classp->exp)]], x);
1391       qty_const_insn[reg_qty[REGNO (classp->exp)]] = this_insn;
1392     }
1393
1394   else if (GET_CODE (x) == REG && classp && ! qty_const[reg_qty[REGNO (x)]]
1395            && ! elt->is_const)
1396     {
1397       register struct table_elt *p;
1398
1399       for (p = classp; p != 0; p = p->next_same_value)
1400         {
1401           if (p->is_const && GET_CODE (p->exp) != REG)
1402             {
1403               qty_const[reg_qty[REGNO (x)]]
1404                 = gen_lowpart_if_possible (GET_MODE (x), p->exp);
1405               qty_const_insn[reg_qty[REGNO (x)]] = this_insn;
1406               break;
1407             }
1408         }
1409     }
1410
1411   else if (GET_CODE (x) == REG && qty_const[reg_qty[REGNO (x)]]
1412            && GET_MODE (x) == qty_mode[reg_qty[REGNO (x)]])
1413     qty_const_insn[reg_qty[REGNO (x)]] = this_insn;
1414
1415   /* If this is a constant with symbolic value,
1416      and it has a term with an explicit integer value,
1417      link it up with related expressions.  */
1418   if (GET_CODE (x) == CONST)
1419     {
1420       rtx subexp = get_related_value (x);
1421       unsigned subhash;
1422       struct table_elt *subelt, *subelt_prev;
1423
1424       if (subexp != 0)
1425         {
1426           /* Get the integer-free subexpression in the hash table.  */
1427           subhash = safe_hash (subexp, mode) % NBUCKETS;
1428           subelt = lookup (subexp, subhash, mode);
1429           if (subelt == 0)
1430             subelt = insert (subexp, NULL_PTR, subhash, mode);
1431           /* Initialize SUBELT's circular chain if it has none.  */
1432           if (subelt->related_value == 0)
1433             subelt->related_value = subelt;
1434           /* Find the element in the circular chain that precedes SUBELT.  */
1435           subelt_prev = subelt;
1436           while (subelt_prev->related_value != subelt)
1437             subelt_prev = subelt_prev->related_value;
1438           /* Put new ELT into SUBELT's circular chain just before SUBELT.
1439              This way the element that follows SUBELT is the oldest one.  */
1440           elt->related_value = subelt_prev->related_value;
1441           subelt_prev->related_value = elt;
1442         }
1443     }
1444
1445   return elt;
1446 }
1447 \f
1448 /* Given two equivalence classes, CLASS1 and CLASS2, put all the entries from
1449    CLASS2 into CLASS1.  This is done when we have reached an insn which makes
1450    the two classes equivalent.
1451
1452    CLASS1 will be the surviving class; CLASS2 should not be used after this
1453    call.
1454
1455    Any invalid entries in CLASS2 will not be copied.  */
1456
1457 static void
1458 merge_equiv_classes (class1, class2)
1459      struct table_elt *class1, *class2;
1460 {
1461   struct table_elt *elt, *next, *new;
1462
1463   /* Ensure we start with the head of the classes.  */
1464   class1 = class1->first_same_value;
1465   class2 = class2->first_same_value;
1466
1467   /* If they were already equal, forget it.  */
1468   if (class1 == class2)
1469     return;
1470
1471   for (elt = class2; elt; elt = next)
1472     {
1473       unsigned hash;
1474       rtx exp = elt->exp;
1475       enum machine_mode mode = elt->mode;
1476
1477       next = elt->next_same_value;
1478
1479       /* Remove old entry, make a new one in CLASS1's class.
1480          Don't do this for invalid entries as we cannot find their
1481          hash code (it also isn't necessary).  */
1482       if (GET_CODE (exp) == REG || exp_equiv_p (exp, exp, 1, 0))
1483         {
1484           hash_arg_in_memory = 0;
1485           hash_arg_in_struct = 0;
1486           hash = HASH (exp, mode);
1487               
1488           if (GET_CODE (exp) == REG)
1489             delete_reg_equiv (REGNO (exp));
1490               
1491           remove_from_table (elt, hash);
1492
1493           if (insert_regs (exp, class1, 0))
1494             {
1495               rehash_using_reg (exp);
1496               hash = HASH (exp, mode);
1497             }
1498           new = insert (exp, class1, hash, mode);
1499           new->in_memory = hash_arg_in_memory;
1500           new->in_struct = hash_arg_in_struct;
1501         }
1502     }
1503 }
1504 \f
1505 /* Remove from the hash table, or mark as invalid,
1506    all expressions whose values could be altered by storing in X.
1507    X is a register, a subreg, or a memory reference with nonvarying address
1508    (because, when a memory reference with a varying address is stored in,
1509    all memory references are removed by invalidate_memory
1510    so specific invalidation is superfluous).
1511    FULL_MODE, if not VOIDmode, indicates that this much should be invalidated
1512    instead of just the amount indicated by the mode of X.  This is only used
1513    for bitfield stores into memory.
1514
1515    A nonvarying address may be just a register or just
1516    a symbol reference, or it may be either of those plus
1517    a numeric offset.  */
1518
1519 static void
1520 invalidate (x, full_mode)
1521      rtx x;
1522      enum machine_mode full_mode;
1523 {
1524   register int i;
1525   register struct table_elt *p;
1526   rtx base;
1527   HOST_WIDE_INT start, end;
1528
1529   /* If X is a register, dependencies on its contents
1530      are recorded through the qty number mechanism.
1531      Just change the qty number of the register,
1532      mark it as invalid for expressions that refer to it,
1533      and remove it itself.  */
1534
1535   if (GET_CODE (x) == REG)
1536     {
1537       register int regno = REGNO (x);
1538       register unsigned hash = HASH (x, GET_MODE (x));
1539
1540       /* Remove REGNO from any quantity list it might be on and indicate
1541          that it's value might have changed.  If it is a pseudo, remove its
1542          entry from the hash table.
1543
1544          For a hard register, we do the first two actions above for any
1545          additional hard registers corresponding to X.  Then, if any of these
1546          registers are in the table, we must remove any REG entries that
1547          overlap these registers.  */
1548
1549       delete_reg_equiv (regno);
1550       reg_tick[regno]++;
1551
1552       if (regno >= FIRST_PSEUDO_REGISTER)
1553         {
1554           /* Because a register can be referenced in more than one mode,
1555              we might have to remove more than one table entry.  */
1556
1557           struct table_elt *elt;
1558
1559           while (elt = lookup_for_remove (x, hash, GET_MODE (x)))
1560             remove_from_table (elt, hash);
1561         }
1562       else
1563         {
1564           HOST_WIDE_INT in_table
1565             = TEST_HARD_REG_BIT (hard_regs_in_table, regno);
1566           int endregno = regno + HARD_REGNO_NREGS (regno, GET_MODE (x));
1567           int tregno, tendregno;
1568           register struct table_elt *p, *next;
1569
1570           CLEAR_HARD_REG_BIT (hard_regs_in_table, regno);
1571
1572           for (i = regno + 1; i < endregno; i++)
1573             {
1574               in_table |= TEST_HARD_REG_BIT (hard_regs_in_table, i);
1575               CLEAR_HARD_REG_BIT (hard_regs_in_table, i);
1576               delete_reg_equiv (i);
1577               reg_tick[i]++;
1578             }
1579
1580           if (in_table)
1581             for (hash = 0; hash < NBUCKETS; hash++)
1582               for (p = table[hash]; p; p = next)
1583                 {
1584                   next = p->next_same_hash;
1585
1586                   if (GET_CODE (p->exp) != REG
1587                       || REGNO (p->exp) >= FIRST_PSEUDO_REGISTER)
1588                     continue;
1589
1590                   tregno = REGNO (p->exp);
1591                   tendregno
1592                     = tregno + HARD_REGNO_NREGS (tregno, GET_MODE (p->exp));
1593                   if (tendregno > regno && tregno < endregno)
1594                   remove_from_table (p, hash);
1595                 }
1596         }
1597
1598       return;
1599     }
1600
1601   if (GET_CODE (x) == SUBREG)
1602     {
1603       if (GET_CODE (SUBREG_REG (x)) != REG)
1604         abort ();
1605       invalidate (SUBREG_REG (x), VOIDmode);
1606       return;
1607     }
1608
1609   /* X is not a register; it must be a memory reference with
1610      a nonvarying address.  Remove all hash table elements
1611      that refer to overlapping pieces of memory.  */
1612
1613   if (GET_CODE (x) != MEM)
1614     abort ();
1615
1616   if (full_mode == VOIDmode)
1617     full_mode = GET_MODE (x);
1618
1619   set_nonvarying_address_components (XEXP (x, 0), GET_MODE_SIZE (full_mode),
1620                                      &base, &start, &end);
1621
1622   for (i = 0; i < NBUCKETS; i++)
1623     {
1624       register struct table_elt *next;
1625       for (p = table[i]; p; p = next)
1626         {
1627           next = p->next_same_hash;
1628           if (refers_to_mem_p (p->exp, base, start, end))
1629             remove_from_table (p, i);
1630         }
1631     }
1632 }
1633
1634 /* Remove all expressions that refer to register REGNO,
1635    since they are already invalid, and we are about to
1636    mark that register valid again and don't want the old
1637    expressions to reappear as valid.  */
1638
1639 static void
1640 remove_invalid_refs (regno)
1641      int regno;
1642 {
1643   register int i;
1644   register struct table_elt *p, *next;
1645
1646   for (i = 0; i < NBUCKETS; i++)
1647     for (p = table[i]; p; p = next)
1648       {
1649         next = p->next_same_hash;
1650         if (GET_CODE (p->exp) != REG
1651             && refers_to_regno_p (regno, regno + 1, p->exp, NULL_PTR))
1652           remove_from_table (p, i);
1653       }
1654 }
1655 \f
1656 /* Recompute the hash codes of any valid entries in the hash table that
1657    reference X, if X is a register, or SUBREG_REG (X) if X is a SUBREG.
1658
1659    This is called when we make a jump equivalence.  */
1660
1661 static void
1662 rehash_using_reg (x)
1663      rtx x;
1664 {
1665   int i;
1666   struct table_elt *p, *next;
1667   unsigned hash;
1668
1669   if (GET_CODE (x) == SUBREG)
1670     x = SUBREG_REG (x);
1671
1672   /* If X is not a register or if the register is known not to be in any
1673      valid entries in the table, we have no work to do.  */
1674
1675   if (GET_CODE (x) != REG
1676       || reg_in_table[REGNO (x)] < 0
1677       || reg_in_table[REGNO (x)] != reg_tick[REGNO (x)])
1678     return;
1679
1680   /* Scan all hash chains looking for valid entries that mention X.
1681      If we find one and it is in the wrong hash chain, move it.  We can skip
1682      objects that are registers, since they are handled specially.  */
1683
1684   for (i = 0; i < NBUCKETS; i++)
1685     for (p = table[i]; p; p = next)
1686       {
1687         next = p->next_same_hash;
1688         if (GET_CODE (p->exp) != REG && reg_mentioned_p (x, p->exp)
1689             && exp_equiv_p (p->exp, p->exp, 1, 0)
1690             && i != (hash = safe_hash (p->exp, p->mode) % NBUCKETS))
1691           {
1692             if (p->next_same_hash)
1693               p->next_same_hash->prev_same_hash = p->prev_same_hash;
1694
1695             if (p->prev_same_hash)
1696               p->prev_same_hash->next_same_hash = p->next_same_hash;
1697             else
1698               table[i] = p->next_same_hash;
1699
1700             p->next_same_hash = table[hash];
1701             p->prev_same_hash = 0;
1702             if (table[hash])
1703               table[hash]->prev_same_hash = p;
1704             table[hash] = p;
1705           }
1706       }
1707 }
1708 \f
1709 /* Remove from the hash table all expressions that reference memory,
1710    or some of them as specified by *WRITES.  */
1711
1712 static void
1713 invalidate_memory (writes)
1714      struct write_data *writes;
1715 {
1716   register int i;
1717   register struct table_elt *p, *next;
1718   int all = writes->all;
1719   int nonscalar = writes->nonscalar;
1720
1721   for (i = 0; i < NBUCKETS; i++)
1722     for (p = table[i]; p; p = next)
1723       {
1724         next = p->next_same_hash;
1725         if (p->in_memory
1726             && (all
1727                 || (nonscalar && p->in_struct)
1728                 || cse_rtx_addr_varies_p (p->exp)))
1729           remove_from_table (p, i);
1730       }
1731 }
1732 \f
1733 /* Remove from the hash table any expression that is a call-clobbered
1734    register.  Also update their TICK values.  */
1735
1736 static void
1737 invalidate_for_call ()
1738 {
1739   int regno, endregno;
1740   int i;
1741   unsigned hash;
1742   struct table_elt *p, *next;
1743   int in_table = 0;
1744
1745   /* Go through all the hard registers.  For each that is clobbered in
1746      a CALL_INSN, remove the register from quantity chains and update
1747      reg_tick if defined.  Also see if any of these registers is currently
1748      in the table.  */
1749
1750   for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
1751     if (TEST_HARD_REG_BIT (regs_invalidated_by_call, regno))
1752       {
1753         delete_reg_equiv (regno);
1754         if (reg_tick[regno] >= 0)
1755           reg_tick[regno]++;
1756
1757         in_table |= (TEST_HARD_REG_BIT (hard_regs_in_table, regno) != 0);
1758       }
1759
1760   /* In the case where we have no call-clobbered hard registers in the
1761      table, we are done.  Otherwise, scan the table and remove any
1762      entry that overlaps a call-clobbered register.  */
1763
1764   if (in_table)
1765     for (hash = 0; hash < NBUCKETS; hash++)
1766       for (p = table[hash]; p; p = next)
1767         {
1768           next = p->next_same_hash;
1769
1770           if (GET_CODE (p->exp) != REG
1771               || REGNO (p->exp) >= FIRST_PSEUDO_REGISTER)
1772             continue;
1773
1774           regno = REGNO (p->exp);
1775           endregno = regno + HARD_REGNO_NREGS (regno, GET_MODE (p->exp));
1776
1777           for (i = regno; i < endregno; i++)
1778             if (TEST_HARD_REG_BIT (regs_invalidated_by_call, i))
1779               {
1780                 remove_from_table (p, hash);
1781                 break;
1782               }
1783         }
1784 }
1785 \f
1786 /* Given an expression X of type CONST,
1787    and ELT which is its table entry (or 0 if it
1788    is not in the hash table),
1789    return an alternate expression for X as a register plus integer.
1790    If none can be found, return 0.  */
1791
1792 static rtx
1793 use_related_value (x, elt)
1794      rtx x;
1795      struct table_elt *elt;
1796 {
1797   register struct table_elt *relt = 0;
1798   register struct table_elt *p, *q;
1799   HOST_WIDE_INT offset;
1800
1801   /* First, is there anything related known?
1802      If we have a table element, we can tell from that.
1803      Otherwise, must look it up.  */
1804
1805   if (elt != 0 && elt->related_value != 0)
1806     relt = elt;
1807   else if (elt == 0 && GET_CODE (x) == CONST)
1808     {
1809       rtx subexp = get_related_value (x);
1810       if (subexp != 0)
1811         relt = lookup (subexp,
1812                        safe_hash (subexp, GET_MODE (subexp)) % NBUCKETS,
1813                        GET_MODE (subexp));
1814     }
1815
1816   if (relt == 0)
1817     return 0;
1818
1819   /* Search all related table entries for one that has an
1820      equivalent register.  */
1821
1822   p = relt;
1823   while (1)
1824     {
1825       /* This loop is strange in that it is executed in two different cases.
1826          The first is when X is already in the table.  Then it is searching
1827          the RELATED_VALUE list of X's class (RELT).  The second case is when
1828          X is not in the table.  Then RELT points to a class for the related
1829          value.
1830
1831          Ensure that, whatever case we are in, that we ignore classes that have
1832          the same value as X.  */
1833
1834       if (rtx_equal_p (x, p->exp))
1835         q = 0;
1836       else
1837         for (q = p->first_same_value; q; q = q->next_same_value)
1838           if (GET_CODE (q->exp) == REG)
1839             break;
1840
1841       if (q)
1842         break;
1843
1844       p = p->related_value;
1845
1846       /* We went all the way around, so there is nothing to be found.
1847          Alternatively, perhaps RELT was in the table for some other reason
1848          and it has no related values recorded.  */
1849       if (p == relt || p == 0)
1850         break;
1851     }
1852
1853   if (q == 0)
1854     return 0;
1855
1856   offset = (get_integer_term (x) - get_integer_term (p->exp));
1857   /* Note: OFFSET may be 0 if P->xexp and X are related by commutativity.  */
1858   return plus_constant (q->exp, offset);
1859 }
1860 \f
1861 /* Hash an rtx.  We are careful to make sure the value is never negative.
1862    Equivalent registers hash identically.
1863    MODE is used in hashing for CONST_INTs only;
1864    otherwise the mode of X is used.
1865
1866    Store 1 in do_not_record if any subexpression is volatile.
1867
1868    Store 1 in hash_arg_in_memory if X contains a MEM rtx
1869    which does not have the RTX_UNCHANGING_P bit set.
1870    In this case, also store 1 in hash_arg_in_struct
1871    if there is a MEM rtx which has the MEM_IN_STRUCT_P bit set.
1872
1873    Note that cse_insn knows that the hash code of a MEM expression
1874    is just (int) MEM plus the hash code of the address.  */
1875
1876 static unsigned
1877 canon_hash (x, mode)
1878      rtx x;
1879      enum machine_mode mode;
1880 {
1881   register int i, j;
1882   register unsigned hash = 0;
1883   register enum rtx_code code;
1884   register char *fmt;
1885
1886   /* repeat is used to turn tail-recursion into iteration.  */
1887  repeat:
1888   if (x == 0)
1889     return hash;
1890
1891   code = GET_CODE (x);
1892   switch (code)
1893     {
1894     case REG:
1895       {
1896         register int regno = REGNO (x);
1897
1898         /* On some machines, we can't record any non-fixed hard register,
1899            because extending its life will cause reload problems.  We
1900            consider ap, fp, and sp to be fixed for this purpose.
1901            On all machines, we can't record any global registers.  */
1902
1903         if (regno < FIRST_PSEUDO_REGISTER
1904             && (global_regs[regno]
1905 #ifdef SMALL_REGISTER_CLASSES
1906                 || (SMALL_REGISTER_CLASSES
1907                     && ! fixed_regs[regno]
1908                     && regno != FRAME_POINTER_REGNUM
1909                     && regno != HARD_FRAME_POINTER_REGNUM
1910                     && regno != ARG_POINTER_REGNUM
1911                     && regno != STACK_POINTER_REGNUM)
1912 #endif
1913                 ))
1914           {
1915             do_not_record = 1;
1916             return 0;
1917           }
1918         hash += ((unsigned) REG << 7) + (unsigned) reg_qty[regno];
1919         return hash;
1920       }
1921
1922     case CONST_INT:
1923       {
1924         unsigned HOST_WIDE_INT tem = INTVAL (x);
1925         hash += ((unsigned) CONST_INT << 7) + (unsigned) mode + tem;
1926         return hash;
1927       }
1928
1929     case CONST_DOUBLE:
1930       /* This is like the general case, except that it only counts
1931          the integers representing the constant.  */
1932       hash += (unsigned) code + (unsigned) GET_MODE (x);
1933       if (GET_MODE (x) != VOIDmode)
1934         for (i = 2; i < GET_RTX_LENGTH (CONST_DOUBLE); i++)
1935           {
1936             unsigned tem = XINT (x, i);
1937             hash += tem;
1938           }
1939       else
1940         hash += ((unsigned) CONST_DOUBLE_LOW (x)
1941                  + (unsigned) CONST_DOUBLE_HIGH (x));
1942       return hash;
1943
1944       /* Assume there is only one rtx object for any given label.  */
1945     case LABEL_REF:
1946       hash
1947         += ((unsigned) LABEL_REF << 7) + (unsigned HOST_WIDE_INT) XEXP (x, 0);
1948       return hash;
1949
1950     case SYMBOL_REF:
1951       hash
1952         += ((unsigned) SYMBOL_REF << 7) + (unsigned HOST_WIDE_INT) XSTR (x, 0);
1953       return hash;
1954
1955     case MEM:
1956       if (MEM_VOLATILE_P (x))
1957         {
1958           do_not_record = 1;
1959           return 0;
1960         }
1961       if (! RTX_UNCHANGING_P (x) || FIXED_BASE_PLUS_P (XEXP (x, 0)))
1962         {
1963           hash_arg_in_memory = 1;
1964           if (MEM_IN_STRUCT_P (x)) hash_arg_in_struct = 1;
1965         }
1966       /* Now that we have already found this special case,
1967          might as well speed it up as much as possible.  */
1968       hash += (unsigned) MEM;
1969       x = XEXP (x, 0);
1970       goto repeat;
1971
1972     case PRE_DEC:
1973     case PRE_INC:
1974     case POST_DEC:
1975     case POST_INC:
1976     case PC:
1977     case CC0:
1978     case CALL:
1979     case UNSPEC_VOLATILE:
1980       do_not_record = 1;
1981       return 0;
1982
1983     case ASM_OPERANDS:
1984       if (MEM_VOLATILE_P (x))
1985         {
1986           do_not_record = 1;
1987           return 0;
1988         }
1989     }
1990
1991   i = GET_RTX_LENGTH (code) - 1;
1992   hash += (unsigned) code + (unsigned) GET_MODE (x);
1993   fmt = GET_RTX_FORMAT (code);
1994   for (; i >= 0; i--)
1995     {
1996       if (fmt[i] == 'e')
1997         {
1998           rtx tem = XEXP (x, i);
1999
2000           /* If we are about to do the last recursive call
2001              needed at this level, change it into iteration.
2002              This function  is called enough to be worth it.  */
2003           if (i == 0)
2004             {
2005               x = tem;
2006               goto repeat;
2007             }
2008           hash += canon_hash (tem, 0);
2009         }
2010       else if (fmt[i] == 'E')
2011         for (j = 0; j < XVECLEN (x, i); j++)
2012           hash += canon_hash (XVECEXP (x, i, j), 0);
2013       else if (fmt[i] == 's')
2014         {
2015           register unsigned char *p = (unsigned char *) XSTR (x, i);
2016           if (p)
2017             while (*p)
2018               hash += *p++;
2019         }
2020       else if (fmt[i] == 'i')
2021         {
2022           register unsigned tem = XINT (x, i);
2023           hash += tem;
2024         }
2025       else
2026         abort ();
2027     }
2028   return hash;
2029 }
2030
2031 /* Like canon_hash but with no side effects.  */
2032
2033 static unsigned
2034 safe_hash (x, mode)
2035      rtx x;
2036      enum machine_mode mode;
2037 {
2038   int save_do_not_record = do_not_record;
2039   int save_hash_arg_in_memory = hash_arg_in_memory;
2040   int save_hash_arg_in_struct = hash_arg_in_struct;
2041   unsigned hash = canon_hash (x, mode);
2042   hash_arg_in_memory = save_hash_arg_in_memory;
2043   hash_arg_in_struct = save_hash_arg_in_struct;
2044   do_not_record = save_do_not_record;
2045   return hash;
2046 }
2047 \f
2048 /* Return 1 iff X and Y would canonicalize into the same thing,
2049    without actually constructing the canonicalization of either one.
2050    If VALIDATE is nonzero,
2051    we assume X is an expression being processed from the rtl
2052    and Y was found in the hash table.  We check register refs
2053    in Y for being marked as valid.
2054
2055    If EQUAL_VALUES is nonzero, we allow a register to match a constant value
2056    that is known to be in the register.  Ordinarily, we don't allow them
2057    to match, because letting them match would cause unpredictable results
2058    in all the places that search a hash table chain for an equivalent
2059    for a given value.  A possible equivalent that has different structure
2060    has its hash code computed from different data.  Whether the hash code
2061    is the same as that of the the given value is pure luck.  */
2062
2063 static int
2064 exp_equiv_p (x, y, validate, equal_values)
2065      rtx x, y;
2066      int validate;
2067      int equal_values;
2068 {
2069   register int i, j;
2070   register enum rtx_code code;
2071   register char *fmt;
2072
2073   /* Note: it is incorrect to assume an expression is equivalent to itself
2074      if VALIDATE is nonzero.  */
2075   if (x == y && !validate)
2076     return 1;
2077   if (x == 0 || y == 0)
2078     return x == y;
2079
2080   code = GET_CODE (x);
2081   if (code != GET_CODE (y))
2082     {
2083       if (!equal_values)
2084         return 0;
2085
2086       /* If X is a constant and Y is a register or vice versa, they may be
2087          equivalent.  We only have to validate if Y is a register.  */
2088       if (CONSTANT_P (x) && GET_CODE (y) == REG
2089           && REGNO_QTY_VALID_P (REGNO (y))
2090           && GET_MODE (y) == qty_mode[reg_qty[REGNO (y)]]
2091           && rtx_equal_p (x, qty_const[reg_qty[REGNO (y)]])
2092           && (! validate || reg_in_table[REGNO (y)] == reg_tick[REGNO (y)]))
2093         return 1;
2094
2095       if (CONSTANT_P (y) && code == REG
2096           && REGNO_QTY_VALID_P (REGNO (x))
2097           && GET_MODE (x) == qty_mode[reg_qty[REGNO (x)]]
2098           && rtx_equal_p (y, qty_const[reg_qty[REGNO (x)]]))
2099         return 1;
2100
2101       return 0;
2102     }
2103
2104   /* (MULT:SI x y) and (MULT:HI x y) are NOT equivalent.  */
2105   if (GET_MODE (x) != GET_MODE (y))
2106     return 0;
2107
2108   switch (code)
2109     {
2110     case PC:
2111     case CC0:
2112       return x == y;
2113
2114     case CONST_INT:
2115       return INTVAL (x) == INTVAL (y);
2116
2117     case LABEL_REF:
2118       return XEXP (x, 0) == XEXP (y, 0);
2119
2120     case SYMBOL_REF:
2121       return XSTR (x, 0) == XSTR (y, 0);
2122
2123     case REG:
2124       {
2125         int regno = REGNO (y);
2126         int endregno
2127           = regno + (regno >= FIRST_PSEUDO_REGISTER ? 1
2128                      : HARD_REGNO_NREGS (regno, GET_MODE (y)));
2129         int i;
2130
2131         /* If the quantities are not the same, the expressions are not
2132            equivalent.  If there are and we are not to validate, they
2133            are equivalent.  Otherwise, ensure all regs are up-to-date.  */
2134
2135         if (reg_qty[REGNO (x)] != reg_qty[regno])
2136           return 0;
2137
2138         if (! validate)
2139           return 1;
2140
2141         for (i = regno; i < endregno; i++)
2142           if (reg_in_table[i] != reg_tick[i])
2143             return 0;
2144
2145         return 1;
2146       }
2147
2148     /*  For commutative operations, check both orders.  */
2149     case PLUS:
2150     case MULT:
2151     case AND:
2152     case IOR:
2153     case XOR:
2154     case NE:
2155     case EQ:
2156       return ((exp_equiv_p (XEXP (x, 0), XEXP (y, 0), validate, equal_values)
2157                && exp_equiv_p (XEXP (x, 1), XEXP (y, 1),
2158                                validate, equal_values))
2159               || (exp_equiv_p (XEXP (x, 0), XEXP (y, 1),
2160                                validate, equal_values)
2161                   && exp_equiv_p (XEXP (x, 1), XEXP (y, 0),
2162                                   validate, equal_values)));
2163     }
2164
2165   /* Compare the elements.  If any pair of corresponding elements
2166      fail to match, return 0 for the whole things.  */
2167
2168   fmt = GET_RTX_FORMAT (code);
2169   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
2170     {
2171       switch (fmt[i])
2172         {
2173         case 'e':
2174           if (! exp_equiv_p (XEXP (x, i), XEXP (y, i), validate, equal_values))
2175             return 0;
2176           break;
2177
2178         case 'E':
2179           if (XVECLEN (x, i) != XVECLEN (y, i))
2180             return 0;
2181           for (j = 0; j < XVECLEN (x, i); j++)
2182             if (! exp_equiv_p (XVECEXP (x, i, j), XVECEXP (y, i, j),
2183                                validate, equal_values))
2184               return 0;
2185           break;
2186
2187         case 's':
2188           if (strcmp (XSTR (x, i), XSTR (y, i)))
2189             return 0;
2190           break;
2191
2192         case 'i':
2193           if (XINT (x, i) != XINT (y, i))
2194             return 0;
2195           break;
2196
2197         case 'w':
2198           if (XWINT (x, i) != XWINT (y, i))
2199             return 0;
2200         break;
2201
2202         case '0':
2203           break;
2204
2205         default:
2206           abort ();
2207         }
2208       }
2209
2210   return 1;
2211 }
2212 \f
2213 /* Return 1 iff any subexpression of X matches Y.
2214    Here we do not require that X or Y be valid (for registers referred to)
2215    for being in the hash table.  */
2216
2217 static int
2218 refers_to_p (x, y)
2219      rtx x, y;
2220 {
2221   register int i;
2222   register enum rtx_code code;
2223   register char *fmt;
2224
2225  repeat:
2226   if (x == y)
2227     return 1;
2228   if (x == 0 || y == 0)
2229     return 0;
2230
2231   code = GET_CODE (x);
2232   /* If X as a whole has the same code as Y, they may match.
2233      If so, return 1.  */
2234   if (code == GET_CODE (y))
2235     {
2236       if (exp_equiv_p (x, y, 0, 1))
2237         return 1;
2238     }
2239
2240   /* X does not match, so try its subexpressions.  */
2241
2242   fmt = GET_RTX_FORMAT (code);
2243   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
2244     if (fmt[i] == 'e')
2245       {
2246         if (i == 0)
2247           {
2248             x = XEXP (x, 0);
2249             goto repeat;
2250           }
2251         else
2252           if (refers_to_p (XEXP (x, i), y))
2253             return 1;
2254       }
2255     else if (fmt[i] == 'E')
2256       {
2257         int j;
2258         for (j = 0; j < XVECLEN (x, i); j++)
2259           if (refers_to_p (XVECEXP (x, i, j), y))
2260             return 1;
2261       }
2262
2263   return 0;
2264 }
2265 \f
2266 /* Given ADDR and SIZE (a memory address, and the size of the memory reference),
2267    set PBASE, PSTART, and PEND which correspond to the base of the address,
2268    the starting offset, and ending offset respectively.
2269
2270    ADDR is known to be a nonvarying address.  */
2271
2272 /* ??? Despite what the comments say, this function is in fact frequently
2273    passed varying addresses.  This does not appear to cause any problems.  */
2274
2275 static void
2276 set_nonvarying_address_components (addr, size, pbase, pstart, pend)
2277      rtx addr;
2278      int size;
2279      rtx *pbase;
2280      HOST_WIDE_INT *pstart, *pend;
2281 {
2282   rtx base;
2283   HOST_WIDE_INT start, end;
2284
2285   base = addr;
2286   start = 0;
2287   end = 0;
2288
2289   /* Registers with nonvarying addresses usually have constant equivalents;
2290      but the frame pointer register is also possible.  */
2291   if (GET_CODE (base) == REG
2292       && qty_const != 0
2293       && REGNO_QTY_VALID_P (REGNO (base))
2294       && qty_mode[reg_qty[REGNO (base)]] == GET_MODE (base)
2295       && qty_const[reg_qty[REGNO (base)]] != 0)
2296     base = qty_const[reg_qty[REGNO (base)]];
2297   else if (GET_CODE (base) == PLUS
2298            && GET_CODE (XEXP (base, 1)) == CONST_INT
2299            && GET_CODE (XEXP (base, 0)) == REG
2300            && qty_const != 0
2301            && REGNO_QTY_VALID_P (REGNO (XEXP (base, 0)))
2302            && (qty_mode[reg_qty[REGNO (XEXP (base, 0))]]
2303                == GET_MODE (XEXP (base, 0)))
2304            && qty_const[reg_qty[REGNO (XEXP (base, 0))]])
2305     {
2306       start = INTVAL (XEXP (base, 1));
2307       base = qty_const[reg_qty[REGNO (XEXP (base, 0))]];
2308     }
2309   /* This can happen as the result of virtual register instantiation,
2310      if the initial offset is too large to be a valid address.  */
2311   else if (GET_CODE (base) == PLUS
2312            && GET_CODE (XEXP (base, 0)) == REG
2313            && GET_CODE (XEXP (base, 1)) == REG
2314            && qty_const != 0
2315            && REGNO_QTY_VALID_P (REGNO (XEXP (base, 0)))
2316            && (qty_mode[reg_qty[REGNO (XEXP (base, 0))]]
2317                == GET_MODE (XEXP (base, 0)))
2318            && qty_const[reg_qty[REGNO (XEXP (base, 0))]]
2319            && REGNO_QTY_VALID_P (REGNO (XEXP (base, 1)))
2320            && (qty_mode[reg_qty[REGNO (XEXP (base, 1))]]
2321                == GET_MODE (XEXP (base, 1)))
2322            && qty_const[reg_qty[REGNO (XEXP (base, 1))]])
2323     {
2324       rtx tem = qty_const[reg_qty[REGNO (XEXP (base, 1))]];
2325       base = qty_const[reg_qty[REGNO (XEXP (base, 0))]];
2326
2327       /* One of the two values must be a constant.  */
2328       if (GET_CODE (base) != CONST_INT)
2329         {
2330           if (GET_CODE (tem) != CONST_INT)
2331             abort ();
2332           start = INTVAL (tem);
2333         }
2334       else
2335         {
2336           start = INTVAL (base);
2337           base = tem;
2338         }
2339     }
2340
2341   /* Handle everything that we can find inside an address that has been
2342      viewed as constant.  */
2343
2344   while (1)
2345     {
2346       /* If no part of this switch does a "continue", the code outside
2347          will exit this loop.  */
2348
2349       switch (GET_CODE (base))
2350         {
2351         case LO_SUM:
2352           /* By definition, operand1 of a LO_SUM is the associated constant
2353              address.  Use the associated constant address as the base
2354              instead.  */
2355           base = XEXP (base, 1);
2356           continue;
2357
2358         case CONST:
2359           /* Strip off CONST.  */
2360           base = XEXP (base, 0);
2361           continue;
2362
2363         case PLUS:
2364           if (GET_CODE (XEXP (base, 1)) == CONST_INT)
2365             {
2366               start += INTVAL (XEXP (base, 1));
2367               base = XEXP (base, 0);
2368               continue;
2369             }
2370           break;
2371
2372         case AND:
2373           /* Handle the case of an AND which is the negative of a power of
2374              two.  This is used to represent unaligned memory operations.  */
2375           if (GET_CODE (XEXP (base, 1)) == CONST_INT
2376               && exact_log2 (- INTVAL (XEXP (base, 1))) > 0)
2377             {
2378               set_nonvarying_address_components (XEXP (base, 0), size,
2379                                                  pbase, pstart, pend);
2380
2381               /* Assume the worst misalignment.  START is affected, but not
2382                  END, so compensate but adjusting SIZE.  Don't lose any
2383                  constant we already had.  */
2384
2385               size = *pend - *pstart - INTVAL (XEXP (base, 1)) - 1;
2386               start += *pstart + INTVAL (XEXP (base, 1)) + 1;
2387               end += *pend;
2388               base = *pbase;
2389             }
2390           break;
2391         }
2392
2393       break;
2394     }
2395
2396   if (GET_CODE (base) == CONST_INT)
2397     {
2398       start += INTVAL (base);
2399       base = const0_rtx;
2400     }
2401
2402   end = start + size;
2403
2404   /* Set the return values.  */
2405   *pbase = base;
2406   *pstart = start;
2407   *pend = end;
2408 }
2409
2410 /* Return 1 iff any subexpression of X refers to memory
2411    at an address of BASE plus some offset
2412    such that any of the bytes' offsets fall between START (inclusive)
2413    and END (exclusive).
2414
2415    The value is undefined if X is a varying address (as determined by
2416    cse_rtx_addr_varies_p).  This function is not used in such cases.
2417
2418    When used in the cse pass, `qty_const' is nonzero, and it is used
2419    to treat an address that is a register with a known constant value
2420    as if it were that constant value.
2421    In the loop pass, `qty_const' is zero, so this is not done.  */
2422
2423 static int
2424 refers_to_mem_p (x, base, start, end)
2425      rtx x, base;
2426      HOST_WIDE_INT start, end;
2427 {
2428   register HOST_WIDE_INT i;
2429   register enum rtx_code code;
2430   register char *fmt;
2431
2432  repeat:
2433   if (x == 0)
2434     return 0;
2435
2436   code = GET_CODE (x);
2437   if (code == MEM)
2438     {
2439       register rtx addr = XEXP (x, 0);  /* Get the address.  */
2440       rtx mybase;
2441       HOST_WIDE_INT mystart, myend;
2442
2443       set_nonvarying_address_components (addr, GET_MODE_SIZE (GET_MODE (x)),
2444                                          &mybase, &mystart, &myend);
2445
2446
2447       /* refers_to_mem_p is never called with varying addresses. 
2448          If the base addresses are not equal, there is no chance
2449          of the memory addresses conflicting.  */
2450       if (! rtx_equal_p (mybase, base))
2451         return 0;
2452
2453       return myend > start && mystart < end;
2454     }
2455
2456   /* X does not match, so try its subexpressions.  */
2457
2458   fmt = GET_RTX_FORMAT (code);
2459   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
2460     if (fmt[i] == 'e')
2461       {
2462         if (i == 0)
2463           {
2464             x = XEXP (x, 0);
2465             goto repeat;
2466           }
2467         else
2468           if (refers_to_mem_p (XEXP (x, i), base, start, end))
2469             return 1;
2470       }
2471     else if (fmt[i] == 'E')
2472       {
2473         int j;
2474         for (j = 0; j < XVECLEN (x, i); j++)
2475           if (refers_to_mem_p (XVECEXP (x, i, j), base, start, end))
2476             return 1;
2477       }
2478
2479   return 0;
2480 }
2481
2482 /* Nonzero if X refers to memory at a varying address;
2483    except that a register which has at the moment a known constant value
2484    isn't considered variable.  */
2485
2486 static int
2487 cse_rtx_addr_varies_p (x)
2488      rtx x;
2489 {
2490   /* We need not check for X and the equivalence class being of the same
2491      mode because if X is equivalent to a constant in some mode, it
2492      doesn't vary in any mode.  */
2493
2494   if (GET_CODE (x) == MEM
2495       && GET_CODE (XEXP (x, 0)) == REG
2496       && REGNO_QTY_VALID_P (REGNO (XEXP (x, 0)))
2497       && GET_MODE (XEXP (x, 0)) == qty_mode[reg_qty[REGNO (XEXP (x, 0))]]
2498       && qty_const[reg_qty[REGNO (XEXP (x, 0))]] != 0)
2499     return 0;
2500
2501   if (GET_CODE (x) == MEM
2502       && GET_CODE (XEXP (x, 0)) == PLUS
2503       && GET_CODE (XEXP (XEXP (x, 0), 1)) == CONST_INT
2504       && GET_CODE (XEXP (XEXP (x, 0), 0)) == REG
2505       && REGNO_QTY_VALID_P (REGNO (XEXP (XEXP (x, 0), 0)))
2506       && (GET_MODE (XEXP (XEXP (x, 0), 0))
2507           == qty_mode[reg_qty[REGNO (XEXP (XEXP (x, 0), 0))]])
2508       && qty_const[reg_qty[REGNO (XEXP (XEXP (x, 0), 0))]])
2509     return 0;
2510
2511   /* This can happen as the result of virtual register instantiation, if
2512      the initial constant is too large to be a valid address.  This gives
2513      us a three instruction sequence, load large offset into a register,
2514      load fp minus a constant into a register, then a MEM which is the
2515      sum of the two `constant' registers.  */
2516   if (GET_CODE (x) == MEM
2517       && GET_CODE (XEXP (x, 0)) == PLUS
2518       && GET_CODE (XEXP (XEXP (x, 0), 0)) == REG
2519       && GET_CODE (XEXP (XEXP (x, 0), 1)) == REG
2520       && REGNO_QTY_VALID_P (REGNO (XEXP (XEXP (x, 0), 0)))
2521       && (GET_MODE (XEXP (XEXP (x, 0), 0))
2522           == qty_mode[reg_qty[REGNO (XEXP (XEXP (x, 0), 0))]])
2523       && qty_const[reg_qty[REGNO (XEXP (XEXP (x, 0), 0))]]
2524       && REGNO_QTY_VALID_P (REGNO (XEXP (XEXP (x, 0), 1)))
2525       && (GET_MODE (XEXP (XEXP (x, 0), 1))
2526           == qty_mode[reg_qty[REGNO (XEXP (XEXP (x, 0), 1))]])
2527       && qty_const[reg_qty[REGNO (XEXP (XEXP (x, 0), 1))]])
2528     return 0;
2529
2530   return rtx_addr_varies_p (x);
2531 }
2532 \f
2533 /* Canonicalize an expression:
2534    replace each register reference inside it
2535    with the "oldest" equivalent register.
2536
2537    If INSN is non-zero and we are replacing a pseudo with a hard register
2538    or vice versa, validate_change is used to ensure that INSN remains valid
2539    after we make our substitution.  The calls are made with IN_GROUP non-zero
2540    so apply_change_group must be called upon the outermost return from this
2541    function (unless INSN is zero).  The result of apply_change_group can
2542    generally be discarded since the changes we are making are optional.  */
2543
2544 static rtx
2545 canon_reg (x, insn)
2546      rtx x;
2547      rtx insn;
2548 {
2549   register int i;
2550   register enum rtx_code code;
2551   register char *fmt;
2552
2553   if (x == 0)
2554     return x;
2555
2556   code = GET_CODE (x);
2557   switch (code)
2558     {
2559     case PC:
2560     case CC0:
2561     case CONST:
2562     case CONST_INT:
2563     case CONST_DOUBLE:
2564     case SYMBOL_REF:
2565     case LABEL_REF:
2566     case ADDR_VEC:
2567     case ADDR_DIFF_VEC:
2568       return x;
2569
2570     case REG:
2571       {
2572         register int first;
2573
2574         /* Never replace a hard reg, because hard regs can appear
2575            in more than one machine mode, and we must preserve the mode
2576            of each occurrence.  Also, some hard regs appear in
2577            MEMs that are shared and mustn't be altered.  Don't try to
2578            replace any reg that maps to a reg of class NO_REGS.  */
2579         if (REGNO (x) < FIRST_PSEUDO_REGISTER
2580             || ! REGNO_QTY_VALID_P (REGNO (x)))
2581           return x;
2582
2583         first = qty_first_reg[reg_qty[REGNO (x)]];
2584         return (first >= FIRST_PSEUDO_REGISTER ? regno_reg_rtx[first]
2585                 : REGNO_REG_CLASS (first) == NO_REGS ? x
2586                 : gen_rtx (REG, qty_mode[reg_qty[REGNO (x)]], first));
2587       }
2588     }
2589
2590   fmt = GET_RTX_FORMAT (code);
2591   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
2592     {
2593       register int j;
2594
2595       if (fmt[i] == 'e')
2596         {
2597           rtx new = canon_reg (XEXP (x, i), insn);
2598           int insn_code;
2599
2600           /* If replacing pseudo with hard reg or vice versa, ensure the
2601              insn remains valid.  Likewise if the insn has MATCH_DUPs.  */
2602           if (insn != 0 && new != 0
2603               && GET_CODE (new) == REG && GET_CODE (XEXP (x, i)) == REG
2604               && (((REGNO (new) < FIRST_PSEUDO_REGISTER)
2605                    != (REGNO (XEXP (x, i)) < FIRST_PSEUDO_REGISTER))
2606                   || (insn_code = recog_memoized (insn)) < 0
2607                   || insn_n_dups[insn_code] > 0))
2608             validate_change (insn, &XEXP (x, i), new, 1);
2609           else
2610             XEXP (x, i) = new;
2611         }
2612       else if (fmt[i] == 'E')
2613         for (j = 0; j < XVECLEN (x, i); j++)
2614           XVECEXP (x, i, j) = canon_reg (XVECEXP (x, i, j), insn);
2615     }
2616
2617   return x;
2618 }
2619 \f
2620 /* LOC is a location within INSN that is an operand address (the contents of
2621    a MEM).  Find the best equivalent address to use that is valid for this
2622    insn.
2623
2624    On most CISC machines, complicated address modes are costly, and rtx_cost
2625    is a good approximation for that cost.  However, most RISC machines have
2626    only a few (usually only one) memory reference formats.  If an address is
2627    valid at all, it is often just as cheap as any other address.  Hence, for
2628    RISC machines, we use the configuration macro `ADDRESS_COST' to compare the
2629    costs of various addresses.  For two addresses of equal cost, choose the one
2630    with the highest `rtx_cost' value as that has the potential of eliminating
2631    the most insns.  For equal costs, we choose the first in the equivalence
2632    class.  Note that we ignore the fact that pseudo registers are cheaper
2633    than hard registers here because we would also prefer the pseudo registers.
2634   */
2635
2636 static void
2637 find_best_addr (insn, loc)
2638      rtx insn;
2639      rtx *loc;
2640 {
2641   struct table_elt *elt, *p;
2642   rtx addr = *loc;
2643   int our_cost;
2644   int found_better = 1;
2645   int save_do_not_record = do_not_record;
2646   int save_hash_arg_in_memory = hash_arg_in_memory;
2647   int save_hash_arg_in_struct = hash_arg_in_struct;
2648   int addr_volatile;
2649   int regno;
2650   unsigned hash;
2651
2652   /* Do not try to replace constant addresses or addresses of local and
2653      argument slots.  These MEM expressions are made only once and inserted
2654      in many instructions, as well as being used to control symbol table
2655      output.  It is not safe to clobber them.
2656
2657      There are some uncommon cases where the address is already in a register
2658      for some reason, but we cannot take advantage of that because we have
2659      no easy way to unshare the MEM.  In addition, looking up all stack
2660      addresses is costly.  */
2661   if ((GET_CODE (addr) == PLUS
2662        && GET_CODE (XEXP (addr, 0)) == REG
2663        && GET_CODE (XEXP (addr, 1)) == CONST_INT
2664        && (regno = REGNO (XEXP (addr, 0)),
2665            regno == FRAME_POINTER_REGNUM || regno == HARD_FRAME_POINTER_REGNUM
2666            || regno == ARG_POINTER_REGNUM))
2667       || (GET_CODE (addr) == REG
2668           && (regno = REGNO (addr), regno == FRAME_POINTER_REGNUM
2669               || regno == HARD_FRAME_POINTER_REGNUM
2670               || regno == ARG_POINTER_REGNUM))
2671       || CONSTANT_ADDRESS_P (addr))
2672     return;
2673
2674   /* If this address is not simply a register, try to fold it.  This will
2675      sometimes simplify the expression.  Many simplifications
2676      will not be valid, but some, usually applying the associative rule, will
2677      be valid and produce better code.  */
2678   if (GET_CODE (addr) != REG)
2679     {
2680       rtx folded = fold_rtx (copy_rtx (addr), NULL_RTX);
2681
2682       if (1
2683 #ifdef ADDRESS_COST
2684           && (ADDRESS_COST (folded) < ADDRESS_COST (addr)
2685               || (ADDRESS_COST (folded) == ADDRESS_COST (addr)
2686                   && rtx_cost (folded) > rtx_cost (addr)))
2687 #else
2688           && rtx_cost (folded) < rtx_cost (addr)
2689 #endif
2690           && validate_change (insn, loc, folded, 0))
2691         addr = folded;
2692     }
2693         
2694   /* If this address is not in the hash table, we can't look for equivalences
2695      of the whole address.  Also, ignore if volatile.  */
2696
2697   do_not_record = 0;
2698   hash = HASH (addr, Pmode);
2699   addr_volatile = do_not_record;
2700   do_not_record = save_do_not_record;
2701   hash_arg_in_memory = save_hash_arg_in_memory;
2702   hash_arg_in_struct = save_hash_arg_in_struct;
2703
2704   if (addr_volatile)
2705     return;
2706
2707   elt = lookup (addr, hash, Pmode);
2708
2709 #ifndef ADDRESS_COST
2710   if (elt)
2711     {
2712       our_cost = elt->cost;
2713
2714       /* Find the lowest cost below ours that works.  */
2715       for (elt = elt->first_same_value; elt; elt = elt->next_same_value)
2716         if (elt->cost < our_cost
2717             && (GET_CODE (elt->exp) == REG
2718                 || exp_equiv_p (elt->exp, elt->exp, 1, 0))
2719             && validate_change (insn, loc,
2720                                 canon_reg (copy_rtx (elt->exp), NULL_RTX), 0))
2721           return;
2722     }
2723 #else
2724
2725   if (elt)
2726     {
2727       /* We need to find the best (under the criteria documented above) entry
2728          in the class that is valid.  We use the `flag' field to indicate
2729          choices that were invalid and iterate until we can't find a better
2730          one that hasn't already been tried.  */
2731
2732       for (p = elt->first_same_value; p; p = p->next_same_value)
2733         p->flag = 0;
2734
2735       while (found_better)
2736         {
2737           int best_addr_cost = ADDRESS_COST (*loc);
2738           int best_rtx_cost = (elt->cost + 1) >> 1;
2739           struct table_elt *best_elt = elt; 
2740
2741           found_better = 0;
2742           for (p = elt->first_same_value; p; p = p->next_same_value)
2743             if (! p->flag
2744                 && (GET_CODE (p->exp) == REG
2745                     || exp_equiv_p (p->exp, p->exp, 1, 0))
2746                 && (ADDRESS_COST (p->exp) < best_addr_cost
2747                     || (ADDRESS_COST (p->exp) == best_addr_cost
2748                         && (p->cost + 1) >> 1 > best_rtx_cost)))
2749               {
2750                 found_better = 1;
2751                 best_addr_cost = ADDRESS_COST (p->exp);
2752                 best_rtx_cost = (p->cost + 1) >> 1;
2753                 best_elt = p;
2754               }
2755
2756           if (found_better)
2757             {
2758               if (validate_change (insn, loc,
2759                                    canon_reg (copy_rtx (best_elt->exp),
2760                                               NULL_RTX), 0))
2761                 return;
2762               else
2763                 best_elt->flag = 1;
2764             }
2765         }
2766     }
2767
2768   /* If the address is a binary operation with the first operand a register
2769      and the second a constant, do the same as above, but looking for
2770      equivalences of the register.  Then try to simplify before checking for
2771      the best address to use.  This catches a few cases:  First is when we
2772      have REG+const and the register is another REG+const.  We can often merge
2773      the constants and eliminate one insn and one register.  It may also be
2774      that a machine has a cheap REG+REG+const.  Finally, this improves the
2775      code on the Alpha for unaligned byte stores.  */
2776
2777   if (flag_expensive_optimizations
2778       && (GET_RTX_CLASS (GET_CODE (*loc)) == '2'
2779           || GET_RTX_CLASS (GET_CODE (*loc)) == 'c')
2780       && GET_CODE (XEXP (*loc, 0)) == REG
2781       && GET_CODE (XEXP (*loc, 1)) == CONST_INT)
2782     {
2783       rtx c = XEXP (*loc, 1);
2784
2785       do_not_record = 0;
2786       hash = HASH (XEXP (*loc, 0), Pmode);
2787       do_not_record = save_do_not_record;
2788       hash_arg_in_memory = save_hash_arg_in_memory;
2789       hash_arg_in_struct = save_hash_arg_in_struct;
2790
2791       elt = lookup (XEXP (*loc, 0), hash, Pmode);
2792       if (elt == 0)
2793         return;
2794
2795       /* We need to find the best (under the criteria documented above) entry
2796          in the class that is valid.  We use the `flag' field to indicate
2797          choices that were invalid and iterate until we can't find a better
2798          one that hasn't already been tried.  */
2799
2800       for (p = elt->first_same_value; p; p = p->next_same_value)
2801         p->flag = 0;
2802
2803       while (found_better)
2804         {
2805           int best_addr_cost = ADDRESS_COST (*loc);
2806           int best_rtx_cost = (COST (*loc) + 1) >> 1;
2807           struct table_elt *best_elt = elt; 
2808           rtx best_rtx = *loc;
2809           int count;
2810
2811           /* This is at worst case an O(n^2) algorithm, so limit our search
2812              to the first 32 elements on the list.  This avoids trouble
2813              compiling code with very long basic blocks that can easily
2814              call cse_gen_binary so many times that we run out of memory.  */
2815
2816           found_better = 0;
2817           for (p = elt->first_same_value, count = 0;
2818                p && count < 32;
2819                p = p->next_same_value, count++)
2820             if (! p->flag
2821                 && (GET_CODE (p->exp) == REG
2822                     || exp_equiv_p (p->exp, p->exp, 1, 0)))
2823               {
2824                 rtx new = cse_gen_binary (GET_CODE (*loc), Pmode, p->exp, c);
2825
2826                 if ((ADDRESS_COST (new) < best_addr_cost
2827                     || (ADDRESS_COST (new) == best_addr_cost
2828                         && (COST (new) + 1) >> 1 > best_rtx_cost)))
2829                   {
2830                     found_better = 1;
2831                     best_addr_cost = ADDRESS_COST (new);
2832                     best_rtx_cost = (COST (new) + 1) >> 1;
2833                     best_elt = p;
2834                     best_rtx = new;
2835                   }
2836               }
2837
2838           if (found_better)
2839             {
2840               if (validate_change (insn, loc,
2841                                    canon_reg (copy_rtx (best_rtx),
2842                                               NULL_RTX), 0))
2843                 return;
2844               else
2845                 best_elt->flag = 1;
2846             }
2847         }
2848     }
2849 #endif
2850 }
2851 \f
2852 /* Given an operation (CODE, *PARG1, *PARG2), where code is a comparison
2853    operation (EQ, NE, GT, etc.), follow it back through the hash table and
2854    what values are being compared.
2855
2856    *PARG1 and *PARG2 are updated to contain the rtx representing the values
2857    actually being compared.  For example, if *PARG1 was (cc0) and *PARG2
2858    was (const_int 0), *PARG1 and *PARG2 will be set to the objects that were
2859    compared to produce cc0.
2860
2861    The return value is the comparison operator and is either the code of
2862    A or the code corresponding to the inverse of the comparison.  */
2863
2864 static enum rtx_code
2865 find_comparison_args (code, parg1, parg2, pmode1, pmode2)
2866      enum rtx_code code;
2867      rtx *parg1, *parg2;
2868      enum machine_mode *pmode1, *pmode2;
2869 {
2870   rtx arg1, arg2;
2871
2872   arg1 = *parg1, arg2 = *parg2;
2873
2874   /* If ARG2 is const0_rtx, see what ARG1 is equivalent to.  */
2875
2876   while (arg2 == CONST0_RTX (GET_MODE (arg1)))
2877     {
2878       /* Set non-zero when we find something of interest.  */
2879       rtx x = 0;
2880       int reverse_code = 0;
2881       struct table_elt *p = 0;
2882
2883       /* If arg1 is a COMPARE, extract the comparison arguments from it.
2884          On machines with CC0, this is the only case that can occur, since
2885          fold_rtx will return the COMPARE or item being compared with zero
2886          when given CC0.  */
2887
2888       if (GET_CODE (arg1) == COMPARE && arg2 == const0_rtx)
2889         x = arg1;
2890
2891       /* If ARG1 is a comparison operator and CODE is testing for
2892          STORE_FLAG_VALUE, get the inner arguments.  */
2893
2894       else if (GET_RTX_CLASS (GET_CODE (arg1)) == '<')
2895         {
2896           if (code == NE
2897               || (GET_MODE_CLASS (GET_MODE (arg1)) == MODE_INT
2898                   && code == LT && STORE_FLAG_VALUE == -1)
2899 #ifdef FLOAT_STORE_FLAG_VALUE
2900               || (GET_MODE_CLASS (GET_MODE (arg1)) == MODE_FLOAT
2901                   && FLOAT_STORE_FLAG_VALUE < 0)
2902 #endif
2903               )
2904             x = arg1;
2905           else if (code == EQ
2906                    || (GET_MODE_CLASS (GET_MODE (arg1)) == MODE_INT
2907                        && code == GE && STORE_FLAG_VALUE == -1)
2908 #ifdef FLOAT_STORE_FLAG_VALUE
2909                    || (GET_MODE_CLASS (GET_MODE (arg1)) == MODE_FLOAT
2910                        && FLOAT_STORE_FLAG_VALUE < 0)
2911 #endif
2912                    )
2913             x = arg1, reverse_code = 1;
2914         }
2915
2916       /* ??? We could also check for
2917
2918          (ne (and (eq (...) (const_int 1))) (const_int 0))
2919
2920          and related forms, but let's wait until we see them occurring.  */
2921
2922       if (x == 0)
2923         /* Look up ARG1 in the hash table and see if it has an equivalence
2924            that lets us see what is being compared.  */
2925         p = lookup (arg1, safe_hash (arg1, GET_MODE (arg1)) % NBUCKETS,
2926                     GET_MODE (arg1));
2927       if (p) p = p->first_same_value;
2928
2929       for (; p; p = p->next_same_value)
2930         {
2931           enum machine_mode inner_mode = GET_MODE (p->exp);
2932
2933           /* If the entry isn't valid, skip it.  */
2934           if (! exp_equiv_p (p->exp, p->exp, 1, 0))
2935             continue;
2936
2937           if (GET_CODE (p->exp) == COMPARE
2938               /* Another possibility is that this machine has a compare insn
2939                  that includes the comparison code.  In that case, ARG1 would
2940                  be equivalent to a comparison operation that would set ARG1 to
2941                  either STORE_FLAG_VALUE or zero.  If this is an NE operation,
2942                  ORIG_CODE is the actual comparison being done; if it is an EQ,
2943                  we must reverse ORIG_CODE.  On machine with a negative value
2944                  for STORE_FLAG_VALUE, also look at LT and GE operations.  */
2945               || ((code == NE
2946                    || (code == LT
2947                        && GET_MODE_CLASS (inner_mode) == MODE_INT
2948                        && (GET_MODE_BITSIZE (inner_mode)
2949                            <= HOST_BITS_PER_WIDE_INT)
2950                        && (STORE_FLAG_VALUE
2951                            & ((HOST_WIDE_INT) 1
2952                               << (GET_MODE_BITSIZE (inner_mode) - 1))))
2953 #ifdef FLOAT_STORE_FLAG_VALUE
2954                    || (code == LT
2955                        && GET_MODE_CLASS (inner_mode) == MODE_FLOAT
2956                        && FLOAT_STORE_FLAG_VALUE < 0)
2957 #endif
2958                    )
2959                   && GET_RTX_CLASS (GET_CODE (p->exp)) == '<'))
2960             {
2961               x = p->exp;
2962               break;
2963             }
2964           else if ((code == EQ
2965                     || (code == GE
2966                         && GET_MODE_CLASS (inner_mode) == MODE_INT
2967                         && (GET_MODE_BITSIZE (inner_mode)
2968                             <= HOST_BITS_PER_WIDE_INT)
2969                         && (STORE_FLAG_VALUE
2970                             & ((HOST_WIDE_INT) 1
2971                                << (GET_MODE_BITSIZE (inner_mode) - 1))))
2972 #ifdef FLOAT_STORE_FLAG_VALUE
2973                     || (code == GE
2974                         && GET_MODE_CLASS (inner_mode) == MODE_FLOAT
2975                         && FLOAT_STORE_FLAG_VALUE < 0)
2976 #endif
2977                     )
2978                    && GET_RTX_CLASS (GET_CODE (p->exp)) == '<')
2979             {
2980               reverse_code = 1;
2981               x = p->exp;
2982               break;
2983             }
2984
2985           /* If this is fp + constant, the equivalent is a better operand since
2986              it may let us predict the value of the comparison.  */
2987           else if (NONZERO_BASE_PLUS_P (p->exp))
2988             {
2989               arg1 = p->exp;
2990               continue;
2991             }
2992         }
2993
2994       /* If we didn't find a useful equivalence for ARG1, we are done.
2995          Otherwise, set up for the next iteration.  */
2996       if (x == 0)
2997         break;
2998
2999       arg1 = XEXP (x, 0),  arg2 = XEXP (x, 1);
3000       if (GET_RTX_CLASS (GET_CODE (x)) == '<')
3001         code = GET_CODE (x);
3002
3003       if (reverse_code)
3004         code = reverse_condition (code);
3005     }
3006
3007   /* Return our results.  Return the modes from before fold_rtx
3008      because fold_rtx might produce const_int, and then it's too late.  */
3009   *pmode1 = GET_MODE (arg1), *pmode2 = GET_MODE (arg2);
3010   *parg1 = fold_rtx (arg1, 0), *parg2 = fold_rtx (arg2, 0);
3011
3012   return code;
3013 }
3014 \f
3015 /* Try to simplify a unary operation CODE whose output mode is to be
3016    MODE with input operand OP whose mode was originally OP_MODE.
3017    Return zero if no simplification can be made.  */
3018
3019 rtx
3020 simplify_unary_operation (code, mode, op, op_mode)
3021      enum rtx_code code;
3022      enum machine_mode mode;
3023      rtx op;
3024      enum machine_mode op_mode;
3025 {
3026   register int width = GET_MODE_BITSIZE (mode);
3027
3028   /* The order of these tests is critical so that, for example, we don't
3029      check the wrong mode (input vs. output) for a conversion operation,
3030      such as FIX.  At some point, this should be simplified.  */
3031
3032 #if !defined(REAL_IS_NOT_DOUBLE) || defined(REAL_ARITHMETIC)
3033
3034   if (code == FLOAT && GET_MODE (op) == VOIDmode
3035       && (GET_CODE (op) == CONST_DOUBLE || GET_CODE (op) == CONST_INT))
3036     {
3037       HOST_WIDE_INT hv, lv;
3038       REAL_VALUE_TYPE d;
3039
3040       if (GET_CODE (op) == CONST_INT)
3041         lv = INTVAL (op), hv = INTVAL (op) < 0 ? -1 : 0;
3042       else
3043         lv = CONST_DOUBLE_LOW (op),  hv = CONST_DOUBLE_HIGH (op);
3044
3045 #ifdef REAL_ARITHMETIC
3046       REAL_VALUE_FROM_INT (d, lv, hv, mode);
3047 #else
3048       if (hv < 0)
3049         {
3050           d = (double) (~ hv);
3051           d *= ((double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2))
3052                 * (double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2)));
3053           d += (double) (unsigned HOST_WIDE_INT) (~ lv);
3054           d = (- d - 1.0);
3055         }
3056       else
3057         {
3058           d = (double) hv;
3059           d *= ((double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2))
3060                 * (double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2)));
3061           d += (double) (unsigned HOST_WIDE_INT) lv;
3062         }
3063 #endif  /* REAL_ARITHMETIC */
3064       d = real_value_truncate (mode, d);
3065       return CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
3066     }
3067   else if (code == UNSIGNED_FLOAT && GET_MODE (op) == VOIDmode
3068            && (GET_CODE (op) == CONST_DOUBLE || GET_CODE (op) == CONST_INT))
3069     {
3070       HOST_WIDE_INT hv, lv;
3071       REAL_VALUE_TYPE d;
3072
3073       if (GET_CODE (op) == CONST_INT)
3074         lv = INTVAL (op), hv = INTVAL (op) < 0 ? -1 : 0;
3075       else
3076         lv = CONST_DOUBLE_LOW (op),  hv = CONST_DOUBLE_HIGH (op);
3077
3078       if (op_mode == VOIDmode)
3079         {
3080           /* We don't know how to interpret negative-looking numbers in
3081              this case, so don't try to fold those.  */
3082           if (hv < 0)
3083             return 0;
3084         }
3085       else if (GET_MODE_BITSIZE (op_mode) >= HOST_BITS_PER_WIDE_INT * 2)
3086         ;
3087       else
3088         hv = 0, lv &= GET_MODE_MASK (op_mode);
3089
3090 #ifdef REAL_ARITHMETIC
3091       REAL_VALUE_FROM_UNSIGNED_INT (d, lv, hv, mode);
3092 #else
3093
3094       d = (double) (unsigned HOST_WIDE_INT) hv;
3095       d *= ((double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2))
3096             * (double) ((HOST_WIDE_INT) 1 << (HOST_BITS_PER_WIDE_INT / 2)));
3097       d += (double) (unsigned HOST_WIDE_INT) lv;
3098 #endif  /* REAL_ARITHMETIC */
3099       d = real_value_truncate (mode, d);
3100       return CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
3101     }
3102 #endif
3103
3104   if (GET_CODE (op) == CONST_INT
3105       && width <= HOST_BITS_PER_WIDE_INT && width > 0)
3106     {
3107       register HOST_WIDE_INT arg0 = INTVAL (op);
3108       register HOST_WIDE_INT val;
3109
3110       switch (code)
3111         {
3112         case NOT:
3113           val = ~ arg0;
3114           break;
3115
3116         case NEG:
3117           val = - arg0;
3118           break;
3119
3120         case ABS:
3121           val = (arg0 >= 0 ? arg0 : - arg0);
3122           break;
3123
3124         case FFS:
3125           /* Don't use ffs here.  Instead, get low order bit and then its
3126              number.  If arg0 is zero, this will return 0, as desired.  */
3127           arg0 &= GET_MODE_MASK (mode);
3128           val = exact_log2 (arg0 & (- arg0)) + 1;
3129           break;
3130
3131         case TRUNCATE:
3132           val = arg0;
3133           break;
3134
3135         case ZERO_EXTEND:
3136           if (op_mode == VOIDmode)
3137             op_mode = mode;
3138           if (GET_MODE_BITSIZE (op_mode) == HOST_BITS_PER_WIDE_INT)
3139             {
3140               /* If we were really extending the mode,
3141                  we would have to distinguish between zero-extension
3142                  and sign-extension.  */
3143               if (width != GET_MODE_BITSIZE (op_mode))
3144                 abort ();
3145               val = arg0;
3146             }
3147           else if (GET_MODE_BITSIZE (op_mode) < HOST_BITS_PER_WIDE_INT)
3148             val = arg0 & ~((HOST_WIDE_INT) (-1) << GET_MODE_BITSIZE (op_mode));
3149           else
3150             return 0;
3151           break;
3152
3153         case SIGN_EXTEND:
3154           if (op_mode == VOIDmode)
3155             op_mode = mode;
3156           if (GET_MODE_BITSIZE (op_mode) == HOST_BITS_PER_WIDE_INT)
3157             {
3158               /* If we were really extending the mode,
3159                  we would have to distinguish between zero-extension
3160                  and sign-extension.  */
3161               if (width != GET_MODE_BITSIZE (op_mode))
3162                 abort ();
3163               val = arg0;
3164             }
3165           else if (GET_MODE_BITSIZE (op_mode) < HOST_BITS_PER_WIDE_INT)
3166             {
3167               val
3168                 = arg0 & ~((HOST_WIDE_INT) (-1) << GET_MODE_BITSIZE (op_mode));
3169               if (val
3170                   & ((HOST_WIDE_INT) 1 << (GET_MODE_BITSIZE (op_mode) - 1)))
3171                 val -= (HOST_WIDE_INT) 1 << GET_MODE_BITSIZE (op_mode);
3172             }
3173           else
3174             return 0;
3175           break;
3176
3177         case SQRT:
3178           return 0;
3179
3180         default:
3181           abort ();
3182         }
3183
3184       /* Clear the bits that don't belong in our mode,
3185          unless they and our sign bit are all one.
3186          So we get either a reasonable negative value or a reasonable
3187          unsigned value for this mode.  */
3188       if (width < HOST_BITS_PER_WIDE_INT
3189           && ((val & ((HOST_WIDE_INT) (-1) << (width - 1)))
3190               != ((HOST_WIDE_INT) (-1) << (width - 1))))
3191         val &= ((HOST_WIDE_INT) 1 << width) - 1;
3192
3193       return GEN_INT (val);
3194     }
3195
3196   /* We can do some operations on integer CONST_DOUBLEs.  Also allow
3197      for a DImode operation on a CONST_INT.  */
3198   else if (GET_MODE (op) == VOIDmode && width <= HOST_BITS_PER_INT * 2
3199            && (GET_CODE (op) == CONST_DOUBLE || GET_CODE (op) == CONST_INT))
3200     {
3201       HOST_WIDE_INT l1, h1, lv, hv;
3202
3203       if (GET_CODE (op) == CONST_DOUBLE)
3204         l1 = CONST_DOUBLE_LOW (op), h1 = CONST_DOUBLE_HIGH (op);
3205       else
3206         l1 = INTVAL (op), h1 = l1 < 0 ? -1 : 0;
3207
3208       switch (code)
3209         {
3210         case NOT:
3211           lv = ~ l1;
3212           hv = ~ h1;
3213           break;
3214
3215         case NEG:
3216           neg_double (l1, h1, &lv, &hv);
3217           break;
3218
3219         case ABS:
3220           if (h1 < 0)
3221             neg_double (l1, h1, &lv, &hv);
3222           else
3223             lv = l1, hv = h1;
3224           break;
3225
3226         case FFS:
3227           hv = 0;
3228           if (l1 == 0)
3229             lv = HOST_BITS_PER_WIDE_INT + exact_log2 (h1 & (-h1)) + 1;
3230           else
3231             lv = exact_log2 (l1 & (-l1)) + 1;
3232           break;
3233
3234         case TRUNCATE:
3235           /* This is just a change-of-mode, so do nothing.  */
3236           lv = l1, hv = h1;
3237           break;
3238
3239         case ZERO_EXTEND:
3240           if (op_mode == VOIDmode
3241               || GET_MODE_BITSIZE (op_mode) > HOST_BITS_PER_WIDE_INT)
3242             return 0;
3243
3244           hv = 0;
3245           lv = l1 & GET_MODE_MASK (op_mode);
3246           break;
3247
3248         case SIGN_EXTEND:
3249           if (op_mode == VOIDmode
3250               || GET_MODE_BITSIZE (op_mode) > HOST_BITS_PER_WIDE_INT)
3251             return 0;
3252           else
3253             {
3254               lv = l1 & GET_MODE_MASK (op_mode);
3255               if (GET_MODE_BITSIZE (op_mode) < HOST_BITS_PER_WIDE_INT
3256                   && (lv & ((HOST_WIDE_INT) 1
3257                             << (GET_MODE_BITSIZE (op_mode) - 1))) != 0)
3258                 lv -= (HOST_WIDE_INT) 1 << GET_MODE_BITSIZE (op_mode);
3259
3260               hv = (lv < 0) ? ~ (HOST_WIDE_INT) 0 : 0;
3261             }
3262           break;
3263
3264         case SQRT:
3265           return 0;
3266
3267         default:
3268           return 0;
3269         }
3270
3271       return immed_double_const (lv, hv, mode);
3272     }
3273
3274 #if ! defined (REAL_IS_NOT_DOUBLE) || defined (REAL_ARITHMETIC)
3275   else if (GET_CODE (op) == CONST_DOUBLE
3276            && GET_MODE_CLASS (mode) == MODE_FLOAT)
3277     {
3278       REAL_VALUE_TYPE d;
3279       jmp_buf handler;
3280       rtx x;
3281
3282       if (setjmp (handler))
3283         /* There used to be a warning here, but that is inadvisable.
3284            People may want to cause traps, and the natural way
3285            to do it should not get a warning.  */
3286         return 0;
3287
3288       set_float_handler (handler);
3289
3290       REAL_VALUE_FROM_CONST_DOUBLE (d, op);
3291
3292       switch (code)
3293         {
3294         case NEG:
3295           d = REAL_VALUE_NEGATE (d);
3296           break;
3297
3298         case ABS:
3299           if (REAL_VALUE_NEGATIVE (d))
3300             d = REAL_VALUE_NEGATE (d);
3301           break;
3302
3303         case FLOAT_TRUNCATE:
3304           d = real_value_truncate (mode, d);
3305           break;
3306
3307         case FLOAT_EXTEND:
3308           /* All this does is change the mode.  */
3309           break;
3310
3311         case FIX:
3312           d = REAL_VALUE_RNDZINT (d);
3313           break;
3314
3315         case UNSIGNED_FIX:
3316           d = REAL_VALUE_UNSIGNED_RNDZINT (d);
3317           break;
3318
3319         case SQRT:
3320           return 0;
3321
3322         default:
3323           abort ();
3324         }
3325
3326       x = CONST_DOUBLE_FROM_REAL_VALUE (d, mode);
3327       set_float_handler (NULL_PTR);
3328       return x;
3329     }
3330
3331   else if (GET_CODE (op) == CONST_DOUBLE
3332            && GET_MODE_CLASS (GET_MODE (op)) == MODE_FLOAT
3333            && GET_MODE_CLASS (mode) == MODE_INT
3334            && width <= HOST_BITS_PER_WIDE_INT && width > 0)
3335     {
3336       REAL_VALUE_TYPE d;
3337       jmp_buf handler;
3338       HOST_WIDE_INT val;
3339
3340       if (setjmp (handler))
3341         return 0;
3342
3343       set_float_handler (handler);
3344
3345       REAL_VALUE_FROM_CONST_DOUBLE (d, op);
3346
3347       switch (code)
3348         {
3349         case FIX:
3350           val = REAL_VALUE_FIX (d);
3351           break;
3352
3353         case UNSIGNED_FIX:
3354           val = REAL_VALUE_UNSIGNED_FIX (d);
3355           break;
3356
3357         default:
3358           abort ();
3359         }
3360
3361       set_float_handler (NULL_PTR);
3362
3363       /* Clear the bits that don't belong in our mode,
3364          unless they and our sign bit are all one.
3365          So we get either a reasonable negative value or a reasonable
3366          unsigned value for this mode.  */
3367       if (width < HOST_BITS_PER_WIDE_INT
3368           && ((val & ((HOST_WIDE_INT) (-1) << (width - 1)))
3369               != ((HOST_WIDE_INT) (-1) << (width - 1))))
3370         val &= ((HOST_WIDE_INT) 1 << width) - 1;
3371
3372       /* If this would be an entire word for the target, but is not for
3373          the host, then sign-extend on the host so that the number will look
3374          the same way on the host that it would on the target.
3375
3376          For example, when building a 64 bit alpha hosted 32 bit sparc
3377          targeted compiler, then we want the 32 bit unsigned value -1 to be
3378          represented as a 64 bit value -1, and not as 0x00000000ffffffff.
3379          The later confuses the sparc backend.  */
3380
3381       if (BITS_PER_WORD < HOST_BITS_PER_WIDE_INT && BITS_PER_WORD == width
3382           && (val & ((HOST_WIDE_INT) 1 << (width - 1))))
3383         val |= ((HOST_WIDE_INT) (-1) << width);
3384
3385       return GEN_INT (val);
3386     }
3387 #endif
3388   /* This was formerly used only for non-IEEE float.
3389      eggert@twinsun.com says it is safe for IEEE also.  */
3390   else
3391     {
3392       /* There are some simplifications we can do even if the operands
3393          aren't constant.  */
3394       switch (code)
3395         {
3396         case NEG:
3397         case NOT:
3398           /* (not (not X)) == X, similarly for NEG.  */
3399           if (GET_CODE (op) == code)
3400             return XEXP (op, 0);
3401           break;
3402
3403         case SIGN_EXTEND:
3404           /* (sign_extend (truncate (minus (label_ref L1) (label_ref L2))))
3405              becomes just the MINUS if its mode is MODE.  This allows
3406              folding switch statements on machines using casesi (such as
3407              the Vax).  */
3408           if (GET_CODE (op) == TRUNCATE
3409               && GET_MODE (XEXP (op, 0)) == mode
3410               && GET_CODE (XEXP (op, 0)) == MINUS
3411               && GET_CODE (XEXP (XEXP (op, 0), 0)) == LABEL_REF
3412               && GET_CODE (XEXP (XEXP (op, 0), 1)) == LABEL_REF)
3413             return XEXP (op, 0);
3414
3415 #ifdef POINTERS_EXTEND_UNSIGNED
3416           if (! POINTERS_EXTEND_UNSIGNED
3417               && mode == Pmode && GET_MODE (op) == ptr_mode
3418               && CONSTANT_P (op))
3419             return convert_memory_address (Pmode, op);
3420 #endif
3421           break;
3422
3423 #ifdef POINTERS_EXTEND_UNSIGNED
3424         case ZERO_EXTEND:
3425           if (POINTERS_EXTEND_UNSIGNED
3426               && mode == Pmode && GET_MODE (op) == ptr_mode
3427               && CONSTANT_P (op))
3428             return convert_memory_address (Pmode, op);
3429           break;
3430 #endif
3431         }
3432
3433       return 0;
3434     }
3435 }
3436 \f
3437 /* Simplify a binary operation CODE with result mode MODE, operating on OP0
3438    and OP1.  Return 0 if no simplification is possible.
3439
3440    Don't use this for relational operations such as EQ or LT.
3441    Use simplify_relational_operation instead.  */
3442
3443 rtx
3444 simplify_binary_operation (code, mode, op0, op1)
3445      enum rtx_code code;
3446      enum machine_mode mode;
3447      rtx op0, op1;
3448 {
3449   register HOST_WIDE_INT arg0, arg1, arg0s, arg1s;
3450   HOST_WIDE_INT val;
3451   int width = GET_MODE_BITSIZE (mode);
3452   rtx tem;
3453
3454   /* Relational operations don't work here.  We must know the mode
3455      of the operands in order to do the comparison correctly.
3456      Assuming a full word can give incorrect results.
3457      Consider comparing 128 with -128 in QImode.  */
3458
3459   if (GET_RTX_CLASS (code) == '<')
3460     abort ();
3461
3462 #if ! defined (REAL_IS_NOT_DOUBLE) || defined (REAL_ARITHMETIC)
3463   if (GET_MODE_CLASS (mode) == MODE_FLOAT
3464       && GET_CODE (op0) == CONST_DOUBLE && GET_CODE (op1) == CONST_DOUBLE
3465       && mode == GET_MODE (op0) && mode == GET_MODE (op1))
3466     {
3467       REAL_VALUE_TYPE f0, f1, value;
3468       jmp_buf handler;
3469
3470       if (setjmp (handler))
3471         return 0;
3472
3473       set_float_handler (handler);
3474
3475       REAL_VALUE_FROM_CONST_DOUBLE (f0, op0);
3476       REAL_VALUE_FROM_CONST_DOUBLE (f1, op1);
3477       f0 = real_value_truncate (mode, f0);
3478       f1 = real_value_truncate (mode, f1);
3479
3480 #ifdef REAL_ARITHMETIC
3481       REAL_ARITHMETIC (value, rtx_to_tree_code (code), f0, f1);
3482 #else
3483       switch (code)
3484         {
3485         case PLUS:
3486           value = f0 + f1;
3487           break;
3488         case MINUS:
3489           value = f0 - f1;
3490           break;
3491         case MULT:
3492           value = f0 * f1;
3493           break;
3494         case DIV:
3495 #ifndef REAL_INFINITY
3496           if (f1 == 0)
3497             return 0;
3498 #endif
3499           value = f0 / f1;
3500           break;
3501         case SMIN:
3502           value = MIN (f0, f1);
3503           break;
3504         case SMAX:
3505           value = MAX (f0, f1);
3506           break;
3507         default:
3508           abort ();
3509         }
3510 #endif
3511
3512       value = real_value_truncate (mode, value);
3513       set_float_handler (NULL_PTR);
3514       return CONST_DOUBLE_FROM_REAL_VALUE (value, mode);
3515     }
3516 #endif  /* not REAL_IS_NOT_DOUBLE, or REAL_ARITHMETIC */
3517
3518   /* We can fold some multi-word operations.  */
3519   if (GET_MODE_CLASS (mode) == MODE_INT
3520       && width == HOST_BITS_PER_WIDE_INT * 2
3521       && (GET_CODE (op0) == CONST_DOUBLE || GET_CODE (op0) == CONST_INT)
3522       && (GET_CODE (op1) == CONST_DOUBLE || GET_CODE (op1) == CONST_INT))
3523     {
3524       HOST_WIDE_INT l1, l2, h1, h2, lv, hv;
3525
3526       if (GET_CODE (op0) == CONST_DOUBLE)
3527         l1 = CONST_DOUBLE_LOW (op0), h1 = CONST_DOUBLE_HIGH (op0);
3528       else
3529         l1 = INTVAL (op0), h1 = l1 < 0 ? -1 : 0;
3530
3531       if (GET_CODE (op1) == CONST_DOUBLE)
3532         l2 = CONST_DOUBLE_LOW (op1), h2 = CONST_DOUBLE_HIGH (op1);
3533       else
3534         l2 = INTVAL (op1), h2 = l2 < 0 ? -1 : 0;
3535
3536       switch (code)
3537         {
3538         case MINUS:
3539           /* A - B == A + (-B).  */
3540           neg_double (l2, h2, &lv, &hv);
3541           l2 = lv, h2 = hv;
3542
3543           /* .. fall through ...  */
3544
3545         case PLUS:
3546           add_double (l1, h1, l2, h2, &lv, &hv);
3547           break;
3548
3549         case MULT:
3550           mul_double (l1, h1, l2, h2, &lv, &hv);
3551           break;
3552
3553         case DIV:  case MOD:   case UDIV:  case UMOD:
3554           /* We'd need to include tree.h to do this and it doesn't seem worth
3555              it.  */
3556           return 0;
3557
3558         case AND:
3559           lv = l1 & l2, hv = h1 & h2;
3560           break;
3561
3562         case IOR:
3563           lv = l1 | l2, hv = h1 | h2;
3564           break;
3565
3566         case XOR:
3567           lv = l1 ^ l2, hv = h1 ^ h2;
3568           break;
3569
3570         case SMIN:
3571           if (h1 < h2
3572               || (h1 == h2
3573                   && ((unsigned HOST_WIDE_INT) l1
3574                       < (unsigned HOST_WIDE_INT) l2)))
3575             lv = l1, hv = h1;
3576           else
3577             lv = l2, hv = h2;
3578           break;
3579
3580         case SMAX:
3581           if (h1 > h2
3582               || (h1 == h2
3583                   && ((unsigned HOST_WIDE_INT) l1
3584                       > (unsigned HOST_WIDE_INT) l2)))
3585             lv = l1, hv = h1;
3586           else
3587             lv = l2, hv = h2;
3588           break;
3589
3590         case UMIN:
3591           if ((unsigned HOST_WIDE_INT) h1 < (unsigned HOST_WIDE_INT) h2
3592               || (h1 == h2
3593                   && ((unsigned HOST_WIDE_INT) l1
3594                       < (unsigned HOST_WIDE_INT) l2)))
3595             lv = l1, hv = h1;
3596           else
3597             lv = l2, hv = h2;
3598           break;
3599
3600         case UMAX:
3601           if ((unsigned HOST_WIDE_INT) h1 > (unsigned HOST_WIDE_INT) h2
3602               || (h1 == h2
3603                   && ((unsigned HOST_WIDE_INT) l1
3604                       > (unsigned HOST_WIDE_INT) l2)))
3605             lv = l1, hv = h1;
3606           else
3607             lv = l2, hv = h2;
3608           break;
3609
3610         case LSHIFTRT:   case ASHIFTRT:
3611         case ASHIFT:
3612         case ROTATE:     case ROTATERT:
3613 #ifdef SHIFT_COUNT_TRUNCATED
3614           if (SHIFT_COUNT_TRUNCATED)
3615             l2 &= (GET_MODE_BITSIZE (mode) - 1), h2 = 0;
3616 #endif
3617
3618           if (h2 != 0 || l2 < 0 || l2 >= GET_MODE_BITSIZE (mode))
3619             return 0;
3620
3621           if (code == LSHIFTRT || code == ASHIFTRT)
3622             rshift_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv,
3623                            code == ASHIFTRT);
3624           else if (code == ASHIFT)
3625             lshift_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv, 1);
3626           else if (code == ROTATE)
3627             lrotate_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv);
3628           else /* code == ROTATERT */
3629             rrotate_double (l1, h1, l2, GET_MODE_BITSIZE (mode), &lv, &hv);
3630           break;
3631
3632         default:
3633           return 0;
3634         }
3635
3636       return immed_double_const (lv, hv, mode);
3637     }
3638
3639   if (GET_CODE (op0) != CONST_INT || GET_CODE (op1) != CONST_INT
3640       || width > HOST_BITS_PER_WIDE_INT || width == 0)
3641     {
3642       /* Even if we can't compute a constant result,
3643          there are some cases worth simplifying.  */
3644
3645       switch (code)
3646         {
3647         case PLUS:
3648           /* In IEEE floating point, x+0 is not the same as x.  Similarly
3649              for the other optimizations below.  */
3650           if (TARGET_FLOAT_FORMAT == IEEE_FLOAT_FORMAT
3651               && FLOAT_MODE_P (mode) && ! flag_fast_math)
3652             break;
3653
3654           if (op1 == CONST0_RTX (mode))
3655             return op0;
3656
3657           /* ((-a) + b) -> (b - a) and similarly for (a + (-b)) */
3658           if (GET_CODE (op0) == NEG)
3659             return cse_gen_binary (MINUS, mode, op1, XEXP (op0, 0));
3660           else if (GET_CODE (op1) == NEG)
3661             return cse_gen_binary (MINUS, mode, op0, XEXP (op1, 0));
3662
3663           /* Handle both-operands-constant cases.  We can only add
3664              CONST_INTs to constants since the sum of relocatable symbols
3665              can't be handled by most assemblers.  Don't add CONST_INT
3666              to CONST_INT since overflow won't be computed properly if wider
3667              than HOST_BITS_PER_WIDE_INT.  */
3668
3669           if (CONSTANT_P (op0) && GET_MODE (op0) != VOIDmode
3670               && GET_CODE (op1) == CONST_INT)
3671             return plus_constant (op0, INTVAL (op1));
3672           else if (CONSTANT_P (op1) && GET_MODE (op1) != VOIDmode
3673                    && GET_CODE (op0) == CONST_INT)
3674             return plus_constant (op1, INTVAL (op0));
3675
3676           /* See if this is something like X * C - X or vice versa or
3677              if the multiplication is written as a shift.  If so, we can
3678              distribute and make a new multiply, shift, or maybe just
3679              have X (if C is 2 in the example above).  But don't make
3680              real multiply if we didn't have one before.  */
3681
3682           if (! FLOAT_MODE_P (mode))
3683             {
3684               HOST_WIDE_INT coeff0 = 1, coeff1 = 1;
3685               rtx lhs = op0, rhs = op1;
3686               int had_mult = 0;
3687
3688               if (GET_CODE (lhs) == NEG)
3689                 coeff0 = -1, lhs = XEXP (lhs, 0);
3690               else if (GET_CODE (lhs) == MULT
3691                        && GET_CODE (XEXP (lhs, 1)) == CONST_INT)
3692                 {
3693                   coeff0 = INTVAL (XEXP (lhs, 1)), lhs = XEXP (lhs, 0);
3694                   had_mult = 1;
3695                 }
3696               else if (GET_CODE (lhs) == ASHIFT
3697                        && GET_CODE (XEXP (lhs, 1)) == CONST_INT
3698                        && INTVAL (XEXP (lhs, 1)) >= 0
3699                        && INTVAL (XEXP (lhs, 1)) < HOST_BITS_PER_WIDE_INT)
3700                 {
3701                   coeff0 = ((HOST_WIDE_INT) 1) << INTVAL (XEXP (lhs, 1));
3702                   lhs = XEXP (lhs, 0);
3703                 }
3704
3705               if (GET_CODE (rhs) == NEG)
3706                 coeff1 = -1, rhs = XEXP (rhs, 0);
3707               else if (GET_CODE (rhs) == MULT
3708                        && GET_CODE (XEXP (rhs, 1)) == CONST_INT)
3709                 {
3710                   coeff1 = INTVAL (XEXP (rhs, 1)), rhs = XEXP (rhs, 0);
3711                   had_mult = 1;
3712                 }
3713               else if (GET_CODE (rhs) == ASHIFT
3714                        && GET_CODE (XEXP (rhs, 1)) == CONST_INT
3715                        && INTVAL (XEXP (rhs, 1)) >= 0
3716                        && INTVAL (XEXP (rhs, 1)) < HOST_BITS_PER_WIDE_INT)
3717                 {
3718                   coeff1 = ((HOST_WIDE_INT) 1) << INTVAL (XEXP (rhs, 1));
3719                   rhs = XEXP (rhs, 0);
3720                 }
3721
3722               if (rtx_equal_p (lhs, rhs))
3723                 {
3724                   tem = cse_gen_binary (MULT, mode, lhs,
3725                                         GEN_INT (coeff0 + coeff1));
3726                   return (GET_CODE (tem) == MULT && ! had_mult) ? 0 : tem;
3727                 }
3728             }
3729
3730           /* If one of the operands is a PLUS or a MINUS, see if we can
3731              simplify this by the associative law. 
3732              Don't use the associative law for floating point.
3733              The inaccuracy makes it nonassociative,
3734              and subtle programs can break if operations are associated.  */
3735
3736           if (INTEGRAL_MODE_P (mode)
3737               && (GET_CODE (op0) == PLUS || GET_CODE (op0) == MINUS
3738                   || GET_CODE (op1) == PLUS || GET_CODE (op1) == MINUS)
3739               && (tem = simplify_plus_minus (code, mode, op0, op1)) != 0)
3740             return tem;
3741           break;
3742
3743         case COMPARE:
3744 #ifdef HAVE_cc0
3745           /* Convert (compare FOO (const_int 0)) to FOO unless we aren't
3746              using cc0, in which case we want to leave it as a COMPARE
3747              so we can distinguish it from a register-register-copy.
3748
3749              In IEEE floating point, x-0 is not the same as x.  */
3750
3751           if ((TARGET_FLOAT_FORMAT != IEEE_FLOAT_FORMAT
3752                || ! FLOAT_MODE_P (mode) || flag_fast_math)
3753               && op1 == CONST0_RTX (mode))
3754             return op0;
3755 #else
3756           /* Do nothing here.  */
3757 #endif
3758           break;
3759               
3760         case MINUS:
3761           /* None of these optimizations can be done for IEEE
3762              floating point.  */
3763           if (TARGET_FLOAT_FORMAT == IEEE_FLOAT_FORMAT
3764               && FLOAT_MODE_P (mode) && ! flag_fast_math)
3765             break;
3766
3767           /* We can't assume x-x is 0 even with non-IEEE floating point,
3768              but since it is zero except in very strange circumstances, we
3769              will treat it as zero with -ffast-math.  */
3770           if (rtx_equal_p (op0, op1)
3771               && ! side_effects_p (op0)
3772               && (! FLOAT_MODE_P (mode) || flag_fast_math))
3773             return CONST0_RTX (mode);
3774
3775           /* Change subtraction from zero into negation.  */
3776           if (op0 == CONST0_RTX (mode))
3777             return gen_rtx (NEG, mode, op1);
3778
3779           /* (-1 - a) is ~a.  */
3780           if (op0 == constm1_rtx)
3781             return gen_rtx (NOT, mode, op1);
3782
3783           /* Subtracting 0 has no effect.  */
3784           if (op1 == CONST0_RTX (mode))
3785             return op0;
3786
3787           /* See if this is something like X * C - X or vice versa or
3788              if the multiplication is written as a shift.  If so, we can
3789              distribute and make a new multiply, shift, or maybe just
3790              have X (if C is 2 in the example above).  But don't make
3791              real multiply if we didn't have one before.  */
3792
3793           if (! FLOAT_MODE_P (mode))
3794             {
3795               HOST_WIDE_INT coeff0 = 1, coeff1 = 1;
3796               rtx lhs = op0, rhs = op1;
3797               int had_mult = 0;
3798
3799               if (GET_CODE (lhs) == NEG)
3800                 coeff0 = -1, lhs = XEXP (lhs, 0);
3801               else if (GET_CODE (lhs) == MULT
3802                        && GET_CODE (XEXP (lhs, 1)) == CONST_INT)
3803                 {
3804                   coeff0 = INTVAL (XEXP (lhs, 1)), lhs = XEXP (lhs, 0);
3805                   had_mult = 1;
3806                 }
3807               else if (GET_CODE (lhs) == ASHIFT
3808                        && GET_CODE (XEXP (lhs, 1)) == CONST_INT
3809                        && INTVAL (XEXP (lhs, 1)) >= 0
3810                        && INTVAL (XEXP (lhs, 1)) < HOST_BITS_PER_WIDE_INT)
3811                 {
3812                   coeff0 = ((HOST_WIDE_INT) 1) << INTVAL (XEXP (lhs, 1));
3813                   lhs = XEXP (lhs, 0);
3814                 }
3815
3816               if (GET_CODE (rhs) == NEG)
3817                 coeff1 = - 1, rhs = XEXP (rhs, 0);
3818               else if (GET_CODE (rhs) == MULT
3819                        && GET_CODE (XEXP (rhs, 1)) == CONST_INT)
3820                 {
3821                   coeff1 = INTVAL (XEXP (rhs, 1)), rhs = XEXP (rhs, 0);
3822                   had_mult = 1;
3823                 }
3824               else if (GET_CODE (rhs) == ASHIFT
3825                        && GET_CODE (XEXP (rhs, 1)) == CONST_INT
3826                        && INTVAL (XEXP (rhs, 1)) >= 0
3827                        && INTVAL (XEXP (rhs, 1)) < HOST_BITS_PER_WIDE_INT)
3828                 {
3829                   coeff1 = ((HOST_WIDE_INT) 1) << INTVAL (XEXP (rhs, 1));
3830                   rhs = XEXP (rhs, 0);
3831                 }
3832
3833               if (rtx_equal_p (lhs, rhs))
3834                 {
3835                   tem = cse_gen_binary (MULT, mode, lhs,
3836                                         GEN_INT (coeff0 - coeff1));
3837                   return (GET_CODE (tem) == MULT && ! had_mult) ? 0 : tem;
3838                 }
3839             }
3840
3841           /* (a - (-b)) -> (a + b).  */
3842           if (GET_CODE (op1) == NEG)
3843             return cse_gen_binary (PLUS, mode, op0, XEXP (op1, 0));
3844
3845           /* If one of the operands is a PLUS or a MINUS, see if we can
3846              simplify this by the associative law. 
3847              Don't use the associative law for floating point.
3848              The inaccuracy makes it nonassociative,
3849              and subtle programs can break if operations are associated.  */
3850
3851           if (INTEGRAL_MODE_P (mode)
3852               && (GET_CODE (op0) == PLUS || GET_CODE (op0) == MINUS
3853                   || GET_CODE (op1) == PLUS || GET_CODE (op1) == MINUS)
3854               && (tem = simplify_plus_minus (code, mode, op0, op1)) != 0)
3855             return tem;
3856
3857           /* Don't let a relocatable value get a negative coeff.  */
3858           if (GET_CODE (op1) == CONST_INT && GET_MODE (op0) != VOIDmode)
3859             return plus_constant (op0, - INTVAL (op1));
3860
3861           /* (x - (x & y)) -> (x & ~y) */
3862           if (GET_CODE (op1) == AND)
3863             {
3864              if (rtx_equal_p (op0, XEXP (op1, 0)))
3865                return cse_gen_binary (AND, mode, op0, gen_rtx (NOT, mode, XEXP (op1, 1)));
3866              if (rtx_equal_p (op0, XEXP (op1, 1)))
3867                return cse_gen_binary (AND, mode, op0, gen_rtx (NOT, mode, XEXP (op1, 0)));
3868            }
3869           break;
3870
3871         case MULT:
3872           if (op1 == constm1_rtx)
3873             {
3874               tem = simplify_unary_operation (NEG, mode, op0, mode);
3875
3876               return tem ? tem : gen_rtx (NEG, mode, op0);
3877             }
3878
3879           /* In IEEE floating point, x*0 is not always 0.  */
3880           if ((TARGET_FLOAT_FORMAT != IEEE_FLOAT_FORMAT
3881                || ! FLOAT_MODE_P (mode) || flag_fast_math)
3882               && op1 == CONST0_RTX (mode)
3883               && ! side_effects_p (op0))
3884             return op1;
3885
3886           /* In IEEE floating point, x*1 is not equivalent to x for nans.
3887              However, ANSI says we can drop signals,
3888              so we can do this anyway.  */
3889           if (op1 == CONST1_RTX (mode))
3890             return op0;
3891
3892           /* Convert multiply by constant power of two into shift unless
3893              we are still generating RTL.  This test is a kludge.  */
3894           if (GET_CODE (op1) == CONST_INT
3895               && (val = exact_log2 (INTVAL (op1))) >= 0
3896               /* If the mode is larger than the host word size, and the
3897                  uppermost bit is set, then this isn't a power of two due
3898                  to implicit sign extension.  */
3899               && (width <= HOST_BITS_PER_WIDE_INT
3900                   || val != HOST_BITS_PER_WIDE_INT - 1)
3901               && ! rtx_equal_function_value_matters)
3902             return gen_rtx (ASHIFT, mode, op0, GEN_INT (val));
3903
3904           if (GET_CODE (op1) == CONST_DOUBLE
3905               && GET_MODE_CLASS (GET_MODE (op1)) == MODE_FLOAT)
3906             {
3907               REAL_VALUE_TYPE d;
3908               jmp_buf handler;
3909               int op1is2, op1ism1;
3910
3911               if (setjmp (handler))
3912                 return 0;
3913
3914               set_float_handler (handler);
3915               REAL_VALUE_FROM_CONST_DOUBLE (d, op1);
3916               op1is2 = REAL_VALUES_EQUAL (d, dconst2);
3917               op1ism1 = REAL_VALUES_EQUAL (d, dconstm1);
3918               set_float_handler (NULL_PTR);
3919
3920               /* x*2 is x+x and x*(-1) is -x */
3921               if (op1is2 && GET_MODE (op0) == mode)
3922                 return gen_rtx (PLUS, mode, op0, copy_rtx (op0));
3923
3924               else if (op1ism1 && GET_MODE (op0) == mode)
3925                 return gen_rtx (NEG, mode, op0);
3926             }
3927           break;
3928
3929         case IOR:
3930           if (op1 == const0_rtx)
3931             return op0;
3932           if (GET_CODE (op1) == CONST_INT
3933               && (INTVAL (op1) & GET_MODE_MASK (mode)) == GET_MODE_MASK (mode))
3934             return op1;
3935           if (rtx_equal_p (op0, op1) && ! side_effects_p (op0))
3936             return op0;
3937           /* A | (~A) -> -1 */
3938           if (((GET_CODE (op0) == NOT && rtx_equal_p (XEXP (op0, 0), op1))
3939                || (GET_CODE (op1) == NOT && rtx_equal_p (XEXP (op1, 0), op0)))
3940               && ! side_effects_p (op0)
3941               && GET_MODE_CLASS (mode) != MODE_CC)
3942             return constm1_rtx;
3943           break;
3944
3945         case XOR:
3946           if (op1 == const0_rtx)
3947             return op0;
3948           if (GET_CODE (op1) == CONST_INT
3949               && (INTVAL (op1) & GET_MODE_MASK (mode)) == GET_MODE_MASK (mode))
3950             return gen_rtx (NOT, mode, op0);
3951           if (op0 == op1 && ! side_effects_p (op0)
3952               && GET_MODE_CLASS (mode) != MODE_CC)
3953             return const0_rtx;
3954           break;
3955
3956         case AND:
3957           if (op1 == const0_rtx && ! side_effects_p (op0))
3958             return const0_rtx;
3959           if (GET_CODE (op1) == CONST_INT
3960               && (INTVAL (op1) & GET_MODE_MASK (mode)) == GET_MODE_MASK (mode))
3961             return op0;
3962           if (op0 == op1 && ! side_effects_p (op0)
3963               && GET_MODE_CLASS (mode) != MODE_CC)
3964             return op0;
3965           /* A & (~A) -> 0 */
3966           if (((GET_CODE (op0) == NOT && rtx_equal_p (XEXP (op0, 0), op1))
3967                || (GET_CODE (op1) == NOT && rtx_equal_p (XEXP (op1, 0), op0)))
3968               && ! side_effects_p (op0)
3969               && GET_MODE_CLASS (mode) != MODE_CC)
3970             return const0_rtx;
3971           break;
3972
3973         case UDIV:
3974           /* Convert divide by power of two into shift (divide by 1 handled
3975              below).  */
3976           if (GET_CODE (op1) == CONST_INT
3977               && (arg1 = exact_log2 (INTVAL (op1))) > 0)
3978             return gen_rtx (LSHIFTRT, mode, op0, GEN_INT (arg1));
3979
3980           /* ... fall through ...  */
3981
3982         case DIV:
3983           if (op1 == CONST1_RTX (mode))
3984             return op0;
3985
3986           /* In IEEE floating point, 0/x is not always 0.  */
3987           if ((TARGET_FLOAT_FORMAT != IEEE_FLOAT_FORMAT
3988                || ! FLOAT_MODE_P (mode) || flag_fast_math)
3989               && op0 == CONST0_RTX (mode)
3990               && ! side_effects_p (op1))
3991             return op0;
3992
3993 #if ! defined (REAL_IS_NOT_DOUBLE) || defined (REAL_ARITHMETIC)
3994           /* Change division by a constant into multiplication.  Only do
3995              this with -ffast-math until an expert says it is safe in
3996              general.  */
3997           else if (GET_CODE (op1) == CONST_DOUBLE
3998                    && GET_MODE_CLASS (GET_MODE (op1)) == MODE_FLOAT
3999                    && op1 != CONST0_RTX (mode)
4000                    && flag_fast_math)
4001             {
4002               REAL_VALUE_TYPE d;
4003               REAL_VALUE_FROM_CONST_DOUBLE (d, op1);
4004
4005               if (! REAL_VALUES_EQUAL (d, dconst0))
4006                 {
4007 #if defined (REAL_ARITHMETIC)
4008                   REAL_ARITHMETIC (d, rtx_to_tree_code (DIV), dconst1, d);
4009                   return gen_rtx (MULT, mode, op0, 
4010                                   CONST_DOUBLE_FROM_REAL_VALUE (d, mode));
4011 #else
4012                   return gen_rtx (MULT, mode, op0, 
4013                                   CONST_DOUBLE_FROM_REAL_VALUE (1./d, mode));
4014 #endif
4015                 }
4016             }
4017 #endif
4018           break;
4019
4020         case UMOD:
4021           /* Handle modulus by power of two (mod with 1 handled below).  */
4022           if (GET_CODE (op1) == CONST_INT
4023               && exact_log2 (INTVAL (op1)) > 0)
4024             return gen_rtx (AND, mode, op0, GEN_INT (INTVAL (op1) - 1));
4025
4026           /* ... fall through ...  */
4027
4028         case MOD:
4029           if ((op0 == const0_rtx || op1 == const1_rtx)
4030               && ! side_effects_p (op0) && ! side_effects_p (op1))
4031             return const0_rtx;
4032           break;
4033
4034         case ROTATERT:
4035         case ROTATE:
4036           /* Rotating ~0 always results in ~0.  */
4037           if (GET_CODE (op0) == CONST_INT && width <= HOST_BITS_PER_WIDE_INT
4038               && INTVAL (op0) == GET_MODE_MASK (mode)
4039               && ! side_effects_p (op1))
4040             return op0;
4041
4042           /* ... fall through ...  */
4043
4044         case ASHIFT:
4045         case ASHIFTRT:
4046         case LSHIFTRT:
4047           if (op1 == const0_rtx)
4048             return op0;
4049           if (op0 == const0_rtx && ! side_effects_p (op1))
4050             return op0;
4051           break;
4052
4053         case SMIN:
4054           if (width <= HOST_BITS_PER_WIDE_INT && GET_CODE (op1) == CONST_INT 
4055               && INTVAL (op1) == (HOST_WIDE_INT) 1 << (width -1)
4056               && ! side_effects_p (op0))
4057             return op1;
4058           else if (rtx_equal_p (op0, op1) && ! side_effects_p (op0))
4059             return op0;
4060           break;
4061            
4062         case SMAX:
4063           if (width <= HOST_BITS_PER_WIDE_INT && GET_CODE (op1) == CONST_INT
4064               && (INTVAL (op1)
4065                   == (unsigned HOST_WIDE_INT) GET_MODE_MASK (mode) >> 1)
4066               && ! side_effects_p (op0))
4067             return op1;
4068           else if (rtx_equal_p (op0, op1) && ! side_effects_p (op0))
4069             return op0;
4070           break;
4071
4072         case UMIN:
4073           if (op1 == const0_rtx && ! side_effects_p (op0))
4074             return op1;
4075           else if (rtx_equal_p (op0, op1) && ! side_effects_p (op0))
4076             return op0;
4077           break;
4078             
4079         case UMAX:
4080           if (op1 == constm1_rtx && ! side_effects_p (op0))
4081             return op1;
4082           else if (rtx_equal_p (op0, op1) && ! side_effects_p (op0))
4083             return op0;
4084           break;
4085
4086         default:
4087           abort ();
4088         }
4089       
4090       return 0;
4091     }
4092
4093   /* Get the integer argument values in two forms:
4094      zero-extended in ARG0, ARG1 and sign-extended in ARG0S, ARG1S.  */
4095
4096   arg0 = INTVAL (op0);
4097   arg1 = INTVAL (op1);
4098
4099   if (width < HOST_BITS_PER_WIDE_INT)
4100     {
4101       arg0 &= ((HOST_WIDE_INT) 1 << width) - 1;
4102       arg1 &= ((HOST_WIDE_INT) 1 << width) - 1;
4103
4104       arg0s = arg0;
4105       if (arg0s & ((HOST_WIDE_INT) 1 << (width - 1)))
4106         arg0s |= ((HOST_WIDE_INT) (-1) << width);
4107
4108       arg1s = arg1;
4109       if (arg1s & ((HOST_WIDE_INT) 1 << (width - 1)))
4110         arg1s |= ((HOST_WIDE_INT) (-1) << width);
4111     }
4112   else
4113     {
4114       arg0s = arg0;
4115       arg1s = arg1;
4116     }
4117
4118   /* Compute the value of the arithmetic.  */
4119
4120   switch (code)
4121     {
4122     case PLUS:
4123       val = arg0s + arg1s;
4124       break;
4125
4126     case MINUS:
4127       val = arg0s - arg1s;
4128       break;
4129
4130     case MULT:
4131       val = arg0s * arg1s;
4132       break;
4133
4134     case DIV:
4135       if (arg1s == 0)
4136         return 0;
4137       val = arg0s / arg1s;
4138       break;
4139
4140     case MOD:
4141       if (arg1s == 0)
4142         return 0;
4143       val = arg0s % arg1s;
4144       break;
4145
4146     case UDIV:
4147       if (arg1 == 0)
4148         return 0;
4149       val = (unsigned HOST_WIDE_INT) arg0 / arg1;
4150       break;
4151
4152     case UMOD:
4153       if (arg1 == 0)
4154         return 0;
4155       val = (unsigned HOST_WIDE_INT) arg0 % arg1;
4156       break;
4157
4158     case AND:
4159       val = arg0 & arg1;
4160       break;
4161
4162     case IOR:
4163       val = arg0 | arg1;
4164       break;
4165
4166     case XOR:
4167       val = arg0 ^ arg1;
4168       break;
4169
4170     case LSHIFTRT:
4171       /* If shift count is undefined, don't fold it; let the machine do
4172          what it wants.  But truncate it if the machine will do that.  */
4173       if (arg1 < 0)
4174         return 0;
4175
4176 #ifdef SHIFT_COUNT_TRUNCATED
4177       if (SHIFT_COUNT_TRUNCATED)
4178         arg1 %= width;
4179 #endif
4180
4181       val = ((unsigned HOST_WIDE_INT) arg0) >> arg1;
4182       break;
4183
4184     case ASHIFT:
4185       if (arg1 < 0)
4186         return 0;
4187
4188 #ifdef SHIFT_COUNT_TRUNCATED
4189       if (SHIFT_COUNT_TRUNCATED)
4190         arg1 %= width;
4191 #endif
4192
4193       val = ((unsigned HOST_WIDE_INT) arg0) << arg1;
4194       break;
4195
4196     case ASHIFTRT:
4197       if (arg1 < 0)
4198         return 0;
4199
4200 #ifdef SHIFT_COUNT_TRUNCATED
4201       if (SHIFT_COUNT_TRUNCATED)
4202         arg1 %= width;
4203 #endif
4204
4205       val = arg0s >> arg1;
4206
4207       /* Bootstrap compiler may not have sign extended the right shift.
4208          Manually extend the sign to insure bootstrap cc matches gcc.  */
4209       if (arg0s < 0 && arg1 > 0)
4210         val |= ((HOST_WIDE_INT) -1) << (HOST_BITS_PER_WIDE_INT - arg1);
4211
4212       break;
4213
4214     case ROTATERT:
4215       if (arg1 < 0)
4216         return 0;
4217
4218       arg1 %= width;
4219       val = ((((unsigned HOST_WIDE_INT) arg0) << (width - arg1))
4220              | (((unsigned HOST_WIDE_INT) arg0) >> arg1));
4221       break;
4222
4223     case ROTATE:
4224       if (arg1 < 0)
4225         return 0;
4226
4227       arg1 %= width;
4228       val = ((((unsigned HOST_WIDE_INT) arg0) << arg1)
4229              | (((unsigned HOST_WIDE_INT) arg0) >> (width - arg1)));
4230       break;
4231
4232     case COMPARE:
4233       /* Do nothing here.  */
4234       return 0;
4235
4236     case SMIN:
4237       val = arg0s <= arg1s ? arg0s : arg1s;
4238       break;
4239
4240     case UMIN:
4241       val = ((unsigned HOST_WIDE_INT) arg0
4242              <= (unsigned HOST_WIDE_INT) arg1 ? arg0 : arg1);
4243       break;
4244
4245     case SMAX:
4246       val = arg0s > arg1s ? arg0s : arg1s;
4247       break;
4248
4249     case UMAX:
4250       val = ((unsigned HOST_WIDE_INT) arg0
4251              > (unsigned HOST_WIDE_INT) arg1 ? arg0 : arg1);
4252       break;
4253
4254     default:
4255       abort ();
4256     }
4257
4258   /* Clear the bits that don't belong in our mode, unless they and our sign
4259      bit are all one.  So we get either a reasonable negative value or a
4260      reasonable unsigned value for this mode.  */
4261   if (width < HOST_BITS_PER_WIDE_INT
4262       && ((val & ((HOST_WIDE_INT) (-1) << (width - 1)))
4263           != ((HOST_WIDE_INT) (-1) << (width - 1))))
4264     val &= ((HOST_WIDE_INT) 1 << width) - 1;
4265
4266   /* If this would be an entire word for the target, but is not for
4267      the host, then sign-extend on the host so that the number will look
4268      the same way on the host that it would on the target.
4269
4270      For example, when building a 64 bit alpha hosted 32 bit sparc
4271      targeted compiler, then we want the 32 bit unsigned value -1 to be
4272      represented as a 64 bit value -1, and not as 0x00000000ffffffff.
4273      The later confuses the sparc backend.  */
4274
4275   if (BITS_PER_WORD < HOST_BITS_PER_WIDE_INT && BITS_PER_WORD == width
4276       && (val & ((HOST_WIDE_INT) 1 << (width - 1))))
4277     val |= ((HOST_WIDE_INT) (-1) << width);
4278
4279   return GEN_INT (val);
4280 }
4281 \f
4282 /* Simplify a PLUS or MINUS, at least one of whose operands may be another
4283    PLUS or MINUS.
4284
4285    Rather than test for specific case, we do this by a brute-force method
4286    and do all possible simplifications until no more changes occur.  Then
4287    we rebuild the operation.  */
4288
4289 static rtx
4290 simplify_plus_minus (code, mode, op0, op1)
4291      enum rtx_code code;
4292      enum machine_mode mode;
4293      rtx op0, op1;
4294 {
4295   rtx ops[8];
4296   int negs[8];
4297   rtx result, tem;
4298   int n_ops = 2, input_ops = 2, input_consts = 0, n_consts = 0;
4299   int first = 1, negate = 0, changed;
4300   int i, j;
4301
4302   bzero ((char *) ops, sizeof ops);
4303   
4304   /* Set up the two operands and then expand them until nothing has been
4305      changed.  If we run out of room in our array, give up; this should
4306      almost never happen.  */
4307
4308   ops[0] = op0, ops[1] = op1, negs[0] = 0, negs[1] = (code == MINUS);
4309
4310   changed = 1;
4311   while (changed)
4312     {
4313       changed = 0;
4314
4315       for (i = 0; i < n_ops; i++)
4316         switch (GET_CODE (ops[i]))
4317           {
4318           case PLUS:
4319           case MINUS:
4320             if (n_ops == 7)
4321               return 0;
4322
4323             ops[n_ops] = XEXP (ops[i], 1);
4324             negs[n_ops++] = GET_CODE (ops[i]) == MINUS ? !negs[i] : negs[i];
4325             ops[i] = XEXP (ops[i], 0);
4326             input_ops++;
4327             changed = 1;
4328             break;
4329
4330           case NEG:
4331             ops[i] = XEXP (ops[i], 0);
4332             negs[i] = ! negs[i];
4333             changed = 1;
4334             break;
4335
4336           case CONST:
4337             ops[i] = XEXP (ops[i], 0);
4338             input_consts++;
4339             changed = 1;
4340             break;
4341
4342           case NOT:
4343             /* ~a -> (-a - 1) */
4344             if (n_ops != 7)
4345               {
4346                 ops[n_ops] = constm1_rtx;
4347                 negs[n_ops++] = negs[i];
4348                 ops[i] = XEXP (ops[i], 0);
4349                 negs[i] = ! negs[i];
4350                 changed = 1;
4351               }
4352             break;
4353
4354           case CONST_INT:
4355             if (negs[i])
4356               ops[i] = GEN_INT (- INTVAL (ops[i])), negs[i] = 0, changed = 1;
4357             break;
4358           }
4359     }
4360
4361   /* If we only have two operands, we can't do anything.  */
4362   if (n_ops <= 2)
4363     return 0;
4364
4365   /* Now simplify each pair of operands until nothing changes.  The first
4366      time through just simplify constants against each other.  */
4367
4368   changed = 1;
4369   while (changed)
4370     {
4371       changed = first;
4372
4373       for (i = 0; i < n_ops - 1; i++)
4374         for (j = i + 1; j < n_ops; j++)
4375           if (ops[i] != 0 && ops[j] != 0
4376               && (! first || (CONSTANT_P (ops[i]) && CONSTANT_P (ops[j]))))
4377             {
4378               rtx lhs = ops[i], rhs = ops[j];
4379               enum rtx_code ncode = PLUS;
4380
4381               if (negs[i] && ! negs[j])
4382                 lhs = ops[j], rhs = ops[i], ncode = MINUS;
4383               else if (! negs[i] && negs[j])
4384                 ncode = MINUS;
4385
4386               tem = simplify_binary_operation (ncode, mode, lhs, rhs);
4387               if (tem)
4388                 {
4389                   ops[i] = tem, ops[j] = 0;
4390                   negs[i] = negs[i] && negs[j];
4391                   if (GET_CODE (tem) == NEG)
4392                     ops[i] = XEXP (tem, 0), negs[i] = ! negs[i];
4393
4394                   if (GET_CODE (ops[i]) == CONST_INT && negs[i])
4395                     ops[i] = GEN_INT (- INTVAL (ops[i])), negs[i] = 0;
4396                   changed = 1;
4397                 }
4398             }
4399
4400       first = 0;
4401     }
4402
4403   /* Pack all the operands to the lower-numbered entries and give up if
4404      we didn't reduce the number of operands we had.  Make sure we
4405      count a CONST as two operands.  If we have the same number of
4406      operands, but have made more CONSTs than we had, this is also
4407      an improvement, so accept it.  */
4408
4409   for (i = 0, j = 0; j < n_ops; j++)
4410     if (ops[j] != 0)
4411       {
4412         ops[i] = ops[j], negs[i++] = negs[j];
4413         if (GET_CODE (ops[j]) == CONST)
4414           n_consts++;
4415       }
4416
4417   if (i + n_consts > input_ops
4418       || (i + n_consts == input_ops && n_consts <= input_consts))
4419     return 0;
4420
4421   n_ops = i;
4422
4423   /* If we have a CONST_INT, put it last.  */
4424   for (i = 0; i < n_ops - 1; i++)
4425     if (GET_CODE (ops[i]) == CONST_INT)
4426       {
4427         tem = ops[n_ops - 1], ops[n_ops - 1] = ops[i] , ops[i] = tem;
4428         j = negs[n_ops - 1], negs[n_ops - 1] = negs[i], negs[i] = j;
4429       }
4430
4431   /* Put a non-negated operand first.  If there aren't any, make all
4432      operands positive and negate the whole thing later.  */
4433   for (i = 0; i < n_ops && negs[i]; i++)
4434     ;
4435
4436   if (i == n_ops)
4437     {
4438       for (i = 0; i < n_ops; i++)
4439         negs[i] = 0;
4440       negate = 1;
4441     }
4442   else if (i != 0)
4443     {
4444       tem = ops[0], ops[0] = ops[i], ops[i] = tem;
4445       j = negs[0], negs[0] = negs[i], negs[i] = j;
4446     }
4447
4448   /* Now make the result by performing the requested operations.  */
4449   result = ops[0];
4450   for (i = 1; i < n_ops; i++)
4451     result = cse_gen_binary (negs[i] ? MINUS : PLUS, mode, result, ops[i]);
4452
4453   return negate ? gen_rtx (NEG, mode, result) : result;
4454 }
4455 \f
4456 /* Make a binary operation by properly ordering the operands and 
4457    seeing if the expression folds.  */
4458
4459 static rtx
4460 cse_gen_binary (code, mode, op0, op1)
4461      enum rtx_code code;
4462      enum machine_mode mode;
4463      rtx op0, op1;
4464 {
4465   rtx tem;
4466
4467   /* Put complex operands first and constants second if commutative.  */
4468   if (GET_RTX_CLASS (code) == 'c'
4469       && ((CONSTANT_P (op0) && GET_CODE (op1) != CONST_INT)
4470           || (GET_RTX_CLASS (GET_CODE (op0)) == 'o'
4471               && GET_RTX_CLASS (GET_CODE (op1)) != 'o')
4472           || (GET_CODE (op0) == SUBREG
4473               && GET_RTX_CLASS (GET_CODE (SUBREG_REG (op0))) == 'o'
4474               && GET_RTX_CLASS (GET_CODE (op1)) != 'o')))
4475     tem = op0, op0 = op1, op1 = tem;
4476
4477   /* If this simplifies, do it.  */
4478   tem = simplify_binary_operation (code, mode, op0, op1);
4479
4480   if (tem)
4481     return tem;
4482
4483   /* Handle addition and subtraction of CONST_INT specially.  Otherwise,
4484      just form the operation.  */
4485
4486   if (code == PLUS && GET_CODE (op1) == CONST_INT
4487       && GET_MODE (op0) != VOIDmode)
4488     return plus_constant (op0, INTVAL (op1));
4489   else if (code == MINUS && GET_CODE (op1) == CONST_INT
4490            && GET_MODE (op0) != VOIDmode)
4491     return plus_constant (op0, - INTVAL (op1));
4492   else
4493     return gen_rtx (code, mode, op0, op1);
4494 }
4495 \f
4496 /* Like simplify_binary_operation except used for relational operators.
4497    MODE is the mode of the operands, not that of the result.  If MODE
4498    is VOIDmode, both operands must also be VOIDmode and we compare the
4499    operands in "infinite precision".
4500
4501    If no simplification is possible, this function returns zero.  Otherwise,
4502    it returns either const_true_rtx or const0_rtx.  */
4503
4504 rtx
4505 simplify_relational_operation (code, mode, op0, op1)
4506      enum rtx_code code;
4507      enum machine_mode mode;
4508      rtx op0, op1;
4509 {
4510   int equal, op0lt, op0ltu, op1lt, op1ltu;
4511   rtx tem;
4512
4513   /* If op0 is a compare, extract the comparison arguments from it.  */
4514   if (GET_CODE (op0) == COMPARE && op1 == const0_rtx)
4515     op1 = XEXP (op0, 1), op0 = XEXP (op0, 0);
4516
4517   /* We can't simplify MODE_CC values since we don't know what the
4518      actual comparison is.  */
4519   if (GET_MODE_CLASS (GET_MODE (op0)) == MODE_CC
4520 #ifdef HAVE_cc0
4521       || op0 == cc0_rtx
4522 #endif
4523       )
4524     return 0;
4525
4526   /* For integer comparisons of A and B maybe we can simplify A - B and can
4527      then simplify a comparison of that with zero.  If A and B are both either
4528      a register or a CONST_INT, this can't help; testing for these cases will
4529      prevent infinite recursion here and speed things up.
4530
4531      If CODE is an unsigned comparison, then we can never do this optimization,
4532      because it gives an incorrect result if the subtraction wraps around zero.
4533      ANSI C defines unsigned operations such that they never overflow, and
4534      thus such cases can not be ignored.  */
4535
4536   if (INTEGRAL_MODE_P (mode) && op1 != const0_rtx
4537       && ! ((GET_CODE (op0) == REG || GET_CODE (op0) == CONST_INT)
4538             && (GET_CODE (op1) == REG || GET_CODE (op1) == CONST_INT))
4539       && 0 != (tem = simplify_binary_operation (MINUS, mode, op0, op1))
4540       && code != GTU && code != GEU && code != LTU && code != LEU)
4541     return simplify_relational_operation (signed_condition (code),
4542                                           mode, tem, const0_rtx);
4543
4544   /* For non-IEEE floating-point, if the two operands are equal, we know the
4545      result.  */
4546   if (rtx_equal_p (op0, op1)
4547       && (TARGET_FLOAT_FORMAT != IEEE_FLOAT_FORMAT
4548           || ! FLOAT_MODE_P (GET_MODE (op0)) || flag_fast_math))
4549     equal = 1, op0lt = 0, op0ltu = 0, op1lt = 0, op1ltu = 0;
4550
4551   /* If the operands are floating-point constants, see if we can fold
4552      the result.  */
4553 #if ! defined (REAL_IS_NOT_DOUBLE) || defined (REAL_ARITHMETIC)
4554   else if (GET_CODE (op0) == CONST_DOUBLE && GET_CODE (op1) == CONST_DOUBLE
4555            && GET_MODE_CLASS (GET_MODE (op0)) == MODE_FLOAT)
4556     {
4557       REAL_VALUE_TYPE d0, d1;
4558       jmp_buf handler;
4559       
4560       if (setjmp (handler))
4561         return 0;
4562
4563       set_float_handler (handler);
4564       REAL_VALUE_FROM_CONST_DOUBLE (d0, op0);
4565       REAL_VALUE_FROM_CONST_DOUBLE (d1, op1);
4566       equal = REAL_VALUES_EQUAL (d0, d1);
4567       op0lt = op0ltu = REAL_VALUES_LESS (d0, d1);
4568       op1lt = op1ltu = REAL_VALUES_LESS (d1, d0);
4569       set_float_handler (NULL_PTR);
4570     }
4571 #endif  /* not REAL_IS_NOT_DOUBLE, or REAL_ARITHMETIC */
4572
4573   /* Otherwise, see if the operands are both integers.  */
4574   else if ((GET_MODE_CLASS (mode) == MODE_INT || mode == VOIDmode)
4575            && (GET_CODE (op0) == CONST_DOUBLE || GET_CODE (op0) == CONST_INT)
4576            && (GET_CODE (op1) == CONST_DOUBLE || GET_CODE (op1) == CONST_INT))
4577     {
4578       int width = GET_MODE_BITSIZE (mode);
4579       HOST_WIDE_INT l0s, h0s, l1s, h1s;
4580       unsigned HOST_WIDE_INT l0u, h0u, l1u, h1u;
4581
4582       /* Get the two words comprising each integer constant.  */
4583       if (GET_CODE (op0) == CONST_DOUBLE)
4584         {
4585           l0u = l0s = CONST_DOUBLE_LOW (op0);
4586           h0u = h0s = CONST_DOUBLE_HIGH (op0);
4587         }
4588       else
4589         {
4590           l0u = l0s = INTVAL (op0);
4591           h0u = 0, h0s = l0s < 0 ? -1 : 0;
4592         }
4593           
4594       if (GET_CODE (op1) == CONST_DOUBLE)
4595         {
4596           l1u = l1s = CONST_DOUBLE_LOW (op1);
4597           h1u = h1s = CONST_DOUBLE_HIGH (op1);
4598         }
4599       else
4600         {
4601           l1u = l1s = INTVAL (op1);
4602           h1u = 0, h1s = l1s < 0 ? -1 : 0;
4603         }
4604
4605       /* If WIDTH is nonzero and smaller than HOST_BITS_PER_WIDE_INT,
4606          we have to sign or zero-extend the values.  */
4607       if (width != 0 && width <= HOST_BITS_PER_WIDE_INT)
4608         h0u = h1u = 0, h0s = l0s < 0 ? -1 : 0, h1s = l1s < 0 ? -1 : 0;
4609
4610       if (width != 0 && width < HOST_BITS_PER_WIDE_INT)
4611         {
4612           l0u &= ((HOST_WIDE_INT) 1 << width) - 1;
4613           l1u &= ((HOST_WIDE_INT) 1 << width) - 1;
4614
4615           if (l0s & ((HOST_WIDE_INT) 1 << (width - 1)))
4616             l0s |= ((HOST_WIDE_INT) (-1) << width);
4617
4618           if (l1s & ((HOST_WIDE_INT) 1 << (width - 1)))
4619             l1s |= ((HOST_WIDE_INT) (-1) << width);
4620         }
4621
4622       equal = (h0u == h1u && l0u == l1u);
4623       op0lt = (h0s < h1s || (h0s == h1s && l0s < l1s));
4624       op1lt = (h1s < h0s || (h1s == h0s && l1s < l0s));
4625       op0ltu = (h0u < h1u || (h0u == h1u && l0u < l1u));
4626       op1ltu = (h1u < h0u || (h1u == h0u && l1u < l0u));
4627     }
4628
4629   /* Otherwise, there are some code-specific tests we can make.  */
4630   else
4631     {
4632       switch (code)
4633         {
4634         case EQ:
4635           /* References to the frame plus a constant or labels cannot
4636              be zero, but a SYMBOL_REF can due to #pragma weak.  */
4637           if (((NONZERO_BASE_PLUS_P (op0) && op1 == const0_rtx)
4638                || GET_CODE (op0) == LABEL_REF)
4639 #if FRAME_POINTER_REGNUM != ARG_POINTER_REGNUM
4640               /* On some machines, the ap reg can be 0 sometimes.  */
4641               && op0 != arg_pointer_rtx
4642 #endif
4643                 )
4644             return const0_rtx;
4645           break;
4646
4647         case NE:
4648           if (((NONZERO_BASE_PLUS_P (op0) && op1 == const0_rtx)
4649                || GET_CODE (op0) == LABEL_REF)
4650 #if FRAME_POINTER_REGNUM != ARG_POINTER_REGNUM
4651               && op0 != arg_pointer_rtx
4652 #endif
4653               )
4654             return const_true_rtx;
4655           break;
4656
4657         case GEU:
4658           /* Unsigned values are never negative.  */
4659           if (op1 == const0_rtx)
4660             return const_true_rtx;
4661           break;
4662
4663         case LTU:
4664           if (op1 == const0_rtx)
4665             return const0_rtx;
4666           break;
4667
4668         case LEU:
4669           /* Unsigned values are never greater than the largest
4670              unsigned value.  */
4671           if (GET_CODE (op1) == CONST_INT
4672               && INTVAL (op1) == GET_MODE_MASK (mode)
4673             && INTEGRAL_MODE_P (mode))
4674           return const_true_rtx;
4675           break;
4676
4677         case GTU:
4678           if (GET_CODE (op1) == CONST_INT
4679               && INTVAL (op1) == GET_MODE_MASK (mode)
4680               && INTEGRAL_MODE_P (mode))
4681             return const0_rtx;
4682           break;
4683         }
4684
4685       return 0;
4686     }
4687
4688   /* If we reach here, EQUAL, OP0LT, OP0LTU, OP1LT, and OP1LTU are set
4689      as appropriate.  */
4690   switch (code)
4691     {
4692     case EQ:
4693       return equal ? const_true_rtx : const0_rtx;
4694     case NE:
4695       return ! equal ? const_true_rtx : const0_rtx;
4696     case LT:
4697       return op0lt ? const_true_rtx : const0_rtx;
4698     case GT:
4699       return op1lt ? const_true_rtx : const0_rtx;
4700     case LTU:
4701       return op0ltu ? const_true_rtx : const0_rtx;
4702     case GTU:
4703       return op1ltu ? const_true_rtx : const0_rtx;
4704     case LE:
4705       return equal || op0lt ? const_true_rtx : const0_rtx;
4706     case GE:
4707       return equal || op1lt ? const_true_rtx : const0_rtx;
4708     case LEU:
4709       return equal || op0ltu ? const_true_rtx : const0_rtx;
4710     case GEU:
4711       return equal || op1ltu ? const_true_rtx : const0_rtx;
4712     }
4713
4714   abort ();
4715 }
4716 \f
4717 /* Simplify CODE, an operation with result mode MODE and three operands,
4718    OP0, OP1, and OP2.  OP0_MODE was the mode of OP0 before it became
4719    a constant.  Return 0 if no simplifications is possible.  */
4720
4721 rtx
4722 simplify_ternary_operation (code, mode, op0_mode, op0, op1, op2)
4723      enum rtx_code code;
4724      enum machine_mode mode, op0_mode;
4725      rtx op0, op1, op2;
4726 {
4727   int width = GET_MODE_BITSIZE (mode);
4728
4729   /* VOIDmode means "infinite" precision.  */
4730   if (width == 0)
4731     width = HOST_BITS_PER_WIDE_INT;
4732
4733   switch (code)
4734     {
4735     case SIGN_EXTRACT:
4736     case ZERO_EXTRACT:
4737       if (GET_CODE (op0) == CONST_INT
4738           && GET_CODE (op1) == CONST_INT
4739           && GET_CODE (op2) == CONST_INT
4740           && INTVAL (op1) + INTVAL (op2) <= GET_MODE_BITSIZE (op0_mode)
4741           && width <= HOST_BITS_PER_WIDE_INT)
4742         {
4743           /* Extracting a bit-field from a constant */
4744           HOST_WIDE_INT val = INTVAL (op0);
4745
4746           if (BITS_BIG_ENDIAN)
4747             val >>= (GET_MODE_BITSIZE (op0_mode)
4748                      - INTVAL (op2) - INTVAL (op1));
4749           else
4750             val >>= INTVAL (op2);
4751
4752           if (HOST_BITS_PER_WIDE_INT != INTVAL (op1))
4753             {
4754               /* First zero-extend.  */
4755               val &= ((HOST_WIDE_INT) 1 << INTVAL (op1)) - 1;
4756               /* If desired, propagate sign bit.  */
4757               if (code == SIGN_EXTRACT
4758                   && (val & ((HOST_WIDE_INT) 1 << (INTVAL (op1) - 1))))
4759                 val |= ~ (((HOST_WIDE_INT) 1 << INTVAL (op1)) - 1);
4760             }
4761
4762           /* Clear the bits that don't belong in our mode,
4763              unless they and our sign bit are all one.
4764              So we get either a reasonable negative value or a reasonable
4765              unsigned value for this mode.  */
4766           if (width < HOST_BITS_PER_WIDE_INT
4767               && ((val & ((HOST_WIDE_INT) (-1) << (width - 1)))
4768                   != ((HOST_WIDE_INT) (-1) << (width - 1))))
4769             val &= ((HOST_WIDE_INT) 1 << width) - 1;
4770
4771           return GEN_INT (val);
4772         }
4773       break;
4774
4775     case IF_THEN_ELSE:
4776       if (GET_CODE (op0) == CONST_INT)
4777         return op0 != const0_rtx ? op1 : op2;
4778       break;
4779
4780     default:
4781       abort ();
4782     }
4783
4784   return 0;
4785 }
4786 \f
4787 /* If X is a nontrivial arithmetic operation on an argument
4788    for which a constant value can be determined, return
4789    the result of operating on that value, as a constant.
4790    Otherwise, return X, possibly with one or more operands
4791    modified by recursive calls to this function.
4792
4793    If X is a register whose contents are known, we do NOT
4794    return those contents here.  equiv_constant is called to
4795    perform that task.
4796
4797    INSN is the insn that we may be modifying.  If it is 0, make a copy
4798    of X before modifying it.  */
4799
4800 static rtx
4801 fold_rtx (x, insn)
4802      rtx x;
4803      rtx insn;    
4804 {
4805   register enum rtx_code code;
4806   register enum machine_mode mode;
4807   register char *fmt;
4808   register int i;
4809   rtx new = 0;
4810   int copied = 0;
4811   int must_swap = 0;
4812
4813   /* Folded equivalents of first two operands of X.  */
4814   rtx folded_arg0;
4815   rtx folded_arg1;
4816
4817   /* Constant equivalents of first three operands of X;
4818      0 when no such equivalent is known.  */
4819   rtx const_arg0;
4820   rtx const_arg1;
4821   rtx const_arg2;
4822
4823   /* The mode of the first operand of X.  We need this for sign and zero
4824      extends.  */
4825   enum machine_mode mode_arg0;
4826
4827   if (x == 0)
4828     return x;
4829
4830   mode = GET_MODE (x);
4831   code = GET_CODE (x);
4832   switch (code)
4833     {
4834     case CONST:
4835     case CONST_INT:
4836     case CONST_DOUBLE:
4837     case SYMBOL_REF:
4838     case LABEL_REF:
4839     case REG:
4840       /* No use simplifying an EXPR_LIST
4841          since they are used only for lists of args
4842          in a function call's REG_EQUAL note.  */
4843     case EXPR_LIST:
4844       return x;
4845
4846 #ifdef HAVE_cc0
4847     case CC0:
4848       return prev_insn_cc0;
4849 #endif
4850
4851     case PC:
4852       /* If the next insn is a CODE_LABEL followed by a jump table,
4853          PC's value is a LABEL_REF pointing to that label.  That
4854          lets us fold switch statements on the Vax.  */
4855       if (insn && GET_CODE (insn) == JUMP_INSN)
4856         {
4857           rtx next = next_nonnote_insn (insn);
4858
4859           if (next && GET_CODE (next) == CODE_LABEL
4860               && NEXT_INSN (next) != 0
4861               && GET_CODE (NEXT_INSN (next)) == JUMP_INSN
4862               && (GET_CODE (PATTERN (NEXT_INSN (next))) == ADDR_VEC
4863                   || GET_CODE (PATTERN (NEXT_INSN (next))) == ADDR_DIFF_VEC))
4864             return gen_rtx (LABEL_REF, Pmode, next);
4865         }
4866       break;
4867
4868     case SUBREG:
4869       /* See if we previously assigned a constant value to this SUBREG.  */
4870       if ((new = lookup_as_function (x, CONST_INT)) != 0
4871           || (new = lookup_as_function (x, CONST_DOUBLE)) != 0)
4872         return new;
4873
4874       /* If this is a paradoxical SUBREG, we have no idea what value the
4875          extra bits would have.  However, if the operand is equivalent
4876          to a SUBREG whose operand is the same as our mode, and all the
4877          modes are within a word, we can just use the inner operand
4878          because these SUBREGs just say how to treat the register.
4879
4880          Similarly if we find an integer constant.  */
4881
4882       if (GET_MODE_SIZE (mode) > GET_MODE_SIZE (GET_MODE (SUBREG_REG (x))))
4883         {
4884           enum machine_mode imode = GET_MODE (SUBREG_REG (x));
4885           struct table_elt *elt;
4886
4887           if (GET_MODE_SIZE (mode) <= UNITS_PER_WORD
4888               && GET_MODE_SIZE (imode) <= UNITS_PER_WORD
4889               && (elt = lookup (SUBREG_REG (x), HASH (SUBREG_REG (x), imode),
4890                                 imode)) != 0)
4891             for (elt = elt->first_same_value;
4892                  elt; elt = elt->next_same_value)
4893               {
4894                 if (CONSTANT_P (elt->exp)
4895                     && GET_MODE (elt->exp) == VOIDmode)
4896                   return elt->exp;
4897
4898                 if (GET_CODE (elt->exp) == SUBREG
4899                     && GET_MODE (SUBREG_REG (elt->exp)) == mode
4900                     && exp_equiv_p (elt->exp, elt->exp, 1, 0))
4901                   return copy_rtx (SUBREG_REG (elt->exp));
4902             }
4903
4904           return x;
4905         }
4906
4907       /* Fold SUBREG_REG.  If it changed, see if we can simplify the SUBREG.
4908          We might be able to if the SUBREG is extracting a single word in an
4909          integral mode or extracting the low part.  */
4910
4911       folded_arg0 = fold_rtx (SUBREG_REG (x), insn);
4912       const_arg0 = equiv_constant (folded_arg0);
4913       if (const_arg0)
4914         folded_arg0 = const_arg0;
4915
4916       if (folded_arg0 != SUBREG_REG (x))
4917         {
4918           new = 0;
4919
4920           if (GET_MODE_CLASS (mode) == MODE_INT
4921               && GET_MODE_SIZE (mode) == UNITS_PER_WORD
4922               && GET_MODE (SUBREG_REG (x)) != VOIDmode)
4923             new = operand_subword (folded_arg0, SUBREG_WORD (x), 0,
4924                                    GET_MODE (SUBREG_REG (x)));
4925           if (new == 0 && subreg_lowpart_p (x))
4926             new = gen_lowpart_if_possible (mode, folded_arg0);
4927           if (new)
4928             return new;
4929         }
4930
4931       /* If this is a narrowing SUBREG and our operand is a REG, see if
4932          we can find an equivalence for REG that is an arithmetic operation
4933          in a wider mode where both operands are paradoxical SUBREGs
4934          from objects of our result mode.  In that case, we couldn't report
4935          an equivalent value for that operation, since we don't know what the
4936          extra bits will be.  But we can find an equivalence for this SUBREG
4937          by folding that operation is the narrow mode.  This allows us to
4938          fold arithmetic in narrow modes when the machine only supports
4939          word-sized arithmetic.  
4940
4941          Also look for a case where we have a SUBREG whose operand is the
4942          same as our result.  If both modes are smaller than a word, we
4943          are simply interpreting a register in different modes and we
4944          can use the inner value.  */
4945
4946       if (GET_CODE (folded_arg0) == REG
4947           && GET_MODE_SIZE (mode) < GET_MODE_SIZE (GET_MODE (folded_arg0))
4948           && subreg_lowpart_p (x))
4949         {
4950           struct table_elt *elt;
4951
4952           /* We can use HASH here since we know that canon_hash won't be
4953              called.  */
4954           elt = lookup (folded_arg0,
4955                         HASH (folded_arg0, GET_MODE (folded_arg0)),
4956                         GET_MODE (folded_arg0));
4957
4958           if (elt)
4959             elt = elt->first_same_value;
4960
4961           for (; elt; elt = elt->next_same_value)
4962             {
4963               enum rtx_code eltcode = GET_CODE (elt->exp);
4964
4965               /* Just check for unary and binary operations.  */
4966               if (GET_RTX_CLASS (GET_CODE (elt->exp)) == '1'
4967                   && GET_CODE (elt->exp) != SIGN_EXTEND
4968                   && GET_CODE (elt->exp) != ZERO_EXTEND
4969                   && GET_CODE (XEXP (elt->exp, 0)) == SUBREG
4970                   && GET_MODE (SUBREG_REG (XEXP (elt->exp, 0))) == mode)
4971                 {
4972                   rtx op0 = SUBREG_REG (XEXP (elt->exp, 0));
4973
4974                   if (GET_CODE (op0) != REG && ! CONSTANT_P (op0))
4975                     op0 = fold_rtx (op0, NULL_RTX);
4976
4977                   op0 = equiv_constant (op0);
4978                   if (op0)
4979                     new = simplify_unary_operation (GET_CODE (elt->exp), mode,
4980                                                     op0, mode);
4981                 }
4982               else if ((GET_RTX_CLASS (GET_CODE (elt->exp)) == '2'
4983                         || GET_RTX_CLASS (GET_CODE (elt->exp)) == 'c')
4984                        && eltcode != DIV && eltcode != MOD
4985                        && eltcode != UDIV && eltcode != UMOD
4986                        && eltcode != ASHIFTRT && eltcode != LSHIFTRT
4987                        && eltcode != ROTATE && eltcode != ROTATERT
4988                        && ((GET_CODE (XEXP (elt->exp, 0)) == SUBREG
4989                             && (GET_MODE (SUBREG_REG (XEXP (elt->exp, 0)))
4990                                 == mode))
4991                            || CONSTANT_P (XEXP (elt->exp, 0)))
4992                        && ((GET_CODE (XEXP (elt->exp, 1)) == SUBREG
4993                             && (GET_MODE (SUBREG_REG (XEXP (elt->exp, 1)))
4994                                 == mode))
4995                            || CONSTANT_P (XEXP (elt->exp, 1))))
4996                 {
4997                   rtx op0 = gen_lowpart_common (mode, XEXP (elt->exp, 0));
4998                   rtx op1 = gen_lowpart_common (mode, XEXP (elt->exp, 1));
4999
5000                   if (op0 && GET_CODE (op0) != REG && ! CONSTANT_P (op0))
5001                     op0 = fold_rtx (op0, NULL_RTX);
5002
5003                   if (op0)
5004                     op0 = equiv_constant (op0);
5005
5006                   if (op1 && GET_CODE (op1) != REG && ! CONSTANT_P (op1))
5007                     op1 = fold_rtx (op1, NULL_RTX);
5008
5009                   if (op1)
5010                     op1 = equiv_constant (op1);
5011
5012                   /* If we are looking for the low SImode part of 
5013                      (ashift:DI c (const_int 32)), it doesn't work
5014                      to compute that in SImode, because a 32-bit shift
5015                      in SImode is unpredictable.  We know the value is 0.  */
5016                   if (op0 && op1
5017                       && GET_CODE (elt->exp) == ASHIFT
5018                       && GET_CODE (op1) == CONST_INT
5019                       && INTVAL (op1) >= GET_MODE_BITSIZE (mode))
5020                     {
5021                       if (INTVAL (op1) < GET_MODE_BITSIZE (GET_MODE (elt->exp)))
5022                         
5023                         /* If the count fits in the inner mode's width,
5024                            but exceeds the outer mode's width,
5025                            the value will get truncated to 0
5026                            by the subreg.  */
5027                         new = const0_rtx;
5028                       else
5029                         /* If the count exceeds even the inner mode's width,
5030                            don't fold this expression.  */
5031                         new = 0;
5032                     }
5033                   else if (op0 && op1)
5034                     new = simplify_binary_operation (GET_CODE (elt->exp), mode,
5035                                                      op0, op1);
5036                 }
5037
5038               else if (GET_CODE (elt->exp) == SUBREG
5039                        && GET_MODE (SUBREG_REG (elt->exp)) == mode
5040                        && (GET_MODE_SIZE (GET_MODE (folded_arg0))
5041                            <= UNITS_PER_WORD)
5042                        && exp_equiv_p (elt->exp, elt->exp, 1, 0))
5043                 new = copy_rtx (SUBREG_REG (elt->exp));
5044
5045               if (new)
5046                 return new;
5047             }
5048         }
5049
5050       return x;
5051
5052     case NOT:
5053     case NEG:
5054       /* If we have (NOT Y), see if Y is known to be (NOT Z).
5055          If so, (NOT Y) simplifies to Z.  Similarly for NEG.  */
5056       new = lookup_as_function (XEXP (x, 0), code);
5057       if (new)
5058         return fold_rtx (copy_rtx (XEXP (new, 0)), insn);
5059       break;
5060
5061     case MEM:
5062       /* If we are not actually processing an insn, don't try to find the
5063          best address.  Not only don't we care, but we could modify the
5064          MEM in an invalid way since we have no insn to validate against.  */
5065       if (insn != 0)
5066         find_best_addr (insn, &XEXP (x, 0));
5067
5068       {
5069         /* Even if we don't fold in the insn itself,
5070            we can safely do so here, in hopes of getting a constant.  */
5071         rtx addr = fold_rtx (XEXP (x, 0), NULL_RTX);
5072         rtx base = 0;
5073         HOST_WIDE_INT offset = 0;
5074
5075         if (GET_CODE (addr) == REG
5076             && REGNO_QTY_VALID_P (REGNO (addr))
5077             && GET_MODE (addr) == qty_mode[reg_qty[REGNO (addr)]]
5078             && qty_const[reg_qty[REGNO (addr)]] != 0)
5079           addr = qty_const[reg_qty[REGNO (addr)]];
5080
5081         /* If address is constant, split it into a base and integer offset.  */
5082         if (GET_CODE (addr) == SYMBOL_REF || GET_CODE (addr) == LABEL_REF)
5083           base = addr;
5084         else if (GET_CODE (addr) == CONST && GET_CODE (XEXP (addr, 0)) == PLUS
5085                  && GET_CODE (XEXP (XEXP (addr, 0), 1)) == CONST_INT)
5086           {
5087             base = XEXP (XEXP (addr, 0), 0);
5088             offset = INTVAL (XEXP (XEXP (addr, 0), 1));
5089           }
5090         else if (GET_CODE (addr) == LO_SUM
5091                  && GET_CODE (XEXP (addr, 1)) == SYMBOL_REF)
5092           base = XEXP (addr, 1);
5093
5094         /* If this is a constant pool reference, we can fold it into its
5095            constant to allow better value tracking.  */
5096         if (base && GET_CODE (base) == SYMBOL_REF
5097             && CONSTANT_POOL_ADDRESS_P (base))
5098           {
5099             rtx constant = get_pool_constant (base);
5100             enum machine_mode const_mode = get_pool_mode (base);
5101             rtx new;
5102
5103             if (CONSTANT_P (constant) && GET_CODE (constant) != CONST_INT)
5104               constant_pool_entries_cost = COST (constant);
5105
5106             /* If we are loading the full constant, we have an equivalence.  */
5107             if (offset == 0 && mode == const_mode)
5108               return constant;
5109
5110             /* If this actually isn't a constant (weird!), we can't do
5111                anything.  Otherwise, handle the two most common cases:
5112                extracting a word from a multi-word constant, and extracting
5113                the low-order bits.  Other cases don't seem common enough to
5114                worry about.  */
5115             if (! CONSTANT_P (constant))
5116               return x;
5117
5118             if (GET_MODE_CLASS (mode) == MODE_INT
5119                 && GET_MODE_SIZE (mode) == UNITS_PER_WORD
5120                 && offset % UNITS_PER_WORD == 0
5121                 && (new = operand_subword (constant,
5122                                            offset / UNITS_PER_WORD,
5123                                            0, const_mode)) != 0)
5124               return new;
5125
5126             if (((BYTES_BIG_ENDIAN
5127                   && offset == GET_MODE_SIZE (GET_MODE (constant)) - 1)
5128                  || (! BYTES_BIG_ENDIAN && offset == 0))
5129                 && (new = gen_lowpart_if_possible (mode, constant)) != 0)
5130               return new;
5131           }
5132
5133         /* If this is a reference to a label at a known position in a jump
5134            table, we also know its value.  */
5135         if (base && GET_CODE (base) == LABEL_REF)
5136           {
5137             rtx label = XEXP (base, 0);
5138             rtx table_insn = NEXT_INSN (label);
5139             
5140             if (table_insn && GET_CODE (table_insn) == JUMP_INSN
5141                 && GET_CODE (PATTERN (table_insn)) == ADDR_VEC)
5142               {
5143                 rtx table = PATTERN (table_insn);
5144
5145                 if (offset >= 0
5146                     && (offset / GET_MODE_SIZE (GET_MODE (table))
5147                         < XVECLEN (table, 0)))
5148                   return XVECEXP (table, 0,
5149                                   offset / GET_MODE_SIZE (GET_MODE (table)));
5150               }
5151             if (table_insn && GET_CODE (table_insn) == JUMP_INSN
5152                 && GET_CODE (PATTERN (table_insn)) == ADDR_DIFF_VEC)
5153               {
5154                 rtx table = PATTERN (table_insn);
5155
5156                 if (offset >= 0
5157                     && (offset / GET_MODE_SIZE (GET_MODE (table))
5158                         < XVECLEN (table, 1)))
5159                   {
5160                     offset /= GET_MODE_SIZE (GET_MODE (table));
5161                     new = gen_rtx (MINUS, Pmode, XVECEXP (table, 1, offset),
5162                                    XEXP (table, 0));
5163
5164                     if (GET_MODE (table) != Pmode)
5165                       new = gen_rtx (TRUNCATE, GET_MODE (table), new);
5166
5167                     /* Indicate this is a constant.  This isn't a 
5168                        valid form of CONST, but it will only be used
5169                        to fold the next insns and then discarded, so
5170                        it should be safe.  */
5171                     return gen_rtx (CONST, GET_MODE (new), new);
5172                   }
5173               }
5174           }
5175
5176         return x;
5177       }
5178
5179     case ASM_OPERANDS:
5180       for (i = XVECLEN (x, 3) - 1; i >= 0; i--)
5181         validate_change (insn, &XVECEXP (x, 3, i),
5182                          fold_rtx (XVECEXP (x, 3, i), insn), 0);
5183       break;
5184     }
5185
5186   const_arg0 = 0;
5187   const_arg1 = 0;
5188   const_arg2 = 0;
5189   mode_arg0 = VOIDmode;
5190
5191   /* Try folding our operands.
5192      Then see which ones have constant values known.  */
5193
5194   fmt = GET_RTX_FORMAT (code);
5195   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
5196     if (fmt[i] == 'e')
5197       {
5198         rtx arg = XEXP (x, i);
5199         rtx folded_arg = arg, const_arg = 0;
5200         enum machine_mode mode_arg = GET_MODE (arg);
5201         rtx cheap_arg, expensive_arg;
5202         rtx replacements[2];
5203         int j;
5204
5205         /* Most arguments are cheap, so handle them specially.  */
5206         switch (GET_CODE (arg))
5207           {
5208           case REG:
5209             /* This is the same as calling equiv_constant; it is duplicated
5210                here for speed.  */
5211             if (REGNO_QTY_VALID_P (REGNO (arg))
5212                 && qty_const[reg_qty[REGNO (arg)]] != 0
5213                 && GET_CODE (qty_const[reg_qty[REGNO (arg)]]) != REG
5214                 && GET_CODE (qty_const[reg_qty[REGNO (arg)]]) != PLUS)
5215               const_arg
5216                 = gen_lowpart_if_possible (GET_MODE (arg),
5217                                            qty_const[reg_qty[REGNO (arg)]]);
5218             break;
5219
5220           case CONST:
5221           case CONST_INT:
5222           case SYMBOL_REF:
5223           case LABEL_REF:
5224           case CONST_DOUBLE:
5225             const_arg = arg;
5226             break;
5227
5228 #ifdef HAVE_cc0
5229           case CC0:
5230             folded_arg = prev_insn_cc0;
5231             mode_arg = prev_insn_cc0_mode;
5232             const_arg = equiv_constant (folded_arg);
5233             break;
5234 #endif
5235
5236           default:
5237             folded_arg = fold_rtx (arg, insn);
5238             const_arg = equiv_constant (folded_arg);
5239           }
5240
5241         /* For the first three operands, see if the operand
5242            is constant or equivalent to a constant.  */
5243         switch (i)
5244           {
5245           case 0:
5246             folded_arg0 = folded_arg;
5247             const_arg0 = const_arg;
5248             mode_arg0 = mode_arg;
5249             break;
5250           case 1:
5251             folded_arg1 = folded_arg;
5252             const_arg1 = const_arg;
5253             break;
5254           case 2:
5255             const_arg2 = const_arg;
5256             break;
5257           }
5258
5259         /* Pick the least expensive of the folded argument and an
5260            equivalent constant argument.  */
5261         if (const_arg == 0 || const_arg == folded_arg
5262             || COST (const_arg) > COST (folded_arg))
5263           cheap_arg = folded_arg, expensive_arg = const_arg;
5264         else
5265           cheap_arg = const_arg, expensive_arg = folded_arg;
5266
5267         /* Try to replace the operand with the cheapest of the two
5268            possibilities.  If it doesn't work and this is either of the first
5269            two operands of a commutative operation, try swapping them.
5270            If THAT fails, try the more expensive, provided it is cheaper
5271            than what is already there.  */
5272
5273         if (cheap_arg == XEXP (x, i))
5274           continue;
5275
5276         if (insn == 0 && ! copied)
5277           {
5278             x = copy_rtx (x);
5279             copied = 1;
5280           }
5281
5282         replacements[0] = cheap_arg, replacements[1] = expensive_arg;
5283         for (j = 0;
5284              j < 2 && replacements[j]
5285              && COST (replacements[j]) < COST (XEXP (x, i));
5286              j++)
5287           {
5288             if (validate_change (insn, &XEXP (x, i), replacements[j], 0))
5289               break;
5290
5291             if (code == NE || code == EQ || GET_RTX_CLASS (code) == 'c')
5292               {
5293                 validate_change (insn, &XEXP (x, i), XEXP (x, 1 - i), 1);
5294                 validate_change (insn, &XEXP (x, 1 - i), replacements[j], 1);
5295
5296                 if (apply_change_group ())
5297                   {
5298                     /* Swap them back to be invalid so that this loop can
5299                        continue and flag them to be swapped back later.  */
5300                     rtx tem;
5301
5302                     tem = XEXP (x, 0); XEXP (x, 0) = XEXP (x, 1);
5303                                        XEXP (x, 1) = tem;
5304                     must_swap = 1;
5305                     break;
5306                   }
5307               }
5308           }
5309       }
5310
5311     else if (fmt[i] == 'E')
5312       /* Don't try to fold inside of a vector of expressions.
5313          Doing nothing is harmless.  */
5314       ;
5315
5316   /* If a commutative operation, place a constant integer as the second
5317      operand unless the first operand is also a constant integer.  Otherwise,
5318      place any constant second unless the first operand is also a constant.  */
5319
5320   if (code == EQ || code == NE || GET_RTX_CLASS (code) == 'c')
5321     {
5322       if (must_swap || (const_arg0
5323                         && (const_arg1 == 0
5324                             || (GET_CODE (const_arg0) == CONST_INT
5325                                 && GET_CODE (const_arg1) != CONST_INT))))
5326         {
5327           register rtx tem = XEXP (x, 0);
5328
5329           if (insn == 0 && ! copied)
5330             {
5331               x = copy_rtx (x);
5332               copied = 1;
5333             }
5334
5335           validate_change (insn, &XEXP (x, 0), XEXP (x, 1), 1);
5336           validate_change (insn, &XEXP (x, 1), tem, 1);
5337           if (apply_change_group ())
5338             {
5339               tem = const_arg0, const_arg0 = const_arg1, const_arg1 = tem;
5340               tem = folded_arg0, folded_arg0 = folded_arg1, folded_arg1 = tem;
5341             }
5342         }
5343     }
5344
5345   /* If X is an arithmetic operation, see if we can simplify it.  */
5346
5347   switch (GET_RTX_CLASS (code))
5348     {
5349     case '1':
5350       {
5351         int is_const = 0;
5352
5353         /* We can't simplify extension ops unless we know the
5354            original mode.  */
5355         if ((code == ZERO_EXTEND || code == SIGN_EXTEND)
5356             && mode_arg0 == VOIDmode)
5357           break;
5358
5359         /* If we had a CONST, strip it off and put it back later if we
5360            fold.  */
5361         if (const_arg0 != 0 && GET_CODE (const_arg0) == CONST)
5362           is_const = 1, const_arg0 = XEXP (const_arg0, 0);
5363
5364         new = simplify_unary_operation (code, mode,
5365                                         const_arg0 ? const_arg0 : folded_arg0,
5366                                         mode_arg0);
5367         if (new != 0 && is_const)
5368           new = gen_rtx (CONST, mode, new);
5369       }
5370       break;
5371       
5372     case '<':
5373       /* See what items are actually being compared and set FOLDED_ARG[01]
5374          to those values and CODE to the actual comparison code.  If any are
5375          constant, set CONST_ARG0 and CONST_ARG1 appropriately.  We needn't
5376          do anything if both operands are already known to be constant.  */
5377
5378       if (const_arg0 == 0 || const_arg1 == 0)
5379         {
5380           struct table_elt *p0, *p1;
5381           rtx true = const_true_rtx, false = const0_rtx;
5382           enum machine_mode mode_arg1;
5383
5384 #ifdef FLOAT_STORE_FLAG_VALUE
5385           if (GET_MODE_CLASS (mode) == MODE_FLOAT)
5386             {
5387               true = CONST_DOUBLE_FROM_REAL_VALUE (FLOAT_STORE_FLAG_VALUE,
5388                                                    mode);
5389               false = CONST0_RTX (mode);
5390             }
5391 #endif
5392
5393           code = find_comparison_args (code, &folded_arg0, &folded_arg1,
5394                                        &mode_arg0, &mode_arg1);
5395           const_arg0 = equiv_constant (folded_arg0);
5396           const_arg1 = equiv_constant (folded_arg1);
5397
5398           /* If the mode is VOIDmode or a MODE_CC mode, we don't know
5399              what kinds of things are being compared, so we can't do
5400              anything with this comparison.  */
5401
5402           if (mode_arg0 == VOIDmode || GET_MODE_CLASS (mode_arg0) == MODE_CC)
5403             break;
5404
5405           /* If we do not now have two constants being compared, see
5406              if we can nevertheless deduce some things about the
5407              comparison.  */
5408           if (const_arg0 == 0 || const_arg1 == 0)
5409             {
5410               /* Is FOLDED_ARG0 frame-pointer plus a constant?  Or
5411                  non-explicit constant?  These aren't zero, but we
5412                  don't know their sign.  */
5413               if (const_arg1 == const0_rtx
5414                   && (NONZERO_BASE_PLUS_P (folded_arg0)
5415 #if 0  /* Sad to say, on sysvr4, #pragma weak can make a symbol address
5416           come out as 0.  */
5417                       || GET_CODE (folded_arg0) == SYMBOL_REF
5418 #endif
5419                       || GET_CODE (folded_arg0) == LABEL_REF
5420                       || GET_CODE (folded_arg0) == CONST))
5421                 {
5422                   if (code == EQ)
5423                     return false;
5424                   else if (code == NE)
5425                     return true;
5426                 }
5427
5428               /* See if the two operands are the same.  We don't do this
5429                  for IEEE floating-point since we can't assume x == x
5430                  since x might be a NaN.  */
5431
5432               if ((TARGET_FLOAT_FORMAT != IEEE_FLOAT_FORMAT
5433                    || ! FLOAT_MODE_P (mode_arg0) || flag_fast_math)
5434                   && (folded_arg0 == folded_arg1
5435                       || (GET_CODE (folded_arg0) == REG
5436                           && GET_CODE (folded_arg1) == REG
5437                           && (reg_qty[REGNO (folded_arg0)]
5438                               == reg_qty[REGNO (folded_arg1)]))
5439                       || ((p0 = lookup (folded_arg0,
5440                                         (safe_hash (folded_arg0, mode_arg0)
5441                                          % NBUCKETS), mode_arg0))
5442                           && (p1 = lookup (folded_arg1,
5443                                            (safe_hash (folded_arg1, mode_arg0)
5444                                             % NBUCKETS), mode_arg0))
5445                           && p0->first_same_value == p1->first_same_value)))
5446                 return ((code == EQ || code == LE || code == GE
5447                          || code == LEU || code == GEU)
5448                         ? true : false);
5449
5450               /* If FOLDED_ARG0 is a register, see if the comparison we are
5451                  doing now is either the same as we did before or the reverse
5452                  (we only check the reverse if not floating-point).  */
5453               else if (GET_CODE (folded_arg0) == REG)
5454                 {
5455                   int qty = reg_qty[REGNO (folded_arg0)];
5456
5457                   if (REGNO_QTY_VALID_P (REGNO (folded_arg0))
5458                       && (comparison_dominates_p (qty_comparison_code[qty], code)
5459                           || (comparison_dominates_p (qty_comparison_code[qty],
5460                                                       reverse_condition (code))
5461                               && ! FLOAT_MODE_P (mode_arg0)))
5462                       && (rtx_equal_p (qty_comparison_const[qty], folded_arg1)
5463                           || (const_arg1
5464                               && rtx_equal_p (qty_comparison_const[qty],
5465                                               const_arg1))
5466                           || (GET_CODE (folded_arg1) == REG
5467                               && (reg_qty[REGNO (folded_arg1)]
5468                                   == qty_comparison_qty[qty]))))
5469                     return (comparison_dominates_p (qty_comparison_code[qty],
5470                                                     code)
5471                             ? true : false);
5472                 }
5473             }
5474         }
5475
5476       /* If we are comparing against zero, see if the first operand is
5477          equivalent to an IOR with a constant.  If so, we may be able to
5478          determine the result of this comparison.  */
5479
5480       if (const_arg1 == const0_rtx)
5481         {
5482           rtx y = lookup_as_function (folded_arg0, IOR);
5483           rtx inner_const;
5484
5485           if (y != 0
5486               && (inner_const = equiv_constant (XEXP (y, 1))) != 0
5487               && GET_CODE (inner_const) == CONST_INT
5488               && INTVAL (inner_const) != 0)
5489             {
5490               int sign_bitnum = GET_MODE_BITSIZE (mode_arg0) - 1;
5491               int has_sign = (HOST_BITS_PER_WIDE_INT >= sign_bitnum
5492                               && (INTVAL (inner_const)
5493                                   & ((HOST_WIDE_INT) 1 << sign_bitnum)));
5494               rtx true = const_true_rtx, false = const0_rtx;
5495
5496 #ifdef FLOAT_STORE_FLAG_VALUE
5497               if (GET_MODE_CLASS (mode) == MODE_FLOAT)
5498                 {
5499                   true = CONST_DOUBLE_FROM_REAL_VALUE (FLOAT_STORE_FLAG_VALUE,
5500                                                        mode);
5501                   false = CONST0_RTX (mode);
5502                 }
5503 #endif
5504
5505               switch (code)
5506                 {
5507                 case EQ:
5508                   return false;
5509                 case NE:
5510                   return true;
5511                 case LT:  case LE:
5512                   if (has_sign)
5513                     return true;
5514                   break;
5515                 case GT:  case GE:
5516                   if (has_sign)
5517                     return false;
5518                   break;
5519                 }
5520             }
5521         }
5522
5523       new = simplify_relational_operation (code, mode_arg0,
5524                                            const_arg0 ? const_arg0 : folded_arg0,
5525                                            const_arg1 ? const_arg1 : folded_arg1);
5526 #ifdef FLOAT_STORE_FLAG_VALUE
5527       if (new != 0 && GET_MODE_CLASS (mode) == MODE_FLOAT)
5528         new = ((new == const0_rtx) ? CONST0_RTX (mode)
5529                : CONST_DOUBLE_FROM_REAL_VALUE (FLOAT_STORE_FLAG_VALUE, mode));
5530 #endif
5531       break;
5532
5533     case '2':
5534     case 'c':
5535       switch (code)
5536         {
5537         case PLUS:
5538           /* If the second operand is a LABEL_REF, see if the first is a MINUS
5539              with that LABEL_REF as its second operand.  If so, the result is
5540              the first operand of that MINUS.  This handles switches with an
5541              ADDR_DIFF_VEC table.  */
5542           if (const_arg1 && GET_CODE (const_arg1) == LABEL_REF)
5543             {
5544               rtx y
5545                 = GET_CODE (folded_arg0) == MINUS ? folded_arg0
5546                   : lookup_as_function (folded_arg0, MINUS);
5547
5548               if (y != 0 && GET_CODE (XEXP (y, 1)) == LABEL_REF
5549                   && XEXP (XEXP (y, 1), 0) == XEXP (const_arg1, 0))
5550                 return XEXP (y, 0);
5551
5552               /* Now try for a CONST of a MINUS like the above.  */
5553               if ((y = (GET_CODE (folded_arg0) == CONST ? folded_arg0
5554                         : lookup_as_function (folded_arg0, CONST))) != 0
5555                   && GET_CODE (XEXP (y, 0)) == MINUS
5556                   && GET_CODE (XEXP (XEXP (y, 0), 1)) == LABEL_REF
5557                   && XEXP (XEXP (XEXP (y, 0),1), 0) == XEXP (const_arg1, 0))
5558                 return XEXP (XEXP (y, 0), 0);
5559             }
5560
5561           /* Likewise if the operands are in the other order.  */
5562           if (const_arg0 && GET_CODE (const_arg0) == LABEL_REF)
5563             {
5564               rtx y
5565                 = GET_CODE (folded_arg1) == MINUS ? folded_arg1
5566                   : lookup_as_function (folded_arg1, MINUS);
5567
5568               if (y != 0 && GET_CODE (XEXP (y, 1)) == LABEL_REF
5569                   && XEXP (XEXP (y, 1), 0) == XEXP (const_arg0, 0))
5570                 return XEXP (y, 0);
5571
5572               /* Now try for a CONST of a MINUS like the above.  */
5573               if ((y = (GET_CODE (folded_arg1) == CONST ? folded_arg1
5574                         : lookup_as_function (folded_arg1, CONST))) != 0
5575                   && GET_CODE (XEXP (y, 0)) == MINUS
5576                   && GET_CODE (XEXP (XEXP (y, 0), 1)) == LABEL_REF
5577                   && XEXP (XEXP (XEXP (y, 0),1), 0) == XEXP (const_arg0, 0))
5578                 return XEXP (XEXP (y, 0), 0);
5579             }
5580
5581           /* If second operand is a register equivalent to a negative
5582              CONST_INT, see if we can find a register equivalent to the
5583              positive constant.  Make a MINUS if so.  Don't do this for
5584              a non-negative constant since we might then alternate between
5585              chosing positive and negative constants.  Having the positive
5586              constant previously-used is the more common case.  Be sure
5587              the resulting constant is non-negative; if const_arg1 were
5588              the smallest negative number this would overflow: depending
5589              on the mode, this would either just be the same value (and
5590              hence not save anything) or be incorrect.  */
5591           if (const_arg1 != 0 && GET_CODE (const_arg1) == CONST_INT
5592               && INTVAL (const_arg1) < 0
5593               && - INTVAL (const_arg1) >= 0
5594               && GET_CODE (folded_arg1) == REG)
5595             {
5596               rtx new_const = GEN_INT (- INTVAL (const_arg1));
5597               struct table_elt *p
5598                 = lookup (new_const, safe_hash (new_const, mode) % NBUCKETS,
5599                           mode);
5600
5601               if (p)
5602                 for (p = p->first_same_value; p; p = p->next_same_value)
5603                   if (GET_CODE (p->exp) == REG)
5604                     return cse_gen_binary (MINUS, mode, folded_arg0,
5605                                            canon_reg (p->exp, NULL_RTX));
5606             }
5607           goto from_plus;
5608
5609         case MINUS:
5610           /* If we have (MINUS Y C), see if Y is known to be (PLUS Z C2).
5611              If so, produce (PLUS Z C2-C).  */
5612           if (const_arg1 != 0 && GET_CODE (const_arg1) == CONST_INT)
5613             {
5614               rtx y = lookup_as_function (XEXP (x, 0), PLUS);
5615               if (y && GET_CODE (XEXP (y, 1)) == CONST_INT)
5616                 return fold_rtx (plus_constant (copy_rtx (y),
5617                                                 -INTVAL (const_arg1)),
5618                                  NULL_RTX);
5619             }
5620
5621           /* ... fall through ...  */
5622
5623         from_plus:
5624         case SMIN:    case SMAX:      case UMIN:    case UMAX:
5625         case IOR:     case AND:       case XOR:
5626         case MULT:    case DIV:       case UDIV:
5627         case ASHIFT:  case LSHIFTRT:  case ASHIFTRT:
5628           /* If we have (<op> <reg> <const_int>) for an associative OP and REG
5629              is known to be of similar form, we may be able to replace the
5630              operation with a combined operation.  This may eliminate the
5631              intermediate operation if every use is simplified in this way.
5632              Note that the similar optimization done by combine.c only works
5633              if the intermediate operation's result has only one reference.  */
5634
5635           if (GET_CODE (folded_arg0) == REG
5636               && const_arg1 && GET_CODE (const_arg1) == CONST_INT)
5637             {
5638               int is_shift
5639                 = (code == ASHIFT || code == ASHIFTRT || code == LSHIFTRT);
5640               rtx y = lookup_as_function (folded_arg0, code);
5641               rtx inner_const;
5642               enum rtx_code associate_code;
5643               rtx new_const;
5644
5645               if (y == 0
5646                   || 0 == (inner_const
5647                            = equiv_constant (fold_rtx (XEXP (y, 1), 0)))
5648                   || GET_CODE (inner_const) != CONST_INT
5649                   /* If we have compiled a statement like
5650                      "if (x == (x & mask1))", and now are looking at
5651                      "x & mask2", we will have a case where the first operand
5652                      of Y is the same as our first operand.  Unless we detect
5653                      this case, an infinite loop will result.  */
5654                   || XEXP (y, 0) == folded_arg0)
5655                 break;
5656
5657               /* Don't associate these operations if they are a PLUS with the
5658                  same constant and it is a power of two.  These might be doable
5659                  with a pre- or post-increment.  Similarly for two subtracts of
5660                  identical powers of two with post decrement.  */
5661
5662               if (code == PLUS && INTVAL (const_arg1) == INTVAL (inner_const)
5663                   && (0
5664 #if defined(HAVE_PRE_INCREMENT) || defined(HAVE_POST_INCREMENT)
5665                       || exact_log2 (INTVAL (const_arg1)) >= 0
5666 #endif
5667 #if defined(HAVE_PRE_DECREMENT) || defined(HAVE_POST_DECREMENT)
5668                       || exact_log2 (- INTVAL (const_arg1)) >= 0
5669 #endif
5670                   ))
5671                 break;
5672
5673               /* Compute the code used to compose the constants.  For example,
5674                  A/C1/C2 is A/(C1 * C2), so if CODE == DIV, we want MULT.  */
5675
5676               associate_code
5677                 = (code == MULT || code == DIV || code == UDIV ? MULT
5678                    : is_shift || code == PLUS || code == MINUS ? PLUS : code);
5679
5680               new_const = simplify_binary_operation (associate_code, mode,
5681                                                      const_arg1, inner_const);
5682
5683               if (new_const == 0)
5684                 break;
5685
5686               /* If we are associating shift operations, don't let this
5687                  produce a shift of the size of the object or larger.
5688                  This could occur when we follow a sign-extend by a right
5689                  shift on a machine that does a sign-extend as a pair
5690                  of shifts.  */
5691
5692               if (is_shift && GET_CODE (new_const) == CONST_INT
5693                   && INTVAL (new_const) >= GET_MODE_BITSIZE (mode))
5694                 {
5695                   /* As an exception, we can turn an ASHIFTRT of this
5696                      form into a shift of the number of bits - 1.  */
5697                   if (code == ASHIFTRT)
5698                     new_const = GEN_INT (GET_MODE_BITSIZE (mode) - 1);
5699                   else
5700                     break;
5701                 }
5702
5703               y = copy_rtx (XEXP (y, 0));
5704
5705               /* If Y contains our first operand (the most common way this
5706                  can happen is if Y is a MEM), we would do into an infinite
5707                  loop if we tried to fold it.  So don't in that case.  */
5708
5709               if (! reg_mentioned_p (folded_arg0, y))
5710                 y = fold_rtx (y, insn);
5711
5712               return cse_gen_binary (code, mode, y, new_const);
5713             }
5714         }
5715
5716       new = simplify_binary_operation (code, mode,
5717                                        const_arg0 ? const_arg0 : folded_arg0,
5718                                        const_arg1 ? const_arg1 : folded_arg1);
5719       break;
5720
5721     case 'o':
5722       /* (lo_sum (high X) X) is simply X.  */
5723       if (code == LO_SUM && const_arg0 != 0
5724           && GET_CODE (const_arg0) == HIGH
5725           && rtx_equal_p (XEXP (const_arg0, 0), const_arg1))
5726         return const_arg1;
5727       break;
5728
5729     case '3':
5730     case 'b':
5731       new = simplify_ternary_operation (code, mode, mode_arg0,
5732                                         const_arg0 ? const_arg0 : folded_arg0,
5733                                         const_arg1 ? const_arg1 : folded_arg1,
5734                                         const_arg2 ? const_arg2 : XEXP (x, 2));
5735       break;
5736     }
5737
5738   return new ? new : x;
5739 }
5740 \f
5741 /* Return a constant value currently equivalent to X.
5742    Return 0 if we don't know one.  */
5743
5744 static rtx
5745 equiv_constant (x)
5746      rtx x;
5747 {
5748   if (GET_CODE (x) == REG
5749       && REGNO_QTY_VALID_P (REGNO (x))
5750       && qty_const[reg_qty[REGNO (x)]])
5751     x = gen_lowpart_if_possible (GET_MODE (x), qty_const[reg_qty[REGNO (x)]]);
5752
5753   if (x != 0 && CONSTANT_P (x))
5754     return x;
5755
5756   /* If X is a MEM, try to fold it outside the context of any insn to see if
5757      it might be equivalent to a constant.  That handles the case where it
5758      is a constant-pool reference.  Then try to look it up in the hash table
5759      in case it is something whose value we have seen before.  */
5760
5761   if (GET_CODE (x) == MEM)
5762     {
5763       struct table_elt *elt;
5764
5765       x = fold_rtx (x, NULL_RTX);
5766       if (CONSTANT_P (x))
5767         return x;
5768
5769       elt = lookup (x, safe_hash (x, GET_MODE (x)) % NBUCKETS, GET_MODE (x));
5770       if (elt == 0)
5771         return 0;
5772
5773       for (elt = elt->first_same_value; elt; elt = elt->next_same_value)
5774         if (elt->is_const && CONSTANT_P (elt->exp))
5775           return elt->exp;
5776     }
5777
5778   return 0;
5779 }
5780 \f
5781 /* Assuming that X is an rtx (e.g., MEM, REG or SUBREG) for a fixed-point
5782    number, return an rtx (MEM, SUBREG, or CONST_INT) that refers to the
5783    least-significant part of X.
5784    MODE specifies how big a part of X to return.  
5785
5786    If the requested operation cannot be done, 0 is returned.
5787
5788    This is similar to gen_lowpart in emit-rtl.c.  */
5789
5790 rtx
5791 gen_lowpart_if_possible (mode, x)
5792      enum machine_mode mode;
5793      register rtx x;
5794 {
5795   rtx result = gen_lowpart_common (mode, x);
5796
5797   if (result)
5798     return result;
5799   else if (GET_CODE (x) == MEM)
5800     {
5801       /* This is the only other case we handle.  */
5802       register int offset = 0;
5803       rtx new;
5804
5805       if (WORDS_BIG_ENDIAN)
5806         offset = (MAX (GET_MODE_SIZE (GET_MODE (x)), UNITS_PER_WORD)
5807                   - MAX (GET_MODE_SIZE (mode), UNITS_PER_WORD));
5808       if (BYTES_BIG_ENDIAN)
5809         /* Adjust the address so that the address-after-the-data is
5810            unchanged.  */
5811         offset -= (MIN (UNITS_PER_WORD, GET_MODE_SIZE (mode))
5812                    - MIN (UNITS_PER_WORD, GET_MODE_SIZE (GET_MODE (x))));
5813       new = gen_rtx (MEM, mode, plus_constant (XEXP (x, 0), offset));
5814       if (! memory_address_p (mode, XEXP (new, 0)))
5815         return 0;
5816       MEM_VOLATILE_P (new) = MEM_VOLATILE_P (x);
5817       RTX_UNCHANGING_P (new) = RTX_UNCHANGING_P (x);
5818       MEM_IN_STRUCT_P (new) = MEM_IN_STRUCT_P (x);
5819       return new;
5820     }
5821   else
5822     return 0;
5823 }
5824 \f
5825 /* Given INSN, a jump insn, TAKEN indicates if we are following the "taken"
5826    branch.  It will be zero if not.
5827
5828    In certain cases, this can cause us to add an equivalence.  For example,
5829    if we are following the taken case of 
5830         if (i == 2)
5831    we can add the fact that `i' and '2' are now equivalent.
5832
5833    In any case, we can record that this comparison was passed.  If the same
5834    comparison is seen later, we will know its value.  */
5835
5836 static void
5837 record_jump_equiv (insn, taken)
5838      rtx insn;
5839      int taken;
5840 {
5841   int cond_known_true;
5842   rtx op0, op1;
5843   enum machine_mode mode, mode0, mode1;
5844   int reversed_nonequality = 0;
5845   enum rtx_code code;
5846
5847   /* Ensure this is the right kind of insn.  */
5848   if (! condjump_p (insn) || simplejump_p (insn))
5849     return;
5850
5851   /* See if this jump condition is known true or false.  */
5852   if (taken)
5853     cond_known_true = (XEXP (SET_SRC (PATTERN (insn)), 2) == pc_rtx);
5854   else
5855     cond_known_true = (XEXP (SET_SRC (PATTERN (insn)), 1) == pc_rtx);
5856
5857   /* Get the type of comparison being done and the operands being compared.
5858      If we had to reverse a non-equality condition, record that fact so we
5859      know that it isn't valid for floating-point.  */
5860   code = GET_CODE (XEXP (SET_SRC (PATTERN (insn)), 0));
5861   op0 = fold_rtx (XEXP (XEXP (SET_SRC (PATTERN (insn)), 0), 0), insn);
5862   op1 = fold_rtx (XEXP (XEXP (SET_SRC (PATTERN (insn)), 0), 1), insn);
5863
5864   code = find_comparison_args (code, &op0, &op1, &mode0, &mode1);
5865   if (! cond_known_true)
5866     {
5867       reversed_nonequality = (code != EQ && code != NE);
5868       code = reverse_condition (code);
5869     }
5870
5871   /* The mode is the mode of the non-constant.  */
5872   mode = mode0;
5873   if (mode1 != VOIDmode)
5874     mode = mode1;
5875
5876   record_jump_cond (code, mode, op0, op1, reversed_nonequality);
5877 }
5878
5879 /* We know that comparison CODE applied to OP0 and OP1 in MODE is true.
5880    REVERSED_NONEQUALITY is nonzero if CODE had to be swapped.
5881    Make any useful entries we can with that information.  Called from
5882    above function and called recursively.  */
5883
5884 static void
5885 record_jump_cond (code, mode, op0, op1, reversed_nonequality)
5886      enum rtx_code code;
5887      enum machine_mode mode;
5888      rtx op0, op1;
5889      int reversed_nonequality;
5890 {
5891   unsigned op0_hash, op1_hash;
5892   int op0_in_memory, op0_in_struct, op1_in_memory, op1_in_struct;
5893   struct table_elt *op0_elt, *op1_elt;
5894
5895   /* If OP0 and OP1 are known equal, and either is a paradoxical SUBREG,
5896      we know that they are also equal in the smaller mode (this is also
5897      true for all smaller modes whether or not there is a SUBREG, but
5898      is not worth testing for with no SUBREG.  */
5899
5900   /* Note that GET_MODE (op0) may not equal MODE.  */
5901   if (code == EQ && GET_CODE (op0) == SUBREG
5902       && (GET_MODE_SIZE (GET_MODE (op0))
5903           > GET_MODE_SIZE (GET_MODE (SUBREG_REG (op0)))))
5904     {
5905       enum machine_mode inner_mode = GET_MODE (SUBREG_REG (op0));
5906       rtx tem = gen_lowpart_if_possible (inner_mode, op1);
5907
5908       record_jump_cond (code, mode, SUBREG_REG (op0),
5909                         tem ? tem : gen_rtx (SUBREG, inner_mode, op1, 0),
5910                         reversed_nonequality);
5911     }
5912
5913   if (code == EQ && GET_CODE (op1) == SUBREG
5914       && (GET_MODE_SIZE (GET_MODE (op1))
5915           > GET_MODE_SIZE (GET_MODE (SUBREG_REG (op1)))))
5916     {
5917       enum machine_mode inner_mode = GET_MODE (SUBREG_REG (op1));
5918       rtx tem = gen_lowpart_if_possible (inner_mode, op0);
5919
5920       record_jump_cond (code, mode, SUBREG_REG (op1),
5921                         tem ? tem : gen_rtx (SUBREG, inner_mode, op0, 0),
5922                         reversed_nonequality);
5923     }
5924
5925   /* Similarly, if this is an NE comparison, and either is a SUBREG 
5926      making a smaller mode, we know the whole thing is also NE.  */
5927
5928   /* Note that GET_MODE (op0) may not equal MODE;
5929      if we test MODE instead, we can get an infinite recursion
5930      alternating between two modes each wider than MODE.  */
5931
5932   if (code == NE && GET_CODE (op0) == SUBREG
5933       && subreg_lowpart_p (op0)
5934       && (GET_MODE_SIZE (GET_MODE (op0))
5935           < GET_MODE_SIZE (GET_MODE (SUBREG_REG (op0)))))
5936     {
5937       enum machine_mode inner_mode = GET_MODE (SUBREG_REG (op0));
5938       rtx tem = gen_lowpart_if_possible (inner_mode, op1);
5939
5940       record_jump_cond (code, mode, SUBREG_REG (op0),
5941                         tem ? tem : gen_rtx (SUBREG, inner_mode, op1, 0),
5942                         reversed_nonequality);
5943     }
5944
5945   if (code == NE && GET_CODE (op1) == SUBREG
5946       && subreg_lowpart_p (op1)
5947       && (GET_MODE_SIZE (GET_MODE (op1))
5948           < GET_MODE_SIZE (GET_MODE (SUBREG_REG (op1)))))
5949     {
5950       enum machine_mode inner_mode = GET_MODE (SUBREG_REG (op1));
5951       rtx tem = gen_lowpart_if_possible (inner_mode, op0);
5952
5953       record_jump_cond (code, mode, SUBREG_REG (op1),
5954                         tem ? tem : gen_rtx (SUBREG, inner_mode, op0, 0),
5955                         reversed_nonequality);
5956     }
5957
5958   /* Hash both operands.  */
5959
5960   do_not_record = 0;
5961   hash_arg_in_memory = 0;
5962   hash_arg_in_struct = 0;
5963   op0_hash = HASH (op0, mode);
5964   op0_in_memory = hash_arg_in_memory;
5965   op0_in_struct = hash_arg_in_struct;
5966
5967   if (do_not_record)
5968     return;
5969
5970   do_not_record = 0;
5971   hash_arg_in_memory = 0;
5972   hash_arg_in_struct = 0;
5973   op1_hash = HASH (op1, mode);
5974   op1_in_memory = hash_arg_in_memory;
5975   op1_in_struct = hash_arg_in_struct;
5976   
5977   if (do_not_record)
5978     return;
5979
5980   /* Look up both operands.  */
5981   op0_elt = lookup (op0, op0_hash, mode);
5982   op1_elt = lookup (op1, op1_hash, mode);
5983
5984   /* If both operands are already equivalent or if they are not in the
5985      table but are identical, do nothing.  */
5986   if ((op0_elt != 0 && op1_elt != 0
5987        && op0_elt->first_same_value == op1_elt->first_same_value)
5988       || op0 == op1 || rtx_equal_p (op0, op1))
5989     return;
5990
5991   /* If we aren't setting two things equal all we can do is save this
5992      comparison.   Similarly if this is floating-point.  In the latter
5993      case, OP1 might be zero and both -0.0 and 0.0 are equal to it.
5994      If we record the equality, we might inadvertently delete code
5995      whose intent was to change -0 to +0.  */
5996
5997   if (code != EQ || FLOAT_MODE_P (GET_MODE (op0)))
5998     {
5999       /* If we reversed a floating-point comparison, if OP0 is not a
6000          register, or if OP1 is neither a register or constant, we can't
6001          do anything.  */
6002
6003       if (GET_CODE (op1) != REG)
6004         op1 = equiv_constant (op1);
6005
6006       if ((reversed_nonequality && FLOAT_MODE_P (mode))
6007           || GET_CODE (op0) != REG || op1 == 0)
6008         return;
6009
6010       /* Put OP0 in the hash table if it isn't already.  This gives it a
6011          new quantity number.  */
6012       if (op0_elt == 0)
6013         {
6014           if (insert_regs (op0, NULL_PTR, 0))
6015             {
6016               rehash_using_reg (op0);
6017               op0_hash = HASH (op0, mode);
6018
6019               /* If OP0 is contained in OP1, this changes its hash code
6020                  as well.  Faster to rehash than to check, except
6021                  for the simple case of a constant.  */
6022               if (! CONSTANT_P (op1))
6023                 op1_hash = HASH (op1,mode);
6024             }
6025
6026           op0_elt = insert (op0, NULL_PTR, op0_hash, mode);
6027           op0_elt->in_memory = op0_in_memory;
6028           op0_elt->in_struct = op0_in_struct;
6029         }
6030
6031       qty_comparison_code[reg_qty[REGNO (op0)]] = code;
6032       if (GET_CODE (op1) == REG)
6033         {
6034           /* Look it up again--in case op0 and op1 are the same.  */
6035           op1_elt = lookup (op1, op1_hash, mode);
6036
6037           /* Put OP1 in the hash table so it gets a new quantity number.  */
6038           if (op1_elt == 0)
6039             {
6040               if (insert_regs (op1, NULL_PTR, 0))
6041                 {
6042                   rehash_using_reg (op1);
6043                   op1_hash = HASH (op1, mode);
6044                 }
6045
6046               op1_elt = insert (op1, NULL_PTR, op1_hash, mode);
6047               op1_elt->in_memory = op1_in_memory;
6048               op1_elt->in_struct = op1_in_struct;
6049             }
6050
6051           qty_comparison_qty[reg_qty[REGNO (op0)]] = reg_qty[REGNO (op1)];
6052           qty_comparison_const[reg_qty[REGNO (op0)]] = 0;
6053         }
6054       else
6055         {
6056           qty_comparison_qty[reg_qty[REGNO (op0)]] = -1;
6057           qty_comparison_const[reg_qty[REGNO (op0)]] = op1;
6058         }
6059
6060       return;
6061     }
6062
6063   /* If either side is still missing an equivalence, make it now,
6064      then merge the equivalences.  */
6065
6066   if (op0_elt == 0)
6067     {
6068       if (insert_regs (op0, NULL_PTR, 0))
6069         {
6070           rehash_using_reg (op0);
6071           op0_hash = HASH (op0, mode);
6072         }
6073
6074       op0_elt = insert (op0, NULL_PTR, op0_hash, mode);
6075       op0_elt->in_memory = op0_in_memory;
6076       op0_elt->in_struct = op0_in_struct;
6077     }
6078
6079   if (op1_elt == 0)
6080     {
6081       if (insert_regs (op1, NULL_PTR, 0))
6082         {
6083           rehash_using_reg (op1);
6084           op1_hash = HASH (op1, mode);
6085         }
6086
6087       op1_elt = insert (op1, NULL_PTR, op1_hash, mode);
6088       op1_elt->in_memory = op1_in_memory;
6089       op1_elt->in_struct = op1_in_struct;
6090     }
6091
6092   merge_equiv_classes (op0_elt, op1_elt);
6093   last_jump_equiv_class = op0_elt;
6094 }
6095 \f
6096 /* CSE processing for one instruction.
6097    First simplify sources and addresses of all assignments
6098    in the instruction, using previously-computed equivalents values.
6099    Then install the new sources and destinations in the table
6100    of available values. 
6101
6102    If IN_LIBCALL_BLOCK is nonzero, don't record any equivalence made in
6103    the insn.  */
6104
6105 /* Data on one SET contained in the instruction.  */
6106
6107 struct set
6108 {
6109   /* The SET rtx itself.  */
6110   rtx rtl;
6111   /* The SET_SRC of the rtx (the original value, if it is changing).  */
6112   rtx src;
6113   /* The hash-table element for the SET_SRC of the SET.  */
6114   struct table_elt *src_elt;
6115   /* Hash value for the SET_SRC.  */
6116   unsigned src_hash;
6117   /* Hash value for the SET_DEST.  */
6118   unsigned dest_hash;
6119   /* The SET_DEST, with SUBREG, etc., stripped.  */
6120   rtx inner_dest;
6121   /* Place where the pointer to the INNER_DEST was found.  */
6122   rtx *inner_dest_loc;
6123   /* Nonzero if the SET_SRC is in memory.  */ 
6124   char src_in_memory;
6125   /* Nonzero if the SET_SRC is in a structure.  */ 
6126   char src_in_struct;
6127   /* Nonzero if the SET_SRC contains something
6128      whose value cannot be predicted and understood.  */
6129   char src_volatile;
6130   /* Original machine mode, in case it becomes a CONST_INT.  */
6131   enum machine_mode mode;
6132   /* A constant equivalent for SET_SRC, if any.  */
6133   rtx src_const;
6134   /* Hash value of constant equivalent for SET_SRC.  */
6135   unsigned src_const_hash;
6136   /* Table entry for constant equivalent for SET_SRC, if any.  */
6137   struct table_elt *src_const_elt;
6138 };
6139
6140 static void
6141 cse_insn (insn, in_libcall_block)
6142      rtx insn;
6143      int in_libcall_block;
6144 {
6145   register rtx x = PATTERN (insn);
6146   register int i;
6147   rtx tem;
6148   register int n_sets = 0;
6149
6150   /* Records what this insn does to set CC0.  */
6151   rtx this_insn_cc0 = 0;
6152   enum machine_mode this_insn_cc0_mode;
6153   struct write_data writes_memory;
6154   static struct write_data init = {0, 0, 0, 0};
6155
6156   rtx src_eqv = 0;
6157   struct table_elt *src_eqv_elt = 0;
6158   int src_eqv_volatile;
6159   int src_eqv_in_memory;
6160   int src_eqv_in_struct;
6161   unsigned src_eqv_hash;
6162
6163   struct set *sets;
6164
6165   this_insn = insn;
6166   writes_memory = init;
6167
6168   /* Find all the SETs and CLOBBERs in this instruction.
6169      Record all the SETs in the array `set' and count them.
6170      Also determine whether there is a CLOBBER that invalidates
6171      all memory references, or all references at varying addresses.  */
6172
6173   if (GET_CODE (insn) == CALL_INSN)
6174     {
6175       for (tem = CALL_INSN_FUNCTION_USAGE (insn); tem; tem = XEXP (tem, 1))
6176         if (GET_CODE (XEXP (tem, 0)) == CLOBBER)
6177           invalidate (SET_DEST (XEXP (tem, 0)), VOIDmode);
6178     }
6179
6180   if (GET_CODE (x) == SET)
6181     {
6182       sets = (struct set *) alloca (sizeof (struct set));
6183       sets[0].rtl = x;
6184
6185       /* Ignore SETs that are unconditional jumps.
6186          They never need cse processing, so this does not hurt.
6187          The reason is not efficiency but rather
6188          so that we can test at the end for instructions
6189          that have been simplified to unconditional jumps
6190          and not be misled by unchanged instructions
6191          that were unconditional jumps to begin with.  */
6192       if (SET_DEST (x) == pc_rtx
6193           && GET_CODE (SET_SRC (x)) == LABEL_REF)
6194         ;
6195
6196       /* Don't count call-insns, (set (reg 0) (call ...)), as a set.
6197          The hard function value register is used only once, to copy to
6198          someplace else, so it isn't worth cse'ing (and on 80386 is unsafe)!
6199          Ensure we invalidate the destination register.  On the 80386 no
6200          other code would invalidate it since it is a fixed_reg.
6201          We need not check the return of apply_change_group; see canon_reg.  */
6202
6203       else if (GET_CODE (SET_SRC (x)) == CALL)
6204         {
6205           canon_reg (SET_SRC (x), insn);
6206           apply_change_group ();
6207           fold_rtx (SET_SRC (x), insn);
6208           invalidate (SET_DEST (x), VOIDmode);
6209         }
6210       else
6211         n_sets = 1;
6212     }
6213   else if (GET_CODE (x) == PARALLEL)
6214     {
6215       register int lim = XVECLEN (x, 0);
6216
6217       sets = (struct set *) alloca (lim * sizeof (struct set));
6218
6219       /* Find all regs explicitly clobbered in this insn,
6220          and ensure they are not replaced with any other regs
6221          elsewhere in this insn.
6222          When a reg that is clobbered is also used for input,
6223          we should presume that that is for a reason,
6224          and we should not substitute some other register
6225          which is not supposed to be clobbered.
6226          Therefore, this loop cannot be merged into the one below
6227          because a CALL may precede a CLOBBER and refer to the
6228          value clobbered.  We must not let a canonicalization do
6229          anything in that case.  */
6230       for (i = 0; i < lim; i++)
6231         {
6232           register rtx y = XVECEXP (x, 0, i);
6233           if (GET_CODE (y) == CLOBBER)
6234             {
6235               rtx clobbered = XEXP (y, 0);
6236
6237               if (GET_CODE (clobbered) == REG
6238                   || GET_CODE (clobbered) == SUBREG)
6239                 invalidate (clobbered, VOIDmode);
6240               else if (GET_CODE (clobbered) == STRICT_LOW_PART
6241                        || GET_CODE (clobbered) == ZERO_EXTRACT)
6242                 invalidate (XEXP (clobbered, 0), GET_MODE (clobbered));
6243             }
6244         }
6245             
6246       for (i = 0; i < lim; i++)
6247         {
6248           register rtx y = XVECEXP (x, 0, i);
6249           if (GET_CODE (y) == SET)
6250             {
6251               /* As above, we ignore unconditional jumps and call-insns and
6252                  ignore the result of apply_change_group.  */
6253               if (GET_CODE (SET_SRC (y)) == CALL)
6254                 {
6255                   canon_reg (SET_SRC (y), insn);
6256                   apply_change_group ();
6257                   fold_rtx (SET_SRC (y), insn);
6258                   invalidate (SET_DEST (y), VOIDmode);
6259                 }
6260               else if (SET_DEST (y) == pc_rtx
6261                        && GET_CODE (SET_SRC (y)) == LABEL_REF)
6262                 ;
6263               else
6264                 sets[n_sets++].rtl = y;
6265             }
6266           else if (GET_CODE (y) == CLOBBER)
6267             {
6268               /* If we clobber memory, take note of that,
6269                  and canon the address.
6270                  This does nothing when a register is clobbered
6271                  because we have already invalidated the reg.  */
6272               if (GET_CODE (XEXP (y, 0)) == MEM)
6273                 {
6274                   canon_reg (XEXP (y, 0), NULL_RTX);
6275                   note_mem_written (XEXP (y, 0), &writes_memory);
6276                 }
6277             }
6278           else if (GET_CODE (y) == USE
6279                    && ! (GET_CODE (XEXP (y, 0)) == REG
6280                          && REGNO (XEXP (y, 0)) < FIRST_PSEUDO_REGISTER))
6281             canon_reg (y, NULL_RTX);
6282           else if (GET_CODE (y) == CALL)
6283             {
6284               /* The result of apply_change_group can be ignored; see
6285                  canon_reg.  */
6286               canon_reg (y, insn);
6287               apply_change_group ();
6288               fold_rtx (y, insn);
6289             }
6290         }
6291     }
6292   else if (GET_CODE (x) == CLOBBER)
6293     {
6294       if (GET_CODE (XEXP (x, 0)) == MEM)
6295         {
6296           canon_reg (XEXP (x, 0), NULL_RTX);
6297           note_mem_written (XEXP (x, 0), &writes_memory);
6298         }
6299     }
6300
6301   /* Canonicalize a USE of a pseudo register or memory location.  */
6302   else if (GET_CODE (x) == USE
6303            && ! (GET_CODE (XEXP (x, 0)) == REG
6304                  && REGNO (XEXP (x, 0)) < FIRST_PSEUDO_REGISTER))
6305     canon_reg (XEXP (x, 0), NULL_RTX);
6306   else if (GET_CODE (x) == CALL)
6307     {
6308       /* The result of apply_change_group can be ignored; see canon_reg.  */
6309       canon_reg (x, insn);
6310       apply_change_group ();
6311       fold_rtx (x, insn);
6312     }
6313
6314   /* Store the equivalent value in SRC_EQV, if different, or if the DEST
6315      is a STRICT_LOW_PART.  The latter condition is necessary because SRC_EQV
6316      is handled specially for this case, and if it isn't set, then there will
6317      be no equivalence for the destination.  */
6318   if (n_sets == 1 && REG_NOTES (insn) != 0
6319       && (tem = find_reg_note (insn, REG_EQUAL, NULL_RTX)) != 0
6320       && (! rtx_equal_p (XEXP (tem, 0), SET_SRC (sets[0].rtl))
6321           || GET_CODE (SET_DEST (sets[0].rtl)) == STRICT_LOW_PART))
6322     src_eqv = canon_reg (XEXP (tem, 0), NULL_RTX);
6323
6324   /* Canonicalize sources and addresses of destinations.
6325      We do this in a separate pass to avoid problems when a MATCH_DUP is
6326      present in the insn pattern.  In that case, we want to ensure that
6327      we don't break the duplicate nature of the pattern.  So we will replace
6328      both operands at the same time.  Otherwise, we would fail to find an
6329      equivalent substitution in the loop calling validate_change below.
6330
6331      We used to suppress canonicalization of DEST if it appears in SRC,
6332      but we don't do this any more.  */
6333
6334   for (i = 0; i < n_sets; i++)
6335     {
6336       rtx dest = SET_DEST (sets[i].rtl);
6337       rtx src = SET_SRC (sets[i].rtl);
6338       rtx new = canon_reg (src, insn);
6339       int insn_code;
6340
6341       if ((GET_CODE (new) == REG && GET_CODE (src) == REG
6342            && ((REGNO (new) < FIRST_PSEUDO_REGISTER)
6343                != (REGNO (src) < FIRST_PSEUDO_REGISTER)))
6344           || (insn_code = recog_memoized (insn)) < 0
6345           || insn_n_dups[insn_code] > 0)
6346         validate_change (insn, &SET_SRC (sets[i].rtl), new, 1);
6347       else
6348         SET_SRC (sets[i].rtl) = new;
6349
6350       if (GET_CODE (dest) == ZERO_EXTRACT || GET_CODE (dest) == SIGN_EXTRACT)
6351         {
6352           validate_change (insn, &XEXP (dest, 1),
6353                            canon_reg (XEXP (dest, 1), insn), 1);
6354           validate_change (insn, &XEXP (dest, 2),
6355                            canon_reg (XEXP (dest, 2), insn), 1);
6356         }
6357
6358       while (GET_CODE (dest) == SUBREG || GET_CODE (dest) == STRICT_LOW_PART
6359              || GET_CODE (dest) == ZERO_EXTRACT
6360              || GET_CODE (dest) == SIGN_EXTRACT)
6361         dest = XEXP (dest, 0);
6362
6363       if (GET_CODE (dest) == MEM)
6364         canon_reg (dest, insn);
6365     }
6366
6367   /* Now that we have done all the replacements, we can apply the change
6368      group and see if they all work.  Note that this will cause some
6369      canonicalizations that would have worked individually not to be applied
6370      because some other canonicalization didn't work, but this should not
6371      occur often. 
6372
6373      The result of apply_change_group can be ignored; see canon_reg.  */
6374
6375   apply_change_group ();
6376
6377   /* Set sets[i].src_elt to the class each source belongs to.
6378      Detect assignments from or to volatile things
6379      and set set[i] to zero so they will be ignored
6380      in the rest of this function.
6381
6382      Nothing in this loop changes the hash table or the register chains.  */
6383
6384   for (i = 0; i < n_sets; i++)
6385     {
6386       register rtx src, dest;
6387       register rtx src_folded;
6388       register struct table_elt *elt = 0, *p;
6389       enum machine_mode mode;
6390       rtx src_eqv_here;
6391       rtx src_const = 0;
6392       rtx src_related = 0;
6393       struct table_elt *src_const_elt = 0;
6394       int src_cost = 10000, src_eqv_cost = 10000, src_folded_cost = 10000;
6395       int src_related_cost = 10000, src_elt_cost = 10000;
6396       /* Set non-zero if we need to call force_const_mem on with the
6397          contents of src_folded before using it.  */
6398       int src_folded_force_flag = 0;
6399
6400       dest = SET_DEST (sets[i].rtl);
6401       src = SET_SRC (sets[i].rtl);
6402
6403       /* If SRC is a constant that has no machine mode,
6404          hash it with the destination's machine mode.
6405          This way we can keep different modes separate.  */
6406
6407       mode = GET_MODE (src) == VOIDmode ? GET_MODE (dest) : GET_MODE (src);
6408       sets[i].mode = mode;
6409
6410       if (src_eqv)
6411         {
6412           enum machine_mode eqvmode = mode;
6413           if (GET_CODE (dest) == STRICT_LOW_PART)
6414             eqvmode = GET_MODE (SUBREG_REG (XEXP (dest, 0)));
6415           do_not_record = 0;
6416           hash_arg_in_memory = 0;
6417           hash_arg_in_struct = 0;
6418           src_eqv = fold_rtx (src_eqv, insn);
6419           src_eqv_hash = HASH (src_eqv, eqvmode);
6420
6421           /* Find the equivalence class for the equivalent expression.  */
6422
6423           if (!do_not_record)
6424             src_eqv_elt = lookup (src_eqv, src_eqv_hash, eqvmode);
6425
6426           src_eqv_volatile = do_not_record;
6427           src_eqv_in_memory = hash_arg_in_memory;
6428           src_eqv_in_struct = hash_arg_in_struct;
6429         }
6430
6431       /* If this is a STRICT_LOW_PART assignment, src_eqv corresponds to the
6432          value of the INNER register, not the destination.  So it is not
6433          a valid substitution for the source.  But save it for later.  */
6434       if (GET_CODE (dest) == STRICT_LOW_PART)
6435         src_eqv_here = 0;
6436       else
6437         src_eqv_here = src_eqv;
6438
6439       /* Simplify and foldable subexpressions in SRC.  Then get the fully-
6440          simplified result, which may not necessarily be valid.  */
6441       src_folded = fold_rtx (src, insn);
6442
6443 #if 0
6444       /* ??? This caused bad code to be generated for the m68k port with -O2.
6445          Suppose src is (CONST_INT -1), and that after truncation src_folded
6446          is (CONST_INT 3).  Suppose src_folded is then used for src_const.
6447          At the end we will add src and src_const to the same equivalence
6448          class.  We now have 3 and -1 on the same equivalence class.  This
6449          causes later instructions to be mis-optimized.  */
6450       /* If storing a constant in a bitfield, pre-truncate the constant
6451          so we will be able to record it later.  */
6452       if (GET_CODE (SET_DEST (sets[i].rtl)) == ZERO_EXTRACT
6453           || GET_CODE (SET_DEST (sets[i].rtl)) == SIGN_EXTRACT)
6454         {
6455           rtx width = XEXP (SET_DEST (sets[i].rtl), 1);
6456
6457           if (GET_CODE (src) == CONST_INT
6458               && GET_CODE (width) == CONST_INT
6459               && INTVAL (width) < HOST_BITS_PER_WIDE_INT
6460               && (INTVAL (src) & ((HOST_WIDE_INT) (-1) << INTVAL (width))))
6461             src_folded
6462               = GEN_INT (INTVAL (src) & (((HOST_WIDE_INT) 1
6463                                           << INTVAL (width)) - 1));
6464         }
6465 #endif
6466
6467       /* Compute SRC's hash code, and also notice if it
6468          should not be recorded at all.  In that case,
6469          prevent any further processing of this assignment.  */
6470       do_not_record = 0;
6471       hash_arg_in_memory = 0;
6472       hash_arg_in_struct = 0;
6473
6474       sets[i].src = src;
6475       sets[i].src_hash = HASH (src, mode);
6476       sets[i].src_volatile = do_not_record;
6477       sets[i].src_in_memory = hash_arg_in_memory;
6478       sets[i].src_in_struct = hash_arg_in_struct;
6479
6480 #if 0
6481       /* It is no longer clear why we used to do this, but it doesn't
6482          appear to still be needed.  So let's try without it since this
6483          code hurts cse'ing widened ops.  */
6484       /* If source is a perverse subreg (such as QI treated as an SI),
6485          treat it as volatile.  It may do the work of an SI in one context
6486          where the extra bits are not being used, but cannot replace an SI
6487          in general.  */
6488       if (GET_CODE (src) == SUBREG
6489           && (GET_MODE_SIZE (GET_MODE (src))
6490               > GET_MODE_SIZE (GET_MODE (SUBREG_REG (src)))))
6491         sets[i].src_volatile = 1;
6492 #endif
6493
6494       /* Locate all possible equivalent forms for SRC.  Try to replace
6495          SRC in the insn with each cheaper equivalent.
6496
6497          We have the following types of equivalents: SRC itself, a folded
6498          version, a value given in a REG_EQUAL note, or a value related
6499          to a constant.
6500
6501          Each of these equivalents may be part of an additional class
6502          of equivalents (if more than one is in the table, they must be in
6503          the same class; we check for this).
6504
6505          If the source is volatile, we don't do any table lookups.
6506
6507          We note any constant equivalent for possible later use in a
6508          REG_NOTE.  */
6509
6510       if (!sets[i].src_volatile)
6511         elt = lookup (src, sets[i].src_hash, mode);
6512
6513       sets[i].src_elt = elt;
6514
6515       if (elt && src_eqv_here && src_eqv_elt)
6516         {
6517           if (elt->first_same_value != src_eqv_elt->first_same_value)
6518             {
6519               /* The REG_EQUAL is indicating that two formerly distinct
6520                  classes are now equivalent.  So merge them.  */
6521               merge_equiv_classes (elt, src_eqv_elt);
6522               src_eqv_hash = HASH (src_eqv, elt->mode);
6523               src_eqv_elt = lookup (src_eqv, src_eqv_hash, elt->mode);
6524             }
6525
6526           src_eqv_here = 0;
6527         }
6528
6529       else if (src_eqv_elt)
6530         elt = src_eqv_elt;
6531
6532       /* Try to find a constant somewhere and record it in `src_const'.
6533          Record its table element, if any, in `src_const_elt'.  Look in
6534          any known equivalences first.  (If the constant is not in the
6535          table, also set `sets[i].src_const_hash').  */
6536       if (elt)
6537         for (p = elt->first_same_value; p; p = p->next_same_value)
6538           if (p->is_const)
6539             {
6540               src_const = p->exp;
6541               src_const_elt = elt;
6542               break;
6543             }
6544
6545       if (src_const == 0
6546           && (CONSTANT_P (src_folded)
6547               /* Consider (minus (label_ref L1) (label_ref L2)) as 
6548                  "constant" here so we will record it. This allows us
6549                  to fold switch statements when an ADDR_DIFF_VEC is used.  */
6550               || (GET_CODE (src_folded) == MINUS
6551                   && GET_CODE (XEXP (src_folded, 0)) == LABEL_REF
6552                   && GET_CODE (XEXP (src_folded, 1)) == LABEL_REF)))
6553         src_const = src_folded, src_const_elt = elt;
6554       else if (src_const == 0 && src_eqv_here && CONSTANT_P (src_eqv_here))
6555         src_const = src_eqv_here, src_const_elt = src_eqv_elt;
6556
6557       /* If we don't know if the constant is in the table, get its
6558          hash code and look it up.  */
6559       if (src_const && src_const_elt == 0)
6560         {
6561           sets[i].src_const_hash = HASH (src_const, mode);
6562           src_const_elt = lookup (src_const, sets[i].src_const_hash, mode);
6563         }
6564
6565       sets[i].src_const = src_const;
6566       sets[i].src_const_elt = src_const_elt;
6567
6568       /* If the constant and our source are both in the table, mark them as
6569          equivalent.  Otherwise, if a constant is in the table but the source
6570          isn't, set ELT to it.  */
6571       if (src_const_elt && elt
6572           && src_const_elt->first_same_value != elt->first_same_value)
6573         merge_equiv_classes (elt, src_const_elt);
6574       else if (src_const_elt && elt == 0)
6575         elt = src_const_elt;
6576
6577       /* See if there is a register linearly related to a constant
6578          equivalent of SRC.  */
6579       if (src_const
6580           && (GET_CODE (src_const) == CONST
6581               || (src_const_elt && src_const_elt->related_value != 0)))
6582         {
6583           src_related = use_related_value (src_const, src_const_elt);
6584           if (src_related)
6585             {
6586               struct table_elt *src_related_elt
6587                     = lookup (src_related, HASH (src_related, mode), mode);
6588               if (src_related_elt && elt)
6589                 {
6590                   if (elt->first_same_value
6591                       != src_related_elt->first_same_value)
6592                     /* This can occur when we previously saw a CONST 
6593                        involving a SYMBOL_REF and then see the SYMBOL_REF
6594                        twice.  Merge the involved classes.  */
6595                     merge_equiv_classes (elt, src_related_elt);
6596
6597                   src_related = 0;
6598                   src_related_elt = 0;
6599                 }
6600               else if (src_related_elt && elt == 0)
6601                 elt = src_related_elt;
6602             }
6603         }
6604
6605       /* See if we have a CONST_INT that is already in a register in a
6606          wider mode.  */
6607
6608       if (src_const && src_related == 0 && GET_CODE (src_const) == CONST_INT
6609           && GET_MODE_CLASS (mode) == MODE_INT
6610           && GET_MODE_BITSIZE (mode) < BITS_PER_WORD)
6611         {
6612           enum machine_mode wider_mode;
6613
6614           for (wider_mode = GET_MODE_WIDER_MODE (mode);
6615                GET_MODE_BITSIZE (wider_mode) <= BITS_PER_WORD
6616                && src_related == 0;
6617                wider_mode = GET_MODE_WIDER_MODE (wider_mode))
6618             {
6619               struct table_elt *const_elt
6620                 = lookup (src_const, HASH (src_const, wider_mode), wider_mode);
6621
6622               if (const_elt == 0)
6623                 continue;
6624
6625               for (const_elt = const_elt->first_same_value;
6626                    const_elt; const_elt = const_elt->next_same_value)
6627                 if (GET_CODE (const_elt->exp) == REG)
6628                   {
6629                     src_related = gen_lowpart_if_possible (mode,
6630                                                            const_elt->exp);
6631                     break;
6632                   }
6633             }
6634         }
6635
6636       /* Another possibility is that we have an AND with a constant in
6637          a mode narrower than a word.  If so, it might have been generated
6638          as part of an "if" which would narrow the AND.  If we already
6639          have done the AND in a wider mode, we can use a SUBREG of that
6640          value.  */
6641
6642       if (flag_expensive_optimizations && ! src_related
6643           && GET_CODE (src) == AND && GET_CODE (XEXP (src, 1)) == CONST_INT
6644           && GET_MODE_SIZE (mode) < UNITS_PER_WORD)
6645         {
6646           enum machine_mode tmode;
6647           rtx new_and = gen_rtx (AND, VOIDmode, NULL_RTX, XEXP (src, 1));
6648
6649           for (tmode = GET_MODE_WIDER_MODE (mode);
6650                GET_MODE_SIZE (tmode) <= UNITS_PER_WORD;
6651                tmode = GET_MODE_WIDER_MODE (tmode))
6652             {
6653               rtx inner = gen_lowpart_if_possible (tmode, XEXP (src, 0));
6654               struct table_elt *larger_elt;
6655
6656               if (inner)
6657                 {
6658                   PUT_MODE (new_and, tmode);
6659                   XEXP (new_and, 0) = inner;
6660                   larger_elt = lookup (new_and, HASH (new_and, tmode), tmode);
6661                   if (larger_elt == 0)
6662                     continue;
6663
6664                   for (larger_elt = larger_elt->first_same_value;
6665                        larger_elt; larger_elt = larger_elt->next_same_value)
6666                     if (GET_CODE (larger_elt->exp) == REG)
6667                       {
6668                         src_related
6669                           = gen_lowpart_if_possible (mode, larger_elt->exp);
6670                         break;
6671                       }
6672
6673                   if (src_related)
6674                     break;
6675                 }
6676             }
6677         }
6678
6679 #ifdef LOAD_EXTEND_OP
6680       /* See if a MEM has already been loaded with a widening operation;
6681          if it has, we can use a subreg of that.  Many CISC machines
6682          also have such operations, but this is only likely to be
6683          beneficial these machines.  */
6684       
6685       if (flag_expensive_optimizations &&  src_related == 0
6686           && (GET_MODE_SIZE (mode) < UNITS_PER_WORD)
6687           && GET_MODE_CLASS (mode) == MODE_INT
6688           && GET_CODE (src) == MEM && ! do_not_record
6689           && LOAD_EXTEND_OP (mode) != NIL)
6690         {
6691           enum machine_mode tmode;
6692           
6693           /* Set what we are trying to extend and the operation it might
6694              have been extended with.  */
6695           PUT_CODE (memory_extend_rtx, LOAD_EXTEND_OP (mode));
6696           XEXP (memory_extend_rtx, 0) = src;
6697           
6698           for (tmode = GET_MODE_WIDER_MODE (mode);
6699                GET_MODE_SIZE (tmode) <= UNITS_PER_WORD;
6700                tmode = GET_MODE_WIDER_MODE (tmode))
6701             {
6702               struct table_elt *larger_elt;
6703               
6704               PUT_MODE (memory_extend_rtx, tmode);
6705               larger_elt = lookup (memory_extend_rtx, 
6706                                    HASH (memory_extend_rtx, tmode), tmode);
6707               if (larger_elt == 0)
6708                 continue;
6709               
6710               for (larger_elt = larger_elt->first_same_value;
6711                    larger_elt; larger_elt = larger_elt->next_same_value)
6712                 if (GET_CODE (larger_elt->exp) == REG)
6713                   {
6714                     src_related = gen_lowpart_if_possible (mode, 
6715                                                            larger_elt->exp);
6716                     break;
6717                   }
6718               
6719               if (src_related)
6720                 break;
6721             }
6722         }
6723 #endif /* LOAD_EXTEND_OP */
6724  
6725       if (src == src_folded)
6726         src_folded = 0;
6727
6728       /* At this point, ELT, if non-zero, points to a class of expressions
6729          equivalent to the source of this SET and SRC, SRC_EQV, SRC_FOLDED,
6730          and SRC_RELATED, if non-zero, each contain additional equivalent
6731          expressions.  Prune these latter expressions by deleting expressions
6732          already in the equivalence class.
6733
6734          Check for an equivalent identical to the destination.  If found,
6735          this is the preferred equivalent since it will likely lead to
6736          elimination of the insn.  Indicate this by placing it in
6737          `src_related'.  */
6738
6739       if (elt) elt = elt->first_same_value;
6740       for (p = elt; p; p = p->next_same_value)
6741         {
6742           enum rtx_code code = GET_CODE (p->exp);
6743
6744           /* If the expression is not valid, ignore it.  Then we do not
6745              have to check for validity below.  In most cases, we can use
6746              `rtx_equal_p', since canonicalization has already been done.  */
6747           if (code != REG && ! exp_equiv_p (p->exp, p->exp, 1, 0))
6748             continue;
6749
6750           if (src && GET_CODE (src) == code && rtx_equal_p (src, p->exp))
6751             src = 0;
6752           else if (src_folded && GET_CODE (src_folded) == code
6753                    && rtx_equal_p (src_folded, p->exp))
6754             src_folded = 0;
6755           else if (src_eqv_here && GET_CODE (src_eqv_here) == code
6756                    && rtx_equal_p (src_eqv_here, p->exp))
6757             src_eqv_here = 0;
6758           else if (src_related && GET_CODE (src_related) == code
6759                    && rtx_equal_p (src_related, p->exp))
6760             src_related = 0;
6761
6762           /* This is the same as the destination of the insns, we want
6763              to prefer it.  Copy it to src_related.  The code below will
6764              then give it a negative cost.  */
6765           if (GET_CODE (dest) == code && rtx_equal_p (p->exp, dest))
6766             src_related = dest;
6767
6768         }
6769
6770       /* Find the cheapest valid equivalent, trying all the available
6771          possibilities.  Prefer items not in the hash table to ones
6772          that are when they are equal cost.  Note that we can never
6773          worsen an insn as the current contents will also succeed.
6774          If we find an equivalent identical to the destination, use it as best,
6775          since this insn will probably be eliminated in that case.  */
6776       if (src)
6777         {
6778           if (rtx_equal_p (src, dest))
6779             src_cost = -1;
6780           else
6781             src_cost = COST (src);
6782         }
6783
6784       if (src_eqv_here)
6785         {
6786           if (rtx_equal_p (src_eqv_here, dest))
6787             src_eqv_cost = -1;
6788           else
6789             src_eqv_cost = COST (src_eqv_here);
6790         }
6791
6792       if (src_folded)
6793         {
6794           if (rtx_equal_p (src_folded, dest))
6795             src_folded_cost = -1;
6796           else
6797             src_folded_cost = COST (src_folded);
6798         }
6799
6800       if (src_related)
6801         {
6802           if (rtx_equal_p (src_related, dest))
6803             src_related_cost = -1;
6804           else
6805             src_related_cost = COST (src_related);
6806         }
6807
6808       /* If this was an indirect jump insn, a known label will really be
6809          cheaper even though it looks more expensive.  */
6810       if (dest == pc_rtx && src_const && GET_CODE (src_const) == LABEL_REF)
6811         src_folded = src_const, src_folded_cost = -1;
6812           
6813       /* Terminate loop when replacement made.  This must terminate since
6814          the current contents will be tested and will always be valid.  */
6815       while (1)
6816         {
6817           rtx trial;
6818
6819           /* Skip invalid entries.  */
6820           while (elt && GET_CODE (elt->exp) != REG
6821                  && ! exp_equiv_p (elt->exp, elt->exp, 1, 0))
6822             elt = elt->next_same_value;      
6823               
6824           if (elt) src_elt_cost = elt->cost;
6825
6826           /* Find cheapest and skip it for the next time.   For items
6827              of equal cost, use this order:
6828              src_folded, src, src_eqv, src_related and hash table entry.  */
6829           if (src_folded_cost <= src_cost
6830               && src_folded_cost <= src_eqv_cost
6831               && src_folded_cost <= src_related_cost
6832               && src_folded_cost <= src_elt_cost)
6833             {
6834               trial = src_folded, src_folded_cost = 10000;
6835               if (src_folded_force_flag)
6836                 trial = force_const_mem (mode, trial);
6837             }
6838           else if (src_cost <= src_eqv_cost
6839                    && src_cost <= src_related_cost
6840                    && src_cost <= src_elt_cost)
6841             trial = src, src_cost = 10000;
6842           else if (src_eqv_cost <= src_related_cost
6843                    && src_eqv_cost <= src_elt_cost)
6844             trial = copy_rtx (src_eqv_here), src_eqv_cost = 10000;
6845           else if (src_related_cost <= src_elt_cost)
6846             trial = copy_rtx (src_related), src_related_cost = 10000;
6847           else
6848             {
6849               trial = copy_rtx (elt->exp);
6850               elt = elt->next_same_value;
6851               src_elt_cost = 10000;
6852             }
6853
6854           /* We don't normally have an insn matching (set (pc) (pc)), so
6855              check for this separately here.  We will delete such an
6856              insn below.
6857
6858              Tablejump insns contain a USE of the table, so simply replacing
6859              the operand with the constant won't match.  This is simply an
6860              unconditional branch, however, and is therefore valid.  Just
6861              insert the substitution here and we will delete and re-emit
6862              the insn later.  */
6863
6864           if (n_sets == 1 && dest == pc_rtx
6865               && (trial == pc_rtx
6866                   || (GET_CODE (trial) == LABEL_REF
6867                       && ! condjump_p (insn))))
6868             {
6869               /* If TRIAL is a label in front of a jump table, we are
6870                  really falling through the switch (this is how casesi
6871                  insns work), so we must branch around the table.  */
6872               if (GET_CODE (trial) == CODE_LABEL
6873                   && NEXT_INSN (trial) != 0
6874                   && GET_CODE (NEXT_INSN (trial)) == JUMP_INSN
6875                   && (GET_CODE (PATTERN (NEXT_INSN (trial))) == ADDR_DIFF_VEC
6876                       || GET_CODE (PATTERN (NEXT_INSN (trial))) == ADDR_VEC))
6877
6878                 trial = gen_rtx (LABEL_REF, Pmode, get_label_after (trial));
6879
6880               SET_SRC (sets[i].rtl) = trial;
6881               cse_jumps_altered = 1;
6882               break;
6883             }
6884            
6885           /* Look for a substitution that makes a valid insn.  */
6886           else if (validate_change (insn, &SET_SRC (sets[i].rtl), trial, 0))
6887             {
6888               /* The result of apply_change_group can be ignored; see
6889                  canon_reg.  */
6890
6891               validate_change (insn, &SET_SRC (sets[i].rtl),
6892                                canon_reg (SET_SRC (sets[i].rtl), insn),
6893                                1);
6894               apply_change_group ();
6895               break;
6896             }
6897
6898           /* If we previously found constant pool entries for 
6899              constants and this is a constant, try making a
6900              pool entry.  Put it in src_folded unless we already have done
6901              this since that is where it likely came from.  */
6902
6903           else if (constant_pool_entries_cost
6904                    && CONSTANT_P (trial)
6905                    && ! (GET_CODE (trial) == CONST
6906                          && GET_CODE (XEXP (trial, 0)) == TRUNCATE)
6907                    && (src_folded == 0
6908                        || (GET_CODE (src_folded) != MEM
6909                            && ! src_folded_force_flag))
6910                    && GET_MODE_CLASS (mode) != MODE_CC)
6911             {
6912               src_folded_force_flag = 1;
6913               src_folded = trial;
6914               src_folded_cost = constant_pool_entries_cost;
6915             }
6916         }
6917
6918       src = SET_SRC (sets[i].rtl);
6919
6920       /* In general, it is good to have a SET with SET_SRC == SET_DEST.
6921          However, there is an important exception:  If both are registers
6922          that are not the head of their equivalence class, replace SET_SRC
6923          with the head of the class.  If we do not do this, we will have
6924          both registers live over a portion of the basic block.  This way,
6925          their lifetimes will likely abut instead of overlapping.  */
6926       if (GET_CODE (dest) == REG
6927           && REGNO_QTY_VALID_P (REGNO (dest))
6928           && qty_mode[reg_qty[REGNO (dest)]] == GET_MODE (dest)
6929           && qty_first_reg[reg_qty[REGNO (dest)]] != REGNO (dest)
6930           && GET_CODE (src) == REG && REGNO (src) == REGNO (dest)
6931           /* Don't do this if the original insn had a hard reg as
6932              SET_SRC.  */
6933           && (GET_CODE (sets[i].src) != REG
6934               || REGNO (sets[i].src) >= FIRST_PSEUDO_REGISTER))
6935         /* We can't call canon_reg here because it won't do anything if
6936            SRC is a hard register.  */
6937         {
6938           int first = qty_first_reg[reg_qty[REGNO (src)]];
6939
6940           src = SET_SRC (sets[i].rtl)
6941             = first >= FIRST_PSEUDO_REGISTER ? regno_reg_rtx[first]
6942               : gen_rtx (REG, GET_MODE (src), first);
6943
6944           /* If we had a constant that is cheaper than what we are now
6945              setting SRC to, use that constant.  We ignored it when we
6946              thought we could make this into a no-op.  */
6947           if (src_const && COST (src_const) < COST (src)
6948               && validate_change (insn, &SET_SRC (sets[i].rtl), src_const, 0))
6949             src = src_const;
6950         }
6951
6952       /* If we made a change, recompute SRC values.  */
6953       if (src != sets[i].src)
6954         {
6955           do_not_record = 0;
6956           hash_arg_in_memory = 0;
6957           hash_arg_in_struct = 0;
6958           sets[i].src = src;
6959           sets[i].src_hash = HASH (src, mode);
6960           sets[i].src_volatile = do_not_record;
6961           sets[i].src_in_memory = hash_arg_in_memory;
6962           sets[i].src_in_struct = hash_arg_in_struct;
6963           sets[i].src_elt = lookup (src, sets[i].src_hash, mode);
6964         }
6965
6966       /* If this is a single SET, we are setting a register, and we have an
6967          equivalent constant, we want to add a REG_NOTE.   We don't want
6968          to write a REG_EQUAL note for a constant pseudo since verifying that
6969          that pseudo hasn't been eliminated is a pain.  Such a note also
6970          won't help anything.  */
6971       if (n_sets == 1 && src_const && GET_CODE (dest) == REG
6972           && GET_CODE (src_const) != REG)
6973         {
6974           tem = find_reg_note (insn, REG_EQUAL, NULL_RTX);
6975           
6976           /* Record the actual constant value in a REG_EQUAL note, making
6977              a new one if one does not already exist.  */
6978           if (tem)
6979             XEXP (tem, 0) = src_const;
6980           else
6981             REG_NOTES (insn) = gen_rtx (EXPR_LIST, REG_EQUAL,
6982                                         src_const, REG_NOTES (insn));
6983
6984           /* If storing a constant value in a register that
6985              previously held the constant value 0,
6986              record this fact with a REG_WAS_0 note on this insn.
6987
6988              Note that the *register* is required to have previously held 0,
6989              not just any register in the quantity and we must point to the
6990              insn that set that register to zero.
6991
6992              Rather than track each register individually, we just see if
6993              the last set for this quantity was for this register.  */
6994
6995           if (REGNO_QTY_VALID_P (REGNO (dest))
6996               && qty_const[reg_qty[REGNO (dest)]] == const0_rtx)
6997             {
6998               /* See if we previously had a REG_WAS_0 note.  */
6999               rtx note = find_reg_note (insn, REG_WAS_0, NULL_RTX);
7000               rtx const_insn = qty_const_insn[reg_qty[REGNO (dest)]];
7001
7002               if ((tem = single_set (const_insn)) != 0
7003                   && rtx_equal_p (SET_DEST (tem), dest))
7004                 {
7005                   if (note)
7006                     XEXP (note, 0) = const_insn;
7007                   else
7008                     REG_NOTES (insn) = gen_rtx (INSN_LIST, REG_WAS_0,
7009                                                 const_insn, REG_NOTES (insn));
7010                 }
7011             }
7012         }
7013
7014       /* Now deal with the destination.  */
7015       do_not_record = 0;
7016       sets[i].inner_dest_loc = &SET_DEST (sets[0].rtl);
7017
7018       /* Look within any SIGN_EXTRACT or ZERO_EXTRACT
7019          to the MEM or REG within it.  */
7020       while (GET_CODE (dest) == SIGN_EXTRACT
7021              || GET_CODE (dest) == ZERO_EXTRACT
7022              || GET_CODE (dest) == SUBREG
7023              || GET_CODE (dest) == STRICT_LOW_PART)
7024         {
7025           sets[i].inner_dest_loc = &XEXP (dest, 0);
7026           dest = XEXP (dest, 0);
7027         }
7028
7029       sets[i].inner_dest = dest;
7030
7031       if (GET_CODE (dest) == MEM)
7032         {
7033           dest = fold_rtx (dest, insn);
7034
7035           /* Decide whether we invalidate everything in memory,
7036              or just things at non-fixed places.
7037              Writing a large aggregate must invalidate everything
7038              because we don't know how long it is.  */
7039           note_mem_written (dest, &writes_memory);
7040         }
7041
7042       /* Compute the hash code of the destination now,
7043          before the effects of this instruction are recorded,
7044          since the register values used in the address computation
7045          are those before this instruction.  */
7046       sets[i].dest_hash = HASH (dest, mode);
7047
7048       /* Don't enter a bit-field in the hash table
7049          because the value in it after the store
7050          may not equal what was stored, due to truncation.  */
7051
7052       if (GET_CODE (SET_DEST (sets[i].rtl)) == ZERO_EXTRACT
7053           || GET_CODE (SET_DEST (sets[i].rtl)) == SIGN_EXTRACT)
7054         {
7055           rtx width = XEXP (SET_DEST (sets[i].rtl), 1);
7056
7057           if (src_const != 0 && GET_CODE (src_const) == CONST_INT
7058               && GET_CODE (width) == CONST_INT
7059               && INTVAL (width) < HOST_BITS_PER_WIDE_INT
7060               && ! (INTVAL (src_const)
7061                     & ((HOST_WIDE_INT) (-1) << INTVAL (width))))
7062             /* Exception: if the value is constant,
7063                and it won't be truncated, record it.  */
7064             ;
7065           else
7066             {
7067               /* This is chosen so that the destination will be invalidated
7068                  but no new value will be recorded.
7069                  We must invalidate because sometimes constant
7070                  values can be recorded for bitfields.  */
7071               sets[i].src_elt = 0;
7072               sets[i].src_volatile = 1;
7073               src_eqv = 0;
7074               src_eqv_elt = 0;
7075             }
7076         }
7077
7078       /* If only one set in a JUMP_INSN and it is now a no-op, we can delete
7079          the insn.  */
7080       else if (n_sets == 1 && dest == pc_rtx && src == pc_rtx)
7081         {
7082           PUT_CODE (insn, NOTE);
7083           NOTE_LINE_NUMBER (insn) = NOTE_INSN_DELETED;
7084           NOTE_SOURCE_FILE (insn) = 0;
7085           cse_jumps_altered = 1;
7086           /* One less use of the label this insn used to jump to.  */
7087           --LABEL_NUSES (JUMP_LABEL (insn));
7088           /* No more processing for this set.  */
7089           sets[i].rtl = 0;
7090         }
7091
7092       /* If this SET is now setting PC to a label, we know it used to
7093          be a conditional or computed branch.  So we see if we can follow
7094          it.  If it was a computed branch, delete it and re-emit.  */
7095       else if (dest == pc_rtx && GET_CODE (src) == LABEL_REF)
7096         {
7097           rtx p;
7098
7099           /* If this is not in the format for a simple branch and
7100              we are the only SET in it, re-emit it.  */
7101           if (! simplejump_p (insn) && n_sets == 1)
7102             {
7103               rtx new = emit_jump_insn_before (gen_jump (XEXP (src, 0)), insn);
7104               JUMP_LABEL (new) = XEXP (src, 0);
7105               LABEL_NUSES (XEXP (src, 0))++;
7106               delete_insn (insn);
7107               insn = new;
7108             }
7109           else
7110             /* Otherwise, force rerecognition, since it probably had
7111                a different pattern before.
7112                This shouldn't really be necessary, since whatever
7113                changed the source value above should have done this.
7114                Until the right place is found, might as well do this here.  */
7115             INSN_CODE (insn) = -1;
7116
7117           /* Now that we've converted this jump to an unconditional jump,
7118              there is dead code after it.  Delete the dead code until we
7119              reach a BARRIER, the end of the function, or a label.  Do
7120              not delete NOTEs except for NOTE_INSN_DELETED since later
7121              phases assume these notes are retained.  */
7122
7123           p = insn;
7124
7125           while (NEXT_INSN (p) != 0
7126                  && GET_CODE (NEXT_INSN (p)) != BARRIER
7127                  && GET_CODE (NEXT_INSN (p)) != CODE_LABEL)
7128             {
7129               if (GET_CODE (NEXT_INSN (p)) != NOTE
7130                   || NOTE_LINE_NUMBER (NEXT_INSN (p)) == NOTE_INSN_DELETED)
7131                 delete_insn (NEXT_INSN (p));
7132               else
7133                 p = NEXT_INSN (p);
7134             }
7135
7136           /* If we don't have a BARRIER immediately after INSN, put one there.
7137              Much code assumes that there are no NOTEs between a JUMP_INSN and
7138              BARRIER.  */
7139
7140           if (NEXT_INSN (insn) == 0
7141               || GET_CODE (NEXT_INSN (insn)) != BARRIER)
7142             emit_barrier_before (NEXT_INSN (insn));
7143
7144           /* We might have two BARRIERs separated by notes.  Delete the second
7145              one if so.  */
7146
7147           if (p != insn && NEXT_INSN (p) != 0
7148               && GET_CODE (NEXT_INSN (p)) == BARRIER)
7149             delete_insn (NEXT_INSN (p));
7150
7151           cse_jumps_altered = 1;
7152           sets[i].rtl = 0;
7153         }
7154
7155       /* If destination is volatile, invalidate it and then do no further
7156          processing for this assignment.  */
7157
7158       else if (do_not_record)
7159         {
7160           if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG
7161               || GET_CODE (dest) == MEM)
7162             invalidate (dest, VOIDmode);
7163           else if (GET_CODE (dest) == STRICT_LOW_PART
7164                    || GET_CODE (dest) == ZERO_EXTRACT)
7165             invalidate (XEXP (dest, 0), GET_MODE (dest));
7166           sets[i].rtl = 0;
7167         }
7168
7169       if (sets[i].rtl != 0 && dest != SET_DEST (sets[i].rtl))
7170         sets[i].dest_hash = HASH (SET_DEST (sets[i].rtl), mode);
7171
7172 #ifdef HAVE_cc0
7173       /* If setting CC0, record what it was set to, or a constant, if it
7174          is equivalent to a constant.  If it is being set to a floating-point
7175          value, make a COMPARE with the appropriate constant of 0.  If we
7176          don't do this, later code can interpret this as a test against
7177          const0_rtx, which can cause problems if we try to put it into an
7178          insn as a floating-point operand.  */
7179       if (dest == cc0_rtx)
7180         {
7181           this_insn_cc0 = src_const && mode != VOIDmode ? src_const : src;
7182           this_insn_cc0_mode = mode;
7183           if (FLOAT_MODE_P (mode))
7184             this_insn_cc0 = gen_rtx (COMPARE, VOIDmode, this_insn_cc0,
7185                                      CONST0_RTX (mode));
7186         }
7187 #endif
7188     }
7189
7190   /* Now enter all non-volatile source expressions in the hash table
7191      if they are not already present.
7192      Record their equivalence classes in src_elt.
7193      This way we can insert the corresponding destinations into
7194      the same classes even if the actual sources are no longer in them
7195      (having been invalidated).  */
7196
7197   if (src_eqv && src_eqv_elt == 0 && sets[0].rtl != 0 && ! src_eqv_volatile
7198       && ! rtx_equal_p (src_eqv, SET_DEST (sets[0].rtl)))
7199     {
7200       register struct table_elt *elt;
7201       register struct table_elt *classp = sets[0].src_elt;
7202       rtx dest = SET_DEST (sets[0].rtl);
7203       enum machine_mode eqvmode = GET_MODE (dest);
7204
7205       if (GET_CODE (dest) == STRICT_LOW_PART)
7206         {
7207           eqvmode = GET_MODE (SUBREG_REG (XEXP (dest, 0)));
7208           classp = 0;
7209         }
7210       if (insert_regs (src_eqv, classp, 0))
7211         {
7212           rehash_using_reg (src_eqv);
7213           src_eqv_hash = HASH (src_eqv, eqvmode);
7214         }
7215       elt = insert (src_eqv, classp, src_eqv_hash, eqvmode);
7216       elt->in_memory = src_eqv_in_memory;
7217       elt->in_struct = src_eqv_in_struct;
7218       src_eqv_elt = elt;
7219
7220       /* Check to see if src_eqv_elt is the same as a set source which
7221          does not yet have an elt, and if so set the elt of the set source
7222          to src_eqv_elt.  */
7223       for (i = 0; i < n_sets; i++)
7224         if (sets[i].rtl && sets[i].src_elt == 0
7225             && rtx_equal_p (SET_SRC (sets[i].rtl), src_eqv))
7226           sets[i].src_elt = src_eqv_elt;
7227     }
7228
7229   for (i = 0; i < n_sets; i++)
7230     if (sets[i].rtl && ! sets[i].src_volatile
7231         && ! rtx_equal_p (SET_SRC (sets[i].rtl), SET_DEST (sets[i].rtl)))
7232       {
7233         if (GET_CODE (SET_DEST (sets[i].rtl)) == STRICT_LOW_PART)
7234           {
7235             /* REG_EQUAL in setting a STRICT_LOW_PART
7236                gives an equivalent for the entire destination register,
7237                not just for the subreg being stored in now.
7238                This is a more interesting equivalence, so we arrange later
7239                to treat the entire reg as the destination.  */
7240             sets[i].src_elt = src_eqv_elt;
7241             sets[i].src_hash = src_eqv_hash;
7242           }
7243         else
7244           {
7245             /* Insert source and constant equivalent into hash table, if not
7246                already present.  */
7247             register struct table_elt *classp = src_eqv_elt;
7248             register rtx src = sets[i].src;
7249             register rtx dest = SET_DEST (sets[i].rtl);
7250             enum machine_mode mode
7251               = GET_MODE (src) == VOIDmode ? GET_MODE (dest) : GET_MODE (src);
7252
7253             if (sets[i].src_elt == 0)
7254               {
7255                 register struct table_elt *elt;
7256
7257                 /* Note that these insert_regs calls cannot remove
7258                    any of the src_elt's, because they would have failed to
7259                    match if not still valid.  */
7260                 if (insert_regs (src, classp, 0))
7261                   {
7262                     rehash_using_reg (src);
7263                     sets[i].src_hash = HASH (src, mode);
7264                   }
7265                 elt = insert (src, classp, sets[i].src_hash, mode);
7266                 elt->in_memory = sets[i].src_in_memory;
7267                 elt->in_struct = sets[i].src_in_struct;
7268                 sets[i].src_elt = classp = elt;
7269               }
7270
7271             if (sets[i].src_const && sets[i].src_const_elt == 0
7272                 && src != sets[i].src_const
7273                 && ! rtx_equal_p (sets[i].src_const, src))
7274               sets[i].src_elt = insert (sets[i].src_const, classp,
7275                                         sets[i].src_const_hash, mode);
7276           }
7277       }
7278     else if (sets[i].src_elt == 0)
7279       /* If we did not insert the source into the hash table (e.g., it was
7280          volatile), note the equivalence class for the REG_EQUAL value, if any,
7281          so that the destination goes into that class.  */
7282       sets[i].src_elt = src_eqv_elt;
7283
7284   invalidate_from_clobbers (&writes_memory, x);
7285
7286   /* Some registers are invalidated by subroutine calls.  Memory is 
7287      invalidated by non-constant calls.  */
7288
7289   if (GET_CODE (insn) == CALL_INSN)
7290     {
7291       static struct write_data everything = {0, 1, 1, 1};
7292
7293       if (! CONST_CALL_P (insn))
7294         invalidate_memory (&everything);
7295       invalidate_for_call ();
7296     }
7297
7298   /* Now invalidate everything set by this instruction.
7299      If a SUBREG or other funny destination is being set,
7300      sets[i].rtl is still nonzero, so here we invalidate the reg
7301      a part of which is being set.  */
7302
7303   for (i = 0; i < n_sets; i++)
7304     if (sets[i].rtl)
7305       {
7306         /* We can't use the inner dest, because the mode associated with
7307            a ZERO_EXTRACT is significant.  */
7308         register rtx dest = SET_DEST (sets[i].rtl);
7309
7310         /* Needed for registers to remove the register from its
7311            previous quantity's chain.
7312            Needed for memory if this is a nonvarying address, unless
7313            we have just done an invalidate_memory that covers even those.  */
7314         if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG
7315             || (GET_CODE (dest) == MEM && ! writes_memory.all
7316                 && ! cse_rtx_addr_varies_p (dest)))
7317           invalidate (dest, VOIDmode);
7318         else if (GET_CODE (dest) == STRICT_LOW_PART
7319                  || GET_CODE (dest) == ZERO_EXTRACT)
7320           invalidate (XEXP (dest, 0), GET_MODE (dest));
7321       }
7322
7323   /* Make sure registers mentioned in destinations
7324      are safe for use in an expression to be inserted.
7325      This removes from the hash table
7326      any invalid entry that refers to one of these registers.
7327
7328      We don't care about the return value from mention_regs because
7329      we are going to hash the SET_DEST values unconditionally.  */
7330
7331   for (i = 0; i < n_sets; i++)
7332     if (sets[i].rtl && GET_CODE (SET_DEST (sets[i].rtl)) != REG)
7333       mention_regs (SET_DEST (sets[i].rtl));
7334
7335   /* We may have just removed some of the src_elt's from the hash table.
7336      So replace each one with the current head of the same class.  */
7337
7338   for (i = 0; i < n_sets; i++)
7339     if (sets[i].rtl)
7340       {
7341         if (sets[i].src_elt && sets[i].src_elt->first_same_value == 0)
7342           /* If elt was removed, find current head of same class,
7343              or 0 if nothing remains of that class.  */
7344           {
7345             register struct table_elt *elt = sets[i].src_elt;
7346
7347             while (elt && elt->prev_same_value)
7348               elt = elt->prev_same_value;
7349
7350             while (elt && elt->first_same_value == 0)
7351               elt = elt->next_same_value;
7352             sets[i].src_elt = elt ? elt->first_same_value : 0;
7353           }
7354       }
7355
7356   /* Now insert the destinations into their equivalence classes.  */
7357
7358   for (i = 0; i < n_sets; i++)
7359     if (sets[i].rtl)
7360       {
7361         register rtx dest = SET_DEST (sets[i].rtl);
7362         register struct table_elt *elt;
7363
7364         /* Don't record value if we are not supposed to risk allocating
7365            floating-point values in registers that might be wider than
7366            memory.  */
7367         if ((flag_float_store
7368              && GET_CODE (dest) == MEM
7369              && FLOAT_MODE_P (GET_MODE (dest)))
7370             /* Don't record values of destinations set inside a libcall block
7371                since we might delete the libcall.  Things should have been set
7372                up so we won't want to reuse such a value, but we play it safe
7373                here.  */
7374             || in_libcall_block
7375             /* If we didn't put a REG_EQUAL value or a source into the hash
7376                table, there is no point is recording DEST.  */
7377             || sets[i].src_elt == 0
7378             /* If DEST is a paradoxical SUBREG and SRC is a ZERO_EXTEND
7379                or SIGN_EXTEND, don't record DEST since it can cause
7380                some tracking to be wrong.
7381
7382                ??? Think about this more later.  */
7383             || (GET_CODE (dest) == SUBREG
7384                 && (GET_MODE_SIZE (GET_MODE (dest))
7385                     > GET_MODE_SIZE (GET_MODE (SUBREG_REG (dest))))
7386                 && (GET_CODE (sets[i].src) == SIGN_EXTEND
7387                     || GET_CODE (sets[i].src) == ZERO_EXTEND)))
7388           continue;
7389
7390         /* STRICT_LOW_PART isn't part of the value BEING set,
7391            and neither is the SUBREG inside it.
7392            Note that in this case SETS[I].SRC_ELT is really SRC_EQV_ELT.  */
7393         if (GET_CODE (dest) == STRICT_LOW_PART)
7394           dest = SUBREG_REG (XEXP (dest, 0));
7395
7396         if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG)
7397           /* Registers must also be inserted into chains for quantities.  */
7398           if (insert_regs (dest, sets[i].src_elt, 1))
7399             {
7400               /* If `insert_regs' changes something, the hash code must be
7401                  recalculated.  */
7402               rehash_using_reg (dest);
7403               sets[i].dest_hash = HASH (dest, GET_MODE (dest));
7404             }
7405
7406         elt = insert (dest, sets[i].src_elt,
7407                       sets[i].dest_hash, GET_MODE (dest));
7408         elt->in_memory = (GET_CODE (sets[i].inner_dest) == MEM
7409                           && (! RTX_UNCHANGING_P (sets[i].inner_dest)
7410                               || FIXED_BASE_PLUS_P (XEXP (sets[i].inner_dest,
7411                                                           0))));
7412
7413         if (elt->in_memory)
7414           {
7415             /* This implicitly assumes a whole struct
7416                need not have MEM_IN_STRUCT_P.
7417                But a whole struct is *supposed* to have MEM_IN_STRUCT_P.  */
7418             elt->in_struct = (MEM_IN_STRUCT_P (sets[i].inner_dest)
7419                               || sets[i].inner_dest != SET_DEST (sets[i].rtl));
7420           }
7421
7422         /* If we have (set (subreg:m1 (reg:m2 foo) 0) (bar:m1)), M1 is no
7423            narrower than M2, and both M1 and M2 are the same number of words,
7424            we are also doing (set (reg:m2 foo) (subreg:m2 (bar:m1) 0)) so
7425            make that equivalence as well.
7426
7427            However, BAR may have equivalences for which gen_lowpart_if_possible
7428            will produce a simpler value than gen_lowpart_if_possible applied to
7429            BAR (e.g., if BAR was ZERO_EXTENDed from M2), so we will scan all
7430            BAR's equivalences.  If we don't get a simplified form, make 
7431            the SUBREG.  It will not be used in an equivalence, but will
7432            cause two similar assignments to be detected.
7433
7434            Note the loop below will find SUBREG_REG (DEST) since we have
7435            already entered SRC and DEST of the SET in the table.  */
7436
7437         if (GET_CODE (dest) == SUBREG
7438             && (((GET_MODE_SIZE (GET_MODE (SUBREG_REG (dest))) - 1)
7439                  / UNITS_PER_WORD)
7440                 == (GET_MODE_SIZE (GET_MODE (dest)) - 1)/ UNITS_PER_WORD)
7441             && (GET_MODE_SIZE (GET_MODE (dest))
7442                 >= GET_MODE_SIZE (GET_MODE (SUBREG_REG (dest))))
7443             && sets[i].src_elt != 0)
7444           {
7445             enum machine_mode new_mode = GET_MODE (SUBREG_REG (dest));
7446             struct table_elt *elt, *classp = 0;
7447
7448             for (elt = sets[i].src_elt->first_same_value; elt;
7449                  elt = elt->next_same_value)
7450               {
7451                 rtx new_src = 0;
7452                 unsigned src_hash;
7453                 struct table_elt *src_elt;
7454
7455                 /* Ignore invalid entries.  */
7456                 if (GET_CODE (elt->exp) != REG
7457                     && ! exp_equiv_p (elt->exp, elt->exp, 1, 0))
7458                   continue;
7459
7460                 new_src = gen_lowpart_if_possible (new_mode, elt->exp);
7461                 if (new_src == 0)
7462                   new_src = gen_rtx (SUBREG, new_mode, elt->exp, 0);
7463
7464                 src_hash = HASH (new_src, new_mode);
7465                 src_elt = lookup (new_src, src_hash, new_mode);
7466
7467                 /* Put the new source in the hash table is if isn't
7468                    already.  */
7469                 if (src_elt == 0)
7470                   {
7471                     if (insert_regs (new_src, classp, 0))
7472                       {
7473                         rehash_using_reg (new_src);
7474                         src_hash = HASH (new_src, new_mode);
7475                       }
7476                     src_elt = insert (new_src, classp, src_hash, new_mode);
7477                     src_elt->in_memory = elt->in_memory;
7478                     src_elt->in_struct = elt->in_struct;
7479                   }
7480                 else if (classp && classp != src_elt->first_same_value)
7481                   /* Show that two things that we've seen before are 
7482                      actually the same.  */
7483                   merge_equiv_classes (src_elt, classp);
7484
7485                 classp = src_elt->first_same_value;
7486               }
7487           }
7488       }
7489
7490   /* Special handling for (set REG0 REG1)
7491      where REG0 is the "cheapest", cheaper than REG1.
7492      After cse, REG1 will probably not be used in the sequel, 
7493      so (if easily done) change this insn to (set REG1 REG0) and
7494      replace REG1 with REG0 in the previous insn that computed their value.
7495      Then REG1 will become a dead store and won't cloud the situation
7496      for later optimizations.
7497
7498      Do not make this change if REG1 is a hard register, because it will
7499      then be used in the sequel and we may be changing a two-operand insn
7500      into a three-operand insn.
7501
7502      Also do not do this if we are operating on a copy of INSN.  */
7503
7504   if (n_sets == 1 && sets[0].rtl && GET_CODE (SET_DEST (sets[0].rtl)) == REG
7505       && NEXT_INSN (PREV_INSN (insn)) == insn
7506       && GET_CODE (SET_SRC (sets[0].rtl)) == REG
7507       && REGNO (SET_SRC (sets[0].rtl)) >= FIRST_PSEUDO_REGISTER
7508       && REGNO_QTY_VALID_P (REGNO (SET_SRC (sets[0].rtl)))
7509       && (qty_first_reg[reg_qty[REGNO (SET_SRC (sets[0].rtl))]]
7510           == REGNO (SET_DEST (sets[0].rtl))))
7511     {
7512       rtx prev = PREV_INSN (insn);
7513       while (prev && GET_CODE (prev) == NOTE)
7514         prev = PREV_INSN (prev);
7515
7516       if (prev && GET_CODE (prev) == INSN && GET_CODE (PATTERN (prev)) == SET
7517           && SET_DEST (PATTERN (prev)) == SET_SRC (sets[0].rtl))
7518         {
7519           rtx dest = SET_DEST (sets[0].rtl);
7520           rtx note = find_reg_note (prev, REG_EQUIV, NULL_RTX);
7521
7522           validate_change (prev, & SET_DEST (PATTERN (prev)), dest, 1);
7523           validate_change (insn, & SET_DEST (sets[0].rtl),
7524                            SET_SRC (sets[0].rtl), 1);
7525           validate_change (insn, & SET_SRC (sets[0].rtl), dest, 1);
7526           apply_change_group ();
7527
7528           /* If REG1 was equivalent to a constant, REG0 is not.  */
7529           if (note)
7530             PUT_REG_NOTE_KIND (note, REG_EQUAL);
7531
7532           /* If there was a REG_WAS_0 note on PREV, remove it.  Move
7533              any REG_WAS_0 note on INSN to PREV.  */
7534           note = find_reg_note (prev, REG_WAS_0, NULL_RTX);
7535           if (note)
7536             remove_note (prev, note);
7537
7538           note = find_reg_note (insn, REG_WAS_0, NULL_RTX);
7539           if (note)
7540             {
7541               remove_note (insn, note);
7542               XEXP (note, 1) = REG_NOTES (prev);
7543               REG_NOTES (prev) = note;
7544             }
7545
7546           /* If INSN has a REG_EQUAL note, and this note mentions REG0,
7547              then we must delete it, because the value in REG0 has changed.  */
7548           note = find_reg_note (insn, REG_EQUAL, NULL_RTX);
7549           if (note && reg_mentioned_p (dest, XEXP (note, 0)))
7550             remove_note (insn, note);
7551         }
7552     }
7553
7554   /* If this is a conditional jump insn, record any known equivalences due to
7555      the condition being tested.  */
7556
7557   last_jump_equiv_class = 0;
7558   if (GET_CODE (insn) == JUMP_INSN
7559       && n_sets == 1 && GET_CODE (x) == SET
7560       && GET_CODE (SET_SRC (x)) == IF_THEN_ELSE)
7561     record_jump_equiv (insn, 0);
7562
7563 #ifdef HAVE_cc0
7564   /* If the previous insn set CC0 and this insn no longer references CC0,
7565      delete the previous insn.  Here we use the fact that nothing expects CC0
7566      to be valid over an insn, which is true until the final pass.  */
7567   if (prev_insn && GET_CODE (prev_insn) == INSN
7568       && (tem = single_set (prev_insn)) != 0
7569       && SET_DEST (tem) == cc0_rtx
7570       && ! reg_mentioned_p (cc0_rtx, x))
7571     {
7572       PUT_CODE (prev_insn, NOTE);
7573       NOTE_LINE_NUMBER (prev_insn) = NOTE_INSN_DELETED;
7574       NOTE_SOURCE_FILE (prev_insn) = 0;
7575     }
7576
7577   prev_insn_cc0 = this_insn_cc0;
7578   prev_insn_cc0_mode = this_insn_cc0_mode;
7579 #endif
7580
7581   prev_insn = insn;
7582 }
7583 \f
7584 /* Store 1 in *WRITES_PTR for those categories of memory ref
7585    that must be invalidated when the expression WRITTEN is stored in.
7586    If WRITTEN is null, say everything must be invalidated.  */
7587
7588 static void
7589 note_mem_written (written, writes_ptr)
7590      rtx written;
7591      struct write_data *writes_ptr;
7592 {
7593   static struct write_data everything = {0, 1, 1, 1};
7594
7595   if (written == 0)
7596     *writes_ptr = everything;
7597   else if (GET_CODE (written) == MEM)
7598     {
7599       /* Pushing or popping the stack invalidates just the stack pointer.  */
7600       rtx addr = XEXP (written, 0);
7601       if ((GET_CODE (addr) == PRE_DEC || GET_CODE (addr) == PRE_INC
7602            || GET_CODE (addr) == POST_DEC || GET_CODE (addr) == POST_INC)
7603           && GET_CODE (XEXP (addr, 0)) == REG
7604           && REGNO (XEXP (addr, 0)) == STACK_POINTER_REGNUM)
7605         {
7606           writes_ptr->sp = 1;
7607           return;
7608         }
7609       else if (GET_MODE (written) == BLKmode)
7610         *writes_ptr = everything;
7611       else if (cse_rtx_addr_varies_p (written))
7612         {
7613           /* A varying address that is a sum indicates an array element,
7614              and that's just as good as a structure element
7615              in implying that we need not invalidate scalar variables.
7616              However, we must allow QImode aliasing of scalars, because the
7617              ANSI C standard allows character pointers to alias anything.
7618              We must also allow AND addresses, because they may generate
7619              accesses outside the object being referenced.  This is used to
7620              generate aligned addresses from unaligned addresses, for instance,
7621              the alpha storeqi_unaligned pattern.  */
7622           if (! ((MEM_IN_STRUCT_P (written)
7623                   || GET_CODE (XEXP (written, 0)) == PLUS)
7624                  && GET_MODE (written) != QImode
7625                  && GET_CODE (XEXP (written, 0)) != AND))
7626             writes_ptr->all = 1;
7627           writes_ptr->nonscalar = 1;
7628         }
7629       writes_ptr->var = 1;
7630     }
7631 }
7632
7633 /* Perform invalidation on the basis of everything about an insn
7634    except for invalidating the actual places that are SET in it.
7635    This includes the places CLOBBERed, and anything that might
7636    alias with something that is SET or CLOBBERed.
7637
7638    W points to the writes_memory for this insn, a struct write_data
7639    saying which kinds of memory references must be invalidated.
7640    X is the pattern of the insn.  */
7641
7642 static void
7643 invalidate_from_clobbers (w, x)
7644      struct write_data *w;
7645      rtx x;
7646 {
7647   /* If W->var is not set, W specifies no action.
7648      If W->all is set, this step gets all memory refs
7649      so they can be ignored in the rest of this function.  */
7650   if (w->var)
7651     invalidate_memory (w);
7652
7653   if (w->sp)
7654     {
7655       if (reg_tick[STACK_POINTER_REGNUM] >= 0)
7656         reg_tick[STACK_POINTER_REGNUM]++;
7657
7658       /* This should be *very* rare.  */
7659       if (TEST_HARD_REG_BIT (hard_regs_in_table, STACK_POINTER_REGNUM))
7660         invalidate (stack_pointer_rtx, VOIDmode);
7661     }
7662
7663   if (GET_CODE (x) == CLOBBER)
7664     {
7665       rtx ref = XEXP (x, 0);
7666
7667       if (GET_CODE (ref) == REG || GET_CODE (ref) == SUBREG
7668           || (GET_CODE (ref) == MEM && ! w->all))
7669         invalidate (ref, VOIDmode);
7670       else if (GET_CODE (ref) == STRICT_LOW_PART
7671                || GET_CODE (ref) == ZERO_EXTRACT)
7672         invalidate (XEXP (ref, 0), GET_MODE (ref));
7673     }
7674   else if (GET_CODE (x) == PARALLEL)
7675     {
7676       register int i;
7677       for (i = XVECLEN (x, 0) - 1; i >= 0; i--)
7678         {
7679           register rtx y = XVECEXP (x, 0, i);
7680           if (GET_CODE (y) == CLOBBER)
7681             {
7682               rtx ref = XEXP (y, 0);
7683               if (ref)
7684                 {
7685                   if (GET_CODE (ref) == REG || GET_CODE (ref) == SUBREG
7686                       || (GET_CODE (ref) == MEM && !w->all))
7687                     invalidate (ref, VOIDmode);
7688                   else if (GET_CODE (ref) == STRICT_LOW_PART
7689                            || GET_CODE (ref) == ZERO_EXTRACT)
7690                     invalidate (XEXP (ref, 0), GET_MODE (ref));
7691                 }
7692             }
7693         }
7694     }
7695 }
7696 \f
7697 /* Process X, part of the REG_NOTES of an insn.  Look at any REG_EQUAL notes
7698    and replace any registers in them with either an equivalent constant
7699    or the canonical form of the register.  If we are inside an address,
7700    only do this if the address remains valid.
7701
7702    OBJECT is 0 except when within a MEM in which case it is the MEM.
7703
7704    Return the replacement for X.  */
7705
7706 static rtx
7707 cse_process_notes (x, object)
7708      rtx x;
7709      rtx object;
7710 {
7711   enum rtx_code code = GET_CODE (x);
7712   char *fmt = GET_RTX_FORMAT (code);
7713   int i;
7714
7715   switch (code)
7716     {
7717     case CONST_INT:
7718     case CONST:
7719     case SYMBOL_REF:
7720     case LABEL_REF:
7721     case CONST_DOUBLE:
7722     case PC:
7723     case CC0:
7724     case LO_SUM:
7725       return x;
7726
7727     case MEM:
7728       XEXP (x, 0) = cse_process_notes (XEXP (x, 0), x);
7729       return x;
7730
7731     case EXPR_LIST:
7732     case INSN_LIST:
7733       if (REG_NOTE_KIND (x) == REG_EQUAL)
7734         XEXP (x, 0) = cse_process_notes (XEXP (x, 0), NULL_RTX);
7735       if (XEXP (x, 1))
7736         XEXP (x, 1) = cse_process_notes (XEXP (x, 1), NULL_RTX);
7737       return x;
7738
7739     case SIGN_EXTEND:
7740     case ZERO_EXTEND:
7741     case SUBREG:
7742       {
7743         rtx new = cse_process_notes (XEXP (x, 0), object);
7744         /* We don't substitute VOIDmode constants into these rtx,
7745            since they would impede folding.  */
7746         if (GET_MODE (new) != VOIDmode)
7747           validate_change (object, &XEXP (x, 0), new, 0);
7748         return x;
7749       }
7750
7751     case REG:
7752       i = reg_qty[REGNO (x)];
7753
7754       /* Return a constant or a constant register.  */
7755       if (REGNO_QTY_VALID_P (REGNO (x))
7756           && qty_const[i] != 0
7757           && (CONSTANT_P (qty_const[i])
7758               || GET_CODE (qty_const[i]) == REG))
7759         {
7760           rtx new = gen_lowpart_if_possible (GET_MODE (x), qty_const[i]);
7761           if (new)
7762             return new;
7763         }
7764
7765       /* Otherwise, canonicalize this register.  */
7766       return canon_reg (x, NULL_RTX);
7767     }
7768
7769   for (i = 0; i < GET_RTX_LENGTH (code); i++)
7770     if (fmt[i] == 'e')
7771       validate_change (object, &XEXP (x, i),
7772                        cse_process_notes (XEXP (x, i), object), 0);
7773
7774   return x;
7775 }
7776 \f
7777 /* Find common subexpressions between the end test of a loop and the beginning
7778    of the loop.  LOOP_START is the CODE_LABEL at the start of a loop.
7779
7780    Often we have a loop where an expression in the exit test is used
7781    in the body of the loop.  For example "while (*p) *q++ = *p++;".
7782    Because of the way we duplicate the loop exit test in front of the loop,
7783    however, we don't detect that common subexpression.  This will be caught
7784    when global cse is implemented, but this is a quite common case.
7785
7786    This function handles the most common cases of these common expressions.
7787    It is called after we have processed the basic block ending with the
7788    NOTE_INSN_LOOP_END note that ends a loop and the previous JUMP_INSN
7789    jumps to a label used only once.  */
7790
7791 static void
7792 cse_around_loop (loop_start)
7793      rtx loop_start;
7794 {
7795   rtx insn;
7796   int i;
7797   struct table_elt *p;
7798
7799   /* If the jump at the end of the loop doesn't go to the start, we don't
7800      do anything.  */
7801   for (insn = PREV_INSN (loop_start);
7802        insn && (GET_CODE (insn) == NOTE && NOTE_LINE_NUMBER (insn) >= 0);
7803        insn = PREV_INSN (insn))
7804     ;
7805
7806   if (insn == 0
7807       || GET_CODE (insn) != NOTE
7808       || NOTE_LINE_NUMBER (insn) != NOTE_INSN_LOOP_BEG)
7809     return;
7810
7811   /* If the last insn of the loop (the end test) was an NE comparison,
7812      we will interpret it as an EQ comparison, since we fell through
7813      the loop.  Any equivalences resulting from that comparison are
7814      therefore not valid and must be invalidated.  */
7815   if (last_jump_equiv_class)
7816     for (p = last_jump_equiv_class->first_same_value; p;
7817          p = p->next_same_value)
7818       if (GET_CODE (p->exp) == MEM || GET_CODE (p->exp) == REG
7819           || (GET_CODE (p->exp) == SUBREG
7820               && GET_CODE (SUBREG_REG (p->exp)) == REG))
7821         invalidate (p->exp, VOIDmode);
7822       else if (GET_CODE (p->exp) == STRICT_LOW_PART
7823                || GET_CODE (p->exp) == ZERO_EXTRACT)
7824         invalidate (XEXP (p->exp, 0), GET_MODE (p->exp));
7825
7826   /* Process insns starting after LOOP_START until we hit a CALL_INSN or
7827      a CODE_LABEL (we could handle a CALL_INSN, but it isn't worth it).
7828
7829      The only thing we do with SET_DEST is invalidate entries, so we
7830      can safely process each SET in order.  It is slightly less efficient
7831      to do so, but we only want to handle the most common cases.  */
7832
7833   for (insn = NEXT_INSN (loop_start);
7834        GET_CODE (insn) != CALL_INSN && GET_CODE (insn) != CODE_LABEL
7835        && ! (GET_CODE (insn) == NOTE
7836              && NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_END);
7837        insn = NEXT_INSN (insn))
7838     {
7839       if (GET_RTX_CLASS (GET_CODE (insn)) == 'i'
7840           && (GET_CODE (PATTERN (insn)) == SET
7841               || GET_CODE (PATTERN (insn)) == CLOBBER))
7842         cse_set_around_loop (PATTERN (insn), insn, loop_start);
7843       else if (GET_RTX_CLASS (GET_CODE (insn)) == 'i'
7844                && GET_CODE (PATTERN (insn)) == PARALLEL)
7845         for (i = XVECLEN (PATTERN (insn), 0) - 1; i >= 0; i--)
7846           if (GET_CODE (XVECEXP (PATTERN (insn), 0, i)) == SET
7847               || GET_CODE (XVECEXP (PATTERN (insn), 0, i)) == CLOBBER)
7848             cse_set_around_loop (XVECEXP (PATTERN (insn), 0, i), insn,
7849                                  loop_start);
7850     }
7851 }
7852 \f
7853 /* Variable used for communications between the next two routines.  */
7854
7855 static struct write_data skipped_writes_memory;
7856
7857 /* Process one SET of an insn that was skipped.  We ignore CLOBBERs
7858    since they are done elsewhere.  This function is called via note_stores.  */
7859
7860 static void
7861 invalidate_skipped_set (dest, set)
7862      rtx set;
7863      rtx dest;
7864 {
7865   if (GET_CODE (dest) == MEM)
7866     note_mem_written (dest, &skipped_writes_memory);
7867
7868   /* There are times when an address can appear varying and be a PLUS
7869      during this scan when it would be a fixed address were we to know
7870      the proper equivalences.  So promote "nonscalar" to be "all".  */
7871   if (skipped_writes_memory.nonscalar)
7872     skipped_writes_memory.all = 1;
7873
7874   if (GET_CODE (set) == CLOBBER
7875 #ifdef HAVE_cc0
7876       || dest == cc0_rtx
7877 #endif
7878       || dest == pc_rtx)
7879     return;
7880
7881   if (GET_CODE (dest) == REG || GET_CODE (dest) == SUBREG
7882       || (! skipped_writes_memory.all && ! cse_rtx_addr_varies_p (dest)))
7883     invalidate (dest, VOIDmode);
7884   else if (GET_CODE (dest) == STRICT_LOW_PART
7885            || GET_CODE (dest) == ZERO_EXTRACT)
7886     invalidate (XEXP (dest, 0), GET_MODE (dest));
7887 }
7888
7889 /* Invalidate all insns from START up to the end of the function or the
7890    next label.  This called when we wish to CSE around a block that is
7891    conditionally executed.  */
7892
7893 static void
7894 invalidate_skipped_block (start)
7895      rtx start;
7896 {
7897   rtx insn;
7898   static struct write_data init = {0, 0, 0, 0};
7899   static struct write_data everything = {0, 1, 1, 1};
7900
7901   for (insn = start; insn && GET_CODE (insn) != CODE_LABEL;
7902        insn = NEXT_INSN (insn))
7903     {
7904       if (GET_RTX_CLASS (GET_CODE (insn)) != 'i')
7905         continue;
7906
7907       skipped_writes_memory = init;
7908
7909       if (GET_CODE (insn) == CALL_INSN)
7910         {
7911           invalidate_for_call ();
7912           skipped_writes_memory = everything;
7913         }
7914
7915       note_stores (PATTERN (insn), invalidate_skipped_set);
7916       invalidate_from_clobbers (&skipped_writes_memory, PATTERN (insn));
7917     }
7918 }
7919 \f
7920 /* Used for communication between the following two routines; contains a
7921    value to be checked for modification.  */
7922
7923 static rtx cse_check_loop_start_value;
7924
7925 /* If modifying X will modify the value in CSE_CHECK_LOOP_START_VALUE,
7926    indicate that fact by setting CSE_CHECK_LOOP_START_VALUE to 0.  */
7927
7928 static void
7929 cse_check_loop_start (x, set)
7930      rtx x;
7931      rtx set;
7932 {
7933   if (cse_check_loop_start_value == 0
7934       || GET_CODE (x) == CC0 || GET_CODE (x) == PC)
7935     return;
7936
7937   if ((GET_CODE (x) == MEM && GET_CODE (cse_check_loop_start_value) == MEM)
7938       || reg_overlap_mentioned_p (x, cse_check_loop_start_value))
7939     cse_check_loop_start_value = 0;
7940 }
7941
7942 /* X is a SET or CLOBBER contained in INSN that was found near the start of
7943    a loop that starts with the label at LOOP_START.
7944
7945    If X is a SET, we see if its SET_SRC is currently in our hash table.
7946    If so, we see if it has a value equal to some register used only in the
7947    loop exit code (as marked by jump.c).
7948
7949    If those two conditions are true, we search backwards from the start of
7950    the loop to see if that same value was loaded into a register that still
7951    retains its value at the start of the loop.
7952
7953    If so, we insert an insn after the load to copy the destination of that
7954    load into the equivalent register and (try to) replace our SET_SRC with that
7955    register.
7956
7957    In any event, we invalidate whatever this SET or CLOBBER modifies.  */
7958
7959 static void
7960 cse_set_around_loop (x, insn, loop_start)
7961      rtx x;
7962      rtx insn;
7963      rtx loop_start;
7964 {
7965   struct table_elt *src_elt;
7966   static struct write_data init = {0, 0, 0, 0};
7967   struct write_data writes_memory;
7968
7969   writes_memory = init;
7970
7971   /* If this is a SET, see if we can replace SET_SRC, but ignore SETs that
7972      are setting PC or CC0 or whose SET_SRC is already a register.  */
7973   if (GET_CODE (x) == SET
7974       && GET_CODE (SET_DEST (x)) != PC && GET_CODE (SET_DEST (x)) != CC0
7975       && GET_CODE (SET_SRC (x)) != REG)
7976     {
7977       src_elt = lookup (SET_SRC (x),
7978                         HASH (SET_SRC (x), GET_MODE (SET_DEST (x))),
7979                         GET_MODE (SET_DEST (x)));
7980
7981       if (src_elt)
7982         for (src_elt = src_elt->first_same_value; src_elt;
7983              src_elt = src_elt->next_same_value)
7984           if (GET_CODE (src_elt->exp) == REG && REG_LOOP_TEST_P (src_elt->exp)
7985               && COST (src_elt->exp) < COST (SET_SRC (x)))
7986             {
7987               rtx p, set;
7988
7989               /* Look for an insn in front of LOOP_START that sets
7990                  something in the desired mode to SET_SRC (x) before we hit
7991                  a label or CALL_INSN.  */
7992
7993               for (p = prev_nonnote_insn (loop_start);
7994                    p && GET_CODE (p) != CALL_INSN
7995                    && GET_CODE (p) != CODE_LABEL;
7996                    p = prev_nonnote_insn  (p))
7997                 if ((set = single_set (p)) != 0
7998                     && GET_CODE (SET_DEST (set)) == REG
7999                     && GET_MODE (SET_DEST (set)) == src_elt->mode
8000                     && rtx_equal_p (SET_SRC (set), SET_SRC (x)))
8001                   {
8002                     /* We now have to ensure that nothing between P
8003                        and LOOP_START modified anything referenced in
8004                        SET_SRC (x).  We know that nothing within the loop
8005                        can modify it, or we would have invalidated it in
8006                        the hash table.  */
8007                     rtx q;
8008
8009                     cse_check_loop_start_value = SET_SRC (x);
8010                     for (q = p; q != loop_start; q = NEXT_INSN (q))
8011                       if (GET_RTX_CLASS (GET_CODE (q)) == 'i')
8012                         note_stores (PATTERN (q), cse_check_loop_start);
8013
8014                     /* If nothing was changed and we can replace our
8015                        SET_SRC, add an insn after P to copy its destination
8016                        to what we will be replacing SET_SRC with.  */
8017                     if (cse_check_loop_start_value
8018                         && validate_change (insn, &SET_SRC (x),
8019                                             src_elt->exp, 0))
8020                       emit_insn_after (gen_move_insn (src_elt->exp,
8021                                                       SET_DEST (set)),
8022                                        p);
8023                     break;
8024                   }
8025             }
8026     }
8027
8028   /* Now invalidate anything modified by X.  */
8029   note_mem_written (SET_DEST (x), &writes_memory);
8030
8031   if (writes_memory.var)
8032     invalidate_memory (&writes_memory);
8033
8034   /* See comment on similar code in cse_insn for explanation of these
8035      tests.  */
8036   if (GET_CODE (SET_DEST (x)) == REG || GET_CODE (SET_DEST (x)) == SUBREG
8037       || (GET_CODE (SET_DEST (x)) == MEM && ! writes_memory.all
8038           && ! cse_rtx_addr_varies_p (SET_DEST (x))))
8039     invalidate (SET_DEST (x), VOIDmode);
8040   else if (GET_CODE (SET_DEST (x)) == STRICT_LOW_PART
8041            || GET_CODE (SET_DEST (x)) == ZERO_EXTRACT)
8042     invalidate (XEXP (SET_DEST (x), 0), GET_MODE (SET_DEST (x)));
8043 }
8044 \f
8045 /* Find the end of INSN's basic block and return its range,
8046    the total number of SETs in all the insns of the block, the last insn of the
8047    block, and the branch path.
8048
8049    The branch path indicates which branches should be followed.  If a non-zero
8050    path size is specified, the block should be rescanned and a different set
8051    of branches will be taken.  The branch path is only used if
8052    FLAG_CSE_FOLLOW_JUMPS or FLAG_CSE_SKIP_BLOCKS is non-zero.
8053
8054    DATA is a pointer to a struct cse_basic_block_data, defined below, that is
8055    used to describe the block.  It is filled in with the information about
8056    the current block.  The incoming structure's branch path, if any, is used
8057    to construct the output branch path.  */
8058
8059 void
8060 cse_end_of_basic_block (insn, data, follow_jumps, after_loop, skip_blocks)
8061      rtx insn;
8062      struct cse_basic_block_data *data;
8063      int follow_jumps;
8064      int after_loop;
8065      int skip_blocks;
8066 {
8067   rtx p = insn, q;
8068   int nsets = 0;
8069   int low_cuid = INSN_CUID (insn), high_cuid = INSN_CUID (insn);
8070   rtx next = GET_RTX_CLASS (GET_CODE (insn)) == 'i' ? insn : next_real_insn (insn);
8071   int path_size = data->path_size;
8072   int path_entry = 0;
8073   int i;
8074
8075   /* Update the previous branch path, if any.  If the last branch was
8076      previously TAKEN, mark it NOT_TAKEN.  If it was previously NOT_TAKEN,
8077      shorten the path by one and look at the previous branch.  We know that
8078      at least one branch must have been taken if PATH_SIZE is non-zero.  */
8079   while (path_size > 0)
8080     {
8081       if (data->path[path_size - 1].status != NOT_TAKEN)
8082         {
8083           data->path[path_size - 1].status = NOT_TAKEN;
8084           break;
8085         }
8086       else
8087         path_size--;
8088     }
8089
8090   /* Scan to end of this basic block.  */
8091   while (p && GET_CODE (p) != CODE_LABEL)
8092     {
8093       /* Don't cse out the end of a loop.  This makes a difference
8094          only for the unusual loops that always execute at least once;
8095          all other loops have labels there so we will stop in any case.
8096          Cse'ing out the end of the loop is dangerous because it
8097          might cause an invariant expression inside the loop
8098          to be reused after the end of the loop.  This would make it
8099          hard to move the expression out of the loop in loop.c,
8100          especially if it is one of several equivalent expressions
8101          and loop.c would like to eliminate it.
8102
8103          If we are running after loop.c has finished, we can ignore
8104          the NOTE_INSN_LOOP_END.  */
8105
8106       if (! after_loop && GET_CODE (p) == NOTE
8107           && NOTE_LINE_NUMBER (p) == NOTE_INSN_LOOP_END)
8108         break;
8109
8110       /* Don't cse over a call to setjmp; on some machines (eg vax)
8111          the regs restored by the longjmp come from
8112          a later time than the setjmp.  */
8113       if (GET_CODE (p) == NOTE
8114           && NOTE_LINE_NUMBER (p) == NOTE_INSN_SETJMP)
8115         break;
8116
8117       /* A PARALLEL can have lots of SETs in it,
8118          especially if it is really an ASM_OPERANDS.  */
8119       if (GET_RTX_CLASS (GET_CODE (p)) == 'i'
8120           && GET_CODE (PATTERN (p)) == PARALLEL)
8121         nsets += XVECLEN (PATTERN (p), 0);
8122       else if (GET_CODE (p) != NOTE)
8123         nsets += 1;
8124         
8125       /* Ignore insns made by CSE; they cannot affect the boundaries of
8126          the basic block.  */
8127
8128       if (INSN_UID (p) <= max_uid && INSN_CUID (p) > high_cuid)
8129         high_cuid = INSN_CUID (p);
8130       if (INSN_UID (p) <= max_uid && INSN_CUID (p) < low_cuid)
8131         low_cuid = INSN_CUID (p);
8132
8133       /* See if this insn is in our branch path.  If it is and we are to
8134          take it, do so.  */
8135       if (path_entry < path_size && data->path[path_entry].branch == p)
8136         {
8137           if (data->path[path_entry].status != NOT_TAKEN)
8138             p = JUMP_LABEL (p);
8139           
8140           /* Point to next entry in path, if any.  */
8141           path_entry++;
8142         }
8143
8144       /* If this is a conditional jump, we can follow it if -fcse-follow-jumps
8145          was specified, we haven't reached our maximum path length, there are
8146          insns following the target of the jump, this is the only use of the
8147          jump label, and the target label is preceded by a BARRIER.
8148
8149          Alternatively, we can follow the jump if it branches around a
8150          block of code and there are no other branches into the block.
8151          In this case invalidate_skipped_block will be called to invalidate any
8152          registers set in the block when following the jump.  */
8153
8154       else if ((follow_jumps || skip_blocks) && path_size < PATHLENGTH - 1
8155                && GET_CODE (p) == JUMP_INSN
8156                && GET_CODE (PATTERN (p)) == SET
8157                && GET_CODE (SET_SRC (PATTERN (p))) == IF_THEN_ELSE
8158                && LABEL_NUSES (JUMP_LABEL (p)) == 1
8159                && NEXT_INSN (JUMP_LABEL (p)) != 0)
8160         {
8161           for (q = PREV_INSN (JUMP_LABEL (p)); q; q = PREV_INSN (q))
8162             if ((GET_CODE (q) != NOTE
8163                  || NOTE_LINE_NUMBER (q) == NOTE_INSN_LOOP_END
8164                  || NOTE_LINE_NUMBER (q) == NOTE_INSN_SETJMP)
8165                 && (GET_CODE (q) != CODE_LABEL || LABEL_NUSES (q) != 0))
8166               break;
8167
8168           /* If we ran into a BARRIER, this code is an extension of the
8169              basic block when the branch is taken.  */
8170           if (follow_jumps && q != 0 && GET_CODE (q) == BARRIER)
8171             {
8172               /* Don't allow ourself to keep walking around an
8173                  always-executed loop.  */
8174               if (next_real_insn (q) == next)
8175                 {
8176                   p = NEXT_INSN (p);
8177                   continue;
8178                 }
8179
8180               /* Similarly, don't put a branch in our path more than once.  */
8181               for (i = 0; i < path_entry; i++)
8182                 if (data->path[i].branch == p)
8183                   break;
8184
8185               if (i != path_entry)
8186                 break;
8187
8188               data->path[path_entry].branch = p;
8189               data->path[path_entry++].status = TAKEN;
8190
8191               /* This branch now ends our path.  It was possible that we
8192                  didn't see this branch the last time around (when the
8193                  insn in front of the target was a JUMP_INSN that was
8194                  turned into a no-op).  */
8195               path_size = path_entry;
8196
8197               p = JUMP_LABEL (p);
8198               /* Mark block so we won't scan it again later.  */
8199               PUT_MODE (NEXT_INSN (p), QImode);
8200             }
8201           /* Detect a branch around a block of code.  */
8202           else if (skip_blocks && q != 0 && GET_CODE (q) != CODE_LABEL)
8203             {
8204               register rtx tmp;
8205
8206               if (next_real_insn (q) == next)
8207                 {
8208                   p = NEXT_INSN (p);
8209                   continue;
8210                 }
8211
8212               for (i = 0; i < path_entry; i++)
8213                 if (data->path[i].branch == p)
8214                   break;
8215
8216               if (i != path_entry)
8217                 break;
8218
8219               /* This is no_labels_between_p (p, q) with an added check for
8220                  reaching the end of a function (in case Q precedes P).  */
8221               for (tmp = NEXT_INSN (p); tmp && tmp != q; tmp = NEXT_INSN (tmp))
8222                 if (GET_CODE (tmp) == CODE_LABEL)
8223                   break;
8224               
8225               if (tmp == q)
8226                 {
8227                   data->path[path_entry].branch = p;
8228                   data->path[path_entry++].status = AROUND;
8229
8230                   path_size = path_entry;
8231
8232                   p = JUMP_LABEL (p);
8233                   /* Mark block so we won't scan it again later.  */
8234                   PUT_MODE (NEXT_INSN (p), QImode);
8235                 }
8236             }
8237         }
8238       p = NEXT_INSN (p);
8239     }
8240
8241   data->low_cuid = low_cuid;
8242   data->high_cuid = high_cuid;
8243   data->nsets = nsets;
8244   data->last = p;
8245
8246   /* If all jumps in the path are not taken, set our path length to zero
8247      so a rescan won't be done.  */
8248   for (i = path_size - 1; i >= 0; i--)
8249     if (data->path[i].status != NOT_TAKEN)
8250       break;
8251
8252   if (i == -1)
8253     data->path_size = 0;
8254   else
8255     data->path_size = path_size;
8256
8257   /* End the current branch path.  */
8258   data->path[path_size].branch = 0;
8259 }
8260 \f
8261 /* Perform cse on the instructions of a function.
8262    F is the first instruction.
8263    NREGS is one plus the highest pseudo-reg number used in the instruction.
8264
8265    AFTER_LOOP is 1 if this is the cse call done after loop optimization
8266    (only if -frerun-cse-after-loop).
8267
8268    Returns 1 if jump_optimize should be redone due to simplifications
8269    in conditional jump instructions.  */
8270
8271 int
8272 cse_main (f, nregs, after_loop, file)
8273      rtx f;
8274      int nregs;
8275      int after_loop;
8276      FILE *file;
8277 {
8278   struct cse_basic_block_data val;
8279   register rtx insn = f;
8280   register int i;
8281
8282   cse_jumps_altered = 0;
8283   recorded_label_ref = 0;
8284   constant_pool_entries_cost = 0;
8285   val.path_size = 0;
8286
8287   init_recog ();
8288
8289   max_reg = nregs;
8290
8291   all_minus_one = (int *) alloca (nregs * sizeof (int));
8292   consec_ints = (int *) alloca (nregs * sizeof (int));
8293
8294   for (i = 0; i < nregs; i++)
8295     {
8296       all_minus_one[i] = -1;
8297       consec_ints[i] = i;
8298     }
8299
8300   reg_next_eqv = (int *) alloca (nregs * sizeof (int));
8301   reg_prev_eqv = (int *) alloca (nregs * sizeof (int));
8302   reg_qty = (int *) alloca (nregs * sizeof (int));
8303   reg_in_table = (int *) alloca (nregs * sizeof (int));
8304   reg_tick = (int *) alloca (nregs * sizeof (int));
8305
8306 #ifdef LOAD_EXTEND_OP
8307
8308   /* Allocate scratch rtl here.  cse_insn will fill in the memory reference
8309      and change the code and mode as appropriate.  */
8310   memory_extend_rtx = gen_rtx (ZERO_EXTEND, VOIDmode, 0);
8311 #endif
8312
8313   /* Discard all the free elements of the previous function
8314      since they are allocated in the temporarily obstack.  */
8315   bzero ((char *) table, sizeof table);
8316   free_element_chain = 0;
8317   n_elements_made = 0;
8318
8319   /* Find the largest uid.  */
8320
8321   max_uid = get_max_uid ();
8322   uid_cuid = (int *) alloca ((max_uid + 1) * sizeof (int));
8323   bzero ((char *) uid_cuid, (max_uid + 1) * sizeof (int));
8324
8325   /* Compute the mapping from uids to cuids.
8326      CUIDs are numbers assigned to insns, like uids,
8327      except that cuids increase monotonically through the code.
8328      Don't assign cuids to line-number NOTEs, so that the distance in cuids
8329      between two insns is not affected by -g.  */
8330
8331   for (insn = f, i = 0; insn; insn = NEXT_INSN (insn))
8332     {
8333       if (GET_CODE (insn) != NOTE
8334           || NOTE_LINE_NUMBER (insn) < 0)
8335         INSN_CUID (insn) = ++i;
8336       else
8337         /* Give a line number note the same cuid as preceding insn.  */
8338         INSN_CUID (insn) = i;
8339     }
8340
8341   /* Initialize which registers are clobbered by calls.  */
8342
8343   CLEAR_HARD_REG_SET (regs_invalidated_by_call);
8344
8345   for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
8346     if ((call_used_regs[i]
8347          /* Used to check !fixed_regs[i] here, but that isn't safe;
8348             fixed regs are still call-clobbered, and sched can get
8349             confused if they can "live across calls".
8350
8351             The frame pointer is always preserved across calls.  The arg
8352             pointer is if it is fixed.  The stack pointer usually is, unless
8353             RETURN_POPS_ARGS, in which case an explicit CLOBBER
8354             will be present.  If we are generating PIC code, the PIC offset
8355             table register is preserved across calls.  */
8356
8357          && i != STACK_POINTER_REGNUM
8358          && i != FRAME_POINTER_REGNUM
8359 #if HARD_FRAME_POINTER_REGNUM != FRAME_POINTER_REGNUM
8360          && i != HARD_FRAME_POINTER_REGNUM
8361 #endif
8362 #if ARG_POINTER_REGNUM != FRAME_POINTER_REGNUM
8363          && ! (i == ARG_POINTER_REGNUM && fixed_regs[i])
8364 #endif
8365 #if defined (PIC_OFFSET_TABLE_REGNUM) && !defined (PIC_OFFSET_TABLE_REG_CALL_CLOBBERED)
8366          && ! (i == PIC_OFFSET_TABLE_REGNUM && flag_pic)
8367 #endif
8368          )
8369         || global_regs[i])
8370       SET_HARD_REG_BIT (regs_invalidated_by_call, i);
8371
8372   /* Loop over basic blocks.
8373      Compute the maximum number of qty's needed for each basic block
8374      (which is 2 for each SET).  */
8375   insn = f;
8376   while (insn)
8377     {
8378       cse_end_of_basic_block (insn, &val, flag_cse_follow_jumps, after_loop,
8379                               flag_cse_skip_blocks);
8380
8381       /* If this basic block was already processed or has no sets, skip it.  */
8382       if (val.nsets == 0 || GET_MODE (insn) == QImode)
8383         {
8384           PUT_MODE (insn, VOIDmode);
8385           insn = (val.last ? NEXT_INSN (val.last) : 0);
8386           val.path_size = 0;
8387           continue;
8388         }
8389
8390       cse_basic_block_start = val.low_cuid;
8391       cse_basic_block_end = val.high_cuid;
8392       max_qty = val.nsets * 2;
8393       
8394       if (file)
8395         fprintf (file, ";; Processing block from %d to %d, %d sets.\n",
8396                  INSN_UID (insn), val.last ? INSN_UID (val.last) : 0,
8397                  val.nsets);
8398
8399       /* Make MAX_QTY bigger to give us room to optimize
8400          past the end of this basic block, if that should prove useful.  */
8401       if (max_qty < 500)
8402         max_qty = 500;
8403
8404       max_qty += max_reg;
8405
8406       /* If this basic block is being extended by following certain jumps,
8407          (see `cse_end_of_basic_block'), we reprocess the code from the start.
8408          Otherwise, we start after this basic block.  */
8409       if (val.path_size > 0)
8410         cse_basic_block (insn, val.last, val.path, 0);
8411       else
8412         {
8413           int old_cse_jumps_altered = cse_jumps_altered;
8414           rtx temp;
8415
8416           /* When cse changes a conditional jump to an unconditional
8417              jump, we want to reprocess the block, since it will give
8418              us a new branch path to investigate.  */
8419           cse_jumps_altered = 0;
8420           temp = cse_basic_block (insn, val.last, val.path, ! after_loop);
8421           if (cse_jumps_altered == 0
8422               || (flag_cse_follow_jumps == 0 && flag_cse_skip_blocks == 0))
8423             insn = temp;
8424
8425           cse_jumps_altered |= old_cse_jumps_altered;
8426         }
8427
8428 #ifdef USE_C_ALLOCA
8429       alloca (0);
8430 #endif
8431     }
8432
8433   /* Tell refers_to_mem_p that qty_const info is not available.  */
8434   qty_const = 0;
8435
8436   if (max_elements_made < n_elements_made)
8437     max_elements_made = n_elements_made;
8438
8439   return cse_jumps_altered || recorded_label_ref;
8440 }
8441
8442 /* Process a single basic block.  FROM and TO and the limits of the basic
8443    block.  NEXT_BRANCH points to the branch path when following jumps or
8444    a null path when not following jumps.
8445
8446    AROUND_LOOP is non-zero if we are to try to cse around to the start of a
8447    loop.  This is true when we are being called for the last time on a
8448    block and this CSE pass is before loop.c.  */
8449
8450 static rtx
8451 cse_basic_block (from, to, next_branch, around_loop)
8452      register rtx from, to;
8453      struct branch_path *next_branch;
8454      int around_loop;
8455 {
8456   register rtx insn;
8457   int to_usage = 0;
8458   int in_libcall_block = 0;
8459
8460   /* Each of these arrays is undefined before max_reg, so only allocate
8461      the space actually needed and adjust the start below.  */
8462
8463   qty_first_reg = (int *) alloca ((max_qty - max_reg) * sizeof (int));
8464   qty_last_reg = (int *) alloca ((max_qty - max_reg) * sizeof (int));
8465   qty_mode= (enum machine_mode *) alloca ((max_qty - max_reg) * sizeof (enum machine_mode));
8466   qty_const = (rtx *) alloca ((max_qty - max_reg) * sizeof (rtx));
8467   qty_const_insn = (rtx *) alloca ((max_qty - max_reg) * sizeof (rtx));
8468   qty_comparison_code
8469     = (enum rtx_code *) alloca ((max_qty - max_reg) * sizeof (enum rtx_code));
8470   qty_comparison_qty = (int *) alloca ((max_qty - max_reg) * sizeof (int));
8471   qty_comparison_const = (rtx *) alloca ((max_qty - max_reg) * sizeof (rtx));
8472
8473   qty_first_reg -= max_reg;
8474   qty_last_reg -= max_reg;
8475   qty_mode -= max_reg;
8476   qty_const -= max_reg;
8477   qty_const_insn -= max_reg;
8478   qty_comparison_code -= max_reg;
8479   qty_comparison_qty -= max_reg;
8480   qty_comparison_const -= max_reg;
8481
8482   new_basic_block ();
8483
8484   /* TO might be a label.  If so, protect it from being deleted.  */
8485   if (to != 0 && GET_CODE (to) == CODE_LABEL)
8486     ++LABEL_NUSES (to);
8487
8488   for (insn = from; insn != to; insn = NEXT_INSN (insn))
8489     {
8490       register enum rtx_code code;
8491
8492       /* See if this is a branch that is part of the path.  If so, and it is
8493          to be taken, do so.  */
8494       if (next_branch->branch == insn)
8495         {
8496           enum taken status = next_branch++->status;
8497           if (status != NOT_TAKEN)
8498             {
8499               if (status == TAKEN)
8500                 record_jump_equiv (insn, 1);
8501               else
8502                 invalidate_skipped_block (NEXT_INSN (insn));
8503
8504               /* Set the last insn as the jump insn; it doesn't affect cc0.
8505                  Then follow this branch.  */
8506 #ifdef HAVE_cc0
8507               prev_insn_cc0 = 0;
8508 #endif
8509               prev_insn = insn;
8510               insn = JUMP_LABEL (insn);
8511               continue;
8512             }
8513         }
8514         
8515       code = GET_CODE (insn);
8516       if (GET_MODE (insn) == QImode)
8517         PUT_MODE (insn, VOIDmode);
8518
8519       if (GET_RTX_CLASS (code) == 'i')
8520         {
8521           /* Process notes first so we have all notes in canonical forms when
8522              looking for duplicate operations.  */
8523
8524           if (REG_NOTES (insn))
8525             REG_NOTES (insn) = cse_process_notes (REG_NOTES (insn), NULL_RTX);
8526
8527           /* Track when we are inside in LIBCALL block.  Inside such a block,
8528              we do not want to record destinations.  The last insn of a
8529              LIBCALL block is not considered to be part of the block, since
8530              its destination is the result of the block and hence should be
8531              recorded.  */
8532
8533           if (find_reg_note (insn, REG_LIBCALL, NULL_RTX))
8534             in_libcall_block = 1;
8535           else if (find_reg_note (insn, REG_RETVAL, NULL_RTX))
8536             in_libcall_block = 0;
8537
8538           cse_insn (insn, in_libcall_block);
8539         }
8540
8541       /* If INSN is now an unconditional jump, skip to the end of our
8542          basic block by pretending that we just did the last insn in the
8543          basic block.  If we are jumping to the end of our block, show
8544          that we can have one usage of TO.  */
8545
8546       if (simplejump_p (insn))
8547         {
8548           if (to == 0)
8549             return 0;
8550
8551           if (JUMP_LABEL (insn) == to)
8552             to_usage = 1;
8553
8554           /* Maybe TO was deleted because the jump is unconditional.
8555              If so, there is nothing left in this basic block.  */
8556           /* ??? Perhaps it would be smarter to set TO
8557              to whatever follows this insn, 
8558              and pretend the basic block had always ended here.  */
8559           if (INSN_DELETED_P (to))
8560             break;
8561
8562           insn = PREV_INSN (to);
8563         }
8564
8565       /* See if it is ok to keep on going past the label
8566          which used to end our basic block.  Remember that we incremented
8567          the count of that label, so we decrement it here.  If we made
8568          a jump unconditional, TO_USAGE will be one; in that case, we don't
8569          want to count the use in that jump.  */
8570
8571       if (to != 0 && NEXT_INSN (insn) == to
8572           && GET_CODE (to) == CODE_LABEL && --LABEL_NUSES (to) == to_usage)
8573         {
8574           struct cse_basic_block_data val;
8575           rtx prev;
8576
8577           insn = NEXT_INSN (to);
8578
8579           if (LABEL_NUSES (to) == 0)
8580             insn = delete_insn (to);
8581
8582           /* If TO was the last insn in the function, we are done.  */
8583           if (insn == 0)
8584             return 0;
8585
8586           /* If TO was preceded by a BARRIER we are done with this block
8587              because it has no continuation.  */
8588           prev = prev_nonnote_insn (to);
8589           if (prev && GET_CODE (prev) == BARRIER)
8590             return insn;
8591
8592           /* Find the end of the following block.  Note that we won't be
8593              following branches in this case.  */
8594           to_usage = 0;
8595           val.path_size = 0;
8596           cse_end_of_basic_block (insn, &val, 0, 0, 0);
8597
8598           /* If the tables we allocated have enough space left
8599              to handle all the SETs in the next basic block,
8600              continue through it.  Otherwise, return,
8601              and that block will be scanned individually.  */
8602           if (val.nsets * 2 + next_qty > max_qty)
8603             break;
8604
8605           cse_basic_block_start = val.low_cuid;
8606           cse_basic_block_end = val.high_cuid;
8607           to = val.last;
8608
8609           /* Prevent TO from being deleted if it is a label.  */
8610           if (to != 0 && GET_CODE (to) == CODE_LABEL)
8611             ++LABEL_NUSES (to);
8612
8613           /* Back up so we process the first insn in the extension.  */
8614           insn = PREV_INSN (insn);
8615         }
8616     }
8617
8618   if (next_qty > max_qty)
8619     abort ();
8620
8621   /* If we are running before loop.c, we stopped on a NOTE_INSN_LOOP_END, and
8622      the previous insn is the only insn that branches to the head of a loop,
8623      we can cse into the loop.  Don't do this if we changed the jump
8624      structure of a loop unless we aren't going to be following jumps.  */
8625
8626   if ((cse_jumps_altered == 0
8627        || (flag_cse_follow_jumps == 0 && flag_cse_skip_blocks == 0))
8628       && around_loop && to != 0
8629       && GET_CODE (to) == NOTE && NOTE_LINE_NUMBER (to) == NOTE_INSN_LOOP_END
8630       && GET_CODE (PREV_INSN (to)) == JUMP_INSN
8631       && JUMP_LABEL (PREV_INSN (to)) != 0
8632       && LABEL_NUSES (JUMP_LABEL (PREV_INSN (to))) == 1)
8633     cse_around_loop (JUMP_LABEL (PREV_INSN (to)));
8634
8635   return to ? NEXT_INSN (to) : 0;
8636 }
8637 \f
8638 /* Count the number of times registers are used (not set) in X.
8639    COUNTS is an array in which we accumulate the count, INCR is how much
8640    we count each register usage.  
8641
8642    Don't count a usage of DEST, which is the SET_DEST of a SET which 
8643    contains X in its SET_SRC.  This is because such a SET does not
8644    modify the liveness of DEST.  */
8645
8646 static void
8647 count_reg_usage (x, counts, dest, incr)
8648      rtx x;
8649      int *counts;
8650      rtx dest;
8651      int incr;
8652 {
8653   enum rtx_code code;
8654   char *fmt;
8655   int i, j;
8656
8657   if (x == 0)
8658     return;
8659
8660   switch (code = GET_CODE (x))
8661     {
8662     case REG:
8663       if (x != dest)
8664         counts[REGNO (x)] += incr;
8665       return;
8666
8667     case PC:
8668     case CC0:
8669     case CONST:
8670     case CONST_INT:
8671     case CONST_DOUBLE:
8672     case SYMBOL_REF:
8673     case LABEL_REF:
8674     case CLOBBER:
8675       return;
8676
8677     case SET:
8678       /* Unless we are setting a REG, count everything in SET_DEST.  */
8679       if (GET_CODE (SET_DEST (x)) != REG)
8680         count_reg_usage (SET_DEST (x), counts, NULL_RTX, incr);
8681
8682       /* If SRC has side-effects, then we can't delete this insn, so the
8683          usage of SET_DEST inside SRC counts.
8684
8685          ??? Strictly-speaking, we might be preserving this insn
8686          because some other SET has side-effects, but that's hard
8687          to do and can't happen now.  */
8688       count_reg_usage (SET_SRC (x), counts,
8689                        side_effects_p (SET_SRC (x)) ? NULL_RTX : SET_DEST (x),
8690                        incr);
8691       return;
8692
8693     case CALL_INSN:
8694       count_reg_usage (CALL_INSN_FUNCTION_USAGE (x), counts, NULL_RTX, incr);
8695
8696       /* ... falls through ...  */
8697     case INSN:
8698     case JUMP_INSN:
8699       count_reg_usage (PATTERN (x), counts, NULL_RTX, incr);
8700
8701       /* Things used in a REG_EQUAL note aren't dead since loop may try to
8702          use them.  */
8703
8704       count_reg_usage (REG_NOTES (x), counts, NULL_RTX, incr);
8705       return;
8706
8707     case EXPR_LIST:
8708     case INSN_LIST:
8709       if (REG_NOTE_KIND (x) == REG_EQUAL
8710           || GET_CODE (XEXP (x,0)) == USE)
8711         count_reg_usage (XEXP (x, 0), counts, NULL_RTX, incr);
8712       count_reg_usage (XEXP (x, 1), counts, NULL_RTX, incr);
8713       return;
8714     }
8715
8716   fmt = GET_RTX_FORMAT (code);
8717   for (i = GET_RTX_LENGTH (code) - 1; i >= 0; i--)
8718     {
8719       if (fmt[i] == 'e')
8720         count_reg_usage (XEXP (x, i), counts, dest, incr);
8721       else if (fmt[i] == 'E')
8722         for (j = XVECLEN (x, i) - 1; j >= 0; j--)
8723           count_reg_usage (XVECEXP (x, i, j), counts, dest, incr);
8724     }
8725 }
8726 \f
8727 /* Scan all the insns and delete any that are dead; i.e., they store a register
8728    that is never used or they copy a register to itself.
8729
8730    This is used to remove insns made obviously dead by cse.  It improves the
8731    heuristics in loop since it won't try to move dead invariants out of loops
8732    or make givs for dead quantities.  The remaining passes of the compilation
8733    are also sped up.  */
8734
8735 void
8736 delete_dead_from_cse (insns, nreg)
8737      rtx insns;
8738      int nreg;
8739 {
8740   int *counts = (int *) alloca (nreg * sizeof (int));
8741   rtx insn, prev;
8742   rtx tem;
8743   int i;
8744   int in_libcall = 0;
8745
8746   /* First count the number of times each register is used.  */
8747   bzero ((char *) counts, sizeof (int) * nreg);
8748   for (insn = next_real_insn (insns); insn; insn = next_real_insn (insn))
8749     count_reg_usage (insn, counts, NULL_RTX, 1);
8750
8751   /* Go from the last insn to the first and delete insns that only set unused
8752      registers or copy a register to itself.  As we delete an insn, remove
8753      usage counts for registers it uses.  */
8754   for (insn = prev_real_insn (get_last_insn ()); insn; insn = prev)
8755     {
8756       int live_insn = 0;
8757
8758       prev = prev_real_insn (insn);
8759
8760       /* Don't delete any insns that are part of a libcall block.
8761          Flow or loop might get confused if we did that.  Remember
8762          that we are scanning backwards.  */
8763       if (find_reg_note (insn, REG_RETVAL, NULL_RTX))
8764         in_libcall = 1;
8765
8766       if (in_libcall)
8767         live_insn = 1;
8768       else if (GET_CODE (PATTERN (insn)) == SET)
8769         {
8770           if (GET_CODE (SET_DEST (PATTERN (insn))) == REG
8771               && SET_DEST (PATTERN (insn)) == SET_SRC (PATTERN (insn)))
8772             ;
8773
8774 #ifdef HAVE_cc0
8775           else if (GET_CODE (SET_DEST (PATTERN (insn))) == CC0
8776                    && ! side_effects_p (SET_SRC (PATTERN (insn)))
8777                    && ((tem = next_nonnote_insn (insn)) == 0
8778                        || GET_RTX_CLASS (GET_CODE (tem)) != 'i'
8779                        || ! reg_referenced_p (cc0_rtx, PATTERN (tem))))
8780             ;
8781 #endif
8782           else if (GET_CODE (SET_DEST (PATTERN (insn))) != REG
8783                    || REGNO (SET_DEST (PATTERN (insn))) < FIRST_PSEUDO_REGISTER
8784                    || counts[REGNO (SET_DEST (PATTERN (insn)))] != 0
8785                    || side_effects_p (SET_SRC (PATTERN (insn))))
8786             live_insn = 1;
8787         }
8788       else if (GET_CODE (PATTERN (insn)) == PARALLEL)
8789         for (i = XVECLEN (PATTERN (insn), 0) - 1; i >= 0; i--)
8790           {
8791             rtx elt = XVECEXP (PATTERN (insn), 0, i);
8792
8793             if (GET_CODE (elt) == SET)
8794               {
8795                 if (GET_CODE (SET_DEST (elt)) == REG
8796                     && SET_DEST (elt) == SET_SRC (elt))
8797                   ;
8798
8799 #ifdef HAVE_cc0
8800                 else if (GET_CODE (SET_DEST (elt)) == CC0
8801                          && ! side_effects_p (SET_SRC (elt))
8802                          && ((tem = next_nonnote_insn (insn)) == 0
8803                              || GET_RTX_CLASS (GET_CODE (tem)) != 'i'
8804                              || ! reg_referenced_p (cc0_rtx, PATTERN (tem))))
8805                   ;
8806 #endif
8807                 else if (GET_CODE (SET_DEST (elt)) != REG
8808                          || REGNO (SET_DEST (elt)) < FIRST_PSEUDO_REGISTER
8809                          || counts[REGNO (SET_DEST (elt))] != 0
8810                          || side_effects_p (SET_SRC (elt)))
8811                   live_insn = 1;
8812               }
8813             else if (GET_CODE (elt) != CLOBBER && GET_CODE (elt) != USE)
8814               live_insn = 1;
8815           }
8816       else
8817         live_insn = 1;
8818
8819       /* If this is a dead insn, delete it and show registers in it aren't
8820          being used.  */
8821
8822       if (! live_insn)
8823         {
8824           count_reg_usage (insn, counts, NULL_RTX, -1);
8825           delete_insn (insn);
8826         }
8827
8828       if (find_reg_note (insn, REG_LIBCALL, NULL_RTX))
8829         in_libcall = 0;
8830     }
8831 }