OSDN Git Service

* rtl.h (MEM_READONLY_P): Replace RTX_UNCHANGING_P.
[pf3gnuchains/gcc-fork.git] / gcc / stmt.c
1 /* Expands front end tree to back end RTL for GCC
2    Copyright (C) 1987, 1988, 1989, 1992, 1993, 1994, 1995, 1996, 1997,
3    1998, 1999, 2000, 2001, 2002, 2003, 2004 Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 59 Temple Place - Suite 330, Boston, MA
20 02111-1307, USA.  */
21
22 /* This file handles the generation of rtl code from tree structure
23    above the level of expressions, using subroutines in exp*.c and emit-rtl.c.
24    The functions whose names start with `expand_' are called by the
25    expander to generate RTL instructions for various kinds of constructs.  */
26
27 #include "config.h"
28 #include "system.h"
29 #include "coretypes.h"
30 #include "tm.h"
31
32 #include "rtl.h"
33 #include "tree.h"
34 #include "tm_p.h"
35 #include "flags.h"
36 #include "except.h"
37 #include "function.h"
38 #include "insn-config.h"
39 #include "expr.h"
40 #include "libfuncs.h"
41 #include "hard-reg-set.h"
42 #include "loop.h"
43 #include "recog.h"
44 #include "machmode.h"
45 #include "toplev.h"
46 #include "output.h"
47 #include "ggc.h"
48 #include "langhooks.h"
49 #include "predict.h"
50 #include "optabs.h"
51 #include "target.h"
52 #include "regs.h"
53 \f
54 /* Functions and data structures for expanding case statements.  */
55
56 /* Case label structure, used to hold info on labels within case
57    statements.  We handle "range" labels; for a single-value label
58    as in C, the high and low limits are the same.
59
60    We start with a vector of case nodes sorted in ascending order, and
61    the default label as the last element in the vector.  Before expanding
62    to RTL, we transform this vector into a list linked via the RIGHT
63    fields in the case_node struct.  Nodes with higher case values are
64    later in the list.
65
66    Switch statements can be output in three forms.  A branch table is
67    used if there are more than a few labels and the labels are dense
68    within the range between the smallest and largest case value.  If a
69    branch table is used, no further manipulations are done with the case
70    node chain.
71
72    The alternative to the use of a branch table is to generate a series
73    of compare and jump insns.  When that is done, we use the LEFT, RIGHT,
74    and PARENT fields to hold a binary tree.  Initially the tree is
75    totally unbalanced, with everything on the right.  We balance the tree
76    with nodes on the left having lower case values than the parent
77    and nodes on the right having higher values.  We then output the tree
78    in order.
79
80    For very small, suitable switch statements, we can generate a series
81    of simple bit test and branches instead.  */
82
83 struct case_node GTY(())
84 {
85   struct case_node      *left;  /* Left son in binary tree */
86   struct case_node      *right; /* Right son in binary tree; also node chain */
87   struct case_node      *parent; /* Parent of node in binary tree */
88   tree                  low;    /* Lowest index value for this label */
89   tree                  high;   /* Highest index value for this label */
90   tree                  code_label; /* Label to jump to when node matches */
91 };
92
93 typedef struct case_node case_node;
94 typedef struct case_node *case_node_ptr;
95
96 /* These are used by estimate_case_costs and balance_case_nodes.  */
97
98 /* This must be a signed type, and non-ANSI compilers lack signed char.  */
99 static short cost_table_[129];
100 static int use_cost_table;
101 static int cost_table_initialized;
102
103 /* Special care is needed because we allow -1, but TREE_INT_CST_LOW
104    is unsigned.  */
105 #define COST_TABLE(I)  cost_table_[(unsigned HOST_WIDE_INT) ((I) + 1)]
106 \f
107 static int n_occurrences (int, const char *);
108 static bool decl_conflicts_with_clobbers_p (tree, const HARD_REG_SET);
109 static void expand_nl_goto_receiver (void);
110 static bool check_operand_nalternatives (tree, tree);
111 static bool check_unique_operand_names (tree, tree);
112 static char *resolve_operand_name_1 (char *, tree, tree);
113 static void expand_null_return_1 (void);
114 static rtx shift_return_value (rtx);
115 static void expand_value_return (rtx);
116 static void do_jump_if_equal (rtx, rtx, rtx, int);
117 static int estimate_case_costs (case_node_ptr);
118 static bool lshift_cheap_p (void);
119 static int case_bit_test_cmp (const void *, const void *);
120 static void emit_case_bit_tests (tree, tree, tree, tree, case_node_ptr, rtx);
121 static void balance_case_nodes (case_node_ptr *, case_node_ptr);
122 static int node_has_low_bound (case_node_ptr, tree);
123 static int node_has_high_bound (case_node_ptr, tree);
124 static int node_is_bounded (case_node_ptr, tree);
125 static void emit_case_nodes (rtx, case_node_ptr, rtx, tree);
126 static struct case_node *add_case_node (struct case_node *, tree, tree, tree);
127
128 \f
129 /* Return the rtx-label that corresponds to a LABEL_DECL,
130    creating it if necessary.  */
131
132 rtx
133 label_rtx (tree label)
134 {
135   if (TREE_CODE (label) != LABEL_DECL)
136     abort ();
137
138   if (!DECL_RTL_SET_P (label))
139     {
140       rtx r = gen_label_rtx ();
141       SET_DECL_RTL (label, r);
142       if (FORCED_LABEL (label) || DECL_NONLOCAL (label))
143         LABEL_PRESERVE_P (r) = 1;
144     }
145
146   return DECL_RTL (label);
147 }
148
149 /* As above, but also put it on the forced-reference list of the
150    function that contains it.  */
151 rtx
152 force_label_rtx (tree label)
153 {
154   rtx ref = label_rtx (label);
155   tree function = decl_function_context (label);
156   struct function *p;
157
158   if (!function)
159     abort ();
160
161   if (function != current_function_decl)
162     p = find_function_data (function);
163   else
164     p = cfun;
165
166   p->expr->x_forced_labels = gen_rtx_EXPR_LIST (VOIDmode, ref,
167                                                 p->expr->x_forced_labels);
168   return ref;
169 }
170
171 /* Add an unconditional jump to LABEL as the next sequential instruction.  */
172
173 void
174 emit_jump (rtx label)
175 {
176   do_pending_stack_adjust ();
177   emit_jump_insn (gen_jump (label));
178   emit_barrier ();
179 }
180
181 /* Emit code to jump to the address
182    specified by the pointer expression EXP.  */
183
184 void
185 expand_computed_goto (tree exp)
186 {
187   rtx x = expand_expr (exp, NULL_RTX, VOIDmode, 0);
188
189   x = convert_memory_address (Pmode, x);
190
191   do_pending_stack_adjust ();
192   emit_indirect_jump (x);
193 }
194 \f
195 /* Handle goto statements and the labels that they can go to.  */
196
197 /* Specify the location in the RTL code of a label LABEL,
198    which is a LABEL_DECL tree node.
199
200    This is used for the kind of label that the user can jump to with a
201    goto statement, and for alternatives of a switch or case statement.
202    RTL labels generated for loops and conditionals don't go through here;
203    they are generated directly at the RTL level, by other functions below.
204
205    Note that this has nothing to do with defining label *names*.
206    Languages vary in how they do that and what that even means.  */
207
208 void
209 expand_label (tree label)
210 {
211   rtx label_r = label_rtx (label);
212
213   do_pending_stack_adjust ();
214   emit_label (label_r);
215   if (DECL_NAME (label))
216     LABEL_NAME (DECL_RTL (label)) = IDENTIFIER_POINTER (DECL_NAME (label));
217
218   if (DECL_NONLOCAL (label))
219     {
220       expand_nl_goto_receiver ();
221       nonlocal_goto_handler_labels
222         = gen_rtx_EXPR_LIST (VOIDmode, label_r,
223                              nonlocal_goto_handler_labels);
224     }
225
226   if (FORCED_LABEL (label))
227     forced_labels = gen_rtx_EXPR_LIST (VOIDmode, label_r, forced_labels);
228
229   if (DECL_NONLOCAL (label) || FORCED_LABEL (label))
230     maybe_set_first_label_num (label_r);
231 }
232
233 /* Generate RTL code for a `goto' statement with target label LABEL.
234    LABEL should be a LABEL_DECL tree node that was or will later be
235    defined with `expand_label'.  */
236
237 void
238 expand_goto (tree label)
239 {
240 #ifdef ENABLE_CHECKING
241   /* Check for a nonlocal goto to a containing function.  Should have
242      gotten translated to __builtin_nonlocal_goto.  */
243   tree context = decl_function_context (label);
244   if (context != 0 && context != current_function_decl)
245     abort ();
246 #endif
247
248   emit_jump (label_rtx (label));
249 }
250 \f
251 /* Return the number of times character C occurs in string S.  */
252 static int
253 n_occurrences (int c, const char *s)
254 {
255   int n = 0;
256   while (*s)
257     n += (*s++ == c);
258   return n;
259 }
260 \f
261 /* Generate RTL for an asm statement (explicit assembler code).
262    STRING is a STRING_CST node containing the assembler code text,
263    or an ADDR_EXPR containing a STRING_CST.  VOL nonzero means the
264    insn is volatile; don't optimize it.  */
265
266 void
267 expand_asm (tree string, int vol)
268 {
269   rtx body;
270
271   if (TREE_CODE (string) == ADDR_EXPR)
272     string = TREE_OPERAND (string, 0);
273
274   body = gen_rtx_ASM_INPUT (VOIDmode, TREE_STRING_POINTER (string));
275
276   MEM_VOLATILE_P (body) = vol;
277
278   emit_insn (body);
279 }
280
281 /* Parse the output constraint pointed to by *CONSTRAINT_P.  It is the
282    OPERAND_NUMth output operand, indexed from zero.  There are NINPUTS
283    inputs and NOUTPUTS outputs to this extended-asm.  Upon return,
284    *ALLOWS_MEM will be TRUE iff the constraint allows the use of a
285    memory operand.  Similarly, *ALLOWS_REG will be TRUE iff the
286    constraint allows the use of a register operand.  And, *IS_INOUT
287    will be true if the operand is read-write, i.e., if it is used as
288    an input as well as an output.  If *CONSTRAINT_P is not in
289    canonical form, it will be made canonical.  (Note that `+' will be
290    replaced with `=' as part of this process.)
291
292    Returns TRUE if all went well; FALSE if an error occurred.  */
293
294 bool
295 parse_output_constraint (const char **constraint_p, int operand_num,
296                          int ninputs, int noutputs, bool *allows_mem,
297                          bool *allows_reg, bool *is_inout)
298 {
299   const char *constraint = *constraint_p;
300   const char *p;
301
302   /* Assume the constraint doesn't allow the use of either a register
303      or memory.  */
304   *allows_mem = false;
305   *allows_reg = false;
306
307   /* Allow the `=' or `+' to not be at the beginning of the string,
308      since it wasn't explicitly documented that way, and there is a
309      large body of code that puts it last.  Swap the character to
310      the front, so as not to uglify any place else.  */
311   p = strchr (constraint, '=');
312   if (!p)
313     p = strchr (constraint, '+');
314
315   /* If the string doesn't contain an `=', issue an error
316      message.  */
317   if (!p)
318     {
319       error ("output operand constraint lacks `='");
320       return false;
321     }
322
323   /* If the constraint begins with `+', then the operand is both read
324      from and written to.  */
325   *is_inout = (*p == '+');
326
327   /* Canonicalize the output constraint so that it begins with `='.  */
328   if (p != constraint || is_inout)
329     {
330       char *buf;
331       size_t c_len = strlen (constraint);
332
333       if (p != constraint)
334         warning ("output constraint `%c' for operand %d is not at the beginning",
335                  *p, operand_num);
336
337       /* Make a copy of the constraint.  */
338       buf = alloca (c_len + 1);
339       strcpy (buf, constraint);
340       /* Swap the first character and the `=' or `+'.  */
341       buf[p - constraint] = buf[0];
342       /* Make sure the first character is an `='.  (Until we do this,
343          it might be a `+'.)  */
344       buf[0] = '=';
345       /* Replace the constraint with the canonicalized string.  */
346       *constraint_p = ggc_alloc_string (buf, c_len);
347       constraint = *constraint_p;
348     }
349
350   /* Loop through the constraint string.  */
351   for (p = constraint + 1; *p; p += CONSTRAINT_LEN (*p, p))
352     switch (*p)
353       {
354       case '+':
355       case '=':
356         error ("operand constraint contains incorrectly positioned '+' or '='");
357         return false;
358
359       case '%':
360         if (operand_num + 1 == ninputs + noutputs)
361           {
362             error ("`%%' constraint used with last operand");
363             return false;
364           }
365         break;
366
367       case 'V':  case 'm':  case 'o':
368         *allows_mem = true;
369         break;
370
371       case '?':  case '!':  case '*':  case '&':  case '#':
372       case 'E':  case 'F':  case 'G':  case 'H':
373       case 's':  case 'i':  case 'n':
374       case 'I':  case 'J':  case 'K':  case 'L':  case 'M':
375       case 'N':  case 'O':  case 'P':  case ',':
376         break;
377
378       case '0':  case '1':  case '2':  case '3':  case '4':
379       case '5':  case '6':  case '7':  case '8':  case '9':
380       case '[':
381         error ("matching constraint not valid in output operand");
382         return false;
383
384       case '<':  case '>':
385         /* ??? Before flow, auto inc/dec insns are not supposed to exist,
386            excepting those that expand_call created.  So match memory
387            and hope.  */
388         *allows_mem = true;
389         break;
390
391       case 'g':  case 'X':
392         *allows_reg = true;
393         *allows_mem = true;
394         break;
395
396       case 'p': case 'r':
397         *allows_reg = true;
398         break;
399
400       default:
401         if (!ISALPHA (*p))
402           break;
403         if (REG_CLASS_FROM_CONSTRAINT (*p, p) != NO_REGS)
404           *allows_reg = true;
405 #ifdef EXTRA_CONSTRAINT_STR
406         else if (EXTRA_ADDRESS_CONSTRAINT (*p, p))
407           *allows_reg = true;
408         else if (EXTRA_MEMORY_CONSTRAINT (*p, p))
409           *allows_mem = true;
410         else
411           {
412             /* Otherwise we can't assume anything about the nature of
413                the constraint except that it isn't purely registers.
414                Treat it like "g" and hope for the best.  */
415             *allows_reg = true;
416             *allows_mem = true;
417           }
418 #endif
419         break;
420       }
421
422   return true;
423 }
424
425 /* Similar, but for input constraints.  */
426
427 bool
428 parse_input_constraint (const char **constraint_p, int input_num,
429                         int ninputs, int noutputs, int ninout,
430                         const char * const * constraints,
431                         bool *allows_mem, bool *allows_reg)
432 {
433   const char *constraint = *constraint_p;
434   const char *orig_constraint = constraint;
435   size_t c_len = strlen (constraint);
436   size_t j;
437   bool saw_match = false;
438
439   /* Assume the constraint doesn't allow the use of either
440      a register or memory.  */
441   *allows_mem = false;
442   *allows_reg = false;
443
444   /* Make sure constraint has neither `=', `+', nor '&'.  */
445
446   for (j = 0; j < c_len; j += CONSTRAINT_LEN (constraint[j], constraint+j))
447     switch (constraint[j])
448       {
449       case '+':  case '=':  case '&':
450         if (constraint == orig_constraint)
451           {
452             error ("input operand constraint contains `%c'", constraint[j]);
453             return false;
454           }
455         break;
456
457       case '%':
458         if (constraint == orig_constraint
459             && input_num + 1 == ninputs - ninout)
460           {
461             error ("`%%' constraint used with last operand");
462             return false;
463           }
464         break;
465
466       case 'V':  case 'm':  case 'o':
467         *allows_mem = true;
468         break;
469
470       case '<':  case '>':
471       case '?':  case '!':  case '*':  case '#':
472       case 'E':  case 'F':  case 'G':  case 'H':
473       case 's':  case 'i':  case 'n':
474       case 'I':  case 'J':  case 'K':  case 'L':  case 'M':
475       case 'N':  case 'O':  case 'P':  case ',':
476         break;
477
478         /* Whether or not a numeric constraint allows a register is
479            decided by the matching constraint, and so there is no need
480            to do anything special with them.  We must handle them in
481            the default case, so that we don't unnecessarily force
482            operands to memory.  */
483       case '0':  case '1':  case '2':  case '3':  case '4':
484       case '5':  case '6':  case '7':  case '8':  case '9':
485         {
486           char *end;
487           unsigned long match;
488
489           saw_match = true;
490
491           match = strtoul (constraint + j, &end, 10);
492           if (match >= (unsigned long) noutputs)
493             {
494               error ("matching constraint references invalid operand number");
495               return false;
496             }
497
498           /* Try and find the real constraint for this dup.  Only do this
499              if the matching constraint is the only alternative.  */
500           if (*end == '\0'
501               && (j == 0 || (j == 1 && constraint[0] == '%')))
502             {
503               constraint = constraints[match];
504               *constraint_p = constraint;
505               c_len = strlen (constraint);
506               j = 0;
507               /* ??? At the end of the loop, we will skip the first part of
508                  the matched constraint.  This assumes not only that the
509                  other constraint is an output constraint, but also that
510                  the '=' or '+' come first.  */
511               break;
512             }
513           else
514             j = end - constraint;
515           /* Anticipate increment at end of loop.  */
516           j--;
517         }
518         /* Fall through.  */
519
520       case 'p':  case 'r':
521         *allows_reg = true;
522         break;
523
524       case 'g':  case 'X':
525         *allows_reg = true;
526         *allows_mem = true;
527         break;
528
529       default:
530         if (! ISALPHA (constraint[j]))
531           {
532             error ("invalid punctuation `%c' in constraint", constraint[j]);
533             return false;
534           }
535         if (REG_CLASS_FROM_CONSTRAINT (constraint[j], constraint + j)
536             != NO_REGS)
537           *allows_reg = true;
538 #ifdef EXTRA_CONSTRAINT_STR
539         else if (EXTRA_ADDRESS_CONSTRAINT (constraint[j], constraint + j))
540           *allows_reg = true;
541         else if (EXTRA_MEMORY_CONSTRAINT (constraint[j], constraint + j))
542           *allows_mem = true;
543         else
544           {
545             /* Otherwise we can't assume anything about the nature of
546                the constraint except that it isn't purely registers.
547                Treat it like "g" and hope for the best.  */
548             *allows_reg = true;
549             *allows_mem = true;
550           }
551 #endif
552         break;
553       }
554
555   if (saw_match && !*allows_reg)
556     warning ("matching constraint does not allow a register");
557
558   return true;
559 }
560
561 /* INPUT is one of the input operands from EXPR, an ASM_EXPR.  Returns true
562    if it is an operand which must be passed in memory (i.e. an "m"
563    constraint), false otherwise.  */
564
565 bool
566 asm_op_is_mem_input (tree input, tree expr)
567 {
568   const char *constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (input)));
569   tree outputs = ASM_OUTPUTS (expr);
570   int noutputs = list_length (outputs);
571   const char **constraints
572     = (const char **) alloca ((noutputs) * sizeof (const char *));
573   int i = 0;
574   bool allows_mem, allows_reg;
575   tree t;
576
577   /* Collect output constraints.  */
578   for (t = outputs; t ; t = TREE_CHAIN (t), i++)
579     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
580
581   /* We pass 0 for input_num, ninputs and ninout; they are only used for
582      error checking which will be done at expand time.  */
583   parse_input_constraint (&constraint, 0, 0, noutputs, 0, constraints,
584                           &allows_mem, &allows_reg);
585   return (!allows_reg && allows_mem);
586 }
587
588 /* Check for overlap between registers marked in CLOBBERED_REGS and
589    anything inappropriate in DECL.  Emit error and return TRUE for error,
590    FALSE for ok.  */
591
592 static bool
593 decl_conflicts_with_clobbers_p (tree decl, const HARD_REG_SET clobbered_regs)
594 {
595   /* Conflicts between asm-declared register variables and the clobber
596      list are not allowed.  */
597   if ((TREE_CODE (decl) == VAR_DECL || TREE_CODE (decl) == PARM_DECL)
598       && DECL_REGISTER (decl)
599       && REG_P (DECL_RTL (decl))
600       && REGNO (DECL_RTL (decl)) < FIRST_PSEUDO_REGISTER)
601     {
602       rtx reg = DECL_RTL (decl);
603       unsigned int regno;
604
605       for (regno = REGNO (reg);
606            regno < (REGNO (reg)
607                     + hard_regno_nregs[REGNO (reg)][GET_MODE (reg)]);
608            regno++)
609         if (TEST_HARD_REG_BIT (clobbered_regs, regno))
610           {
611             error ("asm-specifier for variable `%s' conflicts with asm clobber list",
612                    IDENTIFIER_POINTER (DECL_NAME (decl)));
613
614             /* Reset registerness to stop multiple errors emitted for a
615                single variable.  */
616             DECL_REGISTER (decl) = 0;
617             return true;
618           }
619     }
620   return false;
621 }
622
623 /* Generate RTL for an asm statement with arguments.
624    STRING is the instruction template.
625    OUTPUTS is a list of output arguments (lvalues); INPUTS a list of inputs.
626    Each output or input has an expression in the TREE_VALUE and
627    and a tree list in TREE_PURPOSE which in turn contains a constraint
628    name in TREE_VALUE (or NULL_TREE) and a constraint string
629    in TREE_PURPOSE.
630    CLOBBERS is a list of STRING_CST nodes each naming a hard register
631    that is clobbered by this insn.
632
633    Not all kinds of lvalue that may appear in OUTPUTS can be stored directly.
634    Some elements of OUTPUTS may be replaced with trees representing temporary
635    values.  The caller should copy those temporary values to the originally
636    specified lvalues.
637
638    VOL nonzero means the insn is volatile; don't optimize it.  */
639
640 void
641 expand_asm_operands (tree string, tree outputs, tree inputs,
642                      tree clobbers, int vol, location_t locus)
643 {
644   rtvec argvec, constraintvec;
645   rtx body;
646   int ninputs = list_length (inputs);
647   int noutputs = list_length (outputs);
648   int ninout;
649   int nclobbers;
650   HARD_REG_SET clobbered_regs;
651   int clobber_conflict_found = 0;
652   tree tail;
653   tree t;
654   int i;
655   /* Vector of RTX's of evaluated output operands.  */
656   rtx *output_rtx = alloca (noutputs * sizeof (rtx));
657   int *inout_opnum = alloca (noutputs * sizeof (int));
658   rtx *real_output_rtx = alloca (noutputs * sizeof (rtx));
659   enum machine_mode *inout_mode
660     = alloca (noutputs * sizeof (enum machine_mode));
661   const char **constraints
662     = alloca ((noutputs + ninputs) * sizeof (const char *));
663   int old_generating_concat_p = generating_concat_p;
664
665   /* An ASM with no outputs needs to be treated as volatile, for now.  */
666   if (noutputs == 0)
667     vol = 1;
668
669   if (! check_operand_nalternatives (outputs, inputs))
670     return;
671
672   string = resolve_asm_operand_names (string, outputs, inputs);
673
674   /* Collect constraints.  */
675   i = 0;
676   for (t = outputs; t ; t = TREE_CHAIN (t), i++)
677     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
678   for (t = inputs; t ; t = TREE_CHAIN (t), i++)
679     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
680
681   /* Sometimes we wish to automatically clobber registers across an asm.
682      Case in point is when the i386 backend moved from cc0 to a hard reg --
683      maintaining source-level compatibility means automatically clobbering
684      the flags register.  */
685   clobbers = targetm.md_asm_clobbers (clobbers);
686
687   /* Count the number of meaningful clobbered registers, ignoring what
688      we would ignore later.  */
689   nclobbers = 0;
690   CLEAR_HARD_REG_SET (clobbered_regs);
691   for (tail = clobbers; tail; tail = TREE_CHAIN (tail))
692     {
693       const char *regname = TREE_STRING_POINTER (TREE_VALUE (tail));
694
695       i = decode_reg_name (regname);
696       if (i >= 0 || i == -4)
697         ++nclobbers;
698       else if (i == -2)
699         error ("unknown register name `%s' in `asm'", regname);
700
701       /* Mark clobbered registers.  */
702       if (i >= 0)
703         {
704           /* Clobbering the PIC register is an error */
705           if (i == (int) PIC_OFFSET_TABLE_REGNUM)
706             {
707               error ("PIC register `%s' clobbered in `asm'", regname);
708               return;
709             }
710
711           SET_HARD_REG_BIT (clobbered_regs, i);
712         }
713     }
714
715   /* First pass over inputs and outputs checks validity and sets
716      mark_addressable if needed.  */
717
718   ninout = 0;
719   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
720     {
721       tree val = TREE_VALUE (tail);
722       tree type = TREE_TYPE (val);
723       const char *constraint;
724       bool is_inout;
725       bool allows_reg;
726       bool allows_mem;
727
728       /* If there's an erroneous arg, emit no insn.  */
729       if (type == error_mark_node)
730         return;
731
732       /* Try to parse the output constraint.  If that fails, there's
733          no point in going further.  */
734       constraint = constraints[i];
735       if (!parse_output_constraint (&constraint, i, ninputs, noutputs,
736                                     &allows_mem, &allows_reg, &is_inout))
737         return;
738
739       if (! allows_reg
740           && (allows_mem
741               || is_inout
742               || (DECL_P (val)
743                   && REG_P (DECL_RTL (val))
744                   && GET_MODE (DECL_RTL (val)) != TYPE_MODE (type))))
745         lang_hooks.mark_addressable (val);
746
747       if (is_inout)
748         ninout++;
749     }
750
751   ninputs += ninout;
752   if (ninputs + noutputs > MAX_RECOG_OPERANDS)
753     {
754       error ("more than %d operands in `asm'", MAX_RECOG_OPERANDS);
755       return;
756     }
757
758   for (i = 0, tail = inputs; tail; i++, tail = TREE_CHAIN (tail))
759     {
760       bool allows_reg, allows_mem;
761       const char *constraint;
762
763       /* If there's an erroneous arg, emit no insn, because the ASM_INPUT
764          would get VOIDmode and that could cause a crash in reload.  */
765       if (TREE_TYPE (TREE_VALUE (tail)) == error_mark_node)
766         return;
767
768       constraint = constraints[i + noutputs];
769       if (! parse_input_constraint (&constraint, i, ninputs, noutputs, ninout,
770                                     constraints, &allows_mem, &allows_reg))
771         return;
772
773       if (! allows_reg && allows_mem)
774         lang_hooks.mark_addressable (TREE_VALUE (tail));
775     }
776
777   /* Second pass evaluates arguments.  */
778
779   ninout = 0;
780   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
781     {
782       tree val = TREE_VALUE (tail);
783       tree type = TREE_TYPE (val);
784       bool is_inout;
785       bool allows_reg;
786       bool allows_mem;
787       rtx op;
788
789       if (!parse_output_constraint (&constraints[i], i, ninputs,
790                                     noutputs, &allows_mem, &allows_reg,
791                                     &is_inout))
792         abort ();
793
794       /* If an output operand is not a decl or indirect ref and our constraint
795          allows a register, make a temporary to act as an intermediate.
796          Make the asm insn write into that, then our caller will copy it to
797          the real output operand.  Likewise for promoted variables.  */
798
799       generating_concat_p = 0;
800
801       real_output_rtx[i] = NULL_RTX;
802       if ((TREE_CODE (val) == INDIRECT_REF
803            && allows_mem)
804           || (DECL_P (val)
805               && (allows_mem || REG_P (DECL_RTL (val)))
806               && ! (REG_P (DECL_RTL (val))
807                     && GET_MODE (DECL_RTL (val)) != TYPE_MODE (type)))
808           || ! allows_reg
809           || is_inout)
810         {
811           op = expand_expr (val, NULL_RTX, VOIDmode, EXPAND_WRITE);
812           if (MEM_P (op))
813             op = validize_mem (op);
814
815           if (! allows_reg && !MEM_P (op))
816             error ("output number %d not directly addressable", i);
817           if ((! allows_mem && MEM_P (op))
818               || GET_CODE (op) == CONCAT)
819             {
820               real_output_rtx[i] = op;
821               op = gen_reg_rtx (GET_MODE (op));
822               if (is_inout)
823                 emit_move_insn (op, real_output_rtx[i]);
824             }
825         }
826       else
827         {
828           op = assign_temp (type, 0, 0, 1);
829           op = validize_mem (op);
830           TREE_VALUE (tail) = make_tree (type, op);
831         }
832       output_rtx[i] = op;
833
834       generating_concat_p = old_generating_concat_p;
835
836       if (is_inout)
837         {
838           inout_mode[ninout] = TYPE_MODE (type);
839           inout_opnum[ninout++] = i;
840         }
841
842       if (decl_conflicts_with_clobbers_p (val, clobbered_regs))
843         clobber_conflict_found = 1;
844     }
845
846   /* Make vectors for the expression-rtx, constraint strings,
847      and named operands.  */
848
849   argvec = rtvec_alloc (ninputs);
850   constraintvec = rtvec_alloc (ninputs);
851
852   body = gen_rtx_ASM_OPERANDS ((noutputs == 0 ? VOIDmode
853                                 : GET_MODE (output_rtx[0])),
854                                TREE_STRING_POINTER (string),
855                                empty_string, 0, argvec, constraintvec,
856                                locus);
857
858   MEM_VOLATILE_P (body) = vol;
859
860   /* Eval the inputs and put them into ARGVEC.
861      Put their constraints into ASM_INPUTs and store in CONSTRAINTS.  */
862
863   for (i = 0, tail = inputs; tail; tail = TREE_CHAIN (tail), ++i)
864     {
865       bool allows_reg, allows_mem;
866       const char *constraint;
867       tree val, type;
868       rtx op;
869
870       constraint = constraints[i + noutputs];
871       if (! parse_input_constraint (&constraint, i, ninputs, noutputs, ninout,
872                                     constraints, &allows_mem, &allows_reg))
873         abort ();
874
875       generating_concat_p = 0;
876
877       val = TREE_VALUE (tail);
878       type = TREE_TYPE (val);
879       op = expand_expr (val, NULL_RTX, VOIDmode,
880                         (allows_mem && !allows_reg
881                          ? EXPAND_MEMORY : EXPAND_NORMAL));
882
883       /* Never pass a CONCAT to an ASM.  */
884       if (GET_CODE (op) == CONCAT)
885         op = force_reg (GET_MODE (op), op);
886       else if (MEM_P (op))
887         op = validize_mem (op);
888
889       if (asm_operand_ok (op, constraint) <= 0)
890         {
891           if (allows_reg)
892             op = force_reg (TYPE_MODE (type), op);
893           else if (!allows_mem)
894             warning ("asm operand %d probably doesn't match constraints",
895                      i + noutputs);
896           else if (MEM_P (op))
897             {
898               /* We won't recognize either volatile memory or memory
899                  with a queued address as available a memory_operand
900                  at this point.  Ignore it: clearly this *is* a memory.  */
901             }
902           else
903             {
904               warning ("use of memory input without lvalue in "
905                        "asm operand %d is deprecated", i + noutputs);
906
907               if (CONSTANT_P (op))
908                 {
909                   rtx mem = force_const_mem (TYPE_MODE (type), op);
910                   if (mem)
911                     op = validize_mem (mem);
912                   else
913                     op = force_reg (TYPE_MODE (type), op);
914                 }
915               if (REG_P (op)
916                   || GET_CODE (op) == SUBREG
917                   || GET_CODE (op) == CONCAT)
918                 {
919                   tree qual_type = build_qualified_type (type,
920                                                          (TYPE_QUALS (type)
921                                                           | TYPE_QUAL_CONST));
922                   rtx memloc = assign_temp (qual_type, 1, 1, 1);
923                   memloc = validize_mem (memloc);
924                   emit_move_insn (memloc, op);
925                   op = memloc;
926                 }
927             }
928         }
929
930       generating_concat_p = old_generating_concat_p;
931       ASM_OPERANDS_INPUT (body, i) = op;
932
933       ASM_OPERANDS_INPUT_CONSTRAINT_EXP (body, i)
934         = gen_rtx_ASM_INPUT (TYPE_MODE (type), constraints[i + noutputs]);
935
936       if (decl_conflicts_with_clobbers_p (val, clobbered_regs))
937         clobber_conflict_found = 1;
938     }
939
940   /* Protect all the operands from the queue now that they have all been
941      evaluated.  */
942
943   generating_concat_p = 0;
944
945   /* For in-out operands, copy output rtx to input rtx.  */
946   for (i = 0; i < ninout; i++)
947     {
948       int j = inout_opnum[i];
949       char buffer[16];
950
951       ASM_OPERANDS_INPUT (body, ninputs - ninout + i)
952         = output_rtx[j];
953
954       sprintf (buffer, "%d", j);
955       ASM_OPERANDS_INPUT_CONSTRAINT_EXP (body, ninputs - ninout + i)
956         = gen_rtx_ASM_INPUT (inout_mode[i], ggc_strdup (buffer));
957     }
958
959   generating_concat_p = old_generating_concat_p;
960
961   /* Now, for each output, construct an rtx
962      (set OUTPUT (asm_operands INSN OUTPUTCONSTRAINT OUTPUTNUMBER
963                                ARGVEC CONSTRAINTS OPNAMES))
964      If there is more than one, put them inside a PARALLEL.  */
965
966   if (noutputs == 1 && nclobbers == 0)
967     {
968       ASM_OPERANDS_OUTPUT_CONSTRAINT (body) = constraints[0];
969       emit_insn (gen_rtx_SET (VOIDmode, output_rtx[0], body));
970     }
971
972   else if (noutputs == 0 && nclobbers == 0)
973     {
974       /* No output operands: put in a raw ASM_OPERANDS rtx.  */
975       emit_insn (body);
976     }
977
978   else
979     {
980       rtx obody = body;
981       int num = noutputs;
982
983       if (num == 0)
984         num = 1;
985
986       body = gen_rtx_PARALLEL (VOIDmode, rtvec_alloc (num + nclobbers));
987
988       /* For each output operand, store a SET.  */
989       for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
990         {
991           XVECEXP (body, 0, i)
992             = gen_rtx_SET (VOIDmode,
993                            output_rtx[i],
994                            gen_rtx_ASM_OPERANDS
995                            (GET_MODE (output_rtx[i]),
996                             TREE_STRING_POINTER (string),
997                             constraints[i], i, argvec, constraintvec,
998                             locus));
999
1000           MEM_VOLATILE_P (SET_SRC (XVECEXP (body, 0, i))) = vol;
1001         }
1002
1003       /* If there are no outputs (but there are some clobbers)
1004          store the bare ASM_OPERANDS into the PARALLEL.  */
1005
1006       if (i == 0)
1007         XVECEXP (body, 0, i++) = obody;
1008
1009       /* Store (clobber REG) for each clobbered register specified.  */
1010
1011       for (tail = clobbers; tail; tail = TREE_CHAIN (tail))
1012         {
1013           const char *regname = TREE_STRING_POINTER (TREE_VALUE (tail));
1014           int j = decode_reg_name (regname);
1015           rtx clobbered_reg;
1016
1017           if (j < 0)
1018             {
1019               if (j == -3)      /* `cc', which is not a register */
1020                 continue;
1021
1022               if (j == -4)      /* `memory', don't cache memory across asm */
1023                 {
1024                   XVECEXP (body, 0, i++)
1025                     = gen_rtx_CLOBBER (VOIDmode,
1026                                        gen_rtx_MEM
1027                                        (BLKmode,
1028                                         gen_rtx_SCRATCH (VOIDmode)));
1029                   continue;
1030                 }
1031
1032               /* Ignore unknown register, error already signaled.  */
1033               continue;
1034             }
1035
1036           /* Use QImode since that's guaranteed to clobber just one reg.  */
1037           clobbered_reg = gen_rtx_REG (QImode, j);
1038
1039           /* Do sanity check for overlap between clobbers and respectively
1040              input and outputs that hasn't been handled.  Such overlap
1041              should have been detected and reported above.  */
1042           if (!clobber_conflict_found)
1043             {
1044               int opno;
1045
1046               /* We test the old body (obody) contents to avoid tripping
1047                  over the under-construction body.  */
1048               for (opno = 0; opno < noutputs; opno++)
1049                 if (reg_overlap_mentioned_p (clobbered_reg, output_rtx[opno]))
1050                   internal_error ("asm clobber conflict with output operand");
1051
1052               for (opno = 0; opno < ninputs - ninout; opno++)
1053                 if (reg_overlap_mentioned_p (clobbered_reg,
1054                                              ASM_OPERANDS_INPUT (obody, opno)))
1055                   internal_error ("asm clobber conflict with input operand");
1056             }
1057
1058           XVECEXP (body, 0, i++)
1059             = gen_rtx_CLOBBER (VOIDmode, clobbered_reg);
1060         }
1061
1062       emit_insn (body);
1063     }
1064
1065   /* For any outputs that needed reloading into registers, spill them
1066      back to where they belong.  */
1067   for (i = 0; i < noutputs; ++i)
1068     if (real_output_rtx[i])
1069       emit_move_insn (real_output_rtx[i], output_rtx[i]);
1070
1071   free_temp_slots ();
1072 }
1073
1074 void
1075 expand_asm_expr (tree exp)
1076 {
1077   int noutputs, i;
1078   tree outputs, tail;
1079   tree *o;
1080
1081   if (ASM_INPUT_P (exp))
1082     {
1083       expand_asm (ASM_STRING (exp), ASM_VOLATILE_P (exp));
1084       return;
1085     }
1086
1087   outputs = ASM_OUTPUTS (exp);
1088   noutputs = list_length (outputs);
1089   /* o[I] is the place that output number I should be written.  */
1090   o = (tree *) alloca (noutputs * sizeof (tree));
1091
1092   /* Record the contents of OUTPUTS before it is modified.  */
1093   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
1094     o[i] = TREE_VALUE (tail);
1095
1096   /* Generate the ASM_OPERANDS insn; store into the TREE_VALUEs of
1097      OUTPUTS some trees for where the values were actually stored.  */
1098   expand_asm_operands (ASM_STRING (exp), outputs, ASM_INPUTS (exp),
1099                        ASM_CLOBBERS (exp), ASM_VOLATILE_P (exp),
1100                        input_location);
1101
1102   /* Copy all the intermediate outputs into the specified outputs.  */
1103   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
1104     {
1105       if (o[i] != TREE_VALUE (tail))
1106         {
1107           expand_assignment (o[i], TREE_VALUE (tail), 0);
1108           free_temp_slots ();
1109
1110           /* Restore the original value so that it's correct the next
1111              time we expand this function.  */
1112           TREE_VALUE (tail) = o[i];
1113         }
1114     }
1115 }
1116
1117 /* A subroutine of expand_asm_operands.  Check that all operands have
1118    the same number of alternatives.  Return true if so.  */
1119
1120 static bool
1121 check_operand_nalternatives (tree outputs, tree inputs)
1122 {
1123   if (outputs || inputs)
1124     {
1125       tree tmp = TREE_PURPOSE (outputs ? outputs : inputs);
1126       int nalternatives
1127         = n_occurrences (',', TREE_STRING_POINTER (TREE_VALUE (tmp)));
1128       tree next = inputs;
1129
1130       if (nalternatives + 1 > MAX_RECOG_ALTERNATIVES)
1131         {
1132           error ("too many alternatives in `asm'");
1133           return false;
1134         }
1135
1136       tmp = outputs;
1137       while (tmp)
1138         {
1139           const char *constraint
1140             = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (tmp)));
1141
1142           if (n_occurrences (',', constraint) != nalternatives)
1143             {
1144               error ("operand constraints for `asm' differ in number of alternatives");
1145               return false;
1146             }
1147
1148           if (TREE_CHAIN (tmp))
1149             tmp = TREE_CHAIN (tmp);
1150           else
1151             tmp = next, next = 0;
1152         }
1153     }
1154
1155   return true;
1156 }
1157
1158 /* A subroutine of expand_asm_operands.  Check that all operand names
1159    are unique.  Return true if so.  We rely on the fact that these names
1160    are identifiers, and so have been canonicalized by get_identifier,
1161    so all we need are pointer comparisons.  */
1162
1163 static bool
1164 check_unique_operand_names (tree outputs, tree inputs)
1165 {
1166   tree i, j;
1167
1168   for (i = outputs; i ; i = TREE_CHAIN (i))
1169     {
1170       tree i_name = TREE_PURPOSE (TREE_PURPOSE (i));
1171       if (! i_name)
1172         continue;
1173
1174       for (j = TREE_CHAIN (i); j ; j = TREE_CHAIN (j))
1175         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1176           goto failure;
1177     }
1178
1179   for (i = inputs; i ; i = TREE_CHAIN (i))
1180     {
1181       tree i_name = TREE_PURPOSE (TREE_PURPOSE (i));
1182       if (! i_name)
1183         continue;
1184
1185       for (j = TREE_CHAIN (i); j ; j = TREE_CHAIN (j))
1186         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1187           goto failure;
1188       for (j = outputs; j ; j = TREE_CHAIN (j))
1189         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1190           goto failure;
1191     }
1192
1193   return true;
1194
1195  failure:
1196   error ("duplicate asm operand name '%s'",
1197          TREE_STRING_POINTER (TREE_PURPOSE (TREE_PURPOSE (i))));
1198   return false;
1199 }
1200
1201 /* A subroutine of expand_asm_operands.  Resolve the names of the operands
1202    in *POUTPUTS and *PINPUTS to numbers, and replace the name expansions in
1203    STRING and in the constraints to those numbers.  */
1204
1205 tree
1206 resolve_asm_operand_names (tree string, tree outputs, tree inputs)
1207 {
1208   char *buffer;
1209   char *p;
1210   const char *c;
1211   tree t;
1212
1213   check_unique_operand_names (outputs, inputs);
1214
1215   /* Substitute [<name>] in input constraint strings.  There should be no
1216      named operands in output constraints.  */
1217   for (t = inputs; t ; t = TREE_CHAIN (t))
1218     {
1219       c = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
1220       if (strchr (c, '[') != NULL)
1221         {
1222           p = buffer = xstrdup (c);
1223           while ((p = strchr (p, '[')) != NULL)
1224             p = resolve_operand_name_1 (p, outputs, inputs);
1225           TREE_VALUE (TREE_PURPOSE (t))
1226             = build_string (strlen (buffer), buffer);
1227           free (buffer);
1228         }
1229     }
1230
1231   /* Now check for any needed substitutions in the template.  */
1232   c = TREE_STRING_POINTER (string);
1233   while ((c = strchr (c, '%')) != NULL)
1234     {
1235       if (c[1] == '[')
1236         break;
1237       else if (ISALPHA (c[1]) && c[2] == '[')
1238         break;
1239       else
1240         {
1241           c += 1;
1242           continue;
1243         }
1244     }
1245
1246   if (c)
1247     {
1248       /* OK, we need to make a copy so we can perform the substitutions.
1249          Assume that we will not need extra space--we get to remove '['
1250          and ']', which means we cannot have a problem until we have more
1251          than 999 operands.  */
1252       buffer = xstrdup (TREE_STRING_POINTER (string));
1253       p = buffer + (c - TREE_STRING_POINTER (string));
1254
1255       while ((p = strchr (p, '%')) != NULL)
1256         {
1257           if (p[1] == '[')
1258             p += 1;
1259           else if (ISALPHA (p[1]) && p[2] == '[')
1260             p += 2;
1261           else
1262             {
1263               p += 1;
1264               continue;
1265             }
1266
1267           p = resolve_operand_name_1 (p, outputs, inputs);
1268         }
1269
1270       string = build_string (strlen (buffer), buffer);
1271       free (buffer);
1272     }
1273
1274   return string;
1275 }
1276
1277 /* A subroutine of resolve_operand_names.  P points to the '[' for a
1278    potential named operand of the form [<name>].  In place, replace
1279    the name and brackets with a number.  Return a pointer to the
1280    balance of the string after substitution.  */
1281
1282 static char *
1283 resolve_operand_name_1 (char *p, tree outputs, tree inputs)
1284 {
1285   char *q;
1286   int op;
1287   tree t;
1288   size_t len;
1289
1290   /* Collect the operand name.  */
1291   q = strchr (p, ']');
1292   if (!q)
1293     {
1294       error ("missing close brace for named operand");
1295       return strchr (p, '\0');
1296     }
1297   len = q - p - 1;
1298
1299   /* Resolve the name to a number.  */
1300   for (op = 0, t = outputs; t ; t = TREE_CHAIN (t), op++)
1301     {
1302       tree name = TREE_PURPOSE (TREE_PURPOSE (t));
1303       if (name)
1304         {
1305           const char *c = TREE_STRING_POINTER (name);
1306           if (strncmp (c, p + 1, len) == 0 && c[len] == '\0')
1307             goto found;
1308         }
1309     }
1310   for (t = inputs; t ; t = TREE_CHAIN (t), op++)
1311     {
1312       tree name = TREE_PURPOSE (TREE_PURPOSE (t));
1313       if (name)
1314         {
1315           const char *c = TREE_STRING_POINTER (name);
1316           if (strncmp (c, p + 1, len) == 0 && c[len] == '\0')
1317             goto found;
1318         }
1319     }
1320
1321   *q = '\0';
1322   error ("undefined named operand '%s'", p + 1);
1323   op = 0;
1324  found:
1325
1326   /* Replace the name with the number.  Unfortunately, not all libraries
1327      get the return value of sprintf correct, so search for the end of the
1328      generated string by hand.  */
1329   sprintf (p, "%d", op);
1330   p = strchr (p, '\0');
1331
1332   /* Verify the no extra buffer space assumption.  */
1333   if (p > q)
1334     abort ();
1335
1336   /* Shift the rest of the buffer down to fill the gap.  */
1337   memmove (p, q + 1, strlen (q + 1) + 1);
1338
1339   return p;
1340 }
1341 \f
1342 /* Generate RTL to evaluate the expression EXP.  */
1343
1344 void
1345 expand_expr_stmt (tree exp)
1346 {
1347   rtx value;
1348   tree type;
1349
1350   value = expand_expr (exp, const0_rtx, VOIDmode, 0);
1351   type = TREE_TYPE (exp);
1352
1353   /* If all we do is reference a volatile value in memory,
1354      copy it to a register to be sure it is actually touched.  */
1355   if (value && MEM_P (value) && TREE_THIS_VOLATILE (exp))
1356     {
1357       if (TYPE_MODE (type) == VOIDmode)
1358         ;
1359       else if (TYPE_MODE (type) != BLKmode)
1360         value = copy_to_reg (value);
1361       else
1362         {
1363           rtx lab = gen_label_rtx ();
1364
1365           /* Compare the value with itself to reference it.  */
1366           emit_cmp_and_jump_insns (value, value, EQ,
1367                                    expand_expr (TYPE_SIZE (type),
1368                                                 NULL_RTX, VOIDmode, 0),
1369                                    BLKmode, 0, lab);
1370           emit_label (lab);
1371         }
1372     }
1373
1374   /* Free any temporaries used to evaluate this expression.  */
1375   free_temp_slots ();
1376 }
1377
1378 /* Warn if EXP contains any computations whose results are not used.
1379    Return 1 if a warning is printed; 0 otherwise.  LOCUS is the
1380    (potential) location of the expression.  */
1381
1382 int
1383 warn_if_unused_value (tree exp, location_t locus)
1384 {
1385  restart:
1386   if (TREE_USED (exp))
1387     return 0;
1388
1389   /* Don't warn about void constructs.  This includes casting to void,
1390      void function calls, and statement expressions with a final cast
1391      to void.  */
1392   if (VOID_TYPE_P (TREE_TYPE (exp)))
1393     return 0;
1394
1395   if (EXPR_HAS_LOCATION (exp))
1396     locus = EXPR_LOCATION (exp);
1397
1398   switch (TREE_CODE (exp))
1399     {
1400     case PREINCREMENT_EXPR:
1401     case POSTINCREMENT_EXPR:
1402     case PREDECREMENT_EXPR:
1403     case POSTDECREMENT_EXPR:
1404     case MODIFY_EXPR:
1405     case INIT_EXPR:
1406     case TARGET_EXPR:
1407     case CALL_EXPR:
1408     case TRY_CATCH_EXPR:
1409     case WITH_CLEANUP_EXPR:
1410     case EXIT_EXPR:
1411       return 0;
1412
1413     case BIND_EXPR:
1414       /* For a binding, warn if no side effect within it.  */
1415       exp = BIND_EXPR_BODY (exp);
1416       goto restart;
1417
1418     case SAVE_EXPR:
1419       exp = TREE_OPERAND (exp, 0);
1420       goto restart;
1421
1422     case TRUTH_ORIF_EXPR:
1423     case TRUTH_ANDIF_EXPR:
1424       /* In && or ||, warn if 2nd operand has no side effect.  */
1425       exp = TREE_OPERAND (exp, 1);
1426       goto restart;
1427
1428     case COMPOUND_EXPR:
1429       if (TREE_NO_WARNING (exp))
1430         return 0;
1431       if (warn_if_unused_value (TREE_OPERAND (exp, 0), locus))
1432         return 1;
1433       /* Let people do `(foo (), 0)' without a warning.  */
1434       if (TREE_CONSTANT (TREE_OPERAND (exp, 1)))
1435         return 0;
1436       exp = TREE_OPERAND (exp, 1);
1437       goto restart;
1438
1439     case NOP_EXPR:
1440     case CONVERT_EXPR:
1441     case NON_LVALUE_EXPR:
1442       /* Don't warn about conversions not explicit in the user's program.  */
1443       if (TREE_NO_WARNING (exp))
1444         return 0;
1445       /* Assignment to a cast usually results in a cast of a modify.
1446          Don't complain about that.  There can be an arbitrary number of
1447          casts before the modify, so we must loop until we find the first
1448          non-cast expression and then test to see if that is a modify.  */
1449       {
1450         tree tem = TREE_OPERAND (exp, 0);
1451
1452         while (TREE_CODE (tem) == CONVERT_EXPR || TREE_CODE (tem) == NOP_EXPR)
1453           tem = TREE_OPERAND (tem, 0);
1454
1455         if (TREE_CODE (tem) == MODIFY_EXPR || TREE_CODE (tem) == INIT_EXPR
1456             || TREE_CODE (tem) == CALL_EXPR)
1457           return 0;
1458       }
1459       goto maybe_warn;
1460
1461     case INDIRECT_REF:
1462       /* Don't warn about automatic dereferencing of references, since
1463          the user cannot control it.  */
1464       if (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == REFERENCE_TYPE)
1465         {
1466           exp = TREE_OPERAND (exp, 0);
1467           goto restart;
1468         }
1469       /* Fall through.  */
1470
1471     default:
1472       /* Referencing a volatile value is a side effect, so don't warn.  */
1473       if ((DECL_P (exp)
1474            || TREE_CODE_CLASS (TREE_CODE (exp)) == 'r')
1475           && TREE_THIS_VOLATILE (exp))
1476         return 0;
1477
1478       /* If this is an expression which has no operands, there is no value
1479          to be unused.  There are no such language-independent codes,
1480          but front ends may define such.  */
1481       if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'e'
1482           && TREE_CODE_LENGTH (TREE_CODE (exp)) == 0)
1483         return 0;
1484
1485     maybe_warn:
1486       /* If this is an expression with side effects, don't warn.  */
1487       if (TREE_SIDE_EFFECTS (exp))
1488         return 0;
1489
1490       warning ("%Hvalue computed is not used", &locus);
1491       return 1;
1492     }
1493 }
1494
1495 \f
1496 /* Generate RTL to return from the current function, with no value.
1497    (That is, we do not do anything about returning any value.)  */
1498
1499 void
1500 expand_null_return (void)
1501 {
1502   /* If this function was declared to return a value, but we
1503      didn't, clobber the return registers so that they are not
1504      propagated live to the rest of the function.  */
1505   clobber_return_register ();
1506
1507   expand_null_return_1 ();
1508 }
1509
1510 /* Generate RTL to return directly from the current function.
1511    (That is, we bypass any return value.)  */
1512
1513 void
1514 expand_naked_return (void)
1515 {
1516   rtx end_label;
1517
1518   clear_pending_stack_adjust ();
1519   do_pending_stack_adjust ();
1520
1521   end_label = naked_return_label;
1522   if (end_label == 0)
1523     end_label = naked_return_label = gen_label_rtx ();
1524
1525   emit_jump (end_label);
1526 }
1527
1528 /* If the current function returns values in the most significant part
1529    of a register, shift return value VAL appropriately.  The mode of
1530    the function's return type is known not to be BLKmode.  */
1531
1532 static rtx
1533 shift_return_value (rtx val)
1534 {
1535   tree type;
1536
1537   type = TREE_TYPE (DECL_RESULT (current_function_decl));
1538   if (targetm.calls.return_in_msb (type))
1539     {
1540       rtx target;
1541       HOST_WIDE_INT shift;
1542
1543       target = DECL_RTL (DECL_RESULT (current_function_decl));
1544       shift = (GET_MODE_BITSIZE (GET_MODE (target))
1545                - BITS_PER_UNIT * int_size_in_bytes (type));
1546       if (shift > 0)
1547         val = expand_shift (LSHIFT_EXPR, GET_MODE (target),
1548                             gen_lowpart (GET_MODE (target), val),
1549                             build_int_cst (NULL_TREE, shift, 0), target, 1);
1550     }
1551   return val;
1552 }
1553
1554
1555 /* Generate RTL to return from the current function, with value VAL.  */
1556
1557 static void
1558 expand_value_return (rtx val)
1559 {
1560   /* Copy the value to the return location
1561      unless it's already there.  */
1562
1563   rtx return_reg = DECL_RTL (DECL_RESULT (current_function_decl));
1564   if (return_reg != val)
1565     {
1566       tree type = TREE_TYPE (DECL_RESULT (current_function_decl));
1567       if (targetm.calls.promote_function_return (TREE_TYPE (current_function_decl)))
1568       {
1569         int unsignedp = TYPE_UNSIGNED (type);
1570         enum machine_mode old_mode
1571           = DECL_MODE (DECL_RESULT (current_function_decl));
1572         enum machine_mode mode
1573           = promote_mode (type, old_mode, &unsignedp, 1);
1574
1575         if (mode != old_mode)
1576           val = convert_modes (mode, old_mode, val, unsignedp);
1577       }
1578       if (GET_CODE (return_reg) == PARALLEL)
1579         emit_group_load (return_reg, val, type, int_size_in_bytes (type));
1580       else
1581         emit_move_insn (return_reg, val);
1582     }
1583
1584   expand_null_return_1 ();
1585 }
1586
1587 /* Output a return with no value.  */
1588
1589 static void
1590 expand_null_return_1 (void)
1591 {
1592   rtx end_label;
1593
1594   clear_pending_stack_adjust ();
1595   do_pending_stack_adjust ();
1596
1597   end_label = return_label;
1598   if (end_label == 0)
1599      end_label = return_label = gen_label_rtx ();
1600   emit_jump (end_label);
1601 }
1602 \f
1603 /* Generate RTL to evaluate the expression RETVAL and return it
1604    from the current function.  */
1605
1606 void
1607 expand_return (tree retval)
1608 {
1609   rtx result_rtl;
1610   rtx val = 0;
1611   tree retval_rhs;
1612
1613   /* If function wants no value, give it none.  */
1614   if (TREE_CODE (TREE_TYPE (TREE_TYPE (current_function_decl))) == VOID_TYPE)
1615     {
1616       expand_expr (retval, NULL_RTX, VOIDmode, 0);
1617       expand_null_return ();
1618       return;
1619     }
1620
1621   if (retval == error_mark_node)
1622     {
1623       /* Treat this like a return of no value from a function that
1624          returns a value.  */
1625       expand_null_return ();
1626       return;
1627     }
1628   else if ((TREE_CODE (retval) == MODIFY_EXPR
1629             || TREE_CODE (retval) == INIT_EXPR)
1630            && TREE_CODE (TREE_OPERAND (retval, 0)) == RESULT_DECL)
1631     retval_rhs = TREE_OPERAND (retval, 1);
1632   else
1633     retval_rhs = retval;
1634
1635   result_rtl = DECL_RTL (DECL_RESULT (current_function_decl));
1636
1637   /* If we are returning the RESULT_DECL, then the value has already
1638      been stored into it, so we don't have to do anything special.  */
1639   if (TREE_CODE (retval_rhs) == RESULT_DECL)
1640     expand_value_return (result_rtl);
1641
1642   /* If the result is an aggregate that is being returned in one (or more)
1643      registers, load the registers here.  The compiler currently can't handle
1644      copying a BLKmode value into registers.  We could put this code in a
1645      more general area (for use by everyone instead of just function
1646      call/return), but until this feature is generally usable it is kept here
1647      (and in expand_call).  */
1648
1649   else if (retval_rhs != 0
1650            && TYPE_MODE (TREE_TYPE (retval_rhs)) == BLKmode
1651            && REG_P (result_rtl))
1652     {
1653       int i;
1654       unsigned HOST_WIDE_INT bitpos, xbitpos;
1655       unsigned HOST_WIDE_INT padding_correction = 0;
1656       unsigned HOST_WIDE_INT bytes
1657         = int_size_in_bytes (TREE_TYPE (retval_rhs));
1658       int n_regs = (bytes + UNITS_PER_WORD - 1) / UNITS_PER_WORD;
1659       unsigned int bitsize
1660         = MIN (TYPE_ALIGN (TREE_TYPE (retval_rhs)), BITS_PER_WORD);
1661       rtx *result_pseudos = alloca (sizeof (rtx) * n_regs);
1662       rtx result_reg, src = NULL_RTX, dst = NULL_RTX;
1663       rtx result_val = expand_expr (retval_rhs, NULL_RTX, VOIDmode, 0);
1664       enum machine_mode tmpmode, result_reg_mode;
1665
1666       if (bytes == 0)
1667         {
1668           expand_null_return ();
1669           return;
1670         }
1671
1672       /* If the structure doesn't take up a whole number of words, see
1673          whether the register value should be padded on the left or on
1674          the right.  Set PADDING_CORRECTION to the number of padding
1675          bits needed on the left side.
1676
1677          In most ABIs, the structure will be returned at the least end of
1678          the register, which translates to right padding on little-endian
1679          targets and left padding on big-endian targets.  The opposite
1680          holds if the structure is returned at the most significant
1681          end of the register.  */
1682       if (bytes % UNITS_PER_WORD != 0
1683           && (targetm.calls.return_in_msb (TREE_TYPE (retval_rhs))
1684               ? !BYTES_BIG_ENDIAN
1685               : BYTES_BIG_ENDIAN))
1686         padding_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
1687                                                * BITS_PER_UNIT));
1688
1689       /* Copy the structure BITSIZE bits at a time.  */
1690       for (bitpos = 0, xbitpos = padding_correction;
1691            bitpos < bytes * BITS_PER_UNIT;
1692            bitpos += bitsize, xbitpos += bitsize)
1693         {
1694           /* We need a new destination pseudo each time xbitpos is
1695              on a word boundary and when xbitpos == padding_correction
1696              (the first time through).  */
1697           if (xbitpos % BITS_PER_WORD == 0
1698               || xbitpos == padding_correction)
1699             {
1700               /* Generate an appropriate register.  */
1701               dst = gen_reg_rtx (word_mode);
1702               result_pseudos[xbitpos / BITS_PER_WORD] = dst;
1703
1704               /* Clear the destination before we move anything into it.  */
1705               emit_move_insn (dst, CONST0_RTX (GET_MODE (dst)));
1706             }
1707
1708           /* We need a new source operand each time bitpos is on a word
1709              boundary.  */
1710           if (bitpos % BITS_PER_WORD == 0)
1711             src = operand_subword_force (result_val,
1712                                          bitpos / BITS_PER_WORD,
1713                                          BLKmode);
1714
1715           /* Use bitpos for the source extraction (left justified) and
1716              xbitpos for the destination store (right justified).  */
1717           store_bit_field (dst, bitsize, xbitpos % BITS_PER_WORD, word_mode,
1718                            extract_bit_field (src, bitsize,
1719                                               bitpos % BITS_PER_WORD, 1,
1720                                               NULL_RTX, word_mode, word_mode));
1721         }
1722
1723       tmpmode = GET_MODE (result_rtl);
1724       if (tmpmode == BLKmode)
1725         {
1726           /* Find the smallest integer mode large enough to hold the
1727              entire structure and use that mode instead of BLKmode
1728              on the USE insn for the return register.  */
1729           for (tmpmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
1730                tmpmode != VOIDmode;
1731                tmpmode = GET_MODE_WIDER_MODE (tmpmode))
1732             /* Have we found a large enough mode?  */
1733             if (GET_MODE_SIZE (tmpmode) >= bytes)
1734               break;
1735
1736           /* No suitable mode found.  */
1737           if (tmpmode == VOIDmode)
1738             abort ();
1739
1740           PUT_MODE (result_rtl, tmpmode);
1741         }
1742
1743       if (GET_MODE_SIZE (tmpmode) < GET_MODE_SIZE (word_mode))
1744         result_reg_mode = word_mode;
1745       else
1746         result_reg_mode = tmpmode;
1747       result_reg = gen_reg_rtx (result_reg_mode);
1748
1749       for (i = 0; i < n_regs; i++)
1750         emit_move_insn (operand_subword (result_reg, i, 0, result_reg_mode),
1751                         result_pseudos[i]);
1752
1753       if (tmpmode != result_reg_mode)
1754         result_reg = gen_lowpart (tmpmode, result_reg);
1755
1756       expand_value_return (result_reg);
1757     }
1758   else if (retval_rhs != 0
1759            && !VOID_TYPE_P (TREE_TYPE (retval_rhs))
1760            && (REG_P (result_rtl)
1761                || (GET_CODE (result_rtl) == PARALLEL)))
1762     {
1763       /* Calculate the return value into a temporary (usually a pseudo
1764          reg).  */
1765       tree ot = TREE_TYPE (DECL_RESULT (current_function_decl));
1766       tree nt = build_qualified_type (ot, TYPE_QUALS (ot) | TYPE_QUAL_CONST);
1767
1768       val = assign_temp (nt, 0, 0, 1);
1769       val = expand_expr (retval_rhs, val, GET_MODE (val), 0);
1770       val = force_not_mem (val);
1771       /* Return the calculated value.  */
1772       expand_value_return (shift_return_value (val));
1773     }
1774   else
1775     {
1776       /* No hard reg used; calculate value into hard return reg.  */
1777       expand_expr (retval, const0_rtx, VOIDmode, 0);
1778       expand_value_return (result_rtl);
1779     }
1780 }
1781 \f
1782 /* Given a pointer to a BLOCK node return nonzero if (and only if) the node
1783    in question represents the outermost pair of curly braces (i.e. the "body
1784    block") of a function or method.
1785
1786    For any BLOCK node representing a "body block" of a function or method, the
1787    BLOCK_SUPERCONTEXT of the node will point to another BLOCK node which
1788    represents the outermost (function) scope for the function or method (i.e.
1789    the one which includes the formal parameters).  The BLOCK_SUPERCONTEXT of
1790    *that* node in turn will point to the relevant FUNCTION_DECL node.  */
1791
1792 int
1793 is_body_block (tree stmt)
1794 {
1795   if (lang_hooks.no_body_blocks)
1796     return 0;
1797
1798   if (TREE_CODE (stmt) == BLOCK)
1799     {
1800       tree parent = BLOCK_SUPERCONTEXT (stmt);
1801
1802       if (parent && TREE_CODE (parent) == BLOCK)
1803         {
1804           tree grandparent = BLOCK_SUPERCONTEXT (parent);
1805
1806           if (grandparent && TREE_CODE (grandparent) == FUNCTION_DECL)
1807             return 1;
1808         }
1809     }
1810
1811   return 0;
1812 }
1813
1814 /* Emit code to restore vital registers at the beginning of a nonlocal goto
1815    handler.  */
1816 static void
1817 expand_nl_goto_receiver (void)
1818 {
1819   /* Clobber the FP when we get here, so we have to make sure it's
1820      marked as used by this function.  */
1821   emit_insn (gen_rtx_USE (VOIDmode, hard_frame_pointer_rtx));
1822
1823   /* Mark the static chain as clobbered here so life information
1824      doesn't get messed up for it.  */
1825   emit_insn (gen_rtx_CLOBBER (VOIDmode, static_chain_rtx));
1826
1827 #ifdef HAVE_nonlocal_goto
1828   if (! HAVE_nonlocal_goto)
1829 #endif
1830     /* First adjust our frame pointer to its actual value.  It was
1831        previously set to the start of the virtual area corresponding to
1832        the stacked variables when we branched here and now needs to be
1833        adjusted to the actual hardware fp value.
1834
1835        Assignments are to virtual registers are converted by
1836        instantiate_virtual_regs into the corresponding assignment
1837        to the underlying register (fp in this case) that makes
1838        the original assignment true.
1839        So the following insn will actually be
1840        decrementing fp by STARTING_FRAME_OFFSET.  */
1841     emit_move_insn (virtual_stack_vars_rtx, hard_frame_pointer_rtx);
1842
1843 #if ARG_POINTER_REGNUM != HARD_FRAME_POINTER_REGNUM
1844   if (fixed_regs[ARG_POINTER_REGNUM])
1845     {
1846 #ifdef ELIMINABLE_REGS
1847       /* If the argument pointer can be eliminated in favor of the
1848          frame pointer, we don't need to restore it.  We assume here
1849          that if such an elimination is present, it can always be used.
1850          This is the case on all known machines; if we don't make this
1851          assumption, we do unnecessary saving on many machines.  */
1852       static const struct elims {const int from, to;} elim_regs[] = ELIMINABLE_REGS;
1853       size_t i;
1854
1855       for (i = 0; i < ARRAY_SIZE (elim_regs); i++)
1856         if (elim_regs[i].from == ARG_POINTER_REGNUM
1857             && elim_regs[i].to == HARD_FRAME_POINTER_REGNUM)
1858           break;
1859
1860       if (i == ARRAY_SIZE (elim_regs))
1861 #endif
1862         {
1863           /* Now restore our arg pointer from the address at which it
1864              was saved in our stack frame.  */
1865           emit_move_insn (virtual_incoming_args_rtx,
1866                           copy_to_reg (get_arg_pointer_save_area (cfun)));
1867         }
1868     }
1869 #endif
1870
1871 #ifdef HAVE_nonlocal_goto_receiver
1872   if (HAVE_nonlocal_goto_receiver)
1873     emit_insn (gen_nonlocal_goto_receiver ());
1874 #endif
1875
1876   /* @@@ This is a kludge.  Not all machine descriptions define a blockage
1877      insn, but we must not allow the code we just generated to be reordered
1878      by scheduling.  Specifically, the update of the frame pointer must
1879      happen immediately, not later.  So emit an ASM_INPUT to act as blockage
1880      insn.  */
1881   emit_insn (gen_rtx_ASM_INPUT (VOIDmode, ""));
1882 }
1883 \f
1884 /* Generate RTL for the automatic variable declaration DECL.
1885    (Other kinds of declarations are simply ignored if seen here.)  */
1886
1887 void
1888 expand_decl (tree decl)
1889 {
1890   tree type;
1891
1892   type = TREE_TYPE (decl);
1893
1894   /* For a CONST_DECL, set mode, alignment, and sizes from those of the
1895      type in case this node is used in a reference.  */
1896   if (TREE_CODE (decl) == CONST_DECL)
1897     {
1898       DECL_MODE (decl) = TYPE_MODE (type);
1899       DECL_ALIGN (decl) = TYPE_ALIGN (type);
1900       DECL_SIZE (decl) = TYPE_SIZE (type);
1901       DECL_SIZE_UNIT (decl) = TYPE_SIZE_UNIT (type);
1902       return;
1903     }
1904
1905   /* Otherwise, only automatic variables need any expansion done.  Static and
1906      external variables, and external functions, will be handled by
1907      `assemble_variable' (called from finish_decl).  TYPE_DECL requires
1908      nothing.  PARM_DECLs are handled in `assign_parms'.  */
1909   if (TREE_CODE (decl) != VAR_DECL)
1910     return;
1911
1912   if (TREE_STATIC (decl) || DECL_EXTERNAL (decl))
1913     return;
1914
1915   /* Create the RTL representation for the variable.  */
1916
1917   if (type == error_mark_node)
1918     SET_DECL_RTL (decl, gen_rtx_MEM (BLKmode, const0_rtx));
1919
1920   else if (DECL_SIZE (decl) == 0)
1921     /* Variable with incomplete type.  */
1922     {
1923       rtx x;
1924       if (DECL_INITIAL (decl) == 0)
1925         /* Error message was already done; now avoid a crash.  */
1926         x = gen_rtx_MEM (BLKmode, const0_rtx);
1927       else
1928         /* An initializer is going to decide the size of this array.
1929            Until we know the size, represent its address with a reg.  */
1930         x = gen_rtx_MEM (BLKmode, gen_reg_rtx (Pmode));
1931
1932       set_mem_attributes (x, decl, 1);
1933       SET_DECL_RTL (decl, x);
1934     }
1935   else if (use_register_for_decl (decl))
1936     {
1937       /* Automatic variable that can go in a register.  */
1938       int unsignedp = TYPE_UNSIGNED (type);
1939       enum machine_mode reg_mode
1940         = promote_mode (type, DECL_MODE (decl), &unsignedp, 0);
1941
1942       SET_DECL_RTL (decl, gen_reg_rtx (reg_mode));
1943
1944       /* Note if the object is a user variable.  */
1945       if (!DECL_ARTIFICIAL (decl))
1946         {
1947           mark_user_reg (DECL_RTL (decl));
1948
1949           /* Trust user variables which have a pointer type to really
1950              be pointers.  Do not trust compiler generated temporaries
1951              as our type system is totally busted as it relates to
1952              pointer arithmetic which translates into lots of compiler
1953              generated objects with pointer types, but which are not really
1954              pointers.  */
1955           if (POINTER_TYPE_P (type))
1956             mark_reg_pointer (DECL_RTL (decl),
1957                               TYPE_ALIGN (TREE_TYPE (TREE_TYPE (decl))));
1958         }
1959     }
1960
1961   else if (TREE_CODE (DECL_SIZE_UNIT (decl)) == INTEGER_CST
1962            && ! (flag_stack_check && ! STACK_CHECK_BUILTIN
1963                  && 0 < compare_tree_int (DECL_SIZE_UNIT (decl),
1964                                           STACK_CHECK_MAX_VAR_SIZE)))
1965     {
1966       /* Variable of fixed size that goes on the stack.  */
1967       rtx oldaddr = 0;
1968       rtx addr;
1969       rtx x;
1970
1971       /* If we previously made RTL for this decl, it must be an array
1972          whose size was determined by the initializer.
1973          The old address was a register; set that register now
1974          to the proper address.  */
1975       if (DECL_RTL_SET_P (decl))
1976         {
1977           if (!MEM_P (DECL_RTL (decl))
1978               || !REG_P (XEXP (DECL_RTL (decl), 0)))
1979             abort ();
1980           oldaddr = XEXP (DECL_RTL (decl), 0);
1981         }
1982
1983       /* Set alignment we actually gave this decl.  */
1984       DECL_ALIGN (decl) = (DECL_MODE (decl) == BLKmode ? BIGGEST_ALIGNMENT
1985                            : GET_MODE_BITSIZE (DECL_MODE (decl)));
1986       DECL_USER_ALIGN (decl) = 0;
1987
1988       x = assign_temp (decl, 1, 1, 1);
1989       set_mem_attributes (x, decl, 1);
1990       SET_DECL_RTL (decl, x);
1991
1992       if (oldaddr)
1993         {
1994           addr = force_operand (XEXP (DECL_RTL (decl), 0), oldaddr);
1995           if (addr != oldaddr)
1996             emit_move_insn (oldaddr, addr);
1997         }
1998     }
1999   else
2000     /* Dynamic-size object: must push space on the stack.  */
2001     {
2002       rtx address, size, x;
2003
2004       /* Record the stack pointer on entry to block, if have
2005          not already done so.  */
2006       do_pending_stack_adjust ();
2007
2008       /* Compute the variable's size, in bytes.  This will expand any
2009          needed SAVE_EXPRs for the first time.  */
2010       size = expand_expr (DECL_SIZE_UNIT (decl), NULL_RTX, VOIDmode, 0);
2011       free_temp_slots ();
2012
2013       /* Allocate space on the stack for the variable.  Note that
2014          DECL_ALIGN says how the variable is to be aligned and we
2015          cannot use it to conclude anything about the alignment of
2016          the size.  */
2017       address = allocate_dynamic_stack_space (size, NULL_RTX,
2018                                               TYPE_ALIGN (TREE_TYPE (decl)));
2019
2020       /* Reference the variable indirect through that rtx.  */
2021       x = gen_rtx_MEM (DECL_MODE (decl), address);
2022       set_mem_attributes (x, decl, 1);
2023       SET_DECL_RTL (decl, x);
2024
2025
2026       /* Indicate the alignment we actually gave this variable.  */
2027 #ifdef STACK_BOUNDARY
2028       DECL_ALIGN (decl) = STACK_BOUNDARY;
2029 #else
2030       DECL_ALIGN (decl) = BIGGEST_ALIGNMENT;
2031 #endif
2032       DECL_USER_ALIGN (decl) = 0;
2033     }
2034 }
2035 \f
2036 /* Emit code to save the current value of stack.  */
2037 rtx
2038 expand_stack_save (void)
2039 {
2040   rtx ret = NULL_RTX;
2041
2042   do_pending_stack_adjust ();
2043   emit_stack_save (SAVE_BLOCK, &ret, NULL_RTX);
2044   return ret;
2045 }
2046
2047 /* Emit code to restore the current value of stack.  */
2048 void
2049 expand_stack_restore (tree var)
2050 {
2051   rtx sa = DECL_RTL (var);
2052
2053   emit_stack_restore (SAVE_BLOCK, sa, NULL_RTX);
2054 }
2055 \f
2056 /* Emit code to perform the initialization of a declaration DECL.  */
2057
2058 void
2059 expand_decl_init (tree decl)
2060 {
2061   int was_used = TREE_USED (decl);
2062
2063   /* If this is a CONST_DECL, we don't have to generate any code.  Likewise
2064      for static decls.  */
2065   if (TREE_CODE (decl) == CONST_DECL
2066       || TREE_STATIC (decl))
2067     return;
2068
2069   /* Compute and store the initial value now.  */
2070
2071   push_temp_slots ();
2072
2073   if (DECL_INITIAL (decl) == error_mark_node)
2074     {
2075       enum tree_code code = TREE_CODE (TREE_TYPE (decl));
2076
2077       if (code == INTEGER_TYPE || code == REAL_TYPE || code == ENUMERAL_TYPE
2078           || code == POINTER_TYPE || code == REFERENCE_TYPE)
2079         expand_assignment (decl, convert (TREE_TYPE (decl), integer_zero_node),
2080                            0);
2081     }
2082   else if (DECL_INITIAL (decl) && TREE_CODE (DECL_INITIAL (decl)) != TREE_LIST)
2083     {
2084       emit_line_note (DECL_SOURCE_LOCATION (decl));
2085       expand_assignment (decl, DECL_INITIAL (decl), 0);
2086     }
2087
2088   /* Don't let the initialization count as "using" the variable.  */
2089   TREE_USED (decl) = was_used;
2090
2091   /* Free any temporaries we made while initializing the decl.  */
2092   preserve_temp_slots (NULL_RTX);
2093   free_temp_slots ();
2094   pop_temp_slots ();
2095 }
2096
2097 \f
2098 /* DECL is an anonymous union.  CLEANUP is a cleanup for DECL.
2099    DECL_ELTS is the list of elements that belong to DECL's type.
2100    In each, the TREE_VALUE is a VAR_DECL, and the TREE_PURPOSE a cleanup.  */
2101
2102 void
2103 expand_anon_union_decl (tree decl, tree cleanup ATTRIBUTE_UNUSED,
2104                         tree decl_elts)
2105 {
2106   rtx x;
2107   tree t;
2108
2109   /* If any of the elements are addressable, so is the entire union.  */
2110   for (t = decl_elts; t; t = TREE_CHAIN (t))
2111     if (TREE_ADDRESSABLE (TREE_VALUE (t)))
2112       {
2113         TREE_ADDRESSABLE (decl) = 1;
2114         break;
2115       }
2116
2117   expand_decl (decl);
2118   x = DECL_RTL (decl);
2119
2120   /* Go through the elements, assigning RTL to each.  */
2121   for (t = decl_elts; t; t = TREE_CHAIN (t))
2122     {
2123       tree decl_elt = TREE_VALUE (t);
2124       enum machine_mode mode = TYPE_MODE (TREE_TYPE (decl_elt));
2125
2126       /* If any of the elements are addressable, so is the entire
2127          union.  */
2128       if (TREE_USED (decl_elt))
2129         TREE_USED (decl) = 1;
2130
2131       /* Propagate the union's alignment to the elements.  */
2132       DECL_ALIGN (decl_elt) = DECL_ALIGN (decl);
2133       DECL_USER_ALIGN (decl_elt) = DECL_USER_ALIGN (decl);
2134
2135       /* If the element has BLKmode and the union doesn't, the union is
2136          aligned such that the element doesn't need to have BLKmode, so
2137          change the element's mode to the appropriate one for its size.  */
2138       if (mode == BLKmode && DECL_MODE (decl) != BLKmode)
2139         DECL_MODE (decl_elt) = mode
2140           = mode_for_size_tree (DECL_SIZE (decl_elt), MODE_INT, 1);
2141
2142       /* (SUBREG (MEM ...)) at RTL generation time is invalid, so we
2143          instead create a new MEM rtx with the proper mode.  */
2144       if (MEM_P (x))
2145         {
2146           if (mode == GET_MODE (x))
2147             SET_DECL_RTL (decl_elt, x);
2148           else
2149             SET_DECL_RTL (decl_elt, adjust_address_nv (x, mode, 0));
2150         }
2151       else if (REG_P (x))
2152         {
2153           if (mode == GET_MODE (x))
2154             SET_DECL_RTL (decl_elt, x);
2155           else
2156             SET_DECL_RTL (decl_elt, gen_lowpart_SUBREG (mode, x));
2157         }
2158       else
2159         abort ();
2160     }
2161 }
2162 \f
2163 /* Do the insertion of a case label into case_list.  The labels are
2164    fed to us in descending order from the sorted vector of case labels used
2165    in the tree part of the middle end.  So the list we construct is
2166    sorted in ascending order.  */
2167
2168 struct case_node *
2169 add_case_node (struct case_node *head, tree low, tree high, tree label)
2170 {
2171   struct case_node *r;
2172
2173   /* If there's no HIGH value, then this is not a case range; it's
2174      just a simple case label.  But that's just a degenerate case
2175      range.
2176      If the bounds are equal, turn this into the one-value case.  */
2177   if (!high || tree_int_cst_equal (low, high))
2178     high = low;
2179
2180   /* Add this label to the chain.  */
2181   r = ggc_alloc (sizeof (struct case_node));
2182   r->low = low;
2183   r->high = high;
2184   r->code_label = label;
2185   r->parent = r->left = NULL;
2186   r->right = head;
2187   return r;
2188 }
2189 \f
2190 /* Maximum number of case bit tests.  */
2191 #define MAX_CASE_BIT_TESTS  3
2192
2193 /* By default, enable case bit tests on targets with ashlsi3.  */
2194 #ifndef CASE_USE_BIT_TESTS
2195 #define CASE_USE_BIT_TESTS  (ashl_optab->handlers[word_mode].insn_code \
2196                              != CODE_FOR_nothing)
2197 #endif
2198
2199
2200 /* A case_bit_test represents a set of case nodes that may be
2201    selected from using a bit-wise comparison.  HI and LO hold
2202    the integer to be tested against, LABEL contains the label
2203    to jump to upon success and BITS counts the number of case
2204    nodes handled by this test, typically the number of bits
2205    set in HI:LO.  */
2206
2207 struct case_bit_test
2208 {
2209   HOST_WIDE_INT hi;
2210   HOST_WIDE_INT lo;
2211   rtx label;
2212   int bits;
2213 };
2214
2215 /* Determine whether "1 << x" is relatively cheap in word_mode.  */
2216
2217 static
2218 bool lshift_cheap_p (void)
2219 {
2220   static bool init = false;
2221   static bool cheap = true;
2222
2223   if (!init)
2224     {
2225       rtx reg = gen_rtx_REG (word_mode, 10000);
2226       int cost = rtx_cost (gen_rtx_ASHIFT (word_mode, const1_rtx, reg), SET);
2227       cheap = cost < COSTS_N_INSNS (3);
2228       init = true;
2229     }
2230
2231   return cheap;
2232 }
2233
2234 /* Comparison function for qsort to order bit tests by decreasing
2235    number of case nodes, i.e. the node with the most cases gets
2236    tested first.  */
2237
2238 static int
2239 case_bit_test_cmp (const void *p1, const void *p2)
2240 {
2241   const struct case_bit_test *d1 = p1;
2242   const struct case_bit_test *d2 = p2;
2243
2244   return d2->bits - d1->bits;
2245 }
2246
2247 /*  Expand a switch statement by a short sequence of bit-wise
2248     comparisons.  "switch(x)" is effectively converted into
2249     "if ((1 << (x-MINVAL)) & CST)" where CST and MINVAL are
2250     integer constants.
2251
2252     INDEX_EXPR is the value being switched on, which is of
2253     type INDEX_TYPE.  MINVAL is the lowest case value of in
2254     the case nodes, of INDEX_TYPE type, and RANGE is highest
2255     value minus MINVAL, also of type INDEX_TYPE.  NODES is
2256     the set of case nodes, and DEFAULT_LABEL is the label to
2257     branch to should none of the cases match.
2258
2259     There *MUST* be MAX_CASE_BIT_TESTS or less unique case
2260     node targets.  */
2261
2262 static void
2263 emit_case_bit_tests (tree index_type, tree index_expr, tree minval,
2264                      tree range, case_node_ptr nodes, rtx default_label)
2265 {
2266   struct case_bit_test test[MAX_CASE_BIT_TESTS];
2267   enum machine_mode mode;
2268   rtx expr, index, label;
2269   unsigned int i,j,lo,hi;
2270   struct case_node *n;
2271   unsigned int count;
2272
2273   count = 0;
2274   for (n = nodes; n; n = n->right)
2275     {
2276       label = label_rtx (n->code_label);
2277       for (i = 0; i < count; i++)
2278         if (label == test[i].label)
2279           break;
2280
2281       if (i == count)
2282         {
2283           if (count >= MAX_CASE_BIT_TESTS)
2284             abort ();
2285           test[i].hi = 0;
2286           test[i].lo = 0;
2287           test[i].label = label;
2288           test[i].bits = 1;
2289           count++;
2290         }
2291       else
2292         test[i].bits++;
2293
2294       lo = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2295                                        n->low, minval)), 1);
2296       hi = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2297                                        n->high, minval)), 1);
2298       for (j = lo; j <= hi; j++)
2299         if (j >= HOST_BITS_PER_WIDE_INT)
2300           test[i].hi |= (HOST_WIDE_INT) 1 << (j - HOST_BITS_PER_INT);
2301         else
2302           test[i].lo |= (HOST_WIDE_INT) 1 << j;
2303     }
2304
2305   qsort (test, count, sizeof(*test), case_bit_test_cmp);
2306
2307   index_expr = fold (build2 (MINUS_EXPR, index_type,
2308                              convert (index_type, index_expr),
2309                              convert (index_type, minval)));
2310   index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
2311   do_pending_stack_adjust ();
2312
2313   mode = TYPE_MODE (index_type);
2314   expr = expand_expr (range, NULL_RTX, VOIDmode, 0);
2315   emit_cmp_and_jump_insns (index, expr, GTU, NULL_RTX, mode, 1,
2316                            default_label);
2317
2318   index = convert_to_mode (word_mode, index, 0);
2319   index = expand_binop (word_mode, ashl_optab, const1_rtx,
2320                         index, NULL_RTX, 1, OPTAB_WIDEN);
2321
2322   for (i = 0; i < count; i++)
2323     {
2324       expr = immed_double_const (test[i].lo, test[i].hi, word_mode);
2325       expr = expand_binop (word_mode, and_optab, index, expr,
2326                            NULL_RTX, 1, OPTAB_WIDEN);
2327       emit_cmp_and_jump_insns (expr, const0_rtx, NE, NULL_RTX,
2328                                word_mode, 1, test[i].label);
2329     }
2330
2331   emit_jump (default_label);
2332 }
2333
2334 #ifndef HAVE_casesi
2335 #define HAVE_casesi 0
2336 #endif
2337
2338 #ifndef HAVE_tablejump
2339 #define HAVE_tablejump 0
2340 #endif
2341
2342 /* Terminate a case (Pascal) or switch (C) statement
2343    in which ORIG_INDEX is the expression to be tested.
2344    If ORIG_TYPE is not NULL, it is the original ORIG_INDEX
2345    type as given in the source before any compiler conversions.
2346    Generate the code to test it and jump to the right place.  */
2347
2348 void
2349 expand_case (tree exp)
2350 {
2351   tree minval = NULL_TREE, maxval = NULL_TREE, range = NULL_TREE;
2352   rtx default_label = 0;
2353   struct case_node *n, *m;
2354   unsigned int count, uniq;
2355   rtx index;
2356   rtx table_label;
2357   int ncases;
2358   rtx *labelvec;
2359   int i;
2360   rtx before_case, end, lab;
2361
2362   tree vec = SWITCH_LABELS (exp);
2363   tree orig_type = TREE_TYPE (exp);
2364   tree index_expr = SWITCH_COND (exp);
2365   tree index_type = TREE_TYPE (index_expr);
2366   int unsignedp = TYPE_UNSIGNED (index_type);
2367
2368   /* The insn after which the case dispatch should finally
2369      be emitted.  Zero for a dummy.  */
2370   rtx start;
2371
2372   /* A list of case labels; it is first built as a list and it may then
2373      be rearranged into a nearly balanced binary tree.  */
2374   struct case_node *case_list = 0;
2375
2376   /* Label to jump to if no case matches.  */
2377   tree default_label_decl = 0;
2378
2379   /* The switch body is lowered in gimplify.c, we should never have
2380      switches with a non-NULL SWITCH_BODY here.  */
2381   if (SWITCH_BODY (exp) || !SWITCH_LABELS (exp))
2382     abort ();
2383
2384   for (i = TREE_VEC_LENGTH (vec); --i >= 0; )
2385     {
2386       tree elt = TREE_VEC_ELT (vec, i);
2387
2388       /* Handle default labels specially.  */
2389       if (!CASE_HIGH (elt) && !CASE_LOW (elt))
2390         {
2391 #ifdef ENABLE_CHECKING
2392           if (default_label_decl != 0)
2393             abort ();
2394 #endif
2395           default_label_decl = CASE_LABEL (elt);
2396         }
2397       else
2398         case_list = add_case_node (case_list, CASE_LOW (elt), CASE_HIGH (elt),
2399                                    CASE_LABEL (elt));
2400     }
2401
2402   do_pending_stack_adjust ();
2403
2404   /* Make sure start points to something that won't need any transformation
2405      before the end of this function.  */
2406   if (!NOTE_P (get_last_insn ()))
2407     emit_note (NOTE_INSN_DELETED);
2408
2409   start = get_last_insn ();
2410
2411   /* An ERROR_MARK occurs for various reasons including invalid data type.  */
2412   if (index_type != error_mark_node)
2413     {
2414       /* If we don't have a default-label, create one here,
2415          after the body of the switch.  */
2416       if (default_label_decl == 0)
2417         {
2418           default_label_decl
2419             = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
2420           expand_label (default_label_decl);
2421         }
2422       default_label = label_rtx (default_label_decl);
2423
2424       before_case = get_last_insn ();
2425
2426       /* Get upper and lower bounds of case values.
2427          Also convert all the case values to the index expr's data type.  */
2428
2429       uniq = 0;
2430       count = 0;
2431       for (n = case_list; n; n = n->right)
2432         {
2433           /* Check low and high label values are integers.  */
2434           if (TREE_CODE (n->low) != INTEGER_CST)
2435             abort ();
2436           if (TREE_CODE (n->high) != INTEGER_CST)
2437             abort ();
2438
2439           n->low = convert (index_type, n->low);
2440           n->high = convert (index_type, n->high);
2441
2442           /* Count the elements and track the largest and smallest
2443              of them (treating them as signed even if they are not).  */
2444           if (count++ == 0)
2445             {
2446               minval = n->low;
2447               maxval = n->high;
2448             }
2449           else
2450             {
2451               if (INT_CST_LT (n->low, minval))
2452                 minval = n->low;
2453               if (INT_CST_LT (maxval, n->high))
2454                 maxval = n->high;
2455             }
2456           /* A range counts double, since it requires two compares.  */
2457           if (! tree_int_cst_equal (n->low, n->high))
2458             count++;
2459
2460           /* Count the number of unique case node targets.  */
2461           uniq++;
2462           lab = label_rtx (n->code_label);
2463           for (m = case_list; m != n; m = m->right)
2464             if (label_rtx (m->code_label) == lab)
2465               {
2466                 uniq--;
2467                 break;
2468               }
2469         }
2470
2471       /* Compute span of values.  */
2472       if (count != 0)
2473         range = fold (build2 (MINUS_EXPR, index_type, maxval, minval));
2474
2475       if (count == 0)
2476         {
2477           expand_expr (index_expr, const0_rtx, VOIDmode, 0);
2478           emit_jump (default_label);
2479         }
2480
2481       /* Try implementing this switch statement by a short sequence of
2482          bit-wise comparisons.  However, we let the binary-tree case
2483          below handle constant index expressions.  */
2484       else if (CASE_USE_BIT_TESTS
2485                && ! TREE_CONSTANT (index_expr)
2486                && compare_tree_int (range, GET_MODE_BITSIZE (word_mode)) < 0
2487                && compare_tree_int (range, 0) > 0
2488                && lshift_cheap_p ()
2489                && ((uniq == 1 && count >= 3)
2490                    || (uniq == 2 && count >= 5)
2491                    || (uniq == 3 && count >= 6)))
2492         {
2493           /* Optimize the case where all the case values fit in a
2494              word without having to subtract MINVAL.  In this case,
2495              we can optimize away the subtraction.  */
2496           if (compare_tree_int (minval, 0) > 0
2497               && compare_tree_int (maxval, GET_MODE_BITSIZE (word_mode)) < 0)
2498             {
2499               minval = integer_zero_node;
2500               range = maxval;
2501             }
2502           emit_case_bit_tests (index_type, index_expr, minval, range,
2503                                case_list, default_label);
2504         }
2505
2506       /* If range of values is much bigger than number of values,
2507          make a sequence of conditional branches instead of a dispatch.
2508          If the switch-index is a constant, do it this way
2509          because we can optimize it.  */
2510
2511       else if (count < case_values_threshold ()
2512                || compare_tree_int (range,
2513                                     (optimize_size ? 3 : 10) * count) > 0
2514                /* RANGE may be signed, and really large ranges will show up
2515                   as negative numbers.  */
2516                || compare_tree_int (range, 0) < 0
2517 #ifndef ASM_OUTPUT_ADDR_DIFF_ELT
2518                || flag_pic
2519 #endif
2520                || TREE_CONSTANT (index_expr)
2521                /* If neither casesi or tablejump is available, we can
2522                   only go this way.  */
2523                || (!HAVE_casesi && !HAVE_tablejump))
2524         {
2525           index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
2526
2527           /* If the index is a short or char that we do not have
2528              an insn to handle comparisons directly, convert it to
2529              a full integer now, rather than letting each comparison
2530              generate the conversion.  */
2531
2532           if (GET_MODE_CLASS (GET_MODE (index)) == MODE_INT
2533               && ! have_insn_for (COMPARE, GET_MODE (index)))
2534             {
2535               enum machine_mode wider_mode;
2536               for (wider_mode = GET_MODE (index); wider_mode != VOIDmode;
2537                    wider_mode = GET_MODE_WIDER_MODE (wider_mode))
2538                 if (have_insn_for (COMPARE, wider_mode))
2539                   {
2540                     index = convert_to_mode (wider_mode, index, unsignedp);
2541                     break;
2542                   }
2543             }
2544
2545           do_pending_stack_adjust ();
2546
2547           if (MEM_P (index))
2548             index = copy_to_reg (index);
2549           if (GET_CODE (index) == CONST_INT
2550               || TREE_CODE (index_expr) == INTEGER_CST)
2551             {
2552               /* Make a tree node with the proper constant value
2553                  if we don't already have one.  */
2554               if (TREE_CODE (index_expr) != INTEGER_CST)
2555                 {
2556                   index_expr
2557                     = build_int_cst (NULL_TREE, INTVAL (index),
2558                                    unsignedp || INTVAL (index) >= 0 ? 0 : -1);
2559                   index_expr = convert (index_type, index_expr);
2560                 }
2561
2562               /* For constant index expressions we need only
2563                  issue an unconditional branch to the appropriate
2564                  target code.  The job of removing any unreachable
2565                  code is left to the optimization phase if the
2566                  "-O" option is specified.  */
2567               for (n = case_list; n; n = n->right)
2568                 if (! tree_int_cst_lt (index_expr, n->low)
2569                     && ! tree_int_cst_lt (n->high, index_expr))
2570                   break;
2571
2572               if (n)
2573                 emit_jump (label_rtx (n->code_label));
2574               else
2575                 emit_jump (default_label);
2576             }
2577           else
2578             {
2579               /* If the index expression is not constant we generate
2580                  a binary decision tree to select the appropriate
2581                  target code.  This is done as follows:
2582
2583                  The list of cases is rearranged into a binary tree,
2584                  nearly optimal assuming equal probability for each case.
2585
2586                  The tree is transformed into RTL, eliminating
2587                  redundant test conditions at the same time.
2588
2589                  If program flow could reach the end of the
2590                  decision tree an unconditional jump to the
2591                  default code is emitted.  */
2592
2593               use_cost_table
2594                 = (TREE_CODE (orig_type) != ENUMERAL_TYPE
2595                    && estimate_case_costs (case_list));
2596               balance_case_nodes (&case_list, NULL);
2597               emit_case_nodes (index, case_list, default_label, index_type);
2598               emit_jump (default_label);
2599             }
2600         }
2601       else
2602         {
2603           table_label = gen_label_rtx ();
2604           if (! try_casesi (index_type, index_expr, minval, range,
2605                             table_label, default_label))
2606             {
2607               index_type = integer_type_node;
2608
2609               /* Index jumptables from zero for suitable values of
2610                  minval to avoid a subtraction.  */
2611               if (! optimize_size
2612                   && compare_tree_int (minval, 0) > 0
2613                   && compare_tree_int (minval, 3) < 0)
2614                 {
2615                   minval = integer_zero_node;
2616                   range = maxval;
2617                 }
2618
2619               if (! try_tablejump (index_type, index_expr, minval, range,
2620                                    table_label, default_label))
2621                 abort ();
2622             }
2623
2624           /* Get table of labels to jump to, in order of case index.  */
2625
2626           ncases = tree_low_cst (range, 0) + 1;
2627           labelvec = alloca (ncases * sizeof (rtx));
2628           memset (labelvec, 0, ncases * sizeof (rtx));
2629
2630           for (n = case_list; n; n = n->right)
2631             {
2632               /* Compute the low and high bounds relative to the minimum
2633                  value since that should fit in a HOST_WIDE_INT while the
2634                  actual values may not.  */
2635               HOST_WIDE_INT i_low
2636                 = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2637                                               n->low, minval)), 1);
2638               HOST_WIDE_INT i_high
2639                 = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2640                                               n->high, minval)), 1);
2641               HOST_WIDE_INT i;
2642
2643               for (i = i_low; i <= i_high; i ++)
2644                 labelvec[i]
2645                   = gen_rtx_LABEL_REF (Pmode, label_rtx (n->code_label));
2646             }
2647
2648           /* Fill in the gaps with the default.  */
2649           for (i = 0; i < ncases; i++)
2650             if (labelvec[i] == 0)
2651               labelvec[i] = gen_rtx_LABEL_REF (Pmode, default_label);
2652
2653           /* Output the table.  */
2654           emit_label (table_label);
2655
2656           if (CASE_VECTOR_PC_RELATIVE || flag_pic)
2657             emit_jump_insn (gen_rtx_ADDR_DIFF_VEC (CASE_VECTOR_MODE,
2658                                                    gen_rtx_LABEL_REF (Pmode, table_label),
2659                                                    gen_rtvec_v (ncases, labelvec),
2660                                                    const0_rtx, const0_rtx));
2661           else
2662             emit_jump_insn (gen_rtx_ADDR_VEC (CASE_VECTOR_MODE,
2663                                               gen_rtvec_v (ncases, labelvec)));
2664
2665           /* If the case insn drops through the table,
2666              after the table we must jump to the default-label.
2667              Otherwise record no drop-through after the table.  */
2668 #ifdef CASE_DROPS_THROUGH
2669           emit_jump (default_label);
2670 #else
2671           emit_barrier ();
2672 #endif
2673         }
2674
2675       before_case = NEXT_INSN (before_case);
2676       end = get_last_insn ();
2677       if (squeeze_notes (&before_case, &end))
2678         abort ();
2679       reorder_insns (before_case, end, start);
2680     }
2681
2682   free_temp_slots ();
2683 }
2684
2685 /* Generate code to jump to LABEL if OP1 and OP2 are equal.  */
2686
2687 static void
2688 do_jump_if_equal (rtx op1, rtx op2, rtx label, int unsignedp)
2689 {
2690   if (GET_CODE (op1) == CONST_INT && GET_CODE (op2) == CONST_INT)
2691     {
2692       if (op1 == op2)
2693         emit_jump (label);
2694     }
2695   else
2696     emit_cmp_and_jump_insns (op1, op2, EQ, NULL_RTX,
2697                              (GET_MODE (op1) == VOIDmode
2698                              ? GET_MODE (op2) : GET_MODE (op1)),
2699                              unsignedp, label);
2700 }
2701 \f
2702 /* Not all case values are encountered equally.  This function
2703    uses a heuristic to weight case labels, in cases where that
2704    looks like a reasonable thing to do.
2705
2706    Right now, all we try to guess is text, and we establish the
2707    following weights:
2708
2709         chars above space:      16
2710         digits:                 16
2711         default:                12
2712         space, punct:           8
2713         tab:                    4
2714         newline:                2
2715         other "\" chars:        1
2716         remaining chars:        0
2717
2718    If we find any cases in the switch that are not either -1 or in the range
2719    of valid ASCII characters, or are control characters other than those
2720    commonly used with "\", don't treat this switch scanning text.
2721
2722    Return 1 if these nodes are suitable for cost estimation, otherwise
2723    return 0.  */
2724
2725 static int
2726 estimate_case_costs (case_node_ptr node)
2727 {
2728   tree min_ascii = integer_minus_one_node;
2729   tree max_ascii = convert (TREE_TYPE (node->high),
2730                             build_int_cst (NULL_TREE, 127, 0));
2731   case_node_ptr n;
2732   int i;
2733
2734   /* If we haven't already made the cost table, make it now.  Note that the
2735      lower bound of the table is -1, not zero.  */
2736
2737   if (! cost_table_initialized)
2738     {
2739       cost_table_initialized = 1;
2740
2741       for (i = 0; i < 128; i++)
2742         {
2743           if (ISALNUM (i))
2744             COST_TABLE (i) = 16;
2745           else if (ISPUNCT (i))
2746             COST_TABLE (i) = 8;
2747           else if (ISCNTRL (i))
2748             COST_TABLE (i) = -1;
2749         }
2750
2751       COST_TABLE (' ') = 8;
2752       COST_TABLE ('\t') = 4;
2753       COST_TABLE ('\0') = 4;
2754       COST_TABLE ('\n') = 2;
2755       COST_TABLE ('\f') = 1;
2756       COST_TABLE ('\v') = 1;
2757       COST_TABLE ('\b') = 1;
2758     }
2759
2760   /* See if all the case expressions look like text.  It is text if the
2761      constant is >= -1 and the highest constant is <= 127.  Do all comparisons
2762      as signed arithmetic since we don't want to ever access cost_table with a
2763      value less than -1.  Also check that none of the constants in a range
2764      are strange control characters.  */
2765
2766   for (n = node; n; n = n->right)
2767     {
2768       if ((INT_CST_LT (n->low, min_ascii)) || INT_CST_LT (max_ascii, n->high))
2769         return 0;
2770
2771       for (i = (HOST_WIDE_INT) TREE_INT_CST_LOW (n->low);
2772            i <= (HOST_WIDE_INT) TREE_INT_CST_LOW (n->high); i++)
2773         if (COST_TABLE (i) < 0)
2774           return 0;
2775     }
2776
2777   /* All interesting values are within the range of interesting
2778      ASCII characters.  */
2779   return 1;
2780 }
2781
2782 /* Take an ordered list of case nodes
2783    and transform them into a near optimal binary tree,
2784    on the assumption that any target code selection value is as
2785    likely as any other.
2786
2787    The transformation is performed by splitting the ordered
2788    list into two equal sections plus a pivot.  The parts are
2789    then attached to the pivot as left and right branches.  Each
2790    branch is then transformed recursively.  */
2791
2792 static void
2793 balance_case_nodes (case_node_ptr *head, case_node_ptr parent)
2794 {
2795   case_node_ptr np;
2796
2797   np = *head;
2798   if (np)
2799     {
2800       int cost = 0;
2801       int i = 0;
2802       int ranges = 0;
2803       case_node_ptr *npp;
2804       case_node_ptr left;
2805
2806       /* Count the number of entries on branch.  Also count the ranges.  */
2807
2808       while (np)
2809         {
2810           if (!tree_int_cst_equal (np->low, np->high))
2811             {
2812               ranges++;
2813               if (use_cost_table)
2814                 cost += COST_TABLE (TREE_INT_CST_LOW (np->high));
2815             }
2816
2817           if (use_cost_table)
2818             cost += COST_TABLE (TREE_INT_CST_LOW (np->low));
2819
2820           i++;
2821           np = np->right;
2822         }
2823
2824       if (i > 2)
2825         {
2826           /* Split this list if it is long enough for that to help.  */
2827           npp = head;
2828           left = *npp;
2829           if (use_cost_table)
2830             {
2831               /* Find the place in the list that bisects the list's total cost,
2832                  Here I gets half the total cost.  */
2833               int n_moved = 0;
2834               i = (cost + 1) / 2;
2835               while (1)
2836                 {
2837                   /* Skip nodes while their cost does not reach that amount.  */
2838                   if (!tree_int_cst_equal ((*npp)->low, (*npp)->high))
2839                     i -= COST_TABLE (TREE_INT_CST_LOW ((*npp)->high));
2840                   i -= COST_TABLE (TREE_INT_CST_LOW ((*npp)->low));
2841                   if (i <= 0)
2842                     break;
2843                   npp = &(*npp)->right;
2844                   n_moved += 1;
2845                 }
2846               if (n_moved == 0)
2847                 {
2848                   /* Leave this branch lopsided, but optimize left-hand
2849                      side and fill in `parent' fields for right-hand side.  */
2850                   np = *head;
2851                   np->parent = parent;
2852                   balance_case_nodes (&np->left, np);
2853                   for (; np->right; np = np->right)
2854                     np->right->parent = np;
2855                   return;
2856                 }
2857             }
2858           /* If there are just three nodes, split at the middle one.  */
2859           else if (i == 3)
2860             npp = &(*npp)->right;
2861           else
2862             {
2863               /* Find the place in the list that bisects the list's total cost,
2864                  where ranges count as 2.
2865                  Here I gets half the total cost.  */
2866               i = (i + ranges + 1) / 2;
2867               while (1)
2868                 {
2869                   /* Skip nodes while their cost does not reach that amount.  */
2870                   if (!tree_int_cst_equal ((*npp)->low, (*npp)->high))
2871                     i--;
2872                   i--;
2873                   if (i <= 0)
2874                     break;
2875                   npp = &(*npp)->right;
2876                 }
2877             }
2878           *head = np = *npp;
2879           *npp = 0;
2880           np->parent = parent;
2881           np->left = left;
2882
2883           /* Optimize each of the two split parts.  */
2884           balance_case_nodes (&np->left, np);
2885           balance_case_nodes (&np->right, np);
2886         }
2887       else
2888         {
2889           /* Else leave this branch as one level,
2890              but fill in `parent' fields.  */
2891           np = *head;
2892           np->parent = parent;
2893           for (; np->right; np = np->right)
2894             np->right->parent = np;
2895         }
2896     }
2897 }
2898 \f
2899 /* Search the parent sections of the case node tree
2900    to see if a test for the lower bound of NODE would be redundant.
2901    INDEX_TYPE is the type of the index expression.
2902
2903    The instructions to generate the case decision tree are
2904    output in the same order as nodes are processed so it is
2905    known that if a parent node checks the range of the current
2906    node minus one that the current node is bounded at its lower
2907    span.  Thus the test would be redundant.  */
2908
2909 static int
2910 node_has_low_bound (case_node_ptr node, tree index_type)
2911 {
2912   tree low_minus_one;
2913   case_node_ptr pnode;
2914
2915   /* If the lower bound of this node is the lowest value in the index type,
2916      we need not test it.  */
2917
2918   if (tree_int_cst_equal (node->low, TYPE_MIN_VALUE (index_type)))
2919     return 1;
2920
2921   /* If this node has a left branch, the value at the left must be less
2922      than that at this node, so it cannot be bounded at the bottom and
2923      we need not bother testing any further.  */
2924
2925   if (node->left)
2926     return 0;
2927
2928   low_minus_one = fold (build2 (MINUS_EXPR, TREE_TYPE (node->low),
2929                                 node->low, integer_one_node));
2930
2931   /* If the subtraction above overflowed, we can't verify anything.
2932      Otherwise, look for a parent that tests our value - 1.  */
2933
2934   if (! tree_int_cst_lt (low_minus_one, node->low))
2935     return 0;
2936
2937   for (pnode = node->parent; pnode; pnode = pnode->parent)
2938     if (tree_int_cst_equal (low_minus_one, pnode->high))
2939       return 1;
2940
2941   return 0;
2942 }
2943
2944 /* Search the parent sections of the case node tree
2945    to see if a test for the upper bound of NODE would be redundant.
2946    INDEX_TYPE is the type of the index expression.
2947
2948    The instructions to generate the case decision tree are
2949    output in the same order as nodes are processed so it is
2950    known that if a parent node checks the range of the current
2951    node plus one that the current node is bounded at its upper
2952    span.  Thus the test would be redundant.  */
2953
2954 static int
2955 node_has_high_bound (case_node_ptr node, tree index_type)
2956 {
2957   tree high_plus_one;
2958   case_node_ptr pnode;
2959
2960   /* If there is no upper bound, obviously no test is needed.  */
2961
2962   if (TYPE_MAX_VALUE (index_type) == NULL)
2963     return 1;
2964
2965   /* If the upper bound of this node is the highest value in the type
2966      of the index expression, we need not test against it.  */
2967
2968   if (tree_int_cst_equal (node->high, TYPE_MAX_VALUE (index_type)))
2969     return 1;
2970
2971   /* If this node has a right branch, the value at the right must be greater
2972      than that at this node, so it cannot be bounded at the top and
2973      we need not bother testing any further.  */
2974
2975   if (node->right)
2976     return 0;
2977
2978   high_plus_one = fold (build2 (PLUS_EXPR, TREE_TYPE (node->high),
2979                                 node->high, integer_one_node));
2980
2981   /* If the addition above overflowed, we can't verify anything.
2982      Otherwise, look for a parent that tests our value + 1.  */
2983
2984   if (! tree_int_cst_lt (node->high, high_plus_one))
2985     return 0;
2986
2987   for (pnode = node->parent; pnode; pnode = pnode->parent)
2988     if (tree_int_cst_equal (high_plus_one, pnode->low))
2989       return 1;
2990
2991   return 0;
2992 }
2993
2994 /* Search the parent sections of the
2995    case node tree to see if both tests for the upper and lower
2996    bounds of NODE would be redundant.  */
2997
2998 static int
2999 node_is_bounded (case_node_ptr node, tree index_type)
3000 {
3001   return (node_has_low_bound (node, index_type)
3002           && node_has_high_bound (node, index_type));
3003 }
3004 \f
3005 /* Emit step-by-step code to select a case for the value of INDEX.
3006    The thus generated decision tree follows the form of the
3007    case-node binary tree NODE, whose nodes represent test conditions.
3008    INDEX_TYPE is the type of the index of the switch.
3009
3010    Care is taken to prune redundant tests from the decision tree
3011    by detecting any boundary conditions already checked by
3012    emitted rtx.  (See node_has_high_bound, node_has_low_bound
3013    and node_is_bounded, above.)
3014
3015    Where the test conditions can be shown to be redundant we emit
3016    an unconditional jump to the target code.  As a further
3017    optimization, the subordinates of a tree node are examined to
3018    check for bounded nodes.  In this case conditional and/or
3019    unconditional jumps as a result of the boundary check for the
3020    current node are arranged to target the subordinates associated
3021    code for out of bound conditions on the current node.
3022
3023    We can assume that when control reaches the code generated here,
3024    the index value has already been compared with the parents
3025    of this node, and determined to be on the same side of each parent
3026    as this node is.  Thus, if this node tests for the value 51,
3027    and a parent tested for 52, we don't need to consider
3028    the possibility of a value greater than 51.  If another parent
3029    tests for the value 50, then this node need not test anything.  */
3030
3031 static void
3032 emit_case_nodes (rtx index, case_node_ptr node, rtx default_label,
3033                  tree index_type)
3034 {
3035   /* If INDEX has an unsigned type, we must make unsigned branches.  */
3036   int unsignedp = TYPE_UNSIGNED (index_type);
3037   enum machine_mode mode = GET_MODE (index);
3038   enum machine_mode imode = TYPE_MODE (index_type);
3039
3040   /* See if our parents have already tested everything for us.
3041      If they have, emit an unconditional jump for this node.  */
3042   if (node_is_bounded (node, index_type))
3043     emit_jump (label_rtx (node->code_label));
3044
3045   else if (tree_int_cst_equal (node->low, node->high))
3046     {
3047       /* Node is single valued.  First see if the index expression matches
3048          this node and then check our children, if any.  */
3049
3050       do_jump_if_equal (index,
3051                         convert_modes (mode, imode,
3052                                        expand_expr (node->low, NULL_RTX,
3053                                                     VOIDmode, 0),
3054                                        unsignedp),
3055                         label_rtx (node->code_label), unsignedp);
3056
3057       if (node->right != 0 && node->left != 0)
3058         {
3059           /* This node has children on both sides.
3060              Dispatch to one side or the other
3061              by comparing the index value with this node's value.
3062              If one subtree is bounded, check that one first,
3063              so we can avoid real branches in the tree.  */
3064
3065           if (node_is_bounded (node->right, index_type))
3066             {
3067               emit_cmp_and_jump_insns (index,
3068                                        convert_modes
3069                                        (mode, imode,
3070                                         expand_expr (node->high, NULL_RTX,
3071                                                      VOIDmode, 0),
3072                                         unsignedp),
3073                                        GT, NULL_RTX, mode, unsignedp,
3074                                        label_rtx (node->right->code_label));
3075               emit_case_nodes (index, node->left, default_label, index_type);
3076             }
3077
3078           else if (node_is_bounded (node->left, index_type))
3079             {
3080               emit_cmp_and_jump_insns (index,
3081                                        convert_modes
3082                                        (mode, imode,
3083                                         expand_expr (node->high, NULL_RTX,
3084                                                      VOIDmode, 0),
3085                                         unsignedp),
3086                                        LT, NULL_RTX, mode, unsignedp,
3087                                        label_rtx (node->left->code_label));
3088               emit_case_nodes (index, node->right, default_label, index_type);
3089             }
3090
3091           /* If both children are single-valued cases with no
3092              children, finish up all the work.  This way, we can save
3093              one ordered comparison.  */
3094           else if (tree_int_cst_equal (node->right->low, node->right->high)
3095                    && node->right->left == 0
3096                    && node->right->right == 0
3097                    && tree_int_cst_equal (node->left->low, node->left->high)
3098                    && node->left->left == 0
3099                    && node->left->right == 0)
3100             {
3101               /* Neither node is bounded.  First distinguish the two sides;
3102                  then emit the code for one side at a time.  */
3103
3104               /* See if the value matches what the right hand side
3105                  wants.  */
3106               do_jump_if_equal (index,
3107                                 convert_modes (mode, imode,
3108                                                expand_expr (node->right->low,
3109                                                             NULL_RTX,
3110                                                             VOIDmode, 0),
3111                                                unsignedp),
3112                                 label_rtx (node->right->code_label),
3113                                 unsignedp);
3114
3115               /* See if the value matches what the left hand side
3116                  wants.  */
3117               do_jump_if_equal (index,
3118                                 convert_modes (mode, imode,
3119                                                expand_expr (node->left->low,
3120                                                             NULL_RTX,
3121                                                             VOIDmode, 0),
3122                                                unsignedp),
3123                                 label_rtx (node->left->code_label),
3124                                 unsignedp);
3125             }
3126
3127           else
3128             {
3129               /* Neither node is bounded.  First distinguish the two sides;
3130                  then emit the code for one side at a time.  */
3131
3132               tree test_label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
3133
3134               /* See if the value is on the right.  */
3135               emit_cmp_and_jump_insns (index,
3136                                        convert_modes
3137                                        (mode, imode,
3138                                         expand_expr (node->high, NULL_RTX,
3139                                                      VOIDmode, 0),
3140                                         unsignedp),
3141                                        GT, NULL_RTX, mode, unsignedp,
3142                                        label_rtx (test_label));
3143
3144               /* Value must be on the left.
3145                  Handle the left-hand subtree.  */
3146               emit_case_nodes (index, node->left, default_label, index_type);
3147               /* If left-hand subtree does nothing,
3148                  go to default.  */
3149               emit_jump (default_label);
3150
3151               /* Code branches here for the right-hand subtree.  */
3152               expand_label (test_label);
3153               emit_case_nodes (index, node->right, default_label, index_type);
3154             }
3155         }
3156
3157       else if (node->right != 0 && node->left == 0)
3158         {
3159           /* Here we have a right child but no left so we issue conditional
3160              branch to default and process the right child.
3161
3162              Omit the conditional branch to default if we it avoid only one
3163              right child; it costs too much space to save so little time.  */
3164
3165           if (node->right->right || node->right->left
3166               || !tree_int_cst_equal (node->right->low, node->right->high))
3167             {
3168               if (!node_has_low_bound (node, index_type))
3169                 {
3170                   emit_cmp_and_jump_insns (index,
3171                                            convert_modes
3172                                            (mode, imode,
3173                                             expand_expr (node->high, NULL_RTX,
3174                                                          VOIDmode, 0),
3175                                             unsignedp),
3176                                            LT, NULL_RTX, mode, unsignedp,
3177                                            default_label);
3178                 }
3179
3180               emit_case_nodes (index, node->right, default_label, index_type);
3181             }
3182           else
3183             /* We cannot process node->right normally
3184                since we haven't ruled out the numbers less than
3185                this node's value.  So handle node->right explicitly.  */
3186             do_jump_if_equal (index,
3187                               convert_modes
3188                               (mode, imode,
3189                                expand_expr (node->right->low, NULL_RTX,
3190                                             VOIDmode, 0),
3191                                unsignedp),
3192                               label_rtx (node->right->code_label), unsignedp);
3193         }
3194
3195       else if (node->right == 0 && node->left != 0)
3196         {
3197           /* Just one subtree, on the left.  */
3198           if (node->left->left || node->left->right
3199               || !tree_int_cst_equal (node->left->low, node->left->high))
3200             {
3201               if (!node_has_high_bound (node, index_type))
3202                 {
3203                   emit_cmp_and_jump_insns (index,
3204                                            convert_modes
3205                                            (mode, imode,
3206                                             expand_expr (node->high, NULL_RTX,
3207                                                          VOIDmode, 0),
3208                                             unsignedp),
3209                                            GT, NULL_RTX, mode, unsignedp,
3210                                            default_label);
3211                 }
3212
3213               emit_case_nodes (index, node->left, default_label, index_type);
3214             }
3215           else
3216             /* We cannot process node->left normally
3217                since we haven't ruled out the numbers less than
3218                this node's value.  So handle node->left explicitly.  */
3219             do_jump_if_equal (index,
3220                               convert_modes
3221                               (mode, imode,
3222                                expand_expr (node->left->low, NULL_RTX,
3223                                             VOIDmode, 0),
3224                                unsignedp),
3225                               label_rtx (node->left->code_label), unsignedp);
3226         }
3227     }
3228   else
3229     {
3230       /* Node is a range.  These cases are very similar to those for a single
3231          value, except that we do not start by testing whether this node
3232          is the one to branch to.  */
3233
3234       if (node->right != 0 && node->left != 0)
3235         {
3236           /* Node has subtrees on both sides.
3237              If the right-hand subtree is bounded,
3238              test for it first, since we can go straight there.
3239              Otherwise, we need to make a branch in the control structure,
3240              then handle the two subtrees.  */
3241           tree test_label = 0;
3242
3243           if (node_is_bounded (node->right, index_type))
3244             /* Right hand node is fully bounded so we can eliminate any
3245                testing and branch directly to the target code.  */
3246             emit_cmp_and_jump_insns (index,
3247                                      convert_modes
3248                                      (mode, imode,
3249                                       expand_expr (node->high, NULL_RTX,
3250                                                    VOIDmode, 0),
3251                                       unsignedp),
3252                                      GT, NULL_RTX, mode, unsignedp,
3253                                      label_rtx (node->right->code_label));
3254           else
3255             {
3256               /* Right hand node requires testing.
3257                  Branch to a label where we will handle it later.  */
3258
3259               test_label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
3260               emit_cmp_and_jump_insns (index,
3261                                        convert_modes
3262                                        (mode, imode,
3263                                         expand_expr (node->high, NULL_RTX,
3264                                                      VOIDmode, 0),
3265                                         unsignedp),
3266                                        GT, NULL_RTX, mode, unsignedp,
3267                                        label_rtx (test_label));
3268             }
3269
3270           /* Value belongs to this node or to the left-hand subtree.  */
3271
3272           emit_cmp_and_jump_insns (index,
3273                                    convert_modes
3274                                    (mode, imode,
3275                                     expand_expr (node->low, NULL_RTX,
3276                                                  VOIDmode, 0),
3277                                     unsignedp),
3278                                    GE, NULL_RTX, mode, unsignedp,
3279                                    label_rtx (node->code_label));
3280
3281           /* Handle the left-hand subtree.  */
3282           emit_case_nodes (index, node->left, default_label, index_type);
3283
3284           /* If right node had to be handled later, do that now.  */
3285
3286           if (test_label)
3287             {
3288               /* If the left-hand subtree fell through,
3289                  don't let it fall into the right-hand subtree.  */
3290               emit_jump (default_label);
3291
3292               expand_label (test_label);
3293               emit_case_nodes (index, node->right, default_label, index_type);
3294             }
3295         }
3296
3297       else if (node->right != 0 && node->left == 0)
3298         {
3299           /* Deal with values to the left of this node,
3300              if they are possible.  */
3301           if (!node_has_low_bound (node, index_type))
3302             {
3303               emit_cmp_and_jump_insns (index,
3304                                        convert_modes
3305                                        (mode, imode,
3306                                         expand_expr (node->low, NULL_RTX,
3307                                                      VOIDmode, 0),
3308                                         unsignedp),
3309                                        LT, NULL_RTX, mode, unsignedp,
3310                                        default_label);
3311             }
3312
3313           /* Value belongs to this node or to the right-hand subtree.  */
3314
3315           emit_cmp_and_jump_insns (index,
3316                                    convert_modes
3317                                    (mode, imode,
3318                                     expand_expr (node->high, NULL_RTX,
3319                                                  VOIDmode, 0),
3320                                     unsignedp),
3321                                    LE, NULL_RTX, mode, unsignedp,
3322                                    label_rtx (node->code_label));
3323
3324           emit_case_nodes (index, node->right, default_label, index_type);
3325         }
3326
3327       else if (node->right == 0 && node->left != 0)
3328         {
3329           /* Deal with values to the right of this node,
3330              if they are possible.  */
3331           if (!node_has_high_bound (node, index_type))
3332             {
3333               emit_cmp_and_jump_insns (index,
3334                                        convert_modes
3335                                        (mode, imode,
3336                                         expand_expr (node->high, NULL_RTX,
3337                                                      VOIDmode, 0),
3338                                         unsignedp),
3339                                        GT, NULL_RTX, mode, unsignedp,
3340                                        default_label);
3341             }
3342
3343           /* Value belongs to this node or to the left-hand subtree.  */
3344
3345           emit_cmp_and_jump_insns (index,
3346                                    convert_modes
3347                                    (mode, imode,
3348                                     expand_expr (node->low, NULL_RTX,
3349                                                  VOIDmode, 0),
3350                                     unsignedp),
3351                                    GE, NULL_RTX, mode, unsignedp,
3352                                    label_rtx (node->code_label));
3353
3354           emit_case_nodes (index, node->left, default_label, index_type);
3355         }
3356
3357       else
3358         {
3359           /* Node has no children so we check low and high bounds to remove
3360              redundant tests.  Only one of the bounds can exist,
3361              since otherwise this node is bounded--a case tested already.  */
3362           int high_bound = node_has_high_bound (node, index_type);
3363           int low_bound = node_has_low_bound (node, index_type);
3364
3365           if (!high_bound && low_bound)
3366             {
3367               emit_cmp_and_jump_insns (index,
3368                                        convert_modes
3369                                        (mode, imode,
3370                                         expand_expr (node->high, NULL_RTX,
3371                                                      VOIDmode, 0),
3372                                         unsignedp),
3373                                        GT, NULL_RTX, mode, unsignedp,
3374                                        default_label);
3375             }
3376
3377           else if (!low_bound && high_bound)
3378             {
3379               emit_cmp_and_jump_insns (index,
3380                                        convert_modes
3381                                        (mode, imode,
3382                                         expand_expr (node->low, NULL_RTX,
3383                                                      VOIDmode, 0),
3384                                         unsignedp),
3385                                        LT, NULL_RTX, mode, unsignedp,
3386                                        default_label);
3387             }
3388           else if (!low_bound && !high_bound)
3389             {
3390               /* Widen LOW and HIGH to the same width as INDEX.  */
3391               tree type = lang_hooks.types.type_for_mode (mode, unsignedp);
3392               tree low = build1 (CONVERT_EXPR, type, node->low);
3393               tree high = build1 (CONVERT_EXPR, type, node->high);
3394               rtx low_rtx, new_index, new_bound;
3395
3396               /* Instead of doing two branches, emit one unsigned branch for
3397                  (index-low) > (high-low).  */
3398               low_rtx = expand_expr (low, NULL_RTX, mode, 0);
3399               new_index = expand_simple_binop (mode, MINUS, index, low_rtx,
3400                                                NULL_RTX, unsignedp,
3401                                                OPTAB_WIDEN);
3402               new_bound = expand_expr (fold (build2 (MINUS_EXPR, type,
3403                                                      high, low)),
3404                                        NULL_RTX, mode, 0);
3405
3406               emit_cmp_and_jump_insns (new_index, new_bound, GT, NULL_RTX,
3407                                        mode, 1, default_label);
3408             }
3409
3410           emit_jump (label_rtx (node->code_label));
3411         }
3412     }
3413 }