OSDN Git Service

* attribs.c (strip_attrs): Remove.
[pf3gnuchains/gcc-fork.git] / gcc / stmt.c
1 /* Expands front end tree to back end RTL for GCC
2    Copyright (C) 1987, 1988, 1989, 1992, 1993, 1994, 1995, 1996, 1997,
3    1998, 1999, 2000, 2001, 2002, 2003, 2004 Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 59 Temple Place - Suite 330, Boston, MA
20 02111-1307, USA.  */
21
22 /* This file handles the generation of rtl code from tree structure
23    above the level of expressions, using subroutines in exp*.c and emit-rtl.c.
24    The functions whose names start with `expand_' are called by the
25    expander to generate RTL instructions for various kinds of constructs.  */
26
27 #include "config.h"
28 #include "system.h"
29 #include "coretypes.h"
30 #include "tm.h"
31
32 #include "rtl.h"
33 #include "tree.h"
34 #include "tm_p.h"
35 #include "flags.h"
36 #include "except.h"
37 #include "function.h"
38 #include "insn-config.h"
39 #include "expr.h"
40 #include "libfuncs.h"
41 #include "hard-reg-set.h"
42 #include "loop.h"
43 #include "recog.h"
44 #include "machmode.h"
45 #include "toplev.h"
46 #include "output.h"
47 #include "ggc.h"
48 #include "langhooks.h"
49 #include "predict.h"
50 #include "optabs.h"
51 #include "target.h"
52 #include "regs.h"
53 \f
54 /* Functions and data structures for expanding case statements.  */
55
56 /* Case label structure, used to hold info on labels within case
57    statements.  We handle "range" labels; for a single-value label
58    as in C, the high and low limits are the same.
59
60    We start with a vector of case nodes sorted in ascending order, and
61    the default label as the last element in the vector.  Before expanding
62    to RTL, we transform this vector into a list linked via the RIGHT
63    fields in the case_node struct.  Nodes with higher case values are
64    later in the list.
65
66    Switch statements can be output in three forms.  A branch table is
67    used if there are more than a few labels and the labels are dense
68    within the range between the smallest and largest case value.  If a
69    branch table is used, no further manipulations are done with the case
70    node chain.
71
72    The alternative to the use of a branch table is to generate a series
73    of compare and jump insns.  When that is done, we use the LEFT, RIGHT,
74    and PARENT fields to hold a binary tree.  Initially the tree is
75    totally unbalanced, with everything on the right.  We balance the tree
76    with nodes on the left having lower case values than the parent
77    and nodes on the right having higher values.  We then output the tree
78    in order.
79
80    For very small, suitable switch statements, we can generate a series
81    of simple bit test and branches instead.  */
82
83 struct case_node GTY(())
84 {
85   struct case_node      *left;  /* Left son in binary tree */
86   struct case_node      *right; /* Right son in binary tree; also node chain */
87   struct case_node      *parent; /* Parent of node in binary tree */
88   tree                  low;    /* Lowest index value for this label */
89   tree                  high;   /* Highest index value for this label */
90   tree                  code_label; /* Label to jump to when node matches */
91 };
92
93 typedef struct case_node case_node;
94 typedef struct case_node *case_node_ptr;
95
96 /* These are used by estimate_case_costs and balance_case_nodes.  */
97
98 /* This must be a signed type, and non-ANSI compilers lack signed char.  */
99 static short cost_table_[129];
100 static int use_cost_table;
101 static int cost_table_initialized;
102
103 /* Special care is needed because we allow -1, but TREE_INT_CST_LOW
104    is unsigned.  */
105 #define COST_TABLE(I)  cost_table_[(unsigned HOST_WIDE_INT) ((I) + 1)]
106 \f
107 static int n_occurrences (int, const char *);
108 static bool decl_conflicts_with_clobbers_p (tree, const HARD_REG_SET);
109 static void expand_nl_goto_receiver (void);
110 static bool check_operand_nalternatives (tree, tree);
111 static bool check_unique_operand_names (tree, tree);
112 static char *resolve_operand_name_1 (char *, tree, tree);
113 static void expand_null_return_1 (void);
114 static rtx shift_return_value (rtx);
115 static void expand_value_return (rtx);
116 static void do_jump_if_equal (rtx, rtx, rtx, int);
117 static int estimate_case_costs (case_node_ptr);
118 static bool lshift_cheap_p (void);
119 static int case_bit_test_cmp (const void *, const void *);
120 static void emit_case_bit_tests (tree, tree, tree, tree, case_node_ptr, rtx);
121 static void balance_case_nodes (case_node_ptr *, case_node_ptr);
122 static int node_has_low_bound (case_node_ptr, tree);
123 static int node_has_high_bound (case_node_ptr, tree);
124 static int node_is_bounded (case_node_ptr, tree);
125 static void emit_case_nodes (rtx, case_node_ptr, rtx, tree);
126 static struct case_node *add_case_node (struct case_node *, tree, tree, tree);
127
128 \f
129 /* Return the rtx-label that corresponds to a LABEL_DECL,
130    creating it if necessary.  */
131
132 rtx
133 label_rtx (tree label)
134 {
135   if (TREE_CODE (label) != LABEL_DECL)
136     abort ();
137
138   if (!DECL_RTL_SET_P (label))
139     {
140       rtx r = gen_label_rtx ();
141       SET_DECL_RTL (label, r);
142       if (FORCED_LABEL (label) || DECL_NONLOCAL (label))
143         LABEL_PRESERVE_P (r) = 1;
144     }
145
146   return DECL_RTL (label);
147 }
148
149 /* As above, but also put it on the forced-reference list of the
150    function that contains it.  */
151 rtx
152 force_label_rtx (tree label)
153 {
154   rtx ref = label_rtx (label);
155   tree function = decl_function_context (label);
156   struct function *p;
157
158   if (!function)
159     abort ();
160
161   if (function != current_function_decl)
162     p = find_function_data (function);
163   else
164     p = cfun;
165
166   p->expr->x_forced_labels = gen_rtx_EXPR_LIST (VOIDmode, ref,
167                                                 p->expr->x_forced_labels);
168   return ref;
169 }
170
171 /* Add an unconditional jump to LABEL as the next sequential instruction.  */
172
173 void
174 emit_jump (rtx label)
175 {
176   do_pending_stack_adjust ();
177   emit_jump_insn (gen_jump (label));
178   emit_barrier ();
179 }
180
181 /* Emit code to jump to the address
182    specified by the pointer expression EXP.  */
183
184 void
185 expand_computed_goto (tree exp)
186 {
187   rtx x = expand_expr (exp, NULL_RTX, VOIDmode, 0);
188
189   x = convert_memory_address (Pmode, x);
190
191   do_pending_stack_adjust ();
192   emit_indirect_jump (x);
193 }
194 \f
195 /* Handle goto statements and the labels that they can go to.  */
196
197 /* Specify the location in the RTL code of a label LABEL,
198    which is a LABEL_DECL tree node.
199
200    This is used for the kind of label that the user can jump to with a
201    goto statement, and for alternatives of a switch or case statement.
202    RTL labels generated for loops and conditionals don't go through here;
203    they are generated directly at the RTL level, by other functions below.
204
205    Note that this has nothing to do with defining label *names*.
206    Languages vary in how they do that and what that even means.  */
207
208 void
209 expand_label (tree label)
210 {
211   rtx label_r = label_rtx (label);
212
213   do_pending_stack_adjust ();
214   emit_label (label_r);
215   if (DECL_NAME (label))
216     LABEL_NAME (DECL_RTL (label)) = IDENTIFIER_POINTER (DECL_NAME (label));
217
218   if (DECL_NONLOCAL (label))
219     {
220       expand_nl_goto_receiver ();
221       nonlocal_goto_handler_labels
222         = gen_rtx_EXPR_LIST (VOIDmode, label_r,
223                              nonlocal_goto_handler_labels);
224     }
225
226   if (FORCED_LABEL (label))
227     forced_labels = gen_rtx_EXPR_LIST (VOIDmode, label_r, forced_labels);
228
229   if (DECL_NONLOCAL (label) || FORCED_LABEL (label))
230     maybe_set_first_label_num (label_r);
231 }
232
233 /* Generate RTL code for a `goto' statement with target label LABEL.
234    LABEL should be a LABEL_DECL tree node that was or will later be
235    defined with `expand_label'.  */
236
237 void
238 expand_goto (tree label)
239 {
240 #ifdef ENABLE_CHECKING
241   /* Check for a nonlocal goto to a containing function.  Should have
242      gotten translated to __builtin_nonlocal_goto.  */
243   tree context = decl_function_context (label);
244   if (context != 0 && context != current_function_decl)
245     abort ();
246 #endif
247
248   emit_jump (label_rtx (label));
249 }
250 \f
251 /* Return the number of times character C occurs in string S.  */
252 static int
253 n_occurrences (int c, const char *s)
254 {
255   int n = 0;
256   while (*s)
257     n += (*s++ == c);
258   return n;
259 }
260 \f
261 /* Generate RTL for an asm statement (explicit assembler code).
262    STRING is a STRING_CST node containing the assembler code text,
263    or an ADDR_EXPR containing a STRING_CST.  VOL nonzero means the
264    insn is volatile; don't optimize it.  */
265
266 void
267 expand_asm (tree string, int vol)
268 {
269   rtx body;
270
271   if (TREE_CODE (string) == ADDR_EXPR)
272     string = TREE_OPERAND (string, 0);
273
274   body = gen_rtx_ASM_INPUT (VOIDmode, TREE_STRING_POINTER (string));
275
276   MEM_VOLATILE_P (body) = vol;
277
278   emit_insn (body);
279 }
280
281 /* Parse the output constraint pointed to by *CONSTRAINT_P.  It is the
282    OPERAND_NUMth output operand, indexed from zero.  There are NINPUTS
283    inputs and NOUTPUTS outputs to this extended-asm.  Upon return,
284    *ALLOWS_MEM will be TRUE iff the constraint allows the use of a
285    memory operand.  Similarly, *ALLOWS_REG will be TRUE iff the
286    constraint allows the use of a register operand.  And, *IS_INOUT
287    will be true if the operand is read-write, i.e., if it is used as
288    an input as well as an output.  If *CONSTRAINT_P is not in
289    canonical form, it will be made canonical.  (Note that `+' will be
290    replaced with `=' as part of this process.)
291
292    Returns TRUE if all went well; FALSE if an error occurred.  */
293
294 bool
295 parse_output_constraint (const char **constraint_p, int operand_num,
296                          int ninputs, int noutputs, bool *allows_mem,
297                          bool *allows_reg, bool *is_inout)
298 {
299   const char *constraint = *constraint_p;
300   const char *p;
301
302   /* Assume the constraint doesn't allow the use of either a register
303      or memory.  */
304   *allows_mem = false;
305   *allows_reg = false;
306
307   /* Allow the `=' or `+' to not be at the beginning of the string,
308      since it wasn't explicitly documented that way, and there is a
309      large body of code that puts it last.  Swap the character to
310      the front, so as not to uglify any place else.  */
311   p = strchr (constraint, '=');
312   if (!p)
313     p = strchr (constraint, '+');
314
315   /* If the string doesn't contain an `=', issue an error
316      message.  */
317   if (!p)
318     {
319       error ("output operand constraint lacks `='");
320       return false;
321     }
322
323   /* If the constraint begins with `+', then the operand is both read
324      from and written to.  */
325   *is_inout = (*p == '+');
326
327   /* Canonicalize the output constraint so that it begins with `='.  */
328   if (p != constraint || is_inout)
329     {
330       char *buf;
331       size_t c_len = strlen (constraint);
332
333       if (p != constraint)
334         warning ("output constraint `%c' for operand %d is not at the beginning",
335                  *p, operand_num);
336
337       /* Make a copy of the constraint.  */
338       buf = alloca (c_len + 1);
339       strcpy (buf, constraint);
340       /* Swap the first character and the `=' or `+'.  */
341       buf[p - constraint] = buf[0];
342       /* Make sure the first character is an `='.  (Until we do this,
343          it might be a `+'.)  */
344       buf[0] = '=';
345       /* Replace the constraint with the canonicalized string.  */
346       *constraint_p = ggc_alloc_string (buf, c_len);
347       constraint = *constraint_p;
348     }
349
350   /* Loop through the constraint string.  */
351   for (p = constraint + 1; *p; p += CONSTRAINT_LEN (*p, p))
352     switch (*p)
353       {
354       case '+':
355       case '=':
356         error ("operand constraint contains incorrectly positioned '+' or '='");
357         return false;
358
359       case '%':
360         if (operand_num + 1 == ninputs + noutputs)
361           {
362             error ("`%%' constraint used with last operand");
363             return false;
364           }
365         break;
366
367       case 'V':  case 'm':  case 'o':
368         *allows_mem = true;
369         break;
370
371       case '?':  case '!':  case '*':  case '&':  case '#':
372       case 'E':  case 'F':  case 'G':  case 'H':
373       case 's':  case 'i':  case 'n':
374       case 'I':  case 'J':  case 'K':  case 'L':  case 'M':
375       case 'N':  case 'O':  case 'P':  case ',':
376         break;
377
378       case '0':  case '1':  case '2':  case '3':  case '4':
379       case '5':  case '6':  case '7':  case '8':  case '9':
380       case '[':
381         error ("matching constraint not valid in output operand");
382         return false;
383
384       case '<':  case '>':
385         /* ??? Before flow, auto inc/dec insns are not supposed to exist,
386            excepting those that expand_call created.  So match memory
387            and hope.  */
388         *allows_mem = true;
389         break;
390
391       case 'g':  case 'X':
392         *allows_reg = true;
393         *allows_mem = true;
394         break;
395
396       case 'p': case 'r':
397         *allows_reg = true;
398         break;
399
400       default:
401         if (!ISALPHA (*p))
402           break;
403         if (REG_CLASS_FROM_CONSTRAINT (*p, p) != NO_REGS)
404           *allows_reg = true;
405 #ifdef EXTRA_CONSTRAINT_STR
406         else if (EXTRA_ADDRESS_CONSTRAINT (*p, p))
407           *allows_reg = true;
408         else if (EXTRA_MEMORY_CONSTRAINT (*p, p))
409           *allows_mem = true;
410         else
411           {
412             /* Otherwise we can't assume anything about the nature of
413                the constraint except that it isn't purely registers.
414                Treat it like "g" and hope for the best.  */
415             *allows_reg = true;
416             *allows_mem = true;
417           }
418 #endif
419         break;
420       }
421
422   return true;
423 }
424
425 /* Similar, but for input constraints.  */
426
427 bool
428 parse_input_constraint (const char **constraint_p, int input_num,
429                         int ninputs, int noutputs, int ninout,
430                         const char * const * constraints,
431                         bool *allows_mem, bool *allows_reg)
432 {
433   const char *constraint = *constraint_p;
434   const char *orig_constraint = constraint;
435   size_t c_len = strlen (constraint);
436   size_t j;
437   bool saw_match = false;
438
439   /* Assume the constraint doesn't allow the use of either
440      a register or memory.  */
441   *allows_mem = false;
442   *allows_reg = false;
443
444   /* Make sure constraint has neither `=', `+', nor '&'.  */
445
446   for (j = 0; j < c_len; j += CONSTRAINT_LEN (constraint[j], constraint+j))
447     switch (constraint[j])
448       {
449       case '+':  case '=':  case '&':
450         if (constraint == orig_constraint)
451           {
452             error ("input operand constraint contains `%c'", constraint[j]);
453             return false;
454           }
455         break;
456
457       case '%':
458         if (constraint == orig_constraint
459             && input_num + 1 == ninputs - ninout)
460           {
461             error ("`%%' constraint used with last operand");
462             return false;
463           }
464         break;
465
466       case 'V':  case 'm':  case 'o':
467         *allows_mem = true;
468         break;
469
470       case '<':  case '>':
471       case '?':  case '!':  case '*':  case '#':
472       case 'E':  case 'F':  case 'G':  case 'H':
473       case 's':  case 'i':  case 'n':
474       case 'I':  case 'J':  case 'K':  case 'L':  case 'M':
475       case 'N':  case 'O':  case 'P':  case ',':
476         break;
477
478         /* Whether or not a numeric constraint allows a register is
479            decided by the matching constraint, and so there is no need
480            to do anything special with them.  We must handle them in
481            the default case, so that we don't unnecessarily force
482            operands to memory.  */
483       case '0':  case '1':  case '2':  case '3':  case '4':
484       case '5':  case '6':  case '7':  case '8':  case '9':
485         {
486           char *end;
487           unsigned long match;
488
489           saw_match = true;
490
491           match = strtoul (constraint + j, &end, 10);
492           if (match >= (unsigned long) noutputs)
493             {
494               error ("matching constraint references invalid operand number");
495               return false;
496             }
497
498           /* Try and find the real constraint for this dup.  Only do this
499              if the matching constraint is the only alternative.  */
500           if (*end == '\0'
501               && (j == 0 || (j == 1 && constraint[0] == '%')))
502             {
503               constraint = constraints[match];
504               *constraint_p = constraint;
505               c_len = strlen (constraint);
506               j = 0;
507               /* ??? At the end of the loop, we will skip the first part of
508                  the matched constraint.  This assumes not only that the
509                  other constraint is an output constraint, but also that
510                  the '=' or '+' come first.  */
511               break;
512             }
513           else
514             j = end - constraint;
515           /* Anticipate increment at end of loop.  */
516           j--;
517         }
518         /* Fall through.  */
519
520       case 'p':  case 'r':
521         *allows_reg = true;
522         break;
523
524       case 'g':  case 'X':
525         *allows_reg = true;
526         *allows_mem = true;
527         break;
528
529       default:
530         if (! ISALPHA (constraint[j]))
531           {
532             error ("invalid punctuation `%c' in constraint", constraint[j]);
533             return false;
534           }
535         if (REG_CLASS_FROM_CONSTRAINT (constraint[j], constraint + j)
536             != NO_REGS)
537           *allows_reg = true;
538 #ifdef EXTRA_CONSTRAINT_STR
539         else if (EXTRA_ADDRESS_CONSTRAINT (constraint[j], constraint + j))
540           *allows_reg = true;
541         else if (EXTRA_MEMORY_CONSTRAINT (constraint[j], constraint + j))
542           *allows_mem = true;
543         else
544           {
545             /* Otherwise we can't assume anything about the nature of
546                the constraint except that it isn't purely registers.
547                Treat it like "g" and hope for the best.  */
548             *allows_reg = true;
549             *allows_mem = true;
550           }
551 #endif
552         break;
553       }
554
555   if (saw_match && !*allows_reg)
556     warning ("matching constraint does not allow a register");
557
558   return true;
559 }
560
561 /* INPUT is one of the input operands from EXPR, an ASM_EXPR.  Returns true
562    if it is an operand which must be passed in memory (i.e. an "m"
563    constraint), false otherwise.  */
564
565 bool
566 asm_op_is_mem_input (tree input, tree expr)
567 {
568   const char *constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (input)));
569   tree outputs = ASM_OUTPUTS (expr);
570   int noutputs = list_length (outputs);
571   const char **constraints
572     = (const char **) alloca ((noutputs) * sizeof (const char *));
573   int i = 0;
574   bool allows_mem, allows_reg;
575   tree t;
576
577   /* Collect output constraints.  */
578   for (t = outputs; t ; t = TREE_CHAIN (t), i++)
579     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
580
581   /* We pass 0 for input_num, ninputs and ninout; they are only used for
582      error checking which will be done at expand time.  */
583   parse_input_constraint (&constraint, 0, 0, noutputs, 0, constraints,
584                           &allows_mem, &allows_reg);
585   return (!allows_reg && allows_mem);
586 }
587
588 /* Check for overlap between registers marked in CLOBBERED_REGS and
589    anything inappropriate in DECL.  Emit error and return TRUE for error,
590    FALSE for ok.  */
591
592 static bool
593 decl_conflicts_with_clobbers_p (tree decl, const HARD_REG_SET clobbered_regs)
594 {
595   /* Conflicts between asm-declared register variables and the clobber
596      list are not allowed.  */
597   if ((TREE_CODE (decl) == VAR_DECL || TREE_CODE (decl) == PARM_DECL)
598       && DECL_REGISTER (decl)
599       && REG_P (DECL_RTL (decl))
600       && REGNO (DECL_RTL (decl)) < FIRST_PSEUDO_REGISTER)
601     {
602       rtx reg = DECL_RTL (decl);
603       unsigned int regno;
604
605       for (regno = REGNO (reg);
606            regno < (REGNO (reg)
607                     + hard_regno_nregs[REGNO (reg)][GET_MODE (reg)]);
608            regno++)
609         if (TEST_HARD_REG_BIT (clobbered_regs, regno))
610           {
611             error ("asm-specifier for variable `%s' conflicts with asm clobber list",
612                    IDENTIFIER_POINTER (DECL_NAME (decl)));
613
614             /* Reset registerness to stop multiple errors emitted for a
615                single variable.  */
616             DECL_REGISTER (decl) = 0;
617             return true;
618           }
619     }
620   return false;
621 }
622
623 /* Generate RTL for an asm statement with arguments.
624    STRING is the instruction template.
625    OUTPUTS is a list of output arguments (lvalues); INPUTS a list of inputs.
626    Each output or input has an expression in the TREE_VALUE and
627    and a tree list in TREE_PURPOSE which in turn contains a constraint
628    name in TREE_VALUE (or NULL_TREE) and a constraint string
629    in TREE_PURPOSE.
630    CLOBBERS is a list of STRING_CST nodes each naming a hard register
631    that is clobbered by this insn.
632
633    Not all kinds of lvalue that may appear in OUTPUTS can be stored directly.
634    Some elements of OUTPUTS may be replaced with trees representing temporary
635    values.  The caller should copy those temporary values to the originally
636    specified lvalues.
637
638    VOL nonzero means the insn is volatile; don't optimize it.  */
639
640 void
641 expand_asm_operands (tree string, tree outputs, tree inputs,
642                      tree clobbers, int vol, location_t locus)
643 {
644   rtvec argvec, constraintvec;
645   rtx body;
646   int ninputs = list_length (inputs);
647   int noutputs = list_length (outputs);
648   int ninout;
649   int nclobbers;
650   HARD_REG_SET clobbered_regs;
651   int clobber_conflict_found = 0;
652   tree tail;
653   tree t;
654   int i;
655   /* Vector of RTX's of evaluated output operands.  */
656   rtx *output_rtx = alloca (noutputs * sizeof (rtx));
657   int *inout_opnum = alloca (noutputs * sizeof (int));
658   rtx *real_output_rtx = alloca (noutputs * sizeof (rtx));
659   enum machine_mode *inout_mode
660     = alloca (noutputs * sizeof (enum machine_mode));
661   const char **constraints
662     = alloca ((noutputs + ninputs) * sizeof (const char *));
663   int old_generating_concat_p = generating_concat_p;
664
665   /* An ASM with no outputs needs to be treated as volatile, for now.  */
666   if (noutputs == 0)
667     vol = 1;
668
669   if (! check_operand_nalternatives (outputs, inputs))
670     return;
671
672   string = resolve_asm_operand_names (string, outputs, inputs);
673
674   /* Collect constraints.  */
675   i = 0;
676   for (t = outputs; t ; t = TREE_CHAIN (t), i++)
677     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
678   for (t = inputs; t ; t = TREE_CHAIN (t), i++)
679     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
680
681   /* Sometimes we wish to automatically clobber registers across an asm.
682      Case in point is when the i386 backend moved from cc0 to a hard reg --
683      maintaining source-level compatibility means automatically clobbering
684      the flags register.  */
685   clobbers = targetm.md_asm_clobbers (clobbers);
686
687   /* Count the number of meaningful clobbered registers, ignoring what
688      we would ignore later.  */
689   nclobbers = 0;
690   CLEAR_HARD_REG_SET (clobbered_regs);
691   for (tail = clobbers; tail; tail = TREE_CHAIN (tail))
692     {
693       const char *regname = TREE_STRING_POINTER (TREE_VALUE (tail));
694
695       i = decode_reg_name (regname);
696       if (i >= 0 || i == -4)
697         ++nclobbers;
698       else if (i == -2)
699         error ("unknown register name `%s' in `asm'", regname);
700
701       /* Mark clobbered registers.  */
702       if (i >= 0)
703         {
704           /* Clobbering the PIC register is an error */
705           if (i == (int) PIC_OFFSET_TABLE_REGNUM)
706             {
707               error ("PIC register `%s' clobbered in `asm'", regname);
708               return;
709             }
710
711           SET_HARD_REG_BIT (clobbered_regs, i);
712         }
713     }
714
715   /* First pass over inputs and outputs checks validity and sets
716      mark_addressable if needed.  */
717
718   ninout = 0;
719   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
720     {
721       tree val = TREE_VALUE (tail);
722       tree type = TREE_TYPE (val);
723       const char *constraint;
724       bool is_inout;
725       bool allows_reg;
726       bool allows_mem;
727
728       /* If there's an erroneous arg, emit no insn.  */
729       if (type == error_mark_node)
730         return;
731
732       /* Try to parse the output constraint.  If that fails, there's
733          no point in going further.  */
734       constraint = constraints[i];
735       if (!parse_output_constraint (&constraint, i, ninputs, noutputs,
736                                     &allows_mem, &allows_reg, &is_inout))
737         return;
738
739       if (! allows_reg
740           && (allows_mem
741               || is_inout
742               || (DECL_P (val)
743                   && REG_P (DECL_RTL (val))
744                   && GET_MODE (DECL_RTL (val)) != TYPE_MODE (type))))
745         lang_hooks.mark_addressable (val);
746
747       if (is_inout)
748         ninout++;
749     }
750
751   ninputs += ninout;
752   if (ninputs + noutputs > MAX_RECOG_OPERANDS)
753     {
754       error ("more than %d operands in `asm'", MAX_RECOG_OPERANDS);
755       return;
756     }
757
758   for (i = 0, tail = inputs; tail; i++, tail = TREE_CHAIN (tail))
759     {
760       bool allows_reg, allows_mem;
761       const char *constraint;
762
763       /* If there's an erroneous arg, emit no insn, because the ASM_INPUT
764          would get VOIDmode and that could cause a crash in reload.  */
765       if (TREE_TYPE (TREE_VALUE (tail)) == error_mark_node)
766         return;
767
768       constraint = constraints[i + noutputs];
769       if (! parse_input_constraint (&constraint, i, ninputs, noutputs, ninout,
770                                     constraints, &allows_mem, &allows_reg))
771         return;
772
773       if (! allows_reg && allows_mem)
774         lang_hooks.mark_addressable (TREE_VALUE (tail));
775     }
776
777   /* Second pass evaluates arguments.  */
778
779   ninout = 0;
780   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
781     {
782       tree val = TREE_VALUE (tail);
783       tree type = TREE_TYPE (val);
784       bool is_inout;
785       bool allows_reg;
786       bool allows_mem;
787       rtx op;
788
789       if (!parse_output_constraint (&constraints[i], i, ninputs,
790                                     noutputs, &allows_mem, &allows_reg,
791                                     &is_inout))
792         abort ();
793
794       /* If an output operand is not a decl or indirect ref and our constraint
795          allows a register, make a temporary to act as an intermediate.
796          Make the asm insn write into that, then our caller will copy it to
797          the real output operand.  Likewise for promoted variables.  */
798
799       generating_concat_p = 0;
800
801       real_output_rtx[i] = NULL_RTX;
802       if ((TREE_CODE (val) == INDIRECT_REF
803            && allows_mem)
804           || (DECL_P (val)
805               && (allows_mem || REG_P (DECL_RTL (val)))
806               && ! (REG_P (DECL_RTL (val))
807                     && GET_MODE (DECL_RTL (val)) != TYPE_MODE (type)))
808           || ! allows_reg
809           || is_inout)
810         {
811           op = expand_expr (val, NULL_RTX, VOIDmode, EXPAND_WRITE);
812           if (MEM_P (op))
813             op = validize_mem (op);
814
815           if (! allows_reg && !MEM_P (op))
816             error ("output number %d not directly addressable", i);
817           if ((! allows_mem && MEM_P (op))
818               || GET_CODE (op) == CONCAT)
819             {
820               real_output_rtx[i] = op;
821               op = gen_reg_rtx (GET_MODE (op));
822               if (is_inout)
823                 emit_move_insn (op, real_output_rtx[i]);
824             }
825         }
826       else
827         {
828           op = assign_temp (type, 0, 0, 1);
829           op = validize_mem (op);
830           TREE_VALUE (tail) = make_tree (type, op);
831         }
832       output_rtx[i] = op;
833
834       generating_concat_p = old_generating_concat_p;
835
836       if (is_inout)
837         {
838           inout_mode[ninout] = TYPE_MODE (type);
839           inout_opnum[ninout++] = i;
840         }
841
842       if (decl_conflicts_with_clobbers_p (val, clobbered_regs))
843         clobber_conflict_found = 1;
844     }
845
846   /* Make vectors for the expression-rtx, constraint strings,
847      and named operands.  */
848
849   argvec = rtvec_alloc (ninputs);
850   constraintvec = rtvec_alloc (ninputs);
851
852   body = gen_rtx_ASM_OPERANDS ((noutputs == 0 ? VOIDmode
853                                 : GET_MODE (output_rtx[0])),
854                                TREE_STRING_POINTER (string),
855                                empty_string, 0, argvec, constraintvec,
856                                locus);
857
858   MEM_VOLATILE_P (body) = vol;
859
860   /* Eval the inputs and put them into ARGVEC.
861      Put their constraints into ASM_INPUTs and store in CONSTRAINTS.  */
862
863   for (i = 0, tail = inputs; tail; tail = TREE_CHAIN (tail), ++i)
864     {
865       bool allows_reg, allows_mem;
866       const char *constraint;
867       tree val, type;
868       rtx op;
869
870       constraint = constraints[i + noutputs];
871       if (! parse_input_constraint (&constraint, i, ninputs, noutputs, ninout,
872                                     constraints, &allows_mem, &allows_reg))
873         abort ();
874
875       generating_concat_p = 0;
876
877       val = TREE_VALUE (tail);
878       type = TREE_TYPE (val);
879       op = expand_expr (val, NULL_RTX, VOIDmode,
880                         (allows_mem && !allows_reg
881                          ? EXPAND_MEMORY : EXPAND_NORMAL));
882
883       /* Never pass a CONCAT to an ASM.  */
884       if (GET_CODE (op) == CONCAT)
885         op = force_reg (GET_MODE (op), op);
886       else if (MEM_P (op))
887         op = validize_mem (op);
888
889       if (asm_operand_ok (op, constraint) <= 0)
890         {
891           if (allows_reg)
892             op = force_reg (TYPE_MODE (type), op);
893           else if (!allows_mem)
894             warning ("asm operand %d probably doesn't match constraints",
895                      i + noutputs);
896           else if (MEM_P (op))
897             {
898               /* We won't recognize either volatile memory or memory
899                  with a queued address as available a memory_operand
900                  at this point.  Ignore it: clearly this *is* a memory.  */
901             }
902           else
903             {
904               warning ("use of memory input without lvalue in "
905                        "asm operand %d is deprecated", i + noutputs);
906
907               if (CONSTANT_P (op))
908                 {
909                   rtx mem = force_const_mem (TYPE_MODE (type), op);
910                   if (mem)
911                     op = validize_mem (mem);
912                   else
913                     op = force_reg (TYPE_MODE (type), op);
914                 }
915               if (REG_P (op)
916                   || GET_CODE (op) == SUBREG
917                   || GET_CODE (op) == CONCAT)
918                 {
919                   tree qual_type = build_qualified_type (type,
920                                                          (TYPE_QUALS (type)
921                                                           | TYPE_QUAL_CONST));
922                   rtx memloc = assign_temp (qual_type, 1, 1, 1);
923                   memloc = validize_mem (memloc);
924                   emit_move_insn (memloc, op);
925                   op = memloc;
926                 }
927             }
928         }
929
930       generating_concat_p = old_generating_concat_p;
931       ASM_OPERANDS_INPUT (body, i) = op;
932
933       ASM_OPERANDS_INPUT_CONSTRAINT_EXP (body, i)
934         = gen_rtx_ASM_INPUT (TYPE_MODE (type), constraints[i + noutputs]);
935
936       if (decl_conflicts_with_clobbers_p (val, clobbered_regs))
937         clobber_conflict_found = 1;
938     }
939
940   /* Protect all the operands from the queue now that they have all been
941      evaluated.  */
942
943   generating_concat_p = 0;
944
945   /* For in-out operands, copy output rtx to input rtx.  */
946   for (i = 0; i < ninout; i++)
947     {
948       int j = inout_opnum[i];
949       char buffer[16];
950
951       ASM_OPERANDS_INPUT (body, ninputs - ninout + i)
952         = output_rtx[j];
953
954       sprintf (buffer, "%d", j);
955       ASM_OPERANDS_INPUT_CONSTRAINT_EXP (body, ninputs - ninout + i)
956         = gen_rtx_ASM_INPUT (inout_mode[i], ggc_strdup (buffer));
957     }
958
959   generating_concat_p = old_generating_concat_p;
960
961   /* Now, for each output, construct an rtx
962      (set OUTPUT (asm_operands INSN OUTPUTCONSTRAINT OUTPUTNUMBER
963                                ARGVEC CONSTRAINTS OPNAMES))
964      If there is more than one, put them inside a PARALLEL.  */
965
966   if (noutputs == 1 && nclobbers == 0)
967     {
968       ASM_OPERANDS_OUTPUT_CONSTRAINT (body) = constraints[0];
969       emit_insn (gen_rtx_SET (VOIDmode, output_rtx[0], body));
970     }
971
972   else if (noutputs == 0 && nclobbers == 0)
973     {
974       /* No output operands: put in a raw ASM_OPERANDS rtx.  */
975       emit_insn (body);
976     }
977
978   else
979     {
980       rtx obody = body;
981       int num = noutputs;
982
983       if (num == 0)
984         num = 1;
985
986       body = gen_rtx_PARALLEL (VOIDmode, rtvec_alloc (num + nclobbers));
987
988       /* For each output operand, store a SET.  */
989       for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
990         {
991           XVECEXP (body, 0, i)
992             = gen_rtx_SET (VOIDmode,
993                            output_rtx[i],
994                            gen_rtx_ASM_OPERANDS
995                            (GET_MODE (output_rtx[i]),
996                             TREE_STRING_POINTER (string),
997                             constraints[i], i, argvec, constraintvec,
998                             locus));
999
1000           MEM_VOLATILE_P (SET_SRC (XVECEXP (body, 0, i))) = vol;
1001         }
1002
1003       /* If there are no outputs (but there are some clobbers)
1004          store the bare ASM_OPERANDS into the PARALLEL.  */
1005
1006       if (i == 0)
1007         XVECEXP (body, 0, i++) = obody;
1008
1009       /* Store (clobber REG) for each clobbered register specified.  */
1010
1011       for (tail = clobbers; tail; tail = TREE_CHAIN (tail))
1012         {
1013           const char *regname = TREE_STRING_POINTER (TREE_VALUE (tail));
1014           int j = decode_reg_name (regname);
1015           rtx clobbered_reg;
1016
1017           if (j < 0)
1018             {
1019               if (j == -3)      /* `cc', which is not a register */
1020                 continue;
1021
1022               if (j == -4)      /* `memory', don't cache memory across asm */
1023                 {
1024                   XVECEXP (body, 0, i++)
1025                     = gen_rtx_CLOBBER (VOIDmode,
1026                                        gen_rtx_MEM
1027                                        (BLKmode,
1028                                         gen_rtx_SCRATCH (VOIDmode)));
1029                   continue;
1030                 }
1031
1032               /* Ignore unknown register, error already signaled.  */
1033               continue;
1034             }
1035
1036           /* Use QImode since that's guaranteed to clobber just one reg.  */
1037           clobbered_reg = gen_rtx_REG (QImode, j);
1038
1039           /* Do sanity check for overlap between clobbers and respectively
1040              input and outputs that hasn't been handled.  Such overlap
1041              should have been detected and reported above.  */
1042           if (!clobber_conflict_found)
1043             {
1044               int opno;
1045
1046               /* We test the old body (obody) contents to avoid tripping
1047                  over the under-construction body.  */
1048               for (opno = 0; opno < noutputs; opno++)
1049                 if (reg_overlap_mentioned_p (clobbered_reg, output_rtx[opno]))
1050                   internal_error ("asm clobber conflict with output operand");
1051
1052               for (opno = 0; opno < ninputs - ninout; opno++)
1053                 if (reg_overlap_mentioned_p (clobbered_reg,
1054                                              ASM_OPERANDS_INPUT (obody, opno)))
1055                   internal_error ("asm clobber conflict with input operand");
1056             }
1057
1058           XVECEXP (body, 0, i++)
1059             = gen_rtx_CLOBBER (VOIDmode, clobbered_reg);
1060         }
1061
1062       emit_insn (body);
1063     }
1064
1065   /* For any outputs that needed reloading into registers, spill them
1066      back to where they belong.  */
1067   for (i = 0; i < noutputs; ++i)
1068     if (real_output_rtx[i])
1069       emit_move_insn (real_output_rtx[i], output_rtx[i]);
1070
1071   free_temp_slots ();
1072 }
1073
1074 void
1075 expand_asm_expr (tree exp)
1076 {
1077   int noutputs, i;
1078   tree outputs, tail;
1079   tree *o;
1080
1081   if (ASM_INPUT_P (exp))
1082     {
1083       expand_asm (ASM_STRING (exp), ASM_VOLATILE_P (exp));
1084       return;
1085     }
1086
1087   outputs = ASM_OUTPUTS (exp);
1088   noutputs = list_length (outputs);
1089   /* o[I] is the place that output number I should be written.  */
1090   o = (tree *) alloca (noutputs * sizeof (tree));
1091
1092   /* Record the contents of OUTPUTS before it is modified.  */
1093   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
1094     o[i] = TREE_VALUE (tail);
1095
1096   /* Generate the ASM_OPERANDS insn; store into the TREE_VALUEs of
1097      OUTPUTS some trees for where the values were actually stored.  */
1098   expand_asm_operands (ASM_STRING (exp), outputs, ASM_INPUTS (exp),
1099                        ASM_CLOBBERS (exp), ASM_VOLATILE_P (exp),
1100                        input_location);
1101
1102   /* Copy all the intermediate outputs into the specified outputs.  */
1103   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
1104     {
1105       if (o[i] != TREE_VALUE (tail))
1106         {
1107           expand_assignment (o[i], TREE_VALUE (tail), 0);
1108           free_temp_slots ();
1109
1110           /* Restore the original value so that it's correct the next
1111              time we expand this function.  */
1112           TREE_VALUE (tail) = o[i];
1113         }
1114     }
1115 }
1116
1117 /* A subroutine of expand_asm_operands.  Check that all operands have
1118    the same number of alternatives.  Return true if so.  */
1119
1120 static bool
1121 check_operand_nalternatives (tree outputs, tree inputs)
1122 {
1123   if (outputs || inputs)
1124     {
1125       tree tmp = TREE_PURPOSE (outputs ? outputs : inputs);
1126       int nalternatives
1127         = n_occurrences (',', TREE_STRING_POINTER (TREE_VALUE (tmp)));
1128       tree next = inputs;
1129
1130       if (nalternatives + 1 > MAX_RECOG_ALTERNATIVES)
1131         {
1132           error ("too many alternatives in `asm'");
1133           return false;
1134         }
1135
1136       tmp = outputs;
1137       while (tmp)
1138         {
1139           const char *constraint
1140             = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (tmp)));
1141
1142           if (n_occurrences (',', constraint) != nalternatives)
1143             {
1144               error ("operand constraints for `asm' differ in number of alternatives");
1145               return false;
1146             }
1147
1148           if (TREE_CHAIN (tmp))
1149             tmp = TREE_CHAIN (tmp);
1150           else
1151             tmp = next, next = 0;
1152         }
1153     }
1154
1155   return true;
1156 }
1157
1158 /* A subroutine of expand_asm_operands.  Check that all operand names
1159    are unique.  Return true if so.  We rely on the fact that these names
1160    are identifiers, and so have been canonicalized by get_identifier,
1161    so all we need are pointer comparisons.  */
1162
1163 static bool
1164 check_unique_operand_names (tree outputs, tree inputs)
1165 {
1166   tree i, j;
1167
1168   for (i = outputs; i ; i = TREE_CHAIN (i))
1169     {
1170       tree i_name = TREE_PURPOSE (TREE_PURPOSE (i));
1171       if (! i_name)
1172         continue;
1173
1174       for (j = TREE_CHAIN (i); j ; j = TREE_CHAIN (j))
1175         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1176           goto failure;
1177     }
1178
1179   for (i = inputs; i ; i = TREE_CHAIN (i))
1180     {
1181       tree i_name = TREE_PURPOSE (TREE_PURPOSE (i));
1182       if (! i_name)
1183         continue;
1184
1185       for (j = TREE_CHAIN (i); j ; j = TREE_CHAIN (j))
1186         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1187           goto failure;
1188       for (j = outputs; j ; j = TREE_CHAIN (j))
1189         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1190           goto failure;
1191     }
1192
1193   return true;
1194
1195  failure:
1196   error ("duplicate asm operand name '%s'",
1197          TREE_STRING_POINTER (TREE_PURPOSE (TREE_PURPOSE (i))));
1198   return false;
1199 }
1200
1201 /* A subroutine of expand_asm_operands.  Resolve the names of the operands
1202    in *POUTPUTS and *PINPUTS to numbers, and replace the name expansions in
1203    STRING and in the constraints to those numbers.  */
1204
1205 tree
1206 resolve_asm_operand_names (tree string, tree outputs, tree inputs)
1207 {
1208   char *buffer;
1209   char *p;
1210   const char *c;
1211   tree t;
1212
1213   check_unique_operand_names (outputs, inputs);
1214
1215   /* Substitute [<name>] in input constraint strings.  There should be no
1216      named operands in output constraints.  */
1217   for (t = inputs; t ; t = TREE_CHAIN (t))
1218     {
1219       c = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
1220       if (strchr (c, '[') != NULL)
1221         {
1222           p = buffer = xstrdup (c);
1223           while ((p = strchr (p, '[')) != NULL)
1224             p = resolve_operand_name_1 (p, outputs, inputs);
1225           TREE_VALUE (TREE_PURPOSE (t))
1226             = build_string (strlen (buffer), buffer);
1227           free (buffer);
1228         }
1229     }
1230
1231   /* Now check for any needed substitutions in the template.  */
1232   c = TREE_STRING_POINTER (string);
1233   while ((c = strchr (c, '%')) != NULL)
1234     {
1235       if (c[1] == '[')
1236         break;
1237       else if (ISALPHA (c[1]) && c[2] == '[')
1238         break;
1239       else
1240         {
1241           c += 1;
1242           continue;
1243         }
1244     }
1245
1246   if (c)
1247     {
1248       /* OK, we need to make a copy so we can perform the substitutions.
1249          Assume that we will not need extra space--we get to remove '['
1250          and ']', which means we cannot have a problem until we have more
1251          than 999 operands.  */
1252       buffer = xstrdup (TREE_STRING_POINTER (string));
1253       p = buffer + (c - TREE_STRING_POINTER (string));
1254
1255       while ((p = strchr (p, '%')) != NULL)
1256         {
1257           if (p[1] == '[')
1258             p += 1;
1259           else if (ISALPHA (p[1]) && p[2] == '[')
1260             p += 2;
1261           else
1262             {
1263               p += 1;
1264               continue;
1265             }
1266
1267           p = resolve_operand_name_1 (p, outputs, inputs);
1268         }
1269
1270       string = build_string (strlen (buffer), buffer);
1271       free (buffer);
1272     }
1273
1274   return string;
1275 }
1276
1277 /* A subroutine of resolve_operand_names.  P points to the '[' for a
1278    potential named operand of the form [<name>].  In place, replace
1279    the name and brackets with a number.  Return a pointer to the
1280    balance of the string after substitution.  */
1281
1282 static char *
1283 resolve_operand_name_1 (char *p, tree outputs, tree inputs)
1284 {
1285   char *q;
1286   int op;
1287   tree t;
1288   size_t len;
1289
1290   /* Collect the operand name.  */
1291   q = strchr (p, ']');
1292   if (!q)
1293     {
1294       error ("missing close brace for named operand");
1295       return strchr (p, '\0');
1296     }
1297   len = q - p - 1;
1298
1299   /* Resolve the name to a number.  */
1300   for (op = 0, t = outputs; t ; t = TREE_CHAIN (t), op++)
1301     {
1302       tree name = TREE_PURPOSE (TREE_PURPOSE (t));
1303       if (name)
1304         {
1305           const char *c = TREE_STRING_POINTER (name);
1306           if (strncmp (c, p + 1, len) == 0 && c[len] == '\0')
1307             goto found;
1308         }
1309     }
1310   for (t = inputs; t ; t = TREE_CHAIN (t), op++)
1311     {
1312       tree name = TREE_PURPOSE (TREE_PURPOSE (t));
1313       if (name)
1314         {
1315           const char *c = TREE_STRING_POINTER (name);
1316           if (strncmp (c, p + 1, len) == 0 && c[len] == '\0')
1317             goto found;
1318         }
1319     }
1320
1321   *q = '\0';
1322   error ("undefined named operand '%s'", p + 1);
1323   op = 0;
1324  found:
1325
1326   /* Replace the name with the number.  Unfortunately, not all libraries
1327      get the return value of sprintf correct, so search for the end of the
1328      generated string by hand.  */
1329   sprintf (p, "%d", op);
1330   p = strchr (p, '\0');
1331
1332   /* Verify the no extra buffer space assumption.  */
1333   if (p > q)
1334     abort ();
1335
1336   /* Shift the rest of the buffer down to fill the gap.  */
1337   memmove (p, q + 1, strlen (q + 1) + 1);
1338
1339   return p;
1340 }
1341 \f
1342 /* Generate RTL to evaluate the expression EXP.  */
1343
1344 void
1345 expand_expr_stmt (tree exp)
1346 {
1347   rtx value;
1348   tree type;
1349
1350   value = expand_expr (exp, const0_rtx, VOIDmode, 0);
1351   type = TREE_TYPE (exp);
1352
1353   /* If all we do is reference a volatile value in memory,
1354      copy it to a register to be sure it is actually touched.  */
1355   if (value && MEM_P (value) && TREE_THIS_VOLATILE (exp))
1356     {
1357       if (TYPE_MODE (type) == VOIDmode)
1358         ;
1359       else if (TYPE_MODE (type) != BLKmode)
1360         value = copy_to_reg (value);
1361       else
1362         {
1363           rtx lab = gen_label_rtx ();
1364
1365           /* Compare the value with itself to reference it.  */
1366           emit_cmp_and_jump_insns (value, value, EQ,
1367                                    expand_expr (TYPE_SIZE (type),
1368                                                 NULL_RTX, VOIDmode, 0),
1369                                    BLKmode, 0, lab);
1370           emit_label (lab);
1371         }
1372     }
1373
1374   /* Free any temporaries used to evaluate this expression.  */
1375   free_temp_slots ();
1376 }
1377
1378 /* Warn if EXP contains any computations whose results are not used.
1379    Return 1 if a warning is printed; 0 otherwise.  LOCUS is the
1380    (potential) location of the expression.  */
1381
1382 int
1383 warn_if_unused_value (tree exp, location_t locus)
1384 {
1385  restart:
1386   if (TREE_USED (exp))
1387     return 0;
1388
1389   /* Don't warn about void constructs.  This includes casting to void,
1390      void function calls, and statement expressions with a final cast
1391      to void.  */
1392   if (VOID_TYPE_P (TREE_TYPE (exp)))
1393     return 0;
1394
1395   if (EXPR_HAS_LOCATION (exp))
1396     locus = EXPR_LOCATION (exp);
1397
1398   switch (TREE_CODE (exp))
1399     {
1400     case PREINCREMENT_EXPR:
1401     case POSTINCREMENT_EXPR:
1402     case PREDECREMENT_EXPR:
1403     case POSTDECREMENT_EXPR:
1404     case MODIFY_EXPR:
1405     case INIT_EXPR:
1406     case TARGET_EXPR:
1407     case CALL_EXPR:
1408     case TRY_CATCH_EXPR:
1409     case WITH_CLEANUP_EXPR:
1410     case EXIT_EXPR:
1411       return 0;
1412
1413     case BIND_EXPR:
1414       /* For a binding, warn if no side effect within it.  */
1415       exp = BIND_EXPR_BODY (exp);
1416       goto restart;
1417
1418     case SAVE_EXPR:
1419       exp = TREE_OPERAND (exp, 0);
1420       goto restart;
1421
1422     case TRUTH_ORIF_EXPR:
1423     case TRUTH_ANDIF_EXPR:
1424       /* In && or ||, warn if 2nd operand has no side effect.  */
1425       exp = TREE_OPERAND (exp, 1);
1426       goto restart;
1427
1428     case COMPOUND_EXPR:
1429       if (TREE_NO_WARNING (exp))
1430         return 0;
1431       if (warn_if_unused_value (TREE_OPERAND (exp, 0), locus))
1432         return 1;
1433       /* Let people do `(foo (), 0)' without a warning.  */
1434       if (TREE_CONSTANT (TREE_OPERAND (exp, 1)))
1435         return 0;
1436       exp = TREE_OPERAND (exp, 1);
1437       goto restart;
1438
1439     case NOP_EXPR:
1440     case CONVERT_EXPR:
1441     case NON_LVALUE_EXPR:
1442       /* Don't warn about conversions not explicit in the user's program.  */
1443       if (TREE_NO_WARNING (exp))
1444         return 0;
1445       /* Assignment to a cast usually results in a cast of a modify.
1446          Don't complain about that.  There can be an arbitrary number of
1447          casts before the modify, so we must loop until we find the first
1448          non-cast expression and then test to see if that is a modify.  */
1449       {
1450         tree tem = TREE_OPERAND (exp, 0);
1451
1452         while (TREE_CODE (tem) == CONVERT_EXPR || TREE_CODE (tem) == NOP_EXPR)
1453           tem = TREE_OPERAND (tem, 0);
1454
1455         if (TREE_CODE (tem) == MODIFY_EXPR || TREE_CODE (tem) == INIT_EXPR
1456             || TREE_CODE (tem) == CALL_EXPR)
1457           return 0;
1458       }
1459       goto maybe_warn;
1460
1461     case INDIRECT_REF:
1462       /* Don't warn about automatic dereferencing of references, since
1463          the user cannot control it.  */
1464       if (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == REFERENCE_TYPE)
1465         {
1466           exp = TREE_OPERAND (exp, 0);
1467           goto restart;
1468         }
1469       /* Fall through.  */
1470
1471     default:
1472       /* Referencing a volatile value is a side effect, so don't warn.  */
1473       if ((DECL_P (exp)
1474            || TREE_CODE_CLASS (TREE_CODE (exp)) == 'r')
1475           && TREE_THIS_VOLATILE (exp))
1476         return 0;
1477
1478       /* If this is an expression which has no operands, there is no value
1479          to be unused.  There are no such language-independent codes,
1480          but front ends may define such.  */
1481       if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'e'
1482           && TREE_CODE_LENGTH (TREE_CODE (exp)) == 0)
1483         return 0;
1484
1485     maybe_warn:
1486       /* If this is an expression with side effects, don't warn.  */
1487       if (TREE_SIDE_EFFECTS (exp))
1488         return 0;
1489
1490       warning ("%Hvalue computed is not used", &locus);
1491       return 1;
1492     }
1493 }
1494
1495 \f
1496 /* Generate RTL to return from the current function, with no value.
1497    (That is, we do not do anything about returning any value.)  */
1498
1499 void
1500 expand_null_return (void)
1501 {
1502   /* If this function was declared to return a value, but we
1503      didn't, clobber the return registers so that they are not
1504      propagated live to the rest of the function.  */
1505   clobber_return_register ();
1506
1507   expand_null_return_1 ();
1508 }
1509
1510 /* Generate RTL to return directly from the current function.
1511    (That is, we bypass any return value.)  */
1512
1513 void
1514 expand_naked_return (void)
1515 {
1516   rtx end_label;
1517
1518   clear_pending_stack_adjust ();
1519   do_pending_stack_adjust ();
1520
1521   end_label = naked_return_label;
1522   if (end_label == 0)
1523     end_label = naked_return_label = gen_label_rtx ();
1524
1525   emit_jump (end_label);
1526 }
1527
1528 /* If the current function returns values in the most significant part
1529    of a register, shift return value VAL appropriately.  The mode of
1530    the function's return type is known not to be BLKmode.  */
1531
1532 static rtx
1533 shift_return_value (rtx val)
1534 {
1535   tree type;
1536
1537   type = TREE_TYPE (DECL_RESULT (current_function_decl));
1538   if (targetm.calls.return_in_msb (type))
1539     {
1540       rtx target;
1541       HOST_WIDE_INT shift;
1542
1543       target = DECL_RTL (DECL_RESULT (current_function_decl));
1544       shift = (GET_MODE_BITSIZE (GET_MODE (target))
1545                - BITS_PER_UNIT * int_size_in_bytes (type));
1546       if (shift > 0)
1547         val = expand_shift (LSHIFT_EXPR, GET_MODE (target),
1548                             gen_lowpart (GET_MODE (target), val),
1549                             build_int_cst (NULL_TREE, shift), target, 1);
1550     }
1551   return val;
1552 }
1553
1554
1555 /* Generate RTL to return from the current function, with value VAL.  */
1556
1557 static void
1558 expand_value_return (rtx val)
1559 {
1560   /* Copy the value to the return location
1561      unless it's already there.  */
1562
1563   rtx return_reg = DECL_RTL (DECL_RESULT (current_function_decl));
1564   if (return_reg != val)
1565     {
1566       tree type = TREE_TYPE (DECL_RESULT (current_function_decl));
1567       if (targetm.calls.promote_function_return (TREE_TYPE (current_function_decl)))
1568       {
1569         int unsignedp = TYPE_UNSIGNED (type);
1570         enum machine_mode old_mode
1571           = DECL_MODE (DECL_RESULT (current_function_decl));
1572         enum machine_mode mode
1573           = promote_mode (type, old_mode, &unsignedp, 1);
1574
1575         if (mode != old_mode)
1576           val = convert_modes (mode, old_mode, val, unsignedp);
1577       }
1578       if (GET_CODE (return_reg) == PARALLEL)
1579         emit_group_load (return_reg, val, type, int_size_in_bytes (type));
1580       else
1581         emit_move_insn (return_reg, val);
1582     }
1583
1584   expand_null_return_1 ();
1585 }
1586
1587 /* Output a return with no value.  */
1588
1589 static void
1590 expand_null_return_1 (void)
1591 {
1592   rtx end_label;
1593
1594   clear_pending_stack_adjust ();
1595   do_pending_stack_adjust ();
1596
1597   end_label = return_label;
1598   if (end_label == 0)
1599      end_label = return_label = gen_label_rtx ();
1600   emit_jump (end_label);
1601 }
1602 \f
1603 /* Generate RTL to evaluate the expression RETVAL and return it
1604    from the current function.  */
1605
1606 void
1607 expand_return (tree retval)
1608 {
1609   rtx result_rtl;
1610   rtx val = 0;
1611   tree retval_rhs;
1612
1613   /* If function wants no value, give it none.  */
1614   if (TREE_CODE (TREE_TYPE (TREE_TYPE (current_function_decl))) == VOID_TYPE)
1615     {
1616       expand_expr (retval, NULL_RTX, VOIDmode, 0);
1617       expand_null_return ();
1618       return;
1619     }
1620
1621   if (retval == error_mark_node)
1622     {
1623       /* Treat this like a return of no value from a function that
1624          returns a value.  */
1625       expand_null_return ();
1626       return;
1627     }
1628   else if ((TREE_CODE (retval) == MODIFY_EXPR
1629             || TREE_CODE (retval) == INIT_EXPR)
1630            && TREE_CODE (TREE_OPERAND (retval, 0)) == RESULT_DECL)
1631     retval_rhs = TREE_OPERAND (retval, 1);
1632   else
1633     retval_rhs = retval;
1634
1635   result_rtl = DECL_RTL (DECL_RESULT (current_function_decl));
1636
1637   /* If we are returning the RESULT_DECL, then the value has already
1638      been stored into it, so we don't have to do anything special.  */
1639   if (TREE_CODE (retval_rhs) == RESULT_DECL)
1640     expand_value_return (result_rtl);
1641
1642   /* If the result is an aggregate that is being returned in one (or more)
1643      registers, load the registers here.  The compiler currently can't handle
1644      copying a BLKmode value into registers.  We could put this code in a
1645      more general area (for use by everyone instead of just function
1646      call/return), but until this feature is generally usable it is kept here
1647      (and in expand_call).  */
1648
1649   else if (retval_rhs != 0
1650            && TYPE_MODE (TREE_TYPE (retval_rhs)) == BLKmode
1651            && REG_P (result_rtl))
1652     {
1653       int i;
1654       unsigned HOST_WIDE_INT bitpos, xbitpos;
1655       unsigned HOST_WIDE_INT padding_correction = 0;
1656       unsigned HOST_WIDE_INT bytes
1657         = int_size_in_bytes (TREE_TYPE (retval_rhs));
1658       int n_regs = (bytes + UNITS_PER_WORD - 1) / UNITS_PER_WORD;
1659       unsigned int bitsize
1660         = MIN (TYPE_ALIGN (TREE_TYPE (retval_rhs)), BITS_PER_WORD);
1661       rtx *result_pseudos = alloca (sizeof (rtx) * n_regs);
1662       rtx result_reg, src = NULL_RTX, dst = NULL_RTX;
1663       rtx result_val = expand_expr (retval_rhs, NULL_RTX, VOIDmode, 0);
1664       enum machine_mode tmpmode, result_reg_mode;
1665
1666       if (bytes == 0)
1667         {
1668           expand_null_return ();
1669           return;
1670         }
1671
1672       /* If the structure doesn't take up a whole number of words, see
1673          whether the register value should be padded on the left or on
1674          the right.  Set PADDING_CORRECTION to the number of padding
1675          bits needed on the left side.
1676
1677          In most ABIs, the structure will be returned at the least end of
1678          the register, which translates to right padding on little-endian
1679          targets and left padding on big-endian targets.  The opposite
1680          holds if the structure is returned at the most significant
1681          end of the register.  */
1682       if (bytes % UNITS_PER_WORD != 0
1683           && (targetm.calls.return_in_msb (TREE_TYPE (retval_rhs))
1684               ? !BYTES_BIG_ENDIAN
1685               : BYTES_BIG_ENDIAN))
1686         padding_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
1687                                                * BITS_PER_UNIT));
1688
1689       /* Copy the structure BITSIZE bits at a time.  */
1690       for (bitpos = 0, xbitpos = padding_correction;
1691            bitpos < bytes * BITS_PER_UNIT;
1692            bitpos += bitsize, xbitpos += bitsize)
1693         {
1694           /* We need a new destination pseudo each time xbitpos is
1695              on a word boundary and when xbitpos == padding_correction
1696              (the first time through).  */
1697           if (xbitpos % BITS_PER_WORD == 0
1698               || xbitpos == padding_correction)
1699             {
1700               /* Generate an appropriate register.  */
1701               dst = gen_reg_rtx (word_mode);
1702               result_pseudos[xbitpos / BITS_PER_WORD] = dst;
1703
1704               /* Clear the destination before we move anything into it.  */
1705               emit_move_insn (dst, CONST0_RTX (GET_MODE (dst)));
1706             }
1707
1708           /* We need a new source operand each time bitpos is on a word
1709              boundary.  */
1710           if (bitpos % BITS_PER_WORD == 0)
1711             src = operand_subword_force (result_val,
1712                                          bitpos / BITS_PER_WORD,
1713                                          BLKmode);
1714
1715           /* Use bitpos for the source extraction (left justified) and
1716              xbitpos for the destination store (right justified).  */
1717           store_bit_field (dst, bitsize, xbitpos % BITS_PER_WORD, word_mode,
1718                            extract_bit_field (src, bitsize,
1719                                               bitpos % BITS_PER_WORD, 1,
1720                                               NULL_RTX, word_mode, word_mode));
1721         }
1722
1723       tmpmode = GET_MODE (result_rtl);
1724       if (tmpmode == BLKmode)
1725         {
1726           /* Find the smallest integer mode large enough to hold the
1727              entire structure and use that mode instead of BLKmode
1728              on the USE insn for the return register.  */
1729           for (tmpmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
1730                tmpmode != VOIDmode;
1731                tmpmode = GET_MODE_WIDER_MODE (tmpmode))
1732             /* Have we found a large enough mode?  */
1733             if (GET_MODE_SIZE (tmpmode) >= bytes)
1734               break;
1735
1736           /* No suitable mode found.  */
1737           if (tmpmode == VOIDmode)
1738             abort ();
1739
1740           PUT_MODE (result_rtl, tmpmode);
1741         }
1742
1743       if (GET_MODE_SIZE (tmpmode) < GET_MODE_SIZE (word_mode))
1744         result_reg_mode = word_mode;
1745       else
1746         result_reg_mode = tmpmode;
1747       result_reg = gen_reg_rtx (result_reg_mode);
1748
1749       for (i = 0; i < n_regs; i++)
1750         emit_move_insn (operand_subword (result_reg, i, 0, result_reg_mode),
1751                         result_pseudos[i]);
1752
1753       if (tmpmode != result_reg_mode)
1754         result_reg = gen_lowpart (tmpmode, result_reg);
1755
1756       expand_value_return (result_reg);
1757     }
1758   else if (retval_rhs != 0
1759            && !VOID_TYPE_P (TREE_TYPE (retval_rhs))
1760            && (REG_P (result_rtl)
1761                || (GET_CODE (result_rtl) == PARALLEL)))
1762     {
1763       /* Calculate the return value into a temporary (usually a pseudo
1764          reg).  */
1765       tree ot = TREE_TYPE (DECL_RESULT (current_function_decl));
1766       tree nt = build_qualified_type (ot, TYPE_QUALS (ot) | TYPE_QUAL_CONST);
1767
1768       val = assign_temp (nt, 0, 0, 1);
1769       val = expand_expr (retval_rhs, val, GET_MODE (val), 0);
1770       val = force_not_mem (val);
1771       /* Return the calculated value.  */
1772       expand_value_return (shift_return_value (val));
1773     }
1774   else
1775     {
1776       /* No hard reg used; calculate value into hard return reg.  */
1777       expand_expr (retval, const0_rtx, VOIDmode, 0);
1778       expand_value_return (result_rtl);
1779     }
1780 }
1781 \f
1782 /* Given a pointer to a BLOCK node return nonzero if (and only if) the node
1783    in question represents the outermost pair of curly braces (i.e. the "body
1784    block") of a function or method.
1785
1786    For any BLOCK node representing a "body block" of a function or method, the
1787    BLOCK_SUPERCONTEXT of the node will point to another BLOCK node which
1788    represents the outermost (function) scope for the function or method (i.e.
1789    the one which includes the formal parameters).  The BLOCK_SUPERCONTEXT of
1790    *that* node in turn will point to the relevant FUNCTION_DECL node.  */
1791
1792 int
1793 is_body_block (tree stmt)
1794 {
1795   if (lang_hooks.no_body_blocks)
1796     return 0;
1797
1798   if (TREE_CODE (stmt) == BLOCK)
1799     {
1800       tree parent = BLOCK_SUPERCONTEXT (stmt);
1801
1802       if (parent && TREE_CODE (parent) == BLOCK)
1803         {
1804           tree grandparent = BLOCK_SUPERCONTEXT (parent);
1805
1806           if (grandparent && TREE_CODE (grandparent) == FUNCTION_DECL)
1807             return 1;
1808         }
1809     }
1810
1811   return 0;
1812 }
1813
1814 /* Emit code to restore vital registers at the beginning of a nonlocal goto
1815    handler.  */
1816 static void
1817 expand_nl_goto_receiver (void)
1818 {
1819   /* Clobber the FP when we get here, so we have to make sure it's
1820      marked as used by this function.  */
1821   emit_insn (gen_rtx_USE (VOIDmode, hard_frame_pointer_rtx));
1822
1823   /* Mark the static chain as clobbered here so life information
1824      doesn't get messed up for it.  */
1825   emit_insn (gen_rtx_CLOBBER (VOIDmode, static_chain_rtx));
1826
1827 #ifdef HAVE_nonlocal_goto
1828   if (! HAVE_nonlocal_goto)
1829 #endif
1830     /* First adjust our frame pointer to its actual value.  It was
1831        previously set to the start of the virtual area corresponding to
1832        the stacked variables when we branched here and now needs to be
1833        adjusted to the actual hardware fp value.
1834
1835        Assignments are to virtual registers are converted by
1836        instantiate_virtual_regs into the corresponding assignment
1837        to the underlying register (fp in this case) that makes
1838        the original assignment true.
1839        So the following insn will actually be
1840        decrementing fp by STARTING_FRAME_OFFSET.  */
1841     emit_move_insn (virtual_stack_vars_rtx, hard_frame_pointer_rtx);
1842
1843 #if ARG_POINTER_REGNUM != HARD_FRAME_POINTER_REGNUM
1844   if (fixed_regs[ARG_POINTER_REGNUM])
1845     {
1846 #ifdef ELIMINABLE_REGS
1847       /* If the argument pointer can be eliminated in favor of the
1848          frame pointer, we don't need to restore it.  We assume here
1849          that if such an elimination is present, it can always be used.
1850          This is the case on all known machines; if we don't make this
1851          assumption, we do unnecessary saving on many machines.  */
1852       static const struct elims {const int from, to;} elim_regs[] = ELIMINABLE_REGS;
1853       size_t i;
1854
1855       for (i = 0; i < ARRAY_SIZE (elim_regs); i++)
1856         if (elim_regs[i].from == ARG_POINTER_REGNUM
1857             && elim_regs[i].to == HARD_FRAME_POINTER_REGNUM)
1858           break;
1859
1860       if (i == ARRAY_SIZE (elim_regs))
1861 #endif
1862         {
1863           /* Now restore our arg pointer from the address at which it
1864              was saved in our stack frame.  */
1865           emit_move_insn (virtual_incoming_args_rtx,
1866                           copy_to_reg (get_arg_pointer_save_area (cfun)));
1867         }
1868     }
1869 #endif
1870
1871 #ifdef HAVE_nonlocal_goto_receiver
1872   if (HAVE_nonlocal_goto_receiver)
1873     emit_insn (gen_nonlocal_goto_receiver ());
1874 #endif
1875
1876   /* @@@ This is a kludge.  Not all machine descriptions define a blockage
1877      insn, but we must not allow the code we just generated to be reordered
1878      by scheduling.  Specifically, the update of the frame pointer must
1879      happen immediately, not later.  So emit an ASM_INPUT to act as blockage
1880      insn.  */
1881   emit_insn (gen_rtx_ASM_INPUT (VOIDmode, ""));
1882 }
1883 \f
1884 /* Generate RTL for the automatic variable declaration DECL.
1885    (Other kinds of declarations are simply ignored if seen here.)  */
1886
1887 void
1888 expand_decl (tree decl)
1889 {
1890   tree type;
1891
1892   type = TREE_TYPE (decl);
1893
1894   /* For a CONST_DECL, set mode, alignment, and sizes from those of the
1895      type in case this node is used in a reference.  */
1896   if (TREE_CODE (decl) == CONST_DECL)
1897     {
1898       DECL_MODE (decl) = TYPE_MODE (type);
1899       DECL_ALIGN (decl) = TYPE_ALIGN (type);
1900       DECL_SIZE (decl) = TYPE_SIZE (type);
1901       DECL_SIZE_UNIT (decl) = TYPE_SIZE_UNIT (type);
1902       return;
1903     }
1904
1905   /* Otherwise, only automatic variables need any expansion done.  Static and
1906      external variables, and external functions, will be handled by
1907      `assemble_variable' (called from finish_decl).  TYPE_DECL requires
1908      nothing.  PARM_DECLs are handled in `assign_parms'.  */
1909   if (TREE_CODE (decl) != VAR_DECL)
1910     return;
1911
1912   if (TREE_STATIC (decl) || DECL_EXTERNAL (decl))
1913     return;
1914
1915   /* Create the RTL representation for the variable.  */
1916
1917   if (type == error_mark_node)
1918     SET_DECL_RTL (decl, gen_rtx_MEM (BLKmode, const0_rtx));
1919
1920   else if (DECL_SIZE (decl) == 0)
1921     /* Variable with incomplete type.  */
1922     {
1923       rtx x;
1924       if (DECL_INITIAL (decl) == 0)
1925         /* Error message was already done; now avoid a crash.  */
1926         x = gen_rtx_MEM (BLKmode, const0_rtx);
1927       else
1928         /* An initializer is going to decide the size of this array.
1929            Until we know the size, represent its address with a reg.  */
1930         x = gen_rtx_MEM (BLKmode, gen_reg_rtx (Pmode));
1931
1932       set_mem_attributes (x, decl, 1);
1933       SET_DECL_RTL (decl, x);
1934     }
1935   else if (use_register_for_decl (decl))
1936     {
1937       /* Automatic variable that can go in a register.  */
1938       int unsignedp = TYPE_UNSIGNED (type);
1939       enum machine_mode reg_mode
1940         = promote_mode (type, DECL_MODE (decl), &unsignedp, 0);
1941
1942       SET_DECL_RTL (decl, gen_reg_rtx (reg_mode));
1943
1944       /* Note if the object is a user variable.  */
1945       if (!DECL_ARTIFICIAL (decl))
1946         {
1947           mark_user_reg (DECL_RTL (decl));
1948
1949           /* Trust user variables which have a pointer type to really
1950              be pointers.  Do not trust compiler generated temporaries
1951              as our type system is totally busted as it relates to
1952              pointer arithmetic which translates into lots of compiler
1953              generated objects with pointer types, but which are not really
1954              pointers.  */
1955           if (POINTER_TYPE_P (type))
1956             mark_reg_pointer (DECL_RTL (decl),
1957                               TYPE_ALIGN (TREE_TYPE (TREE_TYPE (decl))));
1958         }
1959     }
1960
1961   else if (TREE_CODE (DECL_SIZE_UNIT (decl)) == INTEGER_CST
1962            && ! (flag_stack_check && ! STACK_CHECK_BUILTIN
1963                  && 0 < compare_tree_int (DECL_SIZE_UNIT (decl),
1964                                           STACK_CHECK_MAX_VAR_SIZE)))
1965     {
1966       /* Variable of fixed size that goes on the stack.  */
1967       rtx oldaddr = 0;
1968       rtx addr;
1969       rtx x;
1970
1971       /* If we previously made RTL for this decl, it must be an array
1972          whose size was determined by the initializer.
1973          The old address was a register; set that register now
1974          to the proper address.  */
1975       if (DECL_RTL_SET_P (decl))
1976         {
1977           if (!MEM_P (DECL_RTL (decl))
1978               || !REG_P (XEXP (DECL_RTL (decl), 0)))
1979             abort ();
1980           oldaddr = XEXP (DECL_RTL (decl), 0);
1981         }
1982
1983       /* Set alignment we actually gave this decl.  */
1984       DECL_ALIGN (decl) = (DECL_MODE (decl) == BLKmode ? BIGGEST_ALIGNMENT
1985                            : GET_MODE_BITSIZE (DECL_MODE (decl)));
1986       DECL_USER_ALIGN (decl) = 0;
1987
1988       x = assign_temp (decl, 1, 1, 1);
1989       set_mem_attributes (x, decl, 1);
1990       SET_DECL_RTL (decl, x);
1991
1992       if (oldaddr)
1993         {
1994           addr = force_operand (XEXP (DECL_RTL (decl), 0), oldaddr);
1995           if (addr != oldaddr)
1996             emit_move_insn (oldaddr, addr);
1997         }
1998     }
1999   else
2000     /* Dynamic-size object: must push space on the stack.  */
2001     {
2002       rtx address, size, x;
2003
2004       /* Record the stack pointer on entry to block, if have
2005          not already done so.  */
2006       do_pending_stack_adjust ();
2007
2008       /* Compute the variable's size, in bytes.  This will expand any
2009          needed SAVE_EXPRs for the first time.  */
2010       size = expand_expr (DECL_SIZE_UNIT (decl), NULL_RTX, VOIDmode, 0);
2011       free_temp_slots ();
2012
2013       /* Allocate space on the stack for the variable.  Note that
2014          DECL_ALIGN says how the variable is to be aligned and we
2015          cannot use it to conclude anything about the alignment of
2016          the size.  */
2017       address = allocate_dynamic_stack_space (size, NULL_RTX,
2018                                               TYPE_ALIGN (TREE_TYPE (decl)));
2019
2020       /* Reference the variable indirect through that rtx.  */
2021       x = gen_rtx_MEM (DECL_MODE (decl), address);
2022       set_mem_attributes (x, decl, 1);
2023       SET_DECL_RTL (decl, x);
2024
2025
2026       /* Indicate the alignment we actually gave this variable.  */
2027 #ifdef STACK_BOUNDARY
2028       DECL_ALIGN (decl) = STACK_BOUNDARY;
2029 #else
2030       DECL_ALIGN (decl) = BIGGEST_ALIGNMENT;
2031 #endif
2032       DECL_USER_ALIGN (decl) = 0;
2033     }
2034 }
2035 \f
2036 /* Emit code to save the current value of stack.  */
2037 rtx
2038 expand_stack_save (void)
2039 {
2040   rtx ret = NULL_RTX;
2041
2042   do_pending_stack_adjust ();
2043   emit_stack_save (SAVE_BLOCK, &ret, NULL_RTX);
2044   return ret;
2045 }
2046
2047 /* Emit code to restore the current value of stack.  */
2048 void
2049 expand_stack_restore (tree var)
2050 {
2051   rtx sa = DECL_RTL (var);
2052
2053   emit_stack_restore (SAVE_BLOCK, sa, NULL_RTX);
2054 }
2055 \f
2056 /* Emit code to perform the initialization of a declaration DECL.  */
2057
2058 void
2059 expand_decl_init (tree decl)
2060 {
2061   int was_used = TREE_USED (decl);
2062
2063   /* If this is a CONST_DECL, we don't have to generate any code.  Likewise
2064      for static decls.  */
2065   if (TREE_CODE (decl) == CONST_DECL
2066       || TREE_STATIC (decl))
2067     return;
2068
2069   /* Compute and store the initial value now.  */
2070
2071   push_temp_slots ();
2072
2073   if (DECL_INITIAL (decl) == error_mark_node)
2074     {
2075       enum tree_code code = TREE_CODE (TREE_TYPE (decl));
2076
2077       if (code == INTEGER_TYPE || code == REAL_TYPE || code == ENUMERAL_TYPE
2078           || code == POINTER_TYPE || code == REFERENCE_TYPE)
2079         expand_assignment (decl, convert (TREE_TYPE (decl), integer_zero_node),
2080                            0);
2081     }
2082   else if (DECL_INITIAL (decl) && TREE_CODE (DECL_INITIAL (decl)) != TREE_LIST)
2083     {
2084       emit_line_note (DECL_SOURCE_LOCATION (decl));
2085       expand_assignment (decl, DECL_INITIAL (decl), 0);
2086     }
2087
2088   /* Don't let the initialization count as "using" the variable.  */
2089   TREE_USED (decl) = was_used;
2090
2091   /* Free any temporaries we made while initializing the decl.  */
2092   preserve_temp_slots (NULL_RTX);
2093   free_temp_slots ();
2094   pop_temp_slots ();
2095 }
2096
2097 \f
2098 /* DECL is an anonymous union.  CLEANUP is a cleanup for DECL.
2099    DECL_ELTS is the list of elements that belong to DECL's type.
2100    In each, the TREE_VALUE is a VAR_DECL, and the TREE_PURPOSE a cleanup.  */
2101
2102 void
2103 expand_anon_union_decl (tree decl, tree cleanup ATTRIBUTE_UNUSED,
2104                         tree decl_elts)
2105 {
2106   rtx x;
2107   tree t;
2108
2109   /* If any of the elements are addressable, so is the entire union.  */
2110   for (t = decl_elts; t; t = TREE_CHAIN (t))
2111     if (TREE_ADDRESSABLE (TREE_VALUE (t)))
2112       {
2113         TREE_ADDRESSABLE (decl) = 1;
2114         break;
2115       }
2116
2117   expand_decl (decl);
2118   x = DECL_RTL (decl);
2119
2120   /* Go through the elements, assigning RTL to each.  */
2121   for (t = decl_elts; t; t = TREE_CHAIN (t))
2122     {
2123       tree decl_elt = TREE_VALUE (t);
2124       enum machine_mode mode = TYPE_MODE (TREE_TYPE (decl_elt));
2125
2126       /* If any of the elements are addressable, so is the entire
2127          union.  */
2128       if (TREE_USED (decl_elt))
2129         TREE_USED (decl) = 1;
2130
2131       /* Propagate the union's alignment to the elements.  */
2132       DECL_ALIGN (decl_elt) = DECL_ALIGN (decl);
2133       DECL_USER_ALIGN (decl_elt) = DECL_USER_ALIGN (decl);
2134
2135       /* If the element has BLKmode and the union doesn't, the union is
2136          aligned such that the element doesn't need to have BLKmode, so
2137          change the element's mode to the appropriate one for its size.  */
2138       if (mode == BLKmode && DECL_MODE (decl) != BLKmode)
2139         DECL_MODE (decl_elt) = mode
2140           = mode_for_size_tree (DECL_SIZE (decl_elt), MODE_INT, 1);
2141
2142       /* (SUBREG (MEM ...)) at RTL generation time is invalid, so we
2143          instead create a new MEM rtx with the proper mode.  */
2144       if (MEM_P (x))
2145         {
2146           if (mode == GET_MODE (x))
2147             SET_DECL_RTL (decl_elt, x);
2148           else
2149             SET_DECL_RTL (decl_elt, adjust_address_nv (x, mode, 0));
2150         }
2151       else if (REG_P (x))
2152         {
2153           if (mode == GET_MODE (x))
2154             SET_DECL_RTL (decl_elt, x);
2155           else
2156             SET_DECL_RTL (decl_elt, gen_lowpart_SUBREG (mode, x));
2157         }
2158       else
2159         abort ();
2160     }
2161 }
2162 \f
2163 /* Do the insertion of a case label into case_list.  The labels are
2164    fed to us in descending order from the sorted vector of case labels used
2165    in the tree part of the middle end.  So the list we construct is
2166    sorted in ascending order.  */
2167
2168 struct case_node *
2169 add_case_node (struct case_node *head, tree low, tree high, tree label)
2170 {
2171   struct case_node *r;
2172
2173   /* If there's no HIGH value, then this is not a case range; it's
2174      just a simple case label.  But that's just a degenerate case
2175      range.
2176      If the bounds are equal, turn this into the one-value case.  */
2177   if (!high || tree_int_cst_equal (low, high))
2178     high = low;
2179
2180   /* Add this label to the chain.  */
2181   r = ggc_alloc (sizeof (struct case_node));
2182   r->low = low;
2183   r->high = high;
2184   r->code_label = label;
2185   r->parent = r->left = NULL;
2186   r->right = head;
2187   return r;
2188 }
2189 \f
2190 /* Maximum number of case bit tests.  */
2191 #define MAX_CASE_BIT_TESTS  3
2192
2193 /* By default, enable case bit tests on targets with ashlsi3.  */
2194 #ifndef CASE_USE_BIT_TESTS
2195 #define CASE_USE_BIT_TESTS  (ashl_optab->handlers[word_mode].insn_code \
2196                              != CODE_FOR_nothing)
2197 #endif
2198
2199
2200 /* A case_bit_test represents a set of case nodes that may be
2201    selected from using a bit-wise comparison.  HI and LO hold
2202    the integer to be tested against, LABEL contains the label
2203    to jump to upon success and BITS counts the number of case
2204    nodes handled by this test, typically the number of bits
2205    set in HI:LO.  */
2206
2207 struct case_bit_test
2208 {
2209   HOST_WIDE_INT hi;
2210   HOST_WIDE_INT lo;
2211   rtx label;
2212   int bits;
2213 };
2214
2215 /* Determine whether "1 << x" is relatively cheap in word_mode.  */
2216
2217 static
2218 bool lshift_cheap_p (void)
2219 {
2220   static bool init = false;
2221   static bool cheap = true;
2222
2223   if (!init)
2224     {
2225       rtx reg = gen_rtx_REG (word_mode, 10000);
2226       int cost = rtx_cost (gen_rtx_ASHIFT (word_mode, const1_rtx, reg), SET);
2227       cheap = cost < COSTS_N_INSNS (3);
2228       init = true;
2229     }
2230
2231   return cheap;
2232 }
2233
2234 /* Comparison function for qsort to order bit tests by decreasing
2235    number of case nodes, i.e. the node with the most cases gets
2236    tested first.  */
2237
2238 static int
2239 case_bit_test_cmp (const void *p1, const void *p2)
2240 {
2241   const struct case_bit_test *d1 = p1;
2242   const struct case_bit_test *d2 = p2;
2243
2244   return d2->bits - d1->bits;
2245 }
2246
2247 /*  Expand a switch statement by a short sequence of bit-wise
2248     comparisons.  "switch(x)" is effectively converted into
2249     "if ((1 << (x-MINVAL)) & CST)" where CST and MINVAL are
2250     integer constants.
2251
2252     INDEX_EXPR is the value being switched on, which is of
2253     type INDEX_TYPE.  MINVAL is the lowest case value of in
2254     the case nodes, of INDEX_TYPE type, and RANGE is highest
2255     value minus MINVAL, also of type INDEX_TYPE.  NODES is
2256     the set of case nodes, and DEFAULT_LABEL is the label to
2257     branch to should none of the cases match.
2258
2259     There *MUST* be MAX_CASE_BIT_TESTS or less unique case
2260     node targets.  */
2261
2262 static void
2263 emit_case_bit_tests (tree index_type, tree index_expr, tree minval,
2264                      tree range, case_node_ptr nodes, rtx default_label)
2265 {
2266   struct case_bit_test test[MAX_CASE_BIT_TESTS];
2267   enum machine_mode mode;
2268   rtx expr, index, label;
2269   unsigned int i,j,lo,hi;
2270   struct case_node *n;
2271   unsigned int count;
2272
2273   count = 0;
2274   for (n = nodes; n; n = n->right)
2275     {
2276       label = label_rtx (n->code_label);
2277       for (i = 0; i < count; i++)
2278         if (label == test[i].label)
2279           break;
2280
2281       if (i == count)
2282         {
2283           if (count >= MAX_CASE_BIT_TESTS)
2284             abort ();
2285           test[i].hi = 0;
2286           test[i].lo = 0;
2287           test[i].label = label;
2288           test[i].bits = 1;
2289           count++;
2290         }
2291       else
2292         test[i].bits++;
2293
2294       lo = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2295                                        n->low, minval)), 1);
2296       hi = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2297                                        n->high, minval)), 1);
2298       for (j = lo; j <= hi; j++)
2299         if (j >= HOST_BITS_PER_WIDE_INT)
2300           test[i].hi |= (HOST_WIDE_INT) 1 << (j - HOST_BITS_PER_INT);
2301         else
2302           test[i].lo |= (HOST_WIDE_INT) 1 << j;
2303     }
2304
2305   qsort (test, count, sizeof(*test), case_bit_test_cmp);
2306
2307   index_expr = fold (build2 (MINUS_EXPR, index_type,
2308                              convert (index_type, index_expr),
2309                              convert (index_type, minval)));
2310   index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
2311   do_pending_stack_adjust ();
2312
2313   mode = TYPE_MODE (index_type);
2314   expr = expand_expr (range, NULL_RTX, VOIDmode, 0);
2315   emit_cmp_and_jump_insns (index, expr, GTU, NULL_RTX, mode, 1,
2316                            default_label);
2317
2318   index = convert_to_mode (word_mode, index, 0);
2319   index = expand_binop (word_mode, ashl_optab, const1_rtx,
2320                         index, NULL_RTX, 1, OPTAB_WIDEN);
2321
2322   for (i = 0; i < count; i++)
2323     {
2324       expr = immed_double_const (test[i].lo, test[i].hi, word_mode);
2325       expr = expand_binop (word_mode, and_optab, index, expr,
2326                            NULL_RTX, 1, OPTAB_WIDEN);
2327       emit_cmp_and_jump_insns (expr, const0_rtx, NE, NULL_RTX,
2328                                word_mode, 1, test[i].label);
2329     }
2330
2331   emit_jump (default_label);
2332 }
2333
2334 #ifndef HAVE_casesi
2335 #define HAVE_casesi 0
2336 #endif
2337
2338 #ifndef HAVE_tablejump
2339 #define HAVE_tablejump 0
2340 #endif
2341
2342 /* Terminate a case (Pascal) or switch (C) statement
2343    in which ORIG_INDEX is the expression to be tested.
2344    If ORIG_TYPE is not NULL, it is the original ORIG_INDEX
2345    type as given in the source before any compiler conversions.
2346    Generate the code to test it and jump to the right place.  */
2347
2348 void
2349 expand_case (tree exp)
2350 {
2351   tree minval = NULL_TREE, maxval = NULL_TREE, range = NULL_TREE;
2352   rtx default_label = 0;
2353   struct case_node *n, *m;
2354   unsigned int count, uniq;
2355   rtx index;
2356   rtx table_label;
2357   int ncases;
2358   rtx *labelvec;
2359   int i;
2360   rtx before_case, end, lab;
2361
2362   tree vec = SWITCH_LABELS (exp);
2363   tree orig_type = TREE_TYPE (exp);
2364   tree index_expr = SWITCH_COND (exp);
2365   tree index_type = TREE_TYPE (index_expr);
2366   int unsignedp = TYPE_UNSIGNED (index_type);
2367
2368   /* The insn after which the case dispatch should finally
2369      be emitted.  Zero for a dummy.  */
2370   rtx start;
2371
2372   /* A list of case labels; it is first built as a list and it may then
2373      be rearranged into a nearly balanced binary tree.  */
2374   struct case_node *case_list = 0;
2375
2376   /* Label to jump to if no case matches.  */
2377   tree default_label_decl = 0;
2378
2379   /* The switch body is lowered in gimplify.c, we should never have
2380      switches with a non-NULL SWITCH_BODY here.  */
2381   if (SWITCH_BODY (exp) || !SWITCH_LABELS (exp))
2382     abort ();
2383
2384   for (i = TREE_VEC_LENGTH (vec); --i >= 0; )
2385     {
2386       tree elt = TREE_VEC_ELT (vec, i);
2387
2388       /* Handle default labels specially.  */
2389       if (!CASE_HIGH (elt) && !CASE_LOW (elt))
2390         {
2391 #ifdef ENABLE_CHECKING
2392           if (default_label_decl != 0)
2393             abort ();
2394 #endif
2395           default_label_decl = CASE_LABEL (elt);
2396         }
2397       else
2398         case_list = add_case_node (case_list, CASE_LOW (elt), CASE_HIGH (elt),
2399                                    CASE_LABEL (elt));
2400     }
2401
2402   do_pending_stack_adjust ();
2403
2404   /* Make sure start points to something that won't need any transformation
2405      before the end of this function.  */
2406   if (!NOTE_P (get_last_insn ()))
2407     emit_note (NOTE_INSN_DELETED);
2408
2409   start = get_last_insn ();
2410
2411   /* An ERROR_MARK occurs for various reasons including invalid data type.  */
2412   if (index_type != error_mark_node)
2413     {
2414       /* If we don't have a default-label, create one here,
2415          after the body of the switch.  */
2416       if (default_label_decl == 0)
2417         {
2418           default_label_decl
2419             = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
2420           expand_label (default_label_decl);
2421         }
2422       default_label = label_rtx (default_label_decl);
2423
2424       before_case = get_last_insn ();
2425
2426       /* Get upper and lower bounds of case values.
2427          Also convert all the case values to the index expr's data type.  */
2428
2429       uniq = 0;
2430       count = 0;
2431       for (n = case_list; n; n = n->right)
2432         {
2433           /* Check low and high label values are integers.  */
2434           if (TREE_CODE (n->low) != INTEGER_CST)
2435             abort ();
2436           if (TREE_CODE (n->high) != INTEGER_CST)
2437             abort ();
2438
2439           n->low = convert (index_type, n->low);
2440           n->high = convert (index_type, n->high);
2441
2442           /* Count the elements and track the largest and smallest
2443              of them (treating them as signed even if they are not).  */
2444           if (count++ == 0)
2445             {
2446               minval = n->low;
2447               maxval = n->high;
2448             }
2449           else
2450             {
2451               if (INT_CST_LT (n->low, minval))
2452                 minval = n->low;
2453               if (INT_CST_LT (maxval, n->high))
2454                 maxval = n->high;
2455             }
2456           /* A range counts double, since it requires two compares.  */
2457           if (! tree_int_cst_equal (n->low, n->high))
2458             count++;
2459
2460           /* Count the number of unique case node targets.  */
2461           uniq++;
2462           lab = label_rtx (n->code_label);
2463           for (m = case_list; m != n; m = m->right)
2464             if (label_rtx (m->code_label) == lab)
2465               {
2466                 uniq--;
2467                 break;
2468               }
2469         }
2470
2471       /* Compute span of values.  */
2472       if (count != 0)
2473         range = fold (build2 (MINUS_EXPR, index_type, maxval, minval));
2474
2475       if (count == 0)
2476         {
2477           expand_expr (index_expr, const0_rtx, VOIDmode, 0);
2478           emit_jump (default_label);
2479         }
2480
2481       /* Try implementing this switch statement by a short sequence of
2482          bit-wise comparisons.  However, we let the binary-tree case
2483          below handle constant index expressions.  */
2484       else if (CASE_USE_BIT_TESTS
2485                && ! TREE_CONSTANT (index_expr)
2486                && compare_tree_int (range, GET_MODE_BITSIZE (word_mode)) < 0
2487                && compare_tree_int (range, 0) > 0
2488                && lshift_cheap_p ()
2489                && ((uniq == 1 && count >= 3)
2490                    || (uniq == 2 && count >= 5)
2491                    || (uniq == 3 && count >= 6)))
2492         {
2493           /* Optimize the case where all the case values fit in a
2494              word without having to subtract MINVAL.  In this case,
2495              we can optimize away the subtraction.  */
2496           if (compare_tree_int (minval, 0) > 0
2497               && compare_tree_int (maxval, GET_MODE_BITSIZE (word_mode)) < 0)
2498             {
2499               minval = integer_zero_node;
2500               range = maxval;
2501             }
2502           emit_case_bit_tests (index_type, index_expr, minval, range,
2503                                case_list, default_label);
2504         }
2505
2506       /* If range of values is much bigger than number of values,
2507          make a sequence of conditional branches instead of a dispatch.
2508          If the switch-index is a constant, do it this way
2509          because we can optimize it.  */
2510
2511       else if (count < case_values_threshold ()
2512                || compare_tree_int (range,
2513                                     (optimize_size ? 3 : 10) * count) > 0
2514                /* RANGE may be signed, and really large ranges will show up
2515                   as negative numbers.  */
2516                || compare_tree_int (range, 0) < 0
2517 #ifndef ASM_OUTPUT_ADDR_DIFF_ELT
2518                || flag_pic
2519 #endif
2520                || TREE_CONSTANT (index_expr)
2521                /* If neither casesi or tablejump is available, we can
2522                   only go this way.  */
2523                || (!HAVE_casesi && !HAVE_tablejump))
2524         {
2525           index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
2526
2527           /* If the index is a short or char that we do not have
2528              an insn to handle comparisons directly, convert it to
2529              a full integer now, rather than letting each comparison
2530              generate the conversion.  */
2531
2532           if (GET_MODE_CLASS (GET_MODE (index)) == MODE_INT
2533               && ! have_insn_for (COMPARE, GET_MODE (index)))
2534             {
2535               enum machine_mode wider_mode;
2536               for (wider_mode = GET_MODE (index); wider_mode != VOIDmode;
2537                    wider_mode = GET_MODE_WIDER_MODE (wider_mode))
2538                 if (have_insn_for (COMPARE, wider_mode))
2539                   {
2540                     index = convert_to_mode (wider_mode, index, unsignedp);
2541                     break;
2542                   }
2543             }
2544
2545           do_pending_stack_adjust ();
2546
2547           if (MEM_P (index))
2548             index = copy_to_reg (index);
2549           if (GET_CODE (index) == CONST_INT
2550               || TREE_CODE (index_expr) == INTEGER_CST)
2551             {
2552               /* Make a tree node with the proper constant value
2553                  if we don't already have one.  */
2554               if (TREE_CODE (index_expr) != INTEGER_CST)
2555                 {
2556                   index_expr
2557                     = build_int_cst_wide (NULL_TREE, INTVAL (index),
2558                                           unsignedp || INTVAL (index) >= 0
2559                                           ? 0 : -1);
2560                   index_expr = convert (index_type, index_expr);
2561                 }
2562
2563               /* For constant index expressions we need only
2564                  issue an unconditional branch to the appropriate
2565                  target code.  The job of removing any unreachable
2566                  code is left to the optimization phase if the
2567                  "-O" option is specified.  */
2568               for (n = case_list; n; n = n->right)
2569                 if (! tree_int_cst_lt (index_expr, n->low)
2570                     && ! tree_int_cst_lt (n->high, index_expr))
2571                   break;
2572
2573               if (n)
2574                 emit_jump (label_rtx (n->code_label));
2575               else
2576                 emit_jump (default_label);
2577             }
2578           else
2579             {
2580               /* If the index expression is not constant we generate
2581                  a binary decision tree to select the appropriate
2582                  target code.  This is done as follows:
2583
2584                  The list of cases is rearranged into a binary tree,
2585                  nearly optimal assuming equal probability for each case.
2586
2587                  The tree is transformed into RTL, eliminating
2588                  redundant test conditions at the same time.
2589
2590                  If program flow could reach the end of the
2591                  decision tree an unconditional jump to the
2592                  default code is emitted.  */
2593
2594               use_cost_table
2595                 = (TREE_CODE (orig_type) != ENUMERAL_TYPE
2596                    && estimate_case_costs (case_list));
2597               balance_case_nodes (&case_list, NULL);
2598               emit_case_nodes (index, case_list, default_label, index_type);
2599               emit_jump (default_label);
2600             }
2601         }
2602       else
2603         {
2604           table_label = gen_label_rtx ();
2605           if (! try_casesi (index_type, index_expr, minval, range,
2606                             table_label, default_label))
2607             {
2608               index_type = integer_type_node;
2609
2610               /* Index jumptables from zero for suitable values of
2611                  minval to avoid a subtraction.  */
2612               if (! optimize_size
2613                   && compare_tree_int (minval, 0) > 0
2614                   && compare_tree_int (minval, 3) < 0)
2615                 {
2616                   minval = integer_zero_node;
2617                   range = maxval;
2618                 }
2619
2620               if (! try_tablejump (index_type, index_expr, minval, range,
2621                                    table_label, default_label))
2622                 abort ();
2623             }
2624
2625           /* Get table of labels to jump to, in order of case index.  */
2626
2627           ncases = tree_low_cst (range, 0) + 1;
2628           labelvec = alloca (ncases * sizeof (rtx));
2629           memset (labelvec, 0, ncases * sizeof (rtx));
2630
2631           for (n = case_list; n; n = n->right)
2632             {
2633               /* Compute the low and high bounds relative to the minimum
2634                  value since that should fit in a HOST_WIDE_INT while the
2635                  actual values may not.  */
2636               HOST_WIDE_INT i_low
2637                 = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2638                                               n->low, minval)), 1);
2639               HOST_WIDE_INT i_high
2640                 = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2641                                               n->high, minval)), 1);
2642               HOST_WIDE_INT i;
2643
2644               for (i = i_low; i <= i_high; i ++)
2645                 labelvec[i]
2646                   = gen_rtx_LABEL_REF (Pmode, label_rtx (n->code_label));
2647             }
2648
2649           /* Fill in the gaps with the default.  */
2650           for (i = 0; i < ncases; i++)
2651             if (labelvec[i] == 0)
2652               labelvec[i] = gen_rtx_LABEL_REF (Pmode, default_label);
2653
2654           /* Output the table.  */
2655           emit_label (table_label);
2656
2657           if (CASE_VECTOR_PC_RELATIVE || flag_pic)
2658             emit_jump_insn (gen_rtx_ADDR_DIFF_VEC (CASE_VECTOR_MODE,
2659                                                    gen_rtx_LABEL_REF (Pmode, table_label),
2660                                                    gen_rtvec_v (ncases, labelvec),
2661                                                    const0_rtx, const0_rtx));
2662           else
2663             emit_jump_insn (gen_rtx_ADDR_VEC (CASE_VECTOR_MODE,
2664                                               gen_rtvec_v (ncases, labelvec)));
2665
2666           /* If the case insn drops through the table,
2667              after the table we must jump to the default-label.
2668              Otherwise record no drop-through after the table.  */
2669 #ifdef CASE_DROPS_THROUGH
2670           emit_jump (default_label);
2671 #else
2672           emit_barrier ();
2673 #endif
2674         }
2675
2676       before_case = NEXT_INSN (before_case);
2677       end = get_last_insn ();
2678       if (squeeze_notes (&before_case, &end))
2679         abort ();
2680       reorder_insns (before_case, end, start);
2681     }
2682
2683   free_temp_slots ();
2684 }
2685
2686 /* Generate code to jump to LABEL if OP1 and OP2 are equal.  */
2687
2688 static void
2689 do_jump_if_equal (rtx op1, rtx op2, rtx label, int unsignedp)
2690 {
2691   if (GET_CODE (op1) == CONST_INT && GET_CODE (op2) == CONST_INT)
2692     {
2693       if (op1 == op2)
2694         emit_jump (label);
2695     }
2696   else
2697     emit_cmp_and_jump_insns (op1, op2, EQ, NULL_RTX,
2698                              (GET_MODE (op1) == VOIDmode
2699                              ? GET_MODE (op2) : GET_MODE (op1)),
2700                              unsignedp, label);
2701 }
2702 \f
2703 /* Not all case values are encountered equally.  This function
2704    uses a heuristic to weight case labels, in cases where that
2705    looks like a reasonable thing to do.
2706
2707    Right now, all we try to guess is text, and we establish the
2708    following weights:
2709
2710         chars above space:      16
2711         digits:                 16
2712         default:                12
2713         space, punct:           8
2714         tab:                    4
2715         newline:                2
2716         other "\" chars:        1
2717         remaining chars:        0
2718
2719    If we find any cases in the switch that are not either -1 or in the range
2720    of valid ASCII characters, or are control characters other than those
2721    commonly used with "\", don't treat this switch scanning text.
2722
2723    Return 1 if these nodes are suitable for cost estimation, otherwise
2724    return 0.  */
2725
2726 static int
2727 estimate_case_costs (case_node_ptr node)
2728 {
2729   tree min_ascii = integer_minus_one_node;
2730   tree max_ascii = convert (TREE_TYPE (node->high),
2731                             build_int_cst (NULL_TREE, 127));
2732   case_node_ptr n;
2733   int i;
2734
2735   /* If we haven't already made the cost table, make it now.  Note that the
2736      lower bound of the table is -1, not zero.  */
2737
2738   if (! cost_table_initialized)
2739     {
2740       cost_table_initialized = 1;
2741
2742       for (i = 0; i < 128; i++)
2743         {
2744           if (ISALNUM (i))
2745             COST_TABLE (i) = 16;
2746           else if (ISPUNCT (i))
2747             COST_TABLE (i) = 8;
2748           else if (ISCNTRL (i))
2749             COST_TABLE (i) = -1;
2750         }
2751
2752       COST_TABLE (' ') = 8;
2753       COST_TABLE ('\t') = 4;
2754       COST_TABLE ('\0') = 4;
2755       COST_TABLE ('\n') = 2;
2756       COST_TABLE ('\f') = 1;
2757       COST_TABLE ('\v') = 1;
2758       COST_TABLE ('\b') = 1;
2759     }
2760
2761   /* See if all the case expressions look like text.  It is text if the
2762      constant is >= -1 and the highest constant is <= 127.  Do all comparisons
2763      as signed arithmetic since we don't want to ever access cost_table with a
2764      value less than -1.  Also check that none of the constants in a range
2765      are strange control characters.  */
2766
2767   for (n = node; n; n = n->right)
2768     {
2769       if ((INT_CST_LT (n->low, min_ascii)) || INT_CST_LT (max_ascii, n->high))
2770         return 0;
2771
2772       for (i = (HOST_WIDE_INT) TREE_INT_CST_LOW (n->low);
2773            i <= (HOST_WIDE_INT) TREE_INT_CST_LOW (n->high); i++)
2774         if (COST_TABLE (i) < 0)
2775           return 0;
2776     }
2777
2778   /* All interesting values are within the range of interesting
2779      ASCII characters.  */
2780   return 1;
2781 }
2782
2783 /* Take an ordered list of case nodes
2784    and transform them into a near optimal binary tree,
2785    on the assumption that any target code selection value is as
2786    likely as any other.
2787
2788    The transformation is performed by splitting the ordered
2789    list into two equal sections plus a pivot.  The parts are
2790    then attached to the pivot as left and right branches.  Each
2791    branch is then transformed recursively.  */
2792
2793 static void
2794 balance_case_nodes (case_node_ptr *head, case_node_ptr parent)
2795 {
2796   case_node_ptr np;
2797
2798   np = *head;
2799   if (np)
2800     {
2801       int cost = 0;
2802       int i = 0;
2803       int ranges = 0;
2804       case_node_ptr *npp;
2805       case_node_ptr left;
2806
2807       /* Count the number of entries on branch.  Also count the ranges.  */
2808
2809       while (np)
2810         {
2811           if (!tree_int_cst_equal (np->low, np->high))
2812             {
2813               ranges++;
2814               if (use_cost_table)
2815                 cost += COST_TABLE (TREE_INT_CST_LOW (np->high));
2816             }
2817
2818           if (use_cost_table)
2819             cost += COST_TABLE (TREE_INT_CST_LOW (np->low));
2820
2821           i++;
2822           np = np->right;
2823         }
2824
2825       if (i > 2)
2826         {
2827           /* Split this list if it is long enough for that to help.  */
2828           npp = head;
2829           left = *npp;
2830           if (use_cost_table)
2831             {
2832               /* Find the place in the list that bisects the list's total cost,
2833                  Here I gets half the total cost.  */
2834               int n_moved = 0;
2835               i = (cost + 1) / 2;
2836               while (1)
2837                 {
2838                   /* Skip nodes while their cost does not reach that amount.  */
2839                   if (!tree_int_cst_equal ((*npp)->low, (*npp)->high))
2840                     i -= COST_TABLE (TREE_INT_CST_LOW ((*npp)->high));
2841                   i -= COST_TABLE (TREE_INT_CST_LOW ((*npp)->low));
2842                   if (i <= 0)
2843                     break;
2844                   npp = &(*npp)->right;
2845                   n_moved += 1;
2846                 }
2847               if (n_moved == 0)
2848                 {
2849                   /* Leave this branch lopsided, but optimize left-hand
2850                      side and fill in `parent' fields for right-hand side.  */
2851                   np = *head;
2852                   np->parent = parent;
2853                   balance_case_nodes (&np->left, np);
2854                   for (; np->right; np = np->right)
2855                     np->right->parent = np;
2856                   return;
2857                 }
2858             }
2859           /* If there are just three nodes, split at the middle one.  */
2860           else if (i == 3)
2861             npp = &(*npp)->right;
2862           else
2863             {
2864               /* Find the place in the list that bisects the list's total cost,
2865                  where ranges count as 2.
2866                  Here I gets half the total cost.  */
2867               i = (i + ranges + 1) / 2;
2868               while (1)
2869                 {
2870                   /* Skip nodes while their cost does not reach that amount.  */
2871                   if (!tree_int_cst_equal ((*npp)->low, (*npp)->high))
2872                     i--;
2873                   i--;
2874                   if (i <= 0)
2875                     break;
2876                   npp = &(*npp)->right;
2877                 }
2878             }
2879           *head = np = *npp;
2880           *npp = 0;
2881           np->parent = parent;
2882           np->left = left;
2883
2884           /* Optimize each of the two split parts.  */
2885           balance_case_nodes (&np->left, np);
2886           balance_case_nodes (&np->right, np);
2887         }
2888       else
2889         {
2890           /* Else leave this branch as one level,
2891              but fill in `parent' fields.  */
2892           np = *head;
2893           np->parent = parent;
2894           for (; np->right; np = np->right)
2895             np->right->parent = np;
2896         }
2897     }
2898 }
2899 \f
2900 /* Search the parent sections of the case node tree
2901    to see if a test for the lower bound of NODE would be redundant.
2902    INDEX_TYPE is the type of the index expression.
2903
2904    The instructions to generate the case decision tree are
2905    output in the same order as nodes are processed so it is
2906    known that if a parent node checks the range of the current
2907    node minus one that the current node is bounded at its lower
2908    span.  Thus the test would be redundant.  */
2909
2910 static int
2911 node_has_low_bound (case_node_ptr node, tree index_type)
2912 {
2913   tree low_minus_one;
2914   case_node_ptr pnode;
2915
2916   /* If the lower bound of this node is the lowest value in the index type,
2917      we need not test it.  */
2918
2919   if (tree_int_cst_equal (node->low, TYPE_MIN_VALUE (index_type)))
2920     return 1;
2921
2922   /* If this node has a left branch, the value at the left must be less
2923      than that at this node, so it cannot be bounded at the bottom and
2924      we need not bother testing any further.  */
2925
2926   if (node->left)
2927     return 0;
2928
2929   low_minus_one = fold (build2 (MINUS_EXPR, TREE_TYPE (node->low),
2930                                 node->low, integer_one_node));
2931
2932   /* If the subtraction above overflowed, we can't verify anything.
2933      Otherwise, look for a parent that tests our value - 1.  */
2934
2935   if (! tree_int_cst_lt (low_minus_one, node->low))
2936     return 0;
2937
2938   for (pnode = node->parent; pnode; pnode = pnode->parent)
2939     if (tree_int_cst_equal (low_minus_one, pnode->high))
2940       return 1;
2941
2942   return 0;
2943 }
2944
2945 /* Search the parent sections of the case node tree
2946    to see if a test for the upper bound of NODE would be redundant.
2947    INDEX_TYPE is the type of the index expression.
2948
2949    The instructions to generate the case decision tree are
2950    output in the same order as nodes are processed so it is
2951    known that if a parent node checks the range of the current
2952    node plus one that the current node is bounded at its upper
2953    span.  Thus the test would be redundant.  */
2954
2955 static int
2956 node_has_high_bound (case_node_ptr node, tree index_type)
2957 {
2958   tree high_plus_one;
2959   case_node_ptr pnode;
2960
2961   /* If there is no upper bound, obviously no test is needed.  */
2962
2963   if (TYPE_MAX_VALUE (index_type) == NULL)
2964     return 1;
2965
2966   /* If the upper bound of this node is the highest value in the type
2967      of the index expression, we need not test against it.  */
2968
2969   if (tree_int_cst_equal (node->high, TYPE_MAX_VALUE (index_type)))
2970     return 1;
2971
2972   /* If this node has a right branch, the value at the right must be greater
2973      than that at this node, so it cannot be bounded at the top and
2974      we need not bother testing any further.  */
2975
2976   if (node->right)
2977     return 0;
2978
2979   high_plus_one = fold (build2 (PLUS_EXPR, TREE_TYPE (node->high),
2980                                 node->high, integer_one_node));
2981
2982   /* If the addition above overflowed, we can't verify anything.
2983      Otherwise, look for a parent that tests our value + 1.  */
2984
2985   if (! tree_int_cst_lt (node->high, high_plus_one))
2986     return 0;
2987
2988   for (pnode = node->parent; pnode; pnode = pnode->parent)
2989     if (tree_int_cst_equal (high_plus_one, pnode->low))
2990       return 1;
2991
2992   return 0;
2993 }
2994
2995 /* Search the parent sections of the
2996    case node tree to see if both tests for the upper and lower
2997    bounds of NODE would be redundant.  */
2998
2999 static int
3000 node_is_bounded (case_node_ptr node, tree index_type)
3001 {
3002   return (node_has_low_bound (node, index_type)
3003           && node_has_high_bound (node, index_type));
3004 }
3005 \f
3006 /* Emit step-by-step code to select a case for the value of INDEX.
3007    The thus generated decision tree follows the form of the
3008    case-node binary tree NODE, whose nodes represent test conditions.
3009    INDEX_TYPE is the type of the index of the switch.
3010
3011    Care is taken to prune redundant tests from the decision tree
3012    by detecting any boundary conditions already checked by
3013    emitted rtx.  (See node_has_high_bound, node_has_low_bound
3014    and node_is_bounded, above.)
3015
3016    Where the test conditions can be shown to be redundant we emit
3017    an unconditional jump to the target code.  As a further
3018    optimization, the subordinates of a tree node are examined to
3019    check for bounded nodes.  In this case conditional and/or
3020    unconditional jumps as a result of the boundary check for the
3021    current node are arranged to target the subordinates associated
3022    code for out of bound conditions on the current node.
3023
3024    We can assume that when control reaches the code generated here,
3025    the index value has already been compared with the parents
3026    of this node, and determined to be on the same side of each parent
3027    as this node is.  Thus, if this node tests for the value 51,
3028    and a parent tested for 52, we don't need to consider
3029    the possibility of a value greater than 51.  If another parent
3030    tests for the value 50, then this node need not test anything.  */
3031
3032 static void
3033 emit_case_nodes (rtx index, case_node_ptr node, rtx default_label,
3034                  tree index_type)
3035 {
3036   /* If INDEX has an unsigned type, we must make unsigned branches.  */
3037   int unsignedp = TYPE_UNSIGNED (index_type);
3038   enum machine_mode mode = GET_MODE (index);
3039   enum machine_mode imode = TYPE_MODE (index_type);
3040
3041   /* See if our parents have already tested everything for us.
3042      If they have, emit an unconditional jump for this node.  */
3043   if (node_is_bounded (node, index_type))
3044     emit_jump (label_rtx (node->code_label));
3045
3046   else if (tree_int_cst_equal (node->low, node->high))
3047     {
3048       /* Node is single valued.  First see if the index expression matches
3049          this node and then check our children, if any.  */
3050
3051       do_jump_if_equal (index,
3052                         convert_modes (mode, imode,
3053                                        expand_expr (node->low, NULL_RTX,
3054                                                     VOIDmode, 0),
3055                                        unsignedp),
3056                         label_rtx (node->code_label), unsignedp);
3057
3058       if (node->right != 0 && node->left != 0)
3059         {
3060           /* This node has children on both sides.
3061              Dispatch to one side or the other
3062              by comparing the index value with this node's value.
3063              If one subtree is bounded, check that one first,
3064              so we can avoid real branches in the tree.  */
3065
3066           if (node_is_bounded (node->right, index_type))
3067             {
3068               emit_cmp_and_jump_insns (index,
3069                                        convert_modes
3070                                        (mode, imode,
3071                                         expand_expr (node->high, NULL_RTX,
3072                                                      VOIDmode, 0),
3073                                         unsignedp),
3074                                        GT, NULL_RTX, mode, unsignedp,
3075                                        label_rtx (node->right->code_label));
3076               emit_case_nodes (index, node->left, default_label, index_type);
3077             }
3078
3079           else if (node_is_bounded (node->left, index_type))
3080             {
3081               emit_cmp_and_jump_insns (index,
3082                                        convert_modes
3083                                        (mode, imode,
3084                                         expand_expr (node->high, NULL_RTX,
3085                                                      VOIDmode, 0),
3086                                         unsignedp),
3087                                        LT, NULL_RTX, mode, unsignedp,
3088                                        label_rtx (node->left->code_label));
3089               emit_case_nodes (index, node->right, default_label, index_type);
3090             }
3091
3092           /* If both children are single-valued cases with no
3093              children, finish up all the work.  This way, we can save
3094              one ordered comparison.  */
3095           else if (tree_int_cst_equal (node->right->low, node->right->high)
3096                    && node->right->left == 0
3097                    && node->right->right == 0
3098                    && tree_int_cst_equal (node->left->low, node->left->high)
3099                    && node->left->left == 0
3100                    && node->left->right == 0)
3101             {
3102               /* Neither node is bounded.  First distinguish the two sides;
3103                  then emit the code for one side at a time.  */
3104
3105               /* See if the value matches what the right hand side
3106                  wants.  */
3107               do_jump_if_equal (index,
3108                                 convert_modes (mode, imode,
3109                                                expand_expr (node->right->low,
3110                                                             NULL_RTX,
3111                                                             VOIDmode, 0),
3112                                                unsignedp),
3113                                 label_rtx (node->right->code_label),
3114                                 unsignedp);
3115
3116               /* See if the value matches what the left hand side
3117                  wants.  */
3118               do_jump_if_equal (index,
3119                                 convert_modes (mode, imode,
3120                                                expand_expr (node->left->low,
3121                                                             NULL_RTX,
3122                                                             VOIDmode, 0),
3123                                                unsignedp),
3124                                 label_rtx (node->left->code_label),
3125                                 unsignedp);
3126             }
3127
3128           else
3129             {
3130               /* Neither node is bounded.  First distinguish the two sides;
3131                  then emit the code for one side at a time.  */
3132
3133               tree test_label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
3134
3135               /* See if the value is on the right.  */
3136               emit_cmp_and_jump_insns (index,
3137                                        convert_modes
3138                                        (mode, imode,
3139                                         expand_expr (node->high, NULL_RTX,
3140                                                      VOIDmode, 0),
3141                                         unsignedp),
3142                                        GT, NULL_RTX, mode, unsignedp,
3143                                        label_rtx (test_label));
3144
3145               /* Value must be on the left.
3146                  Handle the left-hand subtree.  */
3147               emit_case_nodes (index, node->left, default_label, index_type);
3148               /* If left-hand subtree does nothing,
3149                  go to default.  */
3150               emit_jump (default_label);
3151
3152               /* Code branches here for the right-hand subtree.  */
3153               expand_label (test_label);
3154               emit_case_nodes (index, node->right, default_label, index_type);
3155             }
3156         }
3157
3158       else if (node->right != 0 && node->left == 0)
3159         {
3160           /* Here we have a right child but no left so we issue conditional
3161              branch to default and process the right child.
3162
3163              Omit the conditional branch to default if we it avoid only one
3164              right child; it costs too much space to save so little time.  */
3165
3166           if (node->right->right || node->right->left
3167               || !tree_int_cst_equal (node->right->low, node->right->high))
3168             {
3169               if (!node_has_low_bound (node, index_type))
3170                 {
3171                   emit_cmp_and_jump_insns (index,
3172                                            convert_modes
3173                                            (mode, imode,
3174                                             expand_expr (node->high, NULL_RTX,
3175                                                          VOIDmode, 0),
3176                                             unsignedp),
3177                                            LT, NULL_RTX, mode, unsignedp,
3178                                            default_label);
3179                 }
3180
3181               emit_case_nodes (index, node->right, default_label, index_type);
3182             }
3183           else
3184             /* We cannot process node->right normally
3185                since we haven't ruled out the numbers less than
3186                this node's value.  So handle node->right explicitly.  */
3187             do_jump_if_equal (index,
3188                               convert_modes
3189                               (mode, imode,
3190                                expand_expr (node->right->low, NULL_RTX,
3191                                             VOIDmode, 0),
3192                                unsignedp),
3193                               label_rtx (node->right->code_label), unsignedp);
3194         }
3195
3196       else if (node->right == 0 && node->left != 0)
3197         {
3198           /* Just one subtree, on the left.  */
3199           if (node->left->left || node->left->right
3200               || !tree_int_cst_equal (node->left->low, node->left->high))
3201             {
3202               if (!node_has_high_bound (node, index_type))
3203                 {
3204                   emit_cmp_and_jump_insns (index,
3205                                            convert_modes
3206                                            (mode, imode,
3207                                             expand_expr (node->high, NULL_RTX,
3208                                                          VOIDmode, 0),
3209                                             unsignedp),
3210                                            GT, NULL_RTX, mode, unsignedp,
3211                                            default_label);
3212                 }
3213
3214               emit_case_nodes (index, node->left, default_label, index_type);
3215             }
3216           else
3217             /* We cannot process node->left normally
3218                since we haven't ruled out the numbers less than
3219                this node's value.  So handle node->left explicitly.  */
3220             do_jump_if_equal (index,
3221                               convert_modes
3222                               (mode, imode,
3223                                expand_expr (node->left->low, NULL_RTX,
3224                                             VOIDmode, 0),
3225                                unsignedp),
3226                               label_rtx (node->left->code_label), unsignedp);
3227         }
3228     }
3229   else
3230     {
3231       /* Node is a range.  These cases are very similar to those for a single
3232          value, except that we do not start by testing whether this node
3233          is the one to branch to.  */
3234
3235       if (node->right != 0 && node->left != 0)
3236         {
3237           /* Node has subtrees on both sides.
3238              If the right-hand subtree is bounded,
3239              test for it first, since we can go straight there.
3240              Otherwise, we need to make a branch in the control structure,
3241              then handle the two subtrees.  */
3242           tree test_label = 0;
3243
3244           if (node_is_bounded (node->right, index_type))
3245             /* Right hand node is fully bounded so we can eliminate any
3246                testing and branch directly to the target code.  */
3247             emit_cmp_and_jump_insns (index,
3248                                      convert_modes
3249                                      (mode, imode,
3250                                       expand_expr (node->high, NULL_RTX,
3251                                                    VOIDmode, 0),
3252                                       unsignedp),
3253                                      GT, NULL_RTX, mode, unsignedp,
3254                                      label_rtx (node->right->code_label));
3255           else
3256             {
3257               /* Right hand node requires testing.
3258                  Branch to a label where we will handle it later.  */
3259
3260               test_label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
3261               emit_cmp_and_jump_insns (index,
3262                                        convert_modes
3263                                        (mode, imode,
3264                                         expand_expr (node->high, NULL_RTX,
3265                                                      VOIDmode, 0),
3266                                         unsignedp),
3267                                        GT, NULL_RTX, mode, unsignedp,
3268                                        label_rtx (test_label));
3269             }
3270
3271           /* Value belongs to this node or to the left-hand subtree.  */
3272
3273           emit_cmp_and_jump_insns (index,
3274                                    convert_modes
3275                                    (mode, imode,
3276                                     expand_expr (node->low, NULL_RTX,
3277                                                  VOIDmode, 0),
3278                                     unsignedp),
3279                                    GE, NULL_RTX, mode, unsignedp,
3280                                    label_rtx (node->code_label));
3281
3282           /* Handle the left-hand subtree.  */
3283           emit_case_nodes (index, node->left, default_label, index_type);
3284
3285           /* If right node had to be handled later, do that now.  */
3286
3287           if (test_label)
3288             {
3289               /* If the left-hand subtree fell through,
3290                  don't let it fall into the right-hand subtree.  */
3291               emit_jump (default_label);
3292
3293               expand_label (test_label);
3294               emit_case_nodes (index, node->right, default_label, index_type);
3295             }
3296         }
3297
3298       else if (node->right != 0 && node->left == 0)
3299         {
3300           /* Deal with values to the left of this node,
3301              if they are possible.  */
3302           if (!node_has_low_bound (node, index_type))
3303             {
3304               emit_cmp_and_jump_insns (index,
3305                                        convert_modes
3306                                        (mode, imode,
3307                                         expand_expr (node->low, NULL_RTX,
3308                                                      VOIDmode, 0),
3309                                         unsignedp),
3310                                        LT, NULL_RTX, mode, unsignedp,
3311                                        default_label);
3312             }
3313
3314           /* Value belongs to this node or to the right-hand subtree.  */
3315
3316           emit_cmp_and_jump_insns (index,
3317                                    convert_modes
3318                                    (mode, imode,
3319                                     expand_expr (node->high, NULL_RTX,
3320                                                  VOIDmode, 0),
3321                                     unsignedp),
3322                                    LE, NULL_RTX, mode, unsignedp,
3323                                    label_rtx (node->code_label));
3324
3325           emit_case_nodes (index, node->right, default_label, index_type);
3326         }
3327
3328       else if (node->right == 0 && node->left != 0)
3329         {
3330           /* Deal with values to the right of this node,
3331              if they are possible.  */
3332           if (!node_has_high_bound (node, index_type))
3333             {
3334               emit_cmp_and_jump_insns (index,
3335                                        convert_modes
3336                                        (mode, imode,
3337                                         expand_expr (node->high, NULL_RTX,
3338                                                      VOIDmode, 0),
3339                                         unsignedp),
3340                                        GT, NULL_RTX, mode, unsignedp,
3341                                        default_label);
3342             }
3343
3344           /* Value belongs to this node or to the left-hand subtree.  */
3345
3346           emit_cmp_and_jump_insns (index,
3347                                    convert_modes
3348                                    (mode, imode,
3349                                     expand_expr (node->low, NULL_RTX,
3350                                                  VOIDmode, 0),
3351                                     unsignedp),
3352                                    GE, NULL_RTX, mode, unsignedp,
3353                                    label_rtx (node->code_label));
3354
3355           emit_case_nodes (index, node->left, default_label, index_type);
3356         }
3357
3358       else
3359         {
3360           /* Node has no children so we check low and high bounds to remove
3361              redundant tests.  Only one of the bounds can exist,
3362              since otherwise this node is bounded--a case tested already.  */
3363           int high_bound = node_has_high_bound (node, index_type);
3364           int low_bound = node_has_low_bound (node, index_type);
3365
3366           if (!high_bound && low_bound)
3367             {
3368               emit_cmp_and_jump_insns (index,
3369                                        convert_modes
3370                                        (mode, imode,
3371                                         expand_expr (node->high, NULL_RTX,
3372                                                      VOIDmode, 0),
3373                                         unsignedp),
3374                                        GT, NULL_RTX, mode, unsignedp,
3375                                        default_label);
3376             }
3377
3378           else if (!low_bound && high_bound)
3379             {
3380               emit_cmp_and_jump_insns (index,
3381                                        convert_modes
3382                                        (mode, imode,
3383                                         expand_expr (node->low, NULL_RTX,
3384                                                      VOIDmode, 0),
3385                                         unsignedp),
3386                                        LT, NULL_RTX, mode, unsignedp,
3387                                        default_label);
3388             }
3389           else if (!low_bound && !high_bound)
3390             {
3391               /* Widen LOW and HIGH to the same width as INDEX.  */
3392               tree type = lang_hooks.types.type_for_mode (mode, unsignedp);
3393               tree low = build1 (CONVERT_EXPR, type, node->low);
3394               tree high = build1 (CONVERT_EXPR, type, node->high);
3395               rtx low_rtx, new_index, new_bound;
3396
3397               /* Instead of doing two branches, emit one unsigned branch for
3398                  (index-low) > (high-low).  */
3399               low_rtx = expand_expr (low, NULL_RTX, mode, 0);
3400               new_index = expand_simple_binop (mode, MINUS, index, low_rtx,
3401                                                NULL_RTX, unsignedp,
3402                                                OPTAB_WIDEN);
3403               new_bound = expand_expr (fold (build2 (MINUS_EXPR, type,
3404                                                      high, low)),
3405                                        NULL_RTX, mode, 0);
3406
3407               emit_cmp_and_jump_insns (new_index, new_bound, GT, NULL_RTX,
3408                                        mode, 1, default_label);
3409             }
3410
3411           emit_jump (label_rtx (node->code_label));
3412         }
3413     }
3414 }