OSDN Git Service

760be9f3516bc490c05e7cf131c1baf3812c87b9
[pf3gnuchains/gcc-fork.git] / gcc / stmt.c
1 /* Expands front end tree to back end RTL for GCC
2    Copyright (C) 1987, 1988, 1989, 1992, 1993, 1994, 1995, 1996, 1997,
3    1998, 1999, 2000, 2001, 2002, 2003, 2004 Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 59 Temple Place - Suite 330, Boston, MA
20 02111-1307, USA.  */
21
22 /* This file handles the generation of rtl code from tree structure
23    above the level of expressions, using subroutines in exp*.c and emit-rtl.c.
24    The functions whose names start with `expand_' are called by the
25    expander to generate RTL instructions for various kinds of constructs.  */
26
27 #include "config.h"
28 #include "system.h"
29 #include "coretypes.h"
30 #include "tm.h"
31
32 #include "rtl.h"
33 #include "tree.h"
34 #include "tm_p.h"
35 #include "flags.h"
36 #include "except.h"
37 #include "function.h"
38 #include "insn-config.h"
39 #include "expr.h"
40 #include "libfuncs.h"
41 #include "hard-reg-set.h"
42 #include "loop.h"
43 #include "recog.h"
44 #include "machmode.h"
45 #include "toplev.h"
46 #include "output.h"
47 #include "ggc.h"
48 #include "langhooks.h"
49 #include "predict.h"
50 #include "optabs.h"
51 #include "target.h"
52 #include "regs.h"
53 \f
54 /* Functions and data structures for expanding case statements.  */
55
56 /* Case label structure, used to hold info on labels within case
57    statements.  We handle "range" labels; for a single-value label
58    as in C, the high and low limits are the same.
59
60    We start with a vector of case nodes sorted in ascending order, and
61    the default label as the last element in the vector.  Before expanding
62    to RTL, we transform this vector into a list linked via the RIGHT
63    fields in the case_node struct.  Nodes with higher case values are
64    later in the list.
65
66    Switch statements can be output in three forms.  A branch table is
67    used if there are more than a few labels and the labels are dense
68    within the range between the smallest and largest case value.  If a
69    branch table is used, no further manipulations are done with the case
70    node chain.
71
72    The alternative to the use of a branch table is to generate a series
73    of compare and jump insns.  When that is done, we use the LEFT, RIGHT,
74    and PARENT fields to hold a binary tree.  Initially the tree is
75    totally unbalanced, with everything on the right.  We balance the tree
76    with nodes on the left having lower case values than the parent
77    and nodes on the right having higher values.  We then output the tree
78    in order.
79
80    For very small, suitable switch statements, we can generate a series
81    of simple bit test and branches instead.  */
82
83 struct case_node GTY(())
84 {
85   struct case_node      *left;  /* Left son in binary tree */
86   struct case_node      *right; /* Right son in binary tree; also node chain */
87   struct case_node      *parent; /* Parent of node in binary tree */
88   tree                  low;    /* Lowest index value for this label */
89   tree                  high;   /* Highest index value for this label */
90   tree                  code_label; /* Label to jump to when node matches */
91 };
92
93 typedef struct case_node case_node;
94 typedef struct case_node *case_node_ptr;
95
96 /* These are used by estimate_case_costs and balance_case_nodes.  */
97
98 /* This must be a signed type, and non-ANSI compilers lack signed char.  */
99 static short cost_table_[129];
100 static int use_cost_table;
101 static int cost_table_initialized;
102
103 /* Special care is needed because we allow -1, but TREE_INT_CST_LOW
104    is unsigned.  */
105 #define COST_TABLE(I)  cost_table_[(unsigned HOST_WIDE_INT) ((I) + 1)]
106 \f
107 static int n_occurrences (int, const char *);
108 static bool decl_conflicts_with_clobbers_p (tree, const HARD_REG_SET);
109 static void expand_nl_goto_receiver (void);
110 static bool check_operand_nalternatives (tree, tree);
111 static bool check_unique_operand_names (tree, tree);
112 static char *resolve_operand_name_1 (char *, tree, tree);
113 static void expand_null_return_1 (void);
114 static rtx shift_return_value (rtx);
115 static void expand_value_return (rtx);
116 static void do_jump_if_equal (rtx, rtx, rtx, int);
117 static int estimate_case_costs (case_node_ptr);
118 static bool lshift_cheap_p (void);
119 static int case_bit_test_cmp (const void *, const void *);
120 static void emit_case_bit_tests (tree, tree, tree, tree, case_node_ptr, rtx);
121 static void balance_case_nodes (case_node_ptr *, case_node_ptr);
122 static int node_has_low_bound (case_node_ptr, tree);
123 static int node_has_high_bound (case_node_ptr, tree);
124 static int node_is_bounded (case_node_ptr, tree);
125 static void emit_case_nodes (rtx, case_node_ptr, rtx, tree);
126 static struct case_node *add_case_node (struct case_node *, tree, tree, tree);
127
128 \f
129 /* Return the rtx-label that corresponds to a LABEL_DECL,
130    creating it if necessary.  */
131
132 rtx
133 label_rtx (tree label)
134 {
135   if (TREE_CODE (label) != LABEL_DECL)
136     abort ();
137
138   if (!DECL_RTL_SET_P (label))
139     {
140       rtx r = gen_label_rtx ();
141       SET_DECL_RTL (label, r);
142       if (FORCED_LABEL (label) || DECL_NONLOCAL (label))
143         LABEL_PRESERVE_P (r) = 1;
144     }
145
146   return DECL_RTL (label);
147 }
148
149 /* As above, but also put it on the forced-reference list of the
150    function that contains it.  */
151 rtx
152 force_label_rtx (tree label)
153 {
154   rtx ref = label_rtx (label);
155   tree function = decl_function_context (label);
156   struct function *p;
157
158   if (!function)
159     abort ();
160
161   if (function != current_function_decl)
162     p = find_function_data (function);
163   else
164     p = cfun;
165
166   p->expr->x_forced_labels = gen_rtx_EXPR_LIST (VOIDmode, ref,
167                                                 p->expr->x_forced_labels);
168   return ref;
169 }
170
171 /* Add an unconditional jump to LABEL as the next sequential instruction.  */
172
173 void
174 emit_jump (rtx label)
175 {
176   do_pending_stack_adjust ();
177   emit_jump_insn (gen_jump (label));
178   emit_barrier ();
179 }
180
181 /* Emit code to jump to the address
182    specified by the pointer expression EXP.  */
183
184 void
185 expand_computed_goto (tree exp)
186 {
187   rtx x = expand_expr (exp, NULL_RTX, VOIDmode, 0);
188
189   x = convert_memory_address (Pmode, x);
190
191   do_pending_stack_adjust ();
192   emit_indirect_jump (x);
193 }
194 \f
195 /* Handle goto statements and the labels that they can go to.  */
196
197 /* Specify the location in the RTL code of a label LABEL,
198    which is a LABEL_DECL tree node.
199
200    This is used for the kind of label that the user can jump to with a
201    goto statement, and for alternatives of a switch or case statement.
202    RTL labels generated for loops and conditionals don't go through here;
203    they are generated directly at the RTL level, by other functions below.
204
205    Note that this has nothing to do with defining label *names*.
206    Languages vary in how they do that and what that even means.  */
207
208 void
209 expand_label (tree label)
210 {
211   rtx label_r = label_rtx (label);
212
213   do_pending_stack_adjust ();
214   emit_label (label_r);
215   if (DECL_NAME (label))
216     LABEL_NAME (DECL_RTL (label)) = IDENTIFIER_POINTER (DECL_NAME (label));
217
218   if (DECL_NONLOCAL (label))
219     {
220       expand_nl_goto_receiver ();
221       nonlocal_goto_handler_labels
222         = gen_rtx_EXPR_LIST (VOIDmode, label_r,
223                              nonlocal_goto_handler_labels);
224     }
225
226   if (FORCED_LABEL (label))
227     forced_labels = gen_rtx_EXPR_LIST (VOIDmode, label_r, forced_labels);
228
229   if (DECL_NONLOCAL (label) || FORCED_LABEL (label))
230     maybe_set_first_label_num (label_r);
231 }
232
233 /* Generate RTL code for a `goto' statement with target label LABEL.
234    LABEL should be a LABEL_DECL tree node that was or will later be
235    defined with `expand_label'.  */
236
237 void
238 expand_goto (tree label)
239 {
240 #ifdef ENABLE_CHECKING
241   /* Check for a nonlocal goto to a containing function.  Should have
242      gotten translated to __builtin_nonlocal_goto.  */
243   tree context = decl_function_context (label);
244   if (context != 0 && context != current_function_decl)
245     abort ();
246 #endif
247
248   emit_jump (label_rtx (label));
249 }
250 \f
251 /* Return the number of times character C occurs in string S.  */
252 static int
253 n_occurrences (int c, const char *s)
254 {
255   int n = 0;
256   while (*s)
257     n += (*s++ == c);
258   return n;
259 }
260 \f
261 /* Generate RTL for an asm statement (explicit assembler code).
262    STRING is a STRING_CST node containing the assembler code text,
263    or an ADDR_EXPR containing a STRING_CST.  VOL nonzero means the
264    insn is volatile; don't optimize it.  */
265
266 void
267 expand_asm (tree string, int vol)
268 {
269   rtx body;
270
271   if (TREE_CODE (string) == ADDR_EXPR)
272     string = TREE_OPERAND (string, 0);
273
274   body = gen_rtx_ASM_INPUT (VOIDmode, TREE_STRING_POINTER (string));
275
276   MEM_VOLATILE_P (body) = vol;
277
278   emit_insn (body);
279 }
280
281 /* Parse the output constraint pointed to by *CONSTRAINT_P.  It is the
282    OPERAND_NUMth output operand, indexed from zero.  There are NINPUTS
283    inputs and NOUTPUTS outputs to this extended-asm.  Upon return,
284    *ALLOWS_MEM will be TRUE iff the constraint allows the use of a
285    memory operand.  Similarly, *ALLOWS_REG will be TRUE iff the
286    constraint allows the use of a register operand.  And, *IS_INOUT
287    will be true if the operand is read-write, i.e., if it is used as
288    an input as well as an output.  If *CONSTRAINT_P is not in
289    canonical form, it will be made canonical.  (Note that `+' will be
290    replaced with `=' as part of this process.)
291
292    Returns TRUE if all went well; FALSE if an error occurred.  */
293
294 bool
295 parse_output_constraint (const char **constraint_p, int operand_num,
296                          int ninputs, int noutputs, bool *allows_mem,
297                          bool *allows_reg, bool *is_inout)
298 {
299   const char *constraint = *constraint_p;
300   const char *p;
301
302   /* Assume the constraint doesn't allow the use of either a register
303      or memory.  */
304   *allows_mem = false;
305   *allows_reg = false;
306
307   /* Allow the `=' or `+' to not be at the beginning of the string,
308      since it wasn't explicitly documented that way, and there is a
309      large body of code that puts it last.  Swap the character to
310      the front, so as not to uglify any place else.  */
311   p = strchr (constraint, '=');
312   if (!p)
313     p = strchr (constraint, '+');
314
315   /* If the string doesn't contain an `=', issue an error
316      message.  */
317   if (!p)
318     {
319       error ("output operand constraint lacks `='");
320       return false;
321     }
322
323   /* If the constraint begins with `+', then the operand is both read
324      from and written to.  */
325   *is_inout = (*p == '+');
326
327   /* Canonicalize the output constraint so that it begins with `='.  */
328   if (p != constraint || is_inout)
329     {
330       char *buf;
331       size_t c_len = strlen (constraint);
332
333       if (p != constraint)
334         warning ("output constraint `%c' for operand %d is not at the beginning",
335                  *p, operand_num);
336
337       /* Make a copy of the constraint.  */
338       buf = alloca (c_len + 1);
339       strcpy (buf, constraint);
340       /* Swap the first character and the `=' or `+'.  */
341       buf[p - constraint] = buf[0];
342       /* Make sure the first character is an `='.  (Until we do this,
343          it might be a `+'.)  */
344       buf[0] = '=';
345       /* Replace the constraint with the canonicalized string.  */
346       *constraint_p = ggc_alloc_string (buf, c_len);
347       constraint = *constraint_p;
348     }
349
350   /* Loop through the constraint string.  */
351   for (p = constraint + 1; *p; p += CONSTRAINT_LEN (*p, p))
352     switch (*p)
353       {
354       case '+':
355       case '=':
356         error ("operand constraint contains incorrectly positioned '+' or '='");
357         return false;
358
359       case '%':
360         if (operand_num + 1 == ninputs + noutputs)
361           {
362             error ("`%%' constraint used with last operand");
363             return false;
364           }
365         break;
366
367       case 'V':  case 'm':  case 'o':
368         *allows_mem = true;
369         break;
370
371       case '?':  case '!':  case '*':  case '&':  case '#':
372       case 'E':  case 'F':  case 'G':  case 'H':
373       case 's':  case 'i':  case 'n':
374       case 'I':  case 'J':  case 'K':  case 'L':  case 'M':
375       case 'N':  case 'O':  case 'P':  case ',':
376         break;
377
378       case '0':  case '1':  case '2':  case '3':  case '4':
379       case '5':  case '6':  case '7':  case '8':  case '9':
380       case '[':
381         error ("matching constraint not valid in output operand");
382         return false;
383
384       case '<':  case '>':
385         /* ??? Before flow, auto inc/dec insns are not supposed to exist,
386            excepting those that expand_call created.  So match memory
387            and hope.  */
388         *allows_mem = true;
389         break;
390
391       case 'g':  case 'X':
392         *allows_reg = true;
393         *allows_mem = true;
394         break;
395
396       case 'p': case 'r':
397         *allows_reg = true;
398         break;
399
400       default:
401         if (!ISALPHA (*p))
402           break;
403         if (REG_CLASS_FROM_CONSTRAINT (*p, p) != NO_REGS)
404           *allows_reg = true;
405 #ifdef EXTRA_CONSTRAINT_STR
406         else if (EXTRA_ADDRESS_CONSTRAINT (*p, p))
407           *allows_reg = true;
408         else if (EXTRA_MEMORY_CONSTRAINT (*p, p))
409           *allows_mem = true;
410         else
411           {
412             /* Otherwise we can't assume anything about the nature of
413                the constraint except that it isn't purely registers.
414                Treat it like "g" and hope for the best.  */
415             *allows_reg = true;
416             *allows_mem = true;
417           }
418 #endif
419         break;
420       }
421
422   return true;
423 }
424
425 /* Similar, but for input constraints.  */
426
427 bool
428 parse_input_constraint (const char **constraint_p, int input_num,
429                         int ninputs, int noutputs, int ninout,
430                         const char * const * constraints,
431                         bool *allows_mem, bool *allows_reg)
432 {
433   const char *constraint = *constraint_p;
434   const char *orig_constraint = constraint;
435   size_t c_len = strlen (constraint);
436   size_t j;
437   bool saw_match = false;
438
439   /* Assume the constraint doesn't allow the use of either
440      a register or memory.  */
441   *allows_mem = false;
442   *allows_reg = false;
443
444   /* Make sure constraint has neither `=', `+', nor '&'.  */
445
446   for (j = 0; j < c_len; j += CONSTRAINT_LEN (constraint[j], constraint+j))
447     switch (constraint[j])
448       {
449       case '+':  case '=':  case '&':
450         if (constraint == orig_constraint)
451           {
452             error ("input operand constraint contains `%c'", constraint[j]);
453             return false;
454           }
455         break;
456
457       case '%':
458         if (constraint == orig_constraint
459             && input_num + 1 == ninputs - ninout)
460           {
461             error ("`%%' constraint used with last operand");
462             return false;
463           }
464         break;
465
466       case 'V':  case 'm':  case 'o':
467         *allows_mem = true;
468         break;
469
470       case '<':  case '>':
471       case '?':  case '!':  case '*':  case '#':
472       case 'E':  case 'F':  case 'G':  case 'H':
473       case 's':  case 'i':  case 'n':
474       case 'I':  case 'J':  case 'K':  case 'L':  case 'M':
475       case 'N':  case 'O':  case 'P':  case ',':
476         break;
477
478         /* Whether or not a numeric constraint allows a register is
479            decided by the matching constraint, and so there is no need
480            to do anything special with them.  We must handle them in
481            the default case, so that we don't unnecessarily force
482            operands to memory.  */
483       case '0':  case '1':  case '2':  case '3':  case '4':
484       case '5':  case '6':  case '7':  case '8':  case '9':
485         {
486           char *end;
487           unsigned long match;
488
489           saw_match = true;
490
491           match = strtoul (constraint + j, &end, 10);
492           if (match >= (unsigned long) noutputs)
493             {
494               error ("matching constraint references invalid operand number");
495               return false;
496             }
497
498           /* Try and find the real constraint for this dup.  Only do this
499              if the matching constraint is the only alternative.  */
500           if (*end == '\0'
501               && (j == 0 || (j == 1 && constraint[0] == '%')))
502             {
503               constraint = constraints[match];
504               *constraint_p = constraint;
505               c_len = strlen (constraint);
506               j = 0;
507               /* ??? At the end of the loop, we will skip the first part of
508                  the matched constraint.  This assumes not only that the
509                  other constraint is an output constraint, but also that
510                  the '=' or '+' come first.  */
511               break;
512             }
513           else
514             j = end - constraint;
515           /* Anticipate increment at end of loop.  */
516           j--;
517         }
518         /* Fall through.  */
519
520       case 'p':  case 'r':
521         *allows_reg = true;
522         break;
523
524       case 'g':  case 'X':
525         *allows_reg = true;
526         *allows_mem = true;
527         break;
528
529       default:
530         if (! ISALPHA (constraint[j]))
531           {
532             error ("invalid punctuation `%c' in constraint", constraint[j]);
533             return false;
534           }
535         if (REG_CLASS_FROM_CONSTRAINT (constraint[j], constraint + j)
536             != NO_REGS)
537           *allows_reg = true;
538 #ifdef EXTRA_CONSTRAINT_STR
539         else if (EXTRA_ADDRESS_CONSTRAINT (constraint[j], constraint + j))
540           *allows_reg = true;
541         else if (EXTRA_MEMORY_CONSTRAINT (constraint[j], constraint + j))
542           *allows_mem = true;
543         else
544           {
545             /* Otherwise we can't assume anything about the nature of
546                the constraint except that it isn't purely registers.
547                Treat it like "g" and hope for the best.  */
548             *allows_reg = true;
549             *allows_mem = true;
550           }
551 #endif
552         break;
553       }
554
555   if (saw_match && !*allows_reg)
556     warning ("matching constraint does not allow a register");
557
558   return true;
559 }
560
561 /* INPUT is one of the input operands from EXPR, an ASM_EXPR.  Returns true
562    if it is an operand which must be passed in memory (i.e. an "m"
563    constraint), false otherwise.  */
564
565 bool
566 asm_op_is_mem_input (tree input, tree expr)
567 {
568   const char *constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (input)));
569   tree outputs = ASM_OUTPUTS (expr);
570   int noutputs = list_length (outputs);
571   const char **constraints
572     = (const char **) alloca ((noutputs) * sizeof (const char *));
573   int i = 0;
574   bool allows_mem, allows_reg;
575   tree t;
576
577   /* Collect output constraints.  */
578   for (t = outputs; t ; t = TREE_CHAIN (t), i++)
579     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
580
581   /* We pass 0 for input_num, ninputs and ninout; they are only used for
582      error checking which will be done at expand time.  */
583   parse_input_constraint (&constraint, 0, 0, noutputs, 0, constraints,
584                           &allows_mem, &allows_reg);
585   return (!allows_reg && allows_mem);
586 }
587
588 /* Check for overlap between registers marked in CLOBBERED_REGS and
589    anything inappropriate in DECL.  Emit error and return TRUE for error,
590    FALSE for ok.  */
591
592 static bool
593 decl_conflicts_with_clobbers_p (tree decl, const HARD_REG_SET clobbered_regs)
594 {
595   /* Conflicts between asm-declared register variables and the clobber
596      list are not allowed.  */
597   if ((TREE_CODE (decl) == VAR_DECL || TREE_CODE (decl) == PARM_DECL)
598       && DECL_REGISTER (decl)
599       && REG_P (DECL_RTL (decl))
600       && REGNO (DECL_RTL (decl)) < FIRST_PSEUDO_REGISTER)
601     {
602       rtx reg = DECL_RTL (decl);
603       unsigned int regno;
604
605       for (regno = REGNO (reg);
606            regno < (REGNO (reg)
607                     + hard_regno_nregs[REGNO (reg)][GET_MODE (reg)]);
608            regno++)
609         if (TEST_HARD_REG_BIT (clobbered_regs, regno))
610           {
611             error ("asm-specifier for variable `%s' conflicts with asm clobber list",
612                    IDENTIFIER_POINTER (DECL_NAME (decl)));
613
614             /* Reset registerness to stop multiple errors emitted for a
615                single variable.  */
616             DECL_REGISTER (decl) = 0;
617             return true;
618           }
619     }
620   return false;
621 }
622
623 /* Generate RTL for an asm statement with arguments.
624    STRING is the instruction template.
625    OUTPUTS is a list of output arguments (lvalues); INPUTS a list of inputs.
626    Each output or input has an expression in the TREE_VALUE and
627    and a tree list in TREE_PURPOSE which in turn contains a constraint
628    name in TREE_VALUE (or NULL_TREE) and a constraint string
629    in TREE_PURPOSE.
630    CLOBBERS is a list of STRING_CST nodes each naming a hard register
631    that is clobbered by this insn.
632
633    Not all kinds of lvalue that may appear in OUTPUTS can be stored directly.
634    Some elements of OUTPUTS may be replaced with trees representing temporary
635    values.  The caller should copy those temporary values to the originally
636    specified lvalues.
637
638    VOL nonzero means the insn is volatile; don't optimize it.  */
639
640 void
641 expand_asm_operands (tree string, tree outputs, tree inputs,
642                      tree clobbers, int vol, location_t locus)
643 {
644   rtvec argvec, constraintvec;
645   rtx body;
646   int ninputs = list_length (inputs);
647   int noutputs = list_length (outputs);
648   int ninout;
649   int nclobbers;
650   HARD_REG_SET clobbered_regs;
651   int clobber_conflict_found = 0;
652   tree tail;
653   tree t;
654   int i;
655   /* Vector of RTX's of evaluated output operands.  */
656   rtx *output_rtx = alloca (noutputs * sizeof (rtx));
657   int *inout_opnum = alloca (noutputs * sizeof (int));
658   rtx *real_output_rtx = alloca (noutputs * sizeof (rtx));
659   enum machine_mode *inout_mode
660     = alloca (noutputs * sizeof (enum machine_mode));
661   const char **constraints
662     = alloca ((noutputs + ninputs) * sizeof (const char *));
663   int old_generating_concat_p = generating_concat_p;
664
665   /* An ASM with no outputs needs to be treated as volatile, for now.  */
666   if (noutputs == 0)
667     vol = 1;
668
669   if (! check_operand_nalternatives (outputs, inputs))
670     return;
671
672   string = resolve_asm_operand_names (string, outputs, inputs);
673
674   /* Collect constraints.  */
675   i = 0;
676   for (t = outputs; t ; t = TREE_CHAIN (t), i++)
677     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
678   for (t = inputs; t ; t = TREE_CHAIN (t), i++)
679     constraints[i] = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
680
681   /* Sometimes we wish to automatically clobber registers across an asm.
682      Case in point is when the i386 backend moved from cc0 to a hard reg --
683      maintaining source-level compatibility means automatically clobbering
684      the flags register.  */
685   clobbers = targetm.md_asm_clobbers (clobbers);
686
687   /* Count the number of meaningful clobbered registers, ignoring what
688      we would ignore later.  */
689   nclobbers = 0;
690   CLEAR_HARD_REG_SET (clobbered_regs);
691   for (tail = clobbers; tail; tail = TREE_CHAIN (tail))
692     {
693       const char *regname = TREE_STRING_POINTER (TREE_VALUE (tail));
694
695       i = decode_reg_name (regname);
696       if (i >= 0 || i == -4)
697         ++nclobbers;
698       else if (i == -2)
699         error ("unknown register name `%s' in `asm'", regname);
700
701       /* Mark clobbered registers.  */
702       if (i >= 0)
703         {
704           /* Clobbering the PIC register is an error */
705           if (i == (int) PIC_OFFSET_TABLE_REGNUM)
706             {
707               error ("PIC register `%s' clobbered in `asm'", regname);
708               return;
709             }
710
711           SET_HARD_REG_BIT (clobbered_regs, i);
712         }
713     }
714
715   /* First pass over inputs and outputs checks validity and sets
716      mark_addressable if needed.  */
717
718   ninout = 0;
719   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
720     {
721       tree val = TREE_VALUE (tail);
722       tree type = TREE_TYPE (val);
723       const char *constraint;
724       bool is_inout;
725       bool allows_reg;
726       bool allows_mem;
727
728       /* If there's an erroneous arg, emit no insn.  */
729       if (type == error_mark_node)
730         return;
731
732       /* Try to parse the output constraint.  If that fails, there's
733          no point in going further.  */
734       constraint = constraints[i];
735       if (!parse_output_constraint (&constraint, i, ninputs, noutputs,
736                                     &allows_mem, &allows_reg, &is_inout))
737         return;
738
739       if (! allows_reg
740           && (allows_mem
741               || is_inout
742               || (DECL_P (val)
743                   && REG_P (DECL_RTL (val))
744                   && GET_MODE (DECL_RTL (val)) != TYPE_MODE (type))))
745         lang_hooks.mark_addressable (val);
746
747       if (is_inout)
748         ninout++;
749     }
750
751   ninputs += ninout;
752   if (ninputs + noutputs > MAX_RECOG_OPERANDS)
753     {
754       error ("more than %d operands in `asm'", MAX_RECOG_OPERANDS);
755       return;
756     }
757
758   for (i = 0, tail = inputs; tail; i++, tail = TREE_CHAIN (tail))
759     {
760       bool allows_reg, allows_mem;
761       const char *constraint;
762
763       /* If there's an erroneous arg, emit no insn, because the ASM_INPUT
764          would get VOIDmode and that could cause a crash in reload.  */
765       if (TREE_TYPE (TREE_VALUE (tail)) == error_mark_node)
766         return;
767
768       constraint = constraints[i + noutputs];
769       if (! parse_input_constraint (&constraint, i, ninputs, noutputs, ninout,
770                                     constraints, &allows_mem, &allows_reg))
771         return;
772
773       if (! allows_reg && allows_mem)
774         lang_hooks.mark_addressable (TREE_VALUE (tail));
775     }
776
777   /* Second pass evaluates arguments.  */
778
779   ninout = 0;
780   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
781     {
782       tree val = TREE_VALUE (tail);
783       tree type = TREE_TYPE (val);
784       bool is_inout;
785       bool allows_reg;
786       bool allows_mem;
787       rtx op;
788
789       if (!parse_output_constraint (&constraints[i], i, ninputs,
790                                     noutputs, &allows_mem, &allows_reg,
791                                     &is_inout))
792         abort ();
793
794       /* If an output operand is not a decl or indirect ref and our constraint
795          allows a register, make a temporary to act as an intermediate.
796          Make the asm insn write into that, then our caller will copy it to
797          the real output operand.  Likewise for promoted variables.  */
798
799       generating_concat_p = 0;
800
801       real_output_rtx[i] = NULL_RTX;
802       if ((TREE_CODE (val) == INDIRECT_REF
803            && allows_mem)
804           || (DECL_P (val)
805               && (allows_mem || REG_P (DECL_RTL (val)))
806               && ! (REG_P (DECL_RTL (val))
807                     && GET_MODE (DECL_RTL (val)) != TYPE_MODE (type)))
808           || ! allows_reg
809           || is_inout)
810         {
811           op = expand_expr (val, NULL_RTX, VOIDmode, EXPAND_WRITE);
812           if (MEM_P (op))
813             op = validize_mem (op);
814
815           if (! allows_reg && !MEM_P (op))
816             error ("output number %d not directly addressable", i);
817           if ((! allows_mem && MEM_P (op))
818               || GET_CODE (op) == CONCAT)
819             {
820               real_output_rtx[i] = op;
821               op = gen_reg_rtx (GET_MODE (op));
822               if (is_inout)
823                 emit_move_insn (op, real_output_rtx[i]);
824             }
825         }
826       else
827         {
828           op = assign_temp (type, 0, 0, 1);
829           op = validize_mem (op);
830           TREE_VALUE (tail) = make_tree (type, op);
831         }
832       output_rtx[i] = op;
833
834       generating_concat_p = old_generating_concat_p;
835
836       if (is_inout)
837         {
838           inout_mode[ninout] = TYPE_MODE (type);
839           inout_opnum[ninout++] = i;
840         }
841
842       if (decl_conflicts_with_clobbers_p (val, clobbered_regs))
843         clobber_conflict_found = 1;
844     }
845
846   /* Make vectors for the expression-rtx, constraint strings,
847      and named operands.  */
848
849   argvec = rtvec_alloc (ninputs);
850   constraintvec = rtvec_alloc (ninputs);
851
852   body = gen_rtx_ASM_OPERANDS ((noutputs == 0 ? VOIDmode
853                                 : GET_MODE (output_rtx[0])),
854                                TREE_STRING_POINTER (string),
855                                empty_string, 0, argvec, constraintvec,
856                                locus);
857
858   MEM_VOLATILE_P (body) = vol;
859
860   /* Eval the inputs and put them into ARGVEC.
861      Put their constraints into ASM_INPUTs and store in CONSTRAINTS.  */
862
863   for (i = 0, tail = inputs; tail; tail = TREE_CHAIN (tail), ++i)
864     {
865       bool allows_reg, allows_mem;
866       const char *constraint;
867       tree val, type;
868       rtx op;
869
870       constraint = constraints[i + noutputs];
871       if (! parse_input_constraint (&constraint, i, ninputs, noutputs, ninout,
872                                     constraints, &allows_mem, &allows_reg))
873         abort ();
874
875       generating_concat_p = 0;
876
877       val = TREE_VALUE (tail);
878       type = TREE_TYPE (val);
879       op = expand_expr (val, NULL_RTX, VOIDmode,
880                         (allows_mem && !allows_reg
881                          ? EXPAND_MEMORY : EXPAND_NORMAL));
882
883       /* Never pass a CONCAT to an ASM.  */
884       if (GET_CODE (op) == CONCAT)
885         op = force_reg (GET_MODE (op), op);
886       else if (MEM_P (op))
887         op = validize_mem (op);
888
889       if (asm_operand_ok (op, constraint) <= 0)
890         {
891           if (allows_reg)
892             op = force_reg (TYPE_MODE (type), op);
893           else if (!allows_mem)
894             warning ("asm operand %d probably doesn't match constraints",
895                      i + noutputs);
896           else if (MEM_P (op))
897             {
898               /* We won't recognize either volatile memory or memory
899                  with a queued address as available a memory_operand
900                  at this point.  Ignore it: clearly this *is* a memory.  */
901             }
902           else
903             {
904               warning ("use of memory input without lvalue in "
905                        "asm operand %d is deprecated", i + noutputs);
906
907               if (CONSTANT_P (op))
908                 {
909                   rtx mem = force_const_mem (TYPE_MODE (type), op);
910                   if (mem)
911                     op = validize_mem (mem);
912                   else
913                     op = force_reg (TYPE_MODE (type), op);
914                 }
915               if (REG_P (op)
916                   || GET_CODE (op) == SUBREG
917                   || GET_CODE (op) == CONCAT)
918                 {
919                   tree qual_type = build_qualified_type (type,
920                                                          (TYPE_QUALS (type)
921                                                           | TYPE_QUAL_CONST));
922                   rtx memloc = assign_temp (qual_type, 1, 1, 1);
923                   memloc = validize_mem (memloc);
924                   emit_move_insn (memloc, op);
925                   op = memloc;
926                 }
927             }
928         }
929
930       generating_concat_p = old_generating_concat_p;
931       ASM_OPERANDS_INPUT (body, i) = op;
932
933       ASM_OPERANDS_INPUT_CONSTRAINT_EXP (body, i)
934         = gen_rtx_ASM_INPUT (TYPE_MODE (type), constraints[i + noutputs]);
935
936       if (decl_conflicts_with_clobbers_p (val, clobbered_regs))
937         clobber_conflict_found = 1;
938     }
939
940   /* Protect all the operands from the queue now that they have all been
941      evaluated.  */
942
943   generating_concat_p = 0;
944
945   /* For in-out operands, copy output rtx to input rtx.  */
946   for (i = 0; i < ninout; i++)
947     {
948       int j = inout_opnum[i];
949       char buffer[16];
950
951       ASM_OPERANDS_INPUT (body, ninputs - ninout + i)
952         = output_rtx[j];
953
954       sprintf (buffer, "%d", j);
955       ASM_OPERANDS_INPUT_CONSTRAINT_EXP (body, ninputs - ninout + i)
956         = gen_rtx_ASM_INPUT (inout_mode[i], ggc_strdup (buffer));
957     }
958
959   generating_concat_p = old_generating_concat_p;
960
961   /* Now, for each output, construct an rtx
962      (set OUTPUT (asm_operands INSN OUTPUTCONSTRAINT OUTPUTNUMBER
963                                ARGVEC CONSTRAINTS OPNAMES))
964      If there is more than one, put them inside a PARALLEL.  */
965
966   if (noutputs == 1 && nclobbers == 0)
967     {
968       ASM_OPERANDS_OUTPUT_CONSTRAINT (body) = constraints[0];
969       emit_insn (gen_rtx_SET (VOIDmode, output_rtx[0], body));
970     }
971
972   else if (noutputs == 0 && nclobbers == 0)
973     {
974       /* No output operands: put in a raw ASM_OPERANDS rtx.  */
975       emit_insn (body);
976     }
977
978   else
979     {
980       rtx obody = body;
981       int num = noutputs;
982
983       if (num == 0)
984         num = 1;
985
986       body = gen_rtx_PARALLEL (VOIDmode, rtvec_alloc (num + nclobbers));
987
988       /* For each output operand, store a SET.  */
989       for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
990         {
991           XVECEXP (body, 0, i)
992             = gen_rtx_SET (VOIDmode,
993                            output_rtx[i],
994                            gen_rtx_ASM_OPERANDS
995                            (GET_MODE (output_rtx[i]),
996                             TREE_STRING_POINTER (string),
997                             constraints[i], i, argvec, constraintvec,
998                             locus));
999
1000           MEM_VOLATILE_P (SET_SRC (XVECEXP (body, 0, i))) = vol;
1001         }
1002
1003       /* If there are no outputs (but there are some clobbers)
1004          store the bare ASM_OPERANDS into the PARALLEL.  */
1005
1006       if (i == 0)
1007         XVECEXP (body, 0, i++) = obody;
1008
1009       /* Store (clobber REG) for each clobbered register specified.  */
1010
1011       for (tail = clobbers; tail; tail = TREE_CHAIN (tail))
1012         {
1013           const char *regname = TREE_STRING_POINTER (TREE_VALUE (tail));
1014           int j = decode_reg_name (regname);
1015           rtx clobbered_reg;
1016
1017           if (j < 0)
1018             {
1019               if (j == -3)      /* `cc', which is not a register */
1020                 continue;
1021
1022               if (j == -4)      /* `memory', don't cache memory across asm */
1023                 {
1024                   XVECEXP (body, 0, i++)
1025                     = gen_rtx_CLOBBER (VOIDmode,
1026                                        gen_rtx_MEM
1027                                        (BLKmode,
1028                                         gen_rtx_SCRATCH (VOIDmode)));
1029                   continue;
1030                 }
1031
1032               /* Ignore unknown register, error already signaled.  */
1033               continue;
1034             }
1035
1036           /* Use QImode since that's guaranteed to clobber just one reg.  */
1037           clobbered_reg = gen_rtx_REG (QImode, j);
1038
1039           /* Do sanity check for overlap between clobbers and respectively
1040              input and outputs that hasn't been handled.  Such overlap
1041              should have been detected and reported above.  */
1042           if (!clobber_conflict_found)
1043             {
1044               int opno;
1045
1046               /* We test the old body (obody) contents to avoid tripping
1047                  over the under-construction body.  */
1048               for (opno = 0; opno < noutputs; opno++)
1049                 if (reg_overlap_mentioned_p (clobbered_reg, output_rtx[opno]))
1050                   internal_error ("asm clobber conflict with output operand");
1051
1052               for (opno = 0; opno < ninputs - ninout; opno++)
1053                 if (reg_overlap_mentioned_p (clobbered_reg,
1054                                              ASM_OPERANDS_INPUT (obody, opno)))
1055                   internal_error ("asm clobber conflict with input operand");
1056             }
1057
1058           XVECEXP (body, 0, i++)
1059             = gen_rtx_CLOBBER (VOIDmode, clobbered_reg);
1060         }
1061
1062       emit_insn (body);
1063     }
1064
1065   /* For any outputs that needed reloading into registers, spill them
1066      back to where they belong.  */
1067   for (i = 0; i < noutputs; ++i)
1068     if (real_output_rtx[i])
1069       emit_move_insn (real_output_rtx[i], output_rtx[i]);
1070
1071   free_temp_slots ();
1072 }
1073
1074 void
1075 expand_asm_expr (tree exp)
1076 {
1077   int noutputs, i;
1078   tree outputs, tail;
1079   tree *o;
1080
1081   if (ASM_INPUT_P (exp))
1082     {
1083       expand_asm (ASM_STRING (exp), ASM_VOLATILE_P (exp));
1084       return;
1085     }
1086
1087   outputs = ASM_OUTPUTS (exp);
1088   noutputs = list_length (outputs);
1089   /* o[I] is the place that output number I should be written.  */
1090   o = (tree *) alloca (noutputs * sizeof (tree));
1091
1092   /* Record the contents of OUTPUTS before it is modified.  */
1093   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
1094     o[i] = TREE_VALUE (tail);
1095
1096   /* Generate the ASM_OPERANDS insn; store into the TREE_VALUEs of
1097      OUTPUTS some trees for where the values were actually stored.  */
1098   expand_asm_operands (ASM_STRING (exp), outputs, ASM_INPUTS (exp),
1099                        ASM_CLOBBERS (exp), ASM_VOLATILE_P (exp),
1100                        input_location);
1101
1102   /* Copy all the intermediate outputs into the specified outputs.  */
1103   for (i = 0, tail = outputs; tail; tail = TREE_CHAIN (tail), i++)
1104     {
1105       if (o[i] != TREE_VALUE (tail))
1106         {
1107           expand_assignment (o[i], TREE_VALUE (tail), 0);
1108           free_temp_slots ();
1109
1110           /* Restore the original value so that it's correct the next
1111              time we expand this function.  */
1112           TREE_VALUE (tail) = o[i];
1113         }
1114     }
1115 }
1116
1117 /* A subroutine of expand_asm_operands.  Check that all operands have
1118    the same number of alternatives.  Return true if so.  */
1119
1120 static bool
1121 check_operand_nalternatives (tree outputs, tree inputs)
1122 {
1123   if (outputs || inputs)
1124     {
1125       tree tmp = TREE_PURPOSE (outputs ? outputs : inputs);
1126       int nalternatives
1127         = n_occurrences (',', TREE_STRING_POINTER (TREE_VALUE (tmp)));
1128       tree next = inputs;
1129
1130       if (nalternatives + 1 > MAX_RECOG_ALTERNATIVES)
1131         {
1132           error ("too many alternatives in `asm'");
1133           return false;
1134         }
1135
1136       tmp = outputs;
1137       while (tmp)
1138         {
1139           const char *constraint
1140             = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (tmp)));
1141
1142           if (n_occurrences (',', constraint) != nalternatives)
1143             {
1144               error ("operand constraints for `asm' differ in number of alternatives");
1145               return false;
1146             }
1147
1148           if (TREE_CHAIN (tmp))
1149             tmp = TREE_CHAIN (tmp);
1150           else
1151             tmp = next, next = 0;
1152         }
1153     }
1154
1155   return true;
1156 }
1157
1158 /* A subroutine of expand_asm_operands.  Check that all operand names
1159    are unique.  Return true if so.  We rely on the fact that these names
1160    are identifiers, and so have been canonicalized by get_identifier,
1161    so all we need are pointer comparisons.  */
1162
1163 static bool
1164 check_unique_operand_names (tree outputs, tree inputs)
1165 {
1166   tree i, j;
1167
1168   for (i = outputs; i ; i = TREE_CHAIN (i))
1169     {
1170       tree i_name = TREE_PURPOSE (TREE_PURPOSE (i));
1171       if (! i_name)
1172         continue;
1173
1174       for (j = TREE_CHAIN (i); j ; j = TREE_CHAIN (j))
1175         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1176           goto failure;
1177     }
1178
1179   for (i = inputs; i ; i = TREE_CHAIN (i))
1180     {
1181       tree i_name = TREE_PURPOSE (TREE_PURPOSE (i));
1182       if (! i_name)
1183         continue;
1184
1185       for (j = TREE_CHAIN (i); j ; j = TREE_CHAIN (j))
1186         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1187           goto failure;
1188       for (j = outputs; j ; j = TREE_CHAIN (j))
1189         if (simple_cst_equal (i_name, TREE_PURPOSE (TREE_PURPOSE (j))))
1190           goto failure;
1191     }
1192
1193   return true;
1194
1195  failure:
1196   error ("duplicate asm operand name '%s'",
1197          TREE_STRING_POINTER (TREE_PURPOSE (TREE_PURPOSE (i))));
1198   return false;
1199 }
1200
1201 /* A subroutine of expand_asm_operands.  Resolve the names of the operands
1202    in *POUTPUTS and *PINPUTS to numbers, and replace the name expansions in
1203    STRING and in the constraints to those numbers.  */
1204
1205 tree
1206 resolve_asm_operand_names (tree string, tree outputs, tree inputs)
1207 {
1208   char *buffer;
1209   char *p;
1210   const char *c;
1211   tree t;
1212
1213   check_unique_operand_names (outputs, inputs);
1214
1215   /* Substitute [<name>] in input constraint strings.  There should be no
1216      named operands in output constraints.  */
1217   for (t = inputs; t ; t = TREE_CHAIN (t))
1218     {
1219       c = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (t)));
1220       if (strchr (c, '[') != NULL)
1221         {
1222           p = buffer = xstrdup (c);
1223           while ((p = strchr (p, '[')) != NULL)
1224             p = resolve_operand_name_1 (p, outputs, inputs);
1225           TREE_VALUE (TREE_PURPOSE (t))
1226             = build_string (strlen (buffer), buffer);
1227           free (buffer);
1228         }
1229     }
1230
1231   /* Now check for any needed substitutions in the template.  */
1232   c = TREE_STRING_POINTER (string);
1233   while ((c = strchr (c, '%')) != NULL)
1234     {
1235       if (c[1] == '[')
1236         break;
1237       else if (ISALPHA (c[1]) && c[2] == '[')
1238         break;
1239       else
1240         {
1241           c += 1;
1242           continue;
1243         }
1244     }
1245
1246   if (c)
1247     {
1248       /* OK, we need to make a copy so we can perform the substitutions.
1249          Assume that we will not need extra space--we get to remove '['
1250          and ']', which means we cannot have a problem until we have more
1251          than 999 operands.  */
1252       buffer = xstrdup (TREE_STRING_POINTER (string));
1253       p = buffer + (c - TREE_STRING_POINTER (string));
1254
1255       while ((p = strchr (p, '%')) != NULL)
1256         {
1257           if (p[1] == '[')
1258             p += 1;
1259           else if (ISALPHA (p[1]) && p[2] == '[')
1260             p += 2;
1261           else
1262             {
1263               p += 1;
1264               continue;
1265             }
1266
1267           p = resolve_operand_name_1 (p, outputs, inputs);
1268         }
1269
1270       string = build_string (strlen (buffer), buffer);
1271       free (buffer);
1272     }
1273
1274   return string;
1275 }
1276
1277 /* A subroutine of resolve_operand_names.  P points to the '[' for a
1278    potential named operand of the form [<name>].  In place, replace
1279    the name and brackets with a number.  Return a pointer to the
1280    balance of the string after substitution.  */
1281
1282 static char *
1283 resolve_operand_name_1 (char *p, tree outputs, tree inputs)
1284 {
1285   char *q;
1286   int op;
1287   tree t;
1288   size_t len;
1289
1290   /* Collect the operand name.  */
1291   q = strchr (p, ']');
1292   if (!q)
1293     {
1294       error ("missing close brace for named operand");
1295       return strchr (p, '\0');
1296     }
1297   len = q - p - 1;
1298
1299   /* Resolve the name to a number.  */
1300   for (op = 0, t = outputs; t ; t = TREE_CHAIN (t), op++)
1301     {
1302       tree name = TREE_PURPOSE (TREE_PURPOSE (t));
1303       if (name)
1304         {
1305           const char *c = TREE_STRING_POINTER (name);
1306           if (strncmp (c, p + 1, len) == 0 && c[len] == '\0')
1307             goto found;
1308         }
1309     }
1310   for (t = inputs; t ; t = TREE_CHAIN (t), op++)
1311     {
1312       tree name = TREE_PURPOSE (TREE_PURPOSE (t));
1313       if (name)
1314         {
1315           const char *c = TREE_STRING_POINTER (name);
1316           if (strncmp (c, p + 1, len) == 0 && c[len] == '\0')
1317             goto found;
1318         }
1319     }
1320
1321   *q = '\0';
1322   error ("undefined named operand '%s'", p + 1);
1323   op = 0;
1324  found:
1325
1326   /* Replace the name with the number.  Unfortunately, not all libraries
1327      get the return value of sprintf correct, so search for the end of the
1328      generated string by hand.  */
1329   sprintf (p, "%d", op);
1330   p = strchr (p, '\0');
1331
1332   /* Verify the no extra buffer space assumption.  */
1333   if (p > q)
1334     abort ();
1335
1336   /* Shift the rest of the buffer down to fill the gap.  */
1337   memmove (p, q + 1, strlen (q + 1) + 1);
1338
1339   return p;
1340 }
1341 \f
1342 /* Generate RTL to evaluate the expression EXP.  */
1343
1344 void
1345 expand_expr_stmt (tree exp)
1346 {
1347   rtx value;
1348   tree type;
1349
1350   value = expand_expr (exp, const0_rtx, VOIDmode, 0);
1351   type = TREE_TYPE (exp);
1352
1353   /* If all we do is reference a volatile value in memory,
1354      copy it to a register to be sure it is actually touched.  */
1355   if (value && MEM_P (value) && TREE_THIS_VOLATILE (exp))
1356     {
1357       if (TYPE_MODE (type) == VOIDmode)
1358         ;
1359       else if (TYPE_MODE (type) != BLKmode)
1360         value = copy_to_reg (value);
1361       else
1362         {
1363           rtx lab = gen_label_rtx ();
1364
1365           /* Compare the value with itself to reference it.  */
1366           emit_cmp_and_jump_insns (value, value, EQ,
1367                                    expand_expr (TYPE_SIZE (type),
1368                                                 NULL_RTX, VOIDmode, 0),
1369                                    BLKmode, 0, lab);
1370           emit_label (lab);
1371         }
1372     }
1373
1374   /* Free any temporaries used to evaluate this expression.  */
1375   free_temp_slots ();
1376 }
1377
1378 /* Warn if EXP contains any computations whose results are not used.
1379    Return 1 if a warning is printed; 0 otherwise.  LOCUS is the
1380    (potential) location of the expression.  */
1381
1382 int
1383 warn_if_unused_value (tree exp, location_t locus)
1384 {
1385  restart:
1386   if (TREE_USED (exp))
1387     return 0;
1388
1389   /* Don't warn about void constructs.  This includes casting to void,
1390      void function calls, and statement expressions with a final cast
1391      to void.  */
1392   if (VOID_TYPE_P (TREE_TYPE (exp)))
1393     return 0;
1394
1395   if (EXPR_HAS_LOCATION (exp))
1396     locus = EXPR_LOCATION (exp);
1397
1398   switch (TREE_CODE (exp))
1399     {
1400     case PREINCREMENT_EXPR:
1401     case POSTINCREMENT_EXPR:
1402     case PREDECREMENT_EXPR:
1403     case POSTDECREMENT_EXPR:
1404     case MODIFY_EXPR:
1405     case INIT_EXPR:
1406     case TARGET_EXPR:
1407     case CALL_EXPR:
1408     case TRY_CATCH_EXPR:
1409     case WITH_CLEANUP_EXPR:
1410     case EXIT_EXPR:
1411       return 0;
1412
1413     case BIND_EXPR:
1414       /* For a binding, warn if no side effect within it.  */
1415       exp = BIND_EXPR_BODY (exp);
1416       goto restart;
1417
1418     case SAVE_EXPR:
1419       exp = TREE_OPERAND (exp, 0);
1420       goto restart;
1421
1422     case TRUTH_ORIF_EXPR:
1423     case TRUTH_ANDIF_EXPR:
1424       /* In && or ||, warn if 2nd operand has no side effect.  */
1425       exp = TREE_OPERAND (exp, 1);
1426       goto restart;
1427
1428     case COMPOUND_EXPR:
1429       if (TREE_NO_WARNING (exp))
1430         return 0;
1431       if (warn_if_unused_value (TREE_OPERAND (exp, 0), locus))
1432         return 1;
1433       /* Let people do `(foo (), 0)' without a warning.  */
1434       if (TREE_CONSTANT (TREE_OPERAND (exp, 1)))
1435         return 0;
1436       exp = TREE_OPERAND (exp, 1);
1437       goto restart;
1438
1439     case NOP_EXPR:
1440     case CONVERT_EXPR:
1441     case NON_LVALUE_EXPR:
1442       /* Don't warn about conversions not explicit in the user's program.  */
1443       if (TREE_NO_WARNING (exp))
1444         return 0;
1445       /* Assignment to a cast usually results in a cast of a modify.
1446          Don't complain about that.  There can be an arbitrary number of
1447          casts before the modify, so we must loop until we find the first
1448          non-cast expression and then test to see if that is a modify.  */
1449       {
1450         tree tem = TREE_OPERAND (exp, 0);
1451
1452         while (TREE_CODE (tem) == CONVERT_EXPR || TREE_CODE (tem) == NOP_EXPR)
1453           tem = TREE_OPERAND (tem, 0);
1454
1455         if (TREE_CODE (tem) == MODIFY_EXPR || TREE_CODE (tem) == INIT_EXPR
1456             || TREE_CODE (tem) == CALL_EXPR)
1457           return 0;
1458       }
1459       goto maybe_warn;
1460
1461     case INDIRECT_REF:
1462       /* Don't warn about automatic dereferencing of references, since
1463          the user cannot control it.  */
1464       if (TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == REFERENCE_TYPE)
1465         {
1466           exp = TREE_OPERAND (exp, 0);
1467           goto restart;
1468         }
1469       /* Fall through.  */
1470
1471     default:
1472       /* Referencing a volatile value is a side effect, so don't warn.  */
1473       if ((DECL_P (exp)
1474            || TREE_CODE_CLASS (TREE_CODE (exp)) == 'r')
1475           && TREE_THIS_VOLATILE (exp))
1476         return 0;
1477
1478       /* If this is an expression which has no operands, there is no value
1479          to be unused.  There are no such language-independent codes,
1480          but front ends may define such.  */
1481       if (TREE_CODE_CLASS (TREE_CODE (exp)) == 'e'
1482           && TREE_CODE_LENGTH (TREE_CODE (exp)) == 0)
1483         return 0;
1484
1485     maybe_warn:
1486       /* If this is an expression with side effects, don't warn.  */
1487       if (TREE_SIDE_EFFECTS (exp))
1488         return 0;
1489
1490       warning ("%Hvalue computed is not used", &locus);
1491       return 1;
1492     }
1493 }
1494
1495 \f
1496 /* Generate RTL to return from the current function, with no value.
1497    (That is, we do not do anything about returning any value.)  */
1498
1499 void
1500 expand_null_return (void)
1501 {
1502   /* If this function was declared to return a value, but we
1503      didn't, clobber the return registers so that they are not
1504      propagated live to the rest of the function.  */
1505   clobber_return_register ();
1506
1507   expand_null_return_1 ();
1508 }
1509
1510 /* Generate RTL to return directly from the current function.
1511    (That is, we bypass any return value.)  */
1512
1513 void
1514 expand_naked_return (void)
1515 {
1516   rtx end_label;
1517
1518   clear_pending_stack_adjust ();
1519   do_pending_stack_adjust ();
1520
1521   end_label = naked_return_label;
1522   if (end_label == 0)
1523     end_label = naked_return_label = gen_label_rtx ();
1524
1525   emit_jump (end_label);
1526 }
1527
1528 /* If the current function returns values in the most significant part
1529    of a register, shift return value VAL appropriately.  The mode of
1530    the function's return type is known not to be BLKmode.  */
1531
1532 static rtx
1533 shift_return_value (rtx val)
1534 {
1535   tree type;
1536
1537   type = TREE_TYPE (DECL_RESULT (current_function_decl));
1538   if (targetm.calls.return_in_msb (type))
1539     {
1540       rtx target;
1541       HOST_WIDE_INT shift;
1542
1543       target = DECL_RTL (DECL_RESULT (current_function_decl));
1544       shift = (GET_MODE_BITSIZE (GET_MODE (target))
1545                - BITS_PER_UNIT * int_size_in_bytes (type));
1546       if (shift > 0)
1547         val = expand_shift (LSHIFT_EXPR, GET_MODE (target),
1548                             gen_lowpart (GET_MODE (target), val),
1549                             build_int_cst (NULL_TREE, shift, 0), target, 1);
1550     }
1551   return val;
1552 }
1553
1554
1555 /* Generate RTL to return from the current function, with value VAL.  */
1556
1557 static void
1558 expand_value_return (rtx val)
1559 {
1560   /* Copy the value to the return location
1561      unless it's already there.  */
1562
1563   rtx return_reg = DECL_RTL (DECL_RESULT (current_function_decl));
1564   if (return_reg != val)
1565     {
1566       tree type = TREE_TYPE (DECL_RESULT (current_function_decl));
1567       if (targetm.calls.promote_function_return (TREE_TYPE (current_function_decl)))
1568       {
1569         int unsignedp = TYPE_UNSIGNED (type);
1570         enum machine_mode old_mode
1571           = DECL_MODE (DECL_RESULT (current_function_decl));
1572         enum machine_mode mode
1573           = promote_mode (type, old_mode, &unsignedp, 1);
1574
1575         if (mode != old_mode)
1576           val = convert_modes (mode, old_mode, val, unsignedp);
1577       }
1578       if (GET_CODE (return_reg) == PARALLEL)
1579         emit_group_load (return_reg, val, type, int_size_in_bytes (type));
1580       else
1581         emit_move_insn (return_reg, val);
1582     }
1583
1584   expand_null_return_1 ();
1585 }
1586
1587 /* Output a return with no value.  */
1588
1589 static void
1590 expand_null_return_1 (void)
1591 {
1592   rtx end_label;
1593
1594   clear_pending_stack_adjust ();
1595   do_pending_stack_adjust ();
1596
1597   end_label = return_label;
1598   if (end_label == 0)
1599      end_label = return_label = gen_label_rtx ();
1600   emit_jump (end_label);
1601 }
1602 \f
1603 /* Generate RTL to evaluate the expression RETVAL and return it
1604    from the current function.  */
1605
1606 void
1607 expand_return (tree retval)
1608 {
1609   rtx result_rtl;
1610   rtx val = 0;
1611   tree retval_rhs;
1612
1613   /* If function wants no value, give it none.  */
1614   if (TREE_CODE (TREE_TYPE (TREE_TYPE (current_function_decl))) == VOID_TYPE)
1615     {
1616       expand_expr (retval, NULL_RTX, VOIDmode, 0);
1617       expand_null_return ();
1618       return;
1619     }
1620
1621   if (retval == error_mark_node)
1622     {
1623       /* Treat this like a return of no value from a function that
1624          returns a value.  */
1625       expand_null_return ();
1626       return;
1627     }
1628   else if ((TREE_CODE (retval) == MODIFY_EXPR
1629             || TREE_CODE (retval) == INIT_EXPR)
1630            && TREE_CODE (TREE_OPERAND (retval, 0)) == RESULT_DECL)
1631     retval_rhs = TREE_OPERAND (retval, 1);
1632   else
1633     retval_rhs = retval;
1634
1635   result_rtl = DECL_RTL (DECL_RESULT (current_function_decl));
1636
1637   /* If we are returning the RESULT_DECL, then the value has already
1638      been stored into it, so we don't have to do anything special.  */
1639   if (TREE_CODE (retval_rhs) == RESULT_DECL)
1640     expand_value_return (result_rtl);
1641
1642   /* If the result is an aggregate that is being returned in one (or more)
1643      registers, load the registers here.  The compiler currently can't handle
1644      copying a BLKmode value into registers.  We could put this code in a
1645      more general area (for use by everyone instead of just function
1646      call/return), but until this feature is generally usable it is kept here
1647      (and in expand_call).  */
1648
1649   else if (retval_rhs != 0
1650            && TYPE_MODE (TREE_TYPE (retval_rhs)) == BLKmode
1651            && REG_P (result_rtl))
1652     {
1653       int i;
1654       unsigned HOST_WIDE_INT bitpos, xbitpos;
1655       unsigned HOST_WIDE_INT padding_correction = 0;
1656       unsigned HOST_WIDE_INT bytes
1657         = int_size_in_bytes (TREE_TYPE (retval_rhs));
1658       int n_regs = (bytes + UNITS_PER_WORD - 1) / UNITS_PER_WORD;
1659       unsigned int bitsize
1660         = MIN (TYPE_ALIGN (TREE_TYPE (retval_rhs)), BITS_PER_WORD);
1661       rtx *result_pseudos = alloca (sizeof (rtx) * n_regs);
1662       rtx result_reg, src = NULL_RTX, dst = NULL_RTX;
1663       rtx result_val = expand_expr (retval_rhs, NULL_RTX, VOIDmode, 0);
1664       enum machine_mode tmpmode, result_reg_mode;
1665
1666       if (bytes == 0)
1667         {
1668           expand_null_return ();
1669           return;
1670         }
1671
1672       /* If the structure doesn't take up a whole number of words, see
1673          whether the register value should be padded on the left or on
1674          the right.  Set PADDING_CORRECTION to the number of padding
1675          bits needed on the left side.
1676
1677          In most ABIs, the structure will be returned at the least end of
1678          the register, which translates to right padding on little-endian
1679          targets and left padding on big-endian targets.  The opposite
1680          holds if the structure is returned at the most significant
1681          end of the register.  */
1682       if (bytes % UNITS_PER_WORD != 0
1683           && (targetm.calls.return_in_msb (TREE_TYPE (retval_rhs))
1684               ? !BYTES_BIG_ENDIAN
1685               : BYTES_BIG_ENDIAN))
1686         padding_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
1687                                                * BITS_PER_UNIT));
1688
1689       /* Copy the structure BITSIZE bits at a time.  */
1690       for (bitpos = 0, xbitpos = padding_correction;
1691            bitpos < bytes * BITS_PER_UNIT;
1692            bitpos += bitsize, xbitpos += bitsize)
1693         {
1694           /* We need a new destination pseudo each time xbitpos is
1695              on a word boundary and when xbitpos == padding_correction
1696              (the first time through).  */
1697           if (xbitpos % BITS_PER_WORD == 0
1698               || xbitpos == padding_correction)
1699             {
1700               /* Generate an appropriate register.  */
1701               dst = gen_reg_rtx (word_mode);
1702               result_pseudos[xbitpos / BITS_PER_WORD] = dst;
1703
1704               /* Clear the destination before we move anything into it.  */
1705               emit_move_insn (dst, CONST0_RTX (GET_MODE (dst)));
1706             }
1707
1708           /* We need a new source operand each time bitpos is on a word
1709              boundary.  */
1710           if (bitpos % BITS_PER_WORD == 0)
1711             src = operand_subword_force (result_val,
1712                                          bitpos / BITS_PER_WORD,
1713                                          BLKmode);
1714
1715           /* Use bitpos for the source extraction (left justified) and
1716              xbitpos for the destination store (right justified).  */
1717           store_bit_field (dst, bitsize, xbitpos % BITS_PER_WORD, word_mode,
1718                            extract_bit_field (src, bitsize,
1719                                               bitpos % BITS_PER_WORD, 1,
1720                                               NULL_RTX, word_mode, word_mode));
1721         }
1722
1723       tmpmode = GET_MODE (result_rtl);
1724       if (tmpmode == BLKmode)
1725         {
1726           /* Find the smallest integer mode large enough to hold the
1727              entire structure and use that mode instead of BLKmode
1728              on the USE insn for the return register.  */
1729           for (tmpmode = GET_CLASS_NARROWEST_MODE (MODE_INT);
1730                tmpmode != VOIDmode;
1731                tmpmode = GET_MODE_WIDER_MODE (tmpmode))
1732             /* Have we found a large enough mode?  */
1733             if (GET_MODE_SIZE (tmpmode) >= bytes)
1734               break;
1735
1736           /* No suitable mode found.  */
1737           if (tmpmode == VOIDmode)
1738             abort ();
1739
1740           PUT_MODE (result_rtl, tmpmode);
1741         }
1742
1743       if (GET_MODE_SIZE (tmpmode) < GET_MODE_SIZE (word_mode))
1744         result_reg_mode = word_mode;
1745       else
1746         result_reg_mode = tmpmode;
1747       result_reg = gen_reg_rtx (result_reg_mode);
1748
1749       for (i = 0; i < n_regs; i++)
1750         emit_move_insn (operand_subword (result_reg, i, 0, result_reg_mode),
1751                         result_pseudos[i]);
1752
1753       if (tmpmode != result_reg_mode)
1754         result_reg = gen_lowpart (tmpmode, result_reg);
1755
1756       expand_value_return (result_reg);
1757     }
1758   else if (retval_rhs != 0
1759            && !VOID_TYPE_P (TREE_TYPE (retval_rhs))
1760            && (REG_P (result_rtl)
1761                || (GET_CODE (result_rtl) == PARALLEL)))
1762     {
1763       /* Calculate the return value into a temporary (usually a pseudo
1764          reg).  */
1765       tree ot = TREE_TYPE (DECL_RESULT (current_function_decl));
1766       tree nt = build_qualified_type (ot, TYPE_QUALS (ot) | TYPE_QUAL_CONST);
1767
1768       val = assign_temp (nt, 0, 0, 1);
1769       val = expand_expr (retval_rhs, val, GET_MODE (val), 0);
1770       val = force_not_mem (val);
1771       /* Return the calculated value.  */
1772       expand_value_return (shift_return_value (val));
1773     }
1774   else
1775     {
1776       /* No hard reg used; calculate value into hard return reg.  */
1777       expand_expr (retval, const0_rtx, VOIDmode, 0);
1778       expand_value_return (result_rtl);
1779     }
1780 }
1781 \f
1782 /* Given a pointer to a BLOCK node return nonzero if (and only if) the node
1783    in question represents the outermost pair of curly braces (i.e. the "body
1784    block") of a function or method.
1785
1786    For any BLOCK node representing a "body block" of a function or method, the
1787    BLOCK_SUPERCONTEXT of the node will point to another BLOCK node which
1788    represents the outermost (function) scope for the function or method (i.e.
1789    the one which includes the formal parameters).  The BLOCK_SUPERCONTEXT of
1790    *that* node in turn will point to the relevant FUNCTION_DECL node.  */
1791
1792 int
1793 is_body_block (tree stmt)
1794 {
1795   if (lang_hooks.no_body_blocks)
1796     return 0;
1797
1798   if (TREE_CODE (stmt) == BLOCK)
1799     {
1800       tree parent = BLOCK_SUPERCONTEXT (stmt);
1801
1802       if (parent && TREE_CODE (parent) == BLOCK)
1803         {
1804           tree grandparent = BLOCK_SUPERCONTEXT (parent);
1805
1806           if (grandparent && TREE_CODE (grandparent) == FUNCTION_DECL)
1807             return 1;
1808         }
1809     }
1810
1811   return 0;
1812 }
1813
1814 /* Emit code to restore vital registers at the beginning of a nonlocal goto
1815    handler.  */
1816 static void
1817 expand_nl_goto_receiver (void)
1818 {
1819   /* Clobber the FP when we get here, so we have to make sure it's
1820      marked as used by this function.  */
1821   emit_insn (gen_rtx_USE (VOIDmode, hard_frame_pointer_rtx));
1822
1823   /* Mark the static chain as clobbered here so life information
1824      doesn't get messed up for it.  */
1825   emit_insn (gen_rtx_CLOBBER (VOIDmode, static_chain_rtx));
1826
1827 #ifdef HAVE_nonlocal_goto
1828   if (! HAVE_nonlocal_goto)
1829 #endif
1830     /* First adjust our frame pointer to its actual value.  It was
1831        previously set to the start of the virtual area corresponding to
1832        the stacked variables when we branched here and now needs to be
1833        adjusted to the actual hardware fp value.
1834
1835        Assignments are to virtual registers are converted by
1836        instantiate_virtual_regs into the corresponding assignment
1837        to the underlying register (fp in this case) that makes
1838        the original assignment true.
1839        So the following insn will actually be
1840        decrementing fp by STARTING_FRAME_OFFSET.  */
1841     emit_move_insn (virtual_stack_vars_rtx, hard_frame_pointer_rtx);
1842
1843 #if ARG_POINTER_REGNUM != HARD_FRAME_POINTER_REGNUM
1844   if (fixed_regs[ARG_POINTER_REGNUM])
1845     {
1846 #ifdef ELIMINABLE_REGS
1847       /* If the argument pointer can be eliminated in favor of the
1848          frame pointer, we don't need to restore it.  We assume here
1849          that if such an elimination is present, it can always be used.
1850          This is the case on all known machines; if we don't make this
1851          assumption, we do unnecessary saving on many machines.  */
1852       static const struct elims {const int from, to;} elim_regs[] = ELIMINABLE_REGS;
1853       size_t i;
1854
1855       for (i = 0; i < ARRAY_SIZE (elim_regs); i++)
1856         if (elim_regs[i].from == ARG_POINTER_REGNUM
1857             && elim_regs[i].to == HARD_FRAME_POINTER_REGNUM)
1858           break;
1859
1860       if (i == ARRAY_SIZE (elim_regs))
1861 #endif
1862         {
1863           /* Now restore our arg pointer from the address at which it
1864              was saved in our stack frame.  */
1865           emit_move_insn (virtual_incoming_args_rtx,
1866                           copy_to_reg (get_arg_pointer_save_area (cfun)));
1867         }
1868     }
1869 #endif
1870
1871 #ifdef HAVE_nonlocal_goto_receiver
1872   if (HAVE_nonlocal_goto_receiver)
1873     emit_insn (gen_nonlocal_goto_receiver ());
1874 #endif
1875
1876   /* @@@ This is a kludge.  Not all machine descriptions define a blockage
1877      insn, but we must not allow the code we just generated to be reordered
1878      by scheduling.  Specifically, the update of the frame pointer must
1879      happen immediately, not later.  So emit an ASM_INPUT to act as blockage
1880      insn.  */
1881   emit_insn (gen_rtx_ASM_INPUT (VOIDmode, ""));
1882 }
1883 \f
1884 /* Generate RTL for the automatic variable declaration DECL.
1885    (Other kinds of declarations are simply ignored if seen here.)  */
1886
1887 void
1888 expand_decl (tree decl)
1889 {
1890   tree type;
1891
1892   type = TREE_TYPE (decl);
1893
1894   /* For a CONST_DECL, set mode, alignment, and sizes from those of the
1895      type in case this node is used in a reference.  */
1896   if (TREE_CODE (decl) == CONST_DECL)
1897     {
1898       DECL_MODE (decl) = TYPE_MODE (type);
1899       DECL_ALIGN (decl) = TYPE_ALIGN (type);
1900       DECL_SIZE (decl) = TYPE_SIZE (type);
1901       DECL_SIZE_UNIT (decl) = TYPE_SIZE_UNIT (type);
1902       return;
1903     }
1904
1905   /* Otherwise, only automatic variables need any expansion done.  Static and
1906      external variables, and external functions, will be handled by
1907      `assemble_variable' (called from finish_decl).  TYPE_DECL requires
1908      nothing.  PARM_DECLs are handled in `assign_parms'.  */
1909   if (TREE_CODE (decl) != VAR_DECL)
1910     return;
1911
1912   if (TREE_STATIC (decl) || DECL_EXTERNAL (decl))
1913     return;
1914
1915   /* Create the RTL representation for the variable.  */
1916
1917   if (type == error_mark_node)
1918     SET_DECL_RTL (decl, gen_rtx_MEM (BLKmode, const0_rtx));
1919
1920   else if (DECL_SIZE (decl) == 0)
1921     /* Variable with incomplete type.  */
1922     {
1923       rtx x;
1924       if (DECL_INITIAL (decl) == 0)
1925         /* Error message was already done; now avoid a crash.  */
1926         x = gen_rtx_MEM (BLKmode, const0_rtx);
1927       else
1928         /* An initializer is going to decide the size of this array.
1929            Until we know the size, represent its address with a reg.  */
1930         x = gen_rtx_MEM (BLKmode, gen_reg_rtx (Pmode));
1931
1932       set_mem_attributes (x, decl, 1);
1933       SET_DECL_RTL (decl, x);
1934     }
1935   else if (use_register_for_decl (decl))
1936     {
1937       /* Automatic variable that can go in a register.  */
1938       int unsignedp = TYPE_UNSIGNED (type);
1939       enum machine_mode reg_mode
1940         = promote_mode (type, DECL_MODE (decl), &unsignedp, 0);
1941
1942       SET_DECL_RTL (decl, gen_reg_rtx (reg_mode));
1943
1944       /* Note if the object is a user variable.  */
1945       if (!DECL_ARTIFICIAL (decl))
1946         {
1947           mark_user_reg (DECL_RTL (decl));
1948
1949           /* Trust user variables which have a pointer type to really
1950              be pointers.  Do not trust compiler generated temporaries
1951              as our type system is totally busted as it relates to
1952              pointer arithmetic which translates into lots of compiler
1953              generated objects with pointer types, but which are not really
1954              pointers.  */
1955           if (POINTER_TYPE_P (type))
1956             mark_reg_pointer (DECL_RTL (decl),
1957                               TYPE_ALIGN (TREE_TYPE (TREE_TYPE (decl))));
1958         }
1959
1960       maybe_set_unchanging (DECL_RTL (decl), decl);
1961     }
1962
1963   else if (TREE_CODE (DECL_SIZE_UNIT (decl)) == INTEGER_CST
1964            && ! (flag_stack_check && ! STACK_CHECK_BUILTIN
1965                  && 0 < compare_tree_int (DECL_SIZE_UNIT (decl),
1966                                           STACK_CHECK_MAX_VAR_SIZE)))
1967     {
1968       /* Variable of fixed size that goes on the stack.  */
1969       rtx oldaddr = 0;
1970       rtx addr;
1971       rtx x;
1972
1973       /* If we previously made RTL for this decl, it must be an array
1974          whose size was determined by the initializer.
1975          The old address was a register; set that register now
1976          to the proper address.  */
1977       if (DECL_RTL_SET_P (decl))
1978         {
1979           if (!MEM_P (DECL_RTL (decl))
1980               || !REG_P (XEXP (DECL_RTL (decl), 0)))
1981             abort ();
1982           oldaddr = XEXP (DECL_RTL (decl), 0);
1983         }
1984
1985       /* Set alignment we actually gave this decl.  */
1986       DECL_ALIGN (decl) = (DECL_MODE (decl) == BLKmode ? BIGGEST_ALIGNMENT
1987                            : GET_MODE_BITSIZE (DECL_MODE (decl)));
1988       DECL_USER_ALIGN (decl) = 0;
1989
1990       x = assign_temp (decl, 1, 1, 1);
1991       set_mem_attributes (x, decl, 1);
1992       SET_DECL_RTL (decl, x);
1993
1994       if (oldaddr)
1995         {
1996           addr = force_operand (XEXP (DECL_RTL (decl), 0), oldaddr);
1997           if (addr != oldaddr)
1998             emit_move_insn (oldaddr, addr);
1999         }
2000     }
2001   else
2002     /* Dynamic-size object: must push space on the stack.  */
2003     {
2004       rtx address, size, x;
2005
2006       /* Record the stack pointer on entry to block, if have
2007          not already done so.  */
2008       do_pending_stack_adjust ();
2009
2010       /* Compute the variable's size, in bytes.  This will expand any
2011          needed SAVE_EXPRs for the first time.  */
2012       size = expand_expr (DECL_SIZE_UNIT (decl), NULL_RTX, VOIDmode, 0);
2013       free_temp_slots ();
2014
2015       /* Allocate space on the stack for the variable.  Note that
2016          DECL_ALIGN says how the variable is to be aligned and we
2017          cannot use it to conclude anything about the alignment of
2018          the size.  */
2019       address = allocate_dynamic_stack_space (size, NULL_RTX,
2020                                               TYPE_ALIGN (TREE_TYPE (decl)));
2021
2022       /* Reference the variable indirect through that rtx.  */
2023       x = gen_rtx_MEM (DECL_MODE (decl), address);
2024       set_mem_attributes (x, decl, 1);
2025       SET_DECL_RTL (decl, x);
2026
2027
2028       /* Indicate the alignment we actually gave this variable.  */
2029 #ifdef STACK_BOUNDARY
2030       DECL_ALIGN (decl) = STACK_BOUNDARY;
2031 #else
2032       DECL_ALIGN (decl) = BIGGEST_ALIGNMENT;
2033 #endif
2034       DECL_USER_ALIGN (decl) = 0;
2035     }
2036 }
2037 \f
2038 /* Emit code to save the current value of stack.  */
2039 rtx
2040 expand_stack_save (void)
2041 {
2042   rtx ret = NULL_RTX;
2043
2044   do_pending_stack_adjust ();
2045   emit_stack_save (SAVE_BLOCK, &ret, NULL_RTX);
2046   return ret;
2047 }
2048
2049 /* Emit code to restore the current value of stack.  */
2050 void
2051 expand_stack_restore (tree var)
2052 {
2053   rtx sa = DECL_RTL (var);
2054
2055   emit_stack_restore (SAVE_BLOCK, sa, NULL_RTX);
2056 }
2057 \f
2058 /* Emit code to perform the initialization of a declaration DECL.  */
2059
2060 void
2061 expand_decl_init (tree decl)
2062 {
2063   int was_used = TREE_USED (decl);
2064
2065   /* If this is a CONST_DECL, we don't have to generate any code.  Likewise
2066      for static decls.  */
2067   if (TREE_CODE (decl) == CONST_DECL
2068       || TREE_STATIC (decl))
2069     return;
2070
2071   /* Compute and store the initial value now.  */
2072
2073   push_temp_slots ();
2074
2075   if (DECL_INITIAL (decl) == error_mark_node)
2076     {
2077       enum tree_code code = TREE_CODE (TREE_TYPE (decl));
2078
2079       if (code == INTEGER_TYPE || code == REAL_TYPE || code == ENUMERAL_TYPE
2080           || code == POINTER_TYPE || code == REFERENCE_TYPE)
2081         expand_assignment (decl, convert (TREE_TYPE (decl), integer_zero_node),
2082                            0);
2083     }
2084   else if (DECL_INITIAL (decl) && TREE_CODE (DECL_INITIAL (decl)) != TREE_LIST)
2085     {
2086       emit_line_note (DECL_SOURCE_LOCATION (decl));
2087       expand_assignment (decl, DECL_INITIAL (decl), 0);
2088     }
2089
2090   /* Don't let the initialization count as "using" the variable.  */
2091   TREE_USED (decl) = was_used;
2092
2093   /* Free any temporaries we made while initializing the decl.  */
2094   preserve_temp_slots (NULL_RTX);
2095   free_temp_slots ();
2096   pop_temp_slots ();
2097 }
2098
2099 \f
2100 /* DECL is an anonymous union.  CLEANUP is a cleanup for DECL.
2101    DECL_ELTS is the list of elements that belong to DECL's type.
2102    In each, the TREE_VALUE is a VAR_DECL, and the TREE_PURPOSE a cleanup.  */
2103
2104 void
2105 expand_anon_union_decl (tree decl, tree cleanup ATTRIBUTE_UNUSED,
2106                         tree decl_elts)
2107 {
2108   rtx x;
2109   tree t;
2110
2111   /* If any of the elements are addressable, so is the entire union.  */
2112   for (t = decl_elts; t; t = TREE_CHAIN (t))
2113     if (TREE_ADDRESSABLE (TREE_VALUE (t)))
2114       {
2115         TREE_ADDRESSABLE (decl) = 1;
2116         break;
2117       }
2118
2119   expand_decl (decl);
2120   x = DECL_RTL (decl);
2121
2122   /* Go through the elements, assigning RTL to each.  */
2123   for (t = decl_elts; t; t = TREE_CHAIN (t))
2124     {
2125       tree decl_elt = TREE_VALUE (t);
2126       enum machine_mode mode = TYPE_MODE (TREE_TYPE (decl_elt));
2127
2128       /* If any of the elements are addressable, so is the entire
2129          union.  */
2130       if (TREE_USED (decl_elt))
2131         TREE_USED (decl) = 1;
2132
2133       /* Propagate the union's alignment to the elements.  */
2134       DECL_ALIGN (decl_elt) = DECL_ALIGN (decl);
2135       DECL_USER_ALIGN (decl_elt) = DECL_USER_ALIGN (decl);
2136
2137       /* If the element has BLKmode and the union doesn't, the union is
2138          aligned such that the element doesn't need to have BLKmode, so
2139          change the element's mode to the appropriate one for its size.  */
2140       if (mode == BLKmode && DECL_MODE (decl) != BLKmode)
2141         DECL_MODE (decl_elt) = mode
2142           = mode_for_size_tree (DECL_SIZE (decl_elt), MODE_INT, 1);
2143
2144       /* (SUBREG (MEM ...)) at RTL generation time is invalid, so we
2145          instead create a new MEM rtx with the proper mode.  */
2146       if (MEM_P (x))
2147         {
2148           if (mode == GET_MODE (x))
2149             SET_DECL_RTL (decl_elt, x);
2150           else
2151             SET_DECL_RTL (decl_elt, adjust_address_nv (x, mode, 0));
2152         }
2153       else if (REG_P (x))
2154         {
2155           if (mode == GET_MODE (x))
2156             SET_DECL_RTL (decl_elt, x);
2157           else
2158             SET_DECL_RTL (decl_elt, gen_lowpart_SUBREG (mode, x));
2159         }
2160       else
2161         abort ();
2162     }
2163 }
2164 \f
2165 /* Do the insertion of a case label into case_list.  The labels are
2166    fed to us in descending order from the sorted vector of case labels used
2167    in the tree part of the middle end.  So the list we construct is
2168    sorted in ascending order.  */
2169
2170 struct case_node *
2171 add_case_node (struct case_node *head, tree low, tree high, tree label)
2172 {
2173   struct case_node *r;
2174
2175   /* If there's no HIGH value, then this is not a case range; it's
2176      just a simple case label.  But that's just a degenerate case
2177      range.
2178      If the bounds are equal, turn this into the one-value case.  */
2179   if (!high || tree_int_cst_equal (low, high))
2180     high = low;
2181
2182   /* Add this label to the chain.  */
2183   r = ggc_alloc (sizeof (struct case_node));
2184   r->low = low;
2185   r->high = high;
2186   r->code_label = label;
2187   r->parent = r->left = NULL;
2188   r->right = head;
2189   return r;
2190 }
2191 \f
2192 /* Maximum number of case bit tests.  */
2193 #define MAX_CASE_BIT_TESTS  3
2194
2195 /* By default, enable case bit tests on targets with ashlsi3.  */
2196 #ifndef CASE_USE_BIT_TESTS
2197 #define CASE_USE_BIT_TESTS  (ashl_optab->handlers[word_mode].insn_code \
2198                              != CODE_FOR_nothing)
2199 #endif
2200
2201
2202 /* A case_bit_test represents a set of case nodes that may be
2203    selected from using a bit-wise comparison.  HI and LO hold
2204    the integer to be tested against, LABEL contains the label
2205    to jump to upon success and BITS counts the number of case
2206    nodes handled by this test, typically the number of bits
2207    set in HI:LO.  */
2208
2209 struct case_bit_test
2210 {
2211   HOST_WIDE_INT hi;
2212   HOST_WIDE_INT lo;
2213   rtx label;
2214   int bits;
2215 };
2216
2217 /* Determine whether "1 << x" is relatively cheap in word_mode.  */
2218
2219 static
2220 bool lshift_cheap_p (void)
2221 {
2222   static bool init = false;
2223   static bool cheap = true;
2224
2225   if (!init)
2226     {
2227       rtx reg = gen_rtx_REG (word_mode, 10000);
2228       int cost = rtx_cost (gen_rtx_ASHIFT (word_mode, const1_rtx, reg), SET);
2229       cheap = cost < COSTS_N_INSNS (3);
2230       init = true;
2231     }
2232
2233   return cheap;
2234 }
2235
2236 /* Comparison function for qsort to order bit tests by decreasing
2237    number of case nodes, i.e. the node with the most cases gets
2238    tested first.  */
2239
2240 static int
2241 case_bit_test_cmp (const void *p1, const void *p2)
2242 {
2243   const struct case_bit_test *d1 = p1;
2244   const struct case_bit_test *d2 = p2;
2245
2246   return d2->bits - d1->bits;
2247 }
2248
2249 /*  Expand a switch statement by a short sequence of bit-wise
2250     comparisons.  "switch(x)" is effectively converted into
2251     "if ((1 << (x-MINVAL)) & CST)" where CST and MINVAL are
2252     integer constants.
2253
2254     INDEX_EXPR is the value being switched on, which is of
2255     type INDEX_TYPE.  MINVAL is the lowest case value of in
2256     the case nodes, of INDEX_TYPE type, and RANGE is highest
2257     value minus MINVAL, also of type INDEX_TYPE.  NODES is
2258     the set of case nodes, and DEFAULT_LABEL is the label to
2259     branch to should none of the cases match.
2260
2261     There *MUST* be MAX_CASE_BIT_TESTS or less unique case
2262     node targets.  */
2263
2264 static void
2265 emit_case_bit_tests (tree index_type, tree index_expr, tree minval,
2266                      tree range, case_node_ptr nodes, rtx default_label)
2267 {
2268   struct case_bit_test test[MAX_CASE_BIT_TESTS];
2269   enum machine_mode mode;
2270   rtx expr, index, label;
2271   unsigned int i,j,lo,hi;
2272   struct case_node *n;
2273   unsigned int count;
2274
2275   count = 0;
2276   for (n = nodes; n; n = n->right)
2277     {
2278       label = label_rtx (n->code_label);
2279       for (i = 0; i < count; i++)
2280         if (label == test[i].label)
2281           break;
2282
2283       if (i == count)
2284         {
2285           if (count >= MAX_CASE_BIT_TESTS)
2286             abort ();
2287           test[i].hi = 0;
2288           test[i].lo = 0;
2289           test[i].label = label;
2290           test[i].bits = 1;
2291           count++;
2292         }
2293       else
2294         test[i].bits++;
2295
2296       lo = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2297                                        n->low, minval)), 1);
2298       hi = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2299                                        n->high, minval)), 1);
2300       for (j = lo; j <= hi; j++)
2301         if (j >= HOST_BITS_PER_WIDE_INT)
2302           test[i].hi |= (HOST_WIDE_INT) 1 << (j - HOST_BITS_PER_INT);
2303         else
2304           test[i].lo |= (HOST_WIDE_INT) 1 << j;
2305     }
2306
2307   qsort (test, count, sizeof(*test), case_bit_test_cmp);
2308
2309   index_expr = fold (build2 (MINUS_EXPR, index_type,
2310                              convert (index_type, index_expr),
2311                              convert (index_type, minval)));
2312   index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
2313   do_pending_stack_adjust ();
2314
2315   mode = TYPE_MODE (index_type);
2316   expr = expand_expr (range, NULL_RTX, VOIDmode, 0);
2317   emit_cmp_and_jump_insns (index, expr, GTU, NULL_RTX, mode, 1,
2318                            default_label);
2319
2320   index = convert_to_mode (word_mode, index, 0);
2321   index = expand_binop (word_mode, ashl_optab, const1_rtx,
2322                         index, NULL_RTX, 1, OPTAB_WIDEN);
2323
2324   for (i = 0; i < count; i++)
2325     {
2326       expr = immed_double_const (test[i].lo, test[i].hi, word_mode);
2327       expr = expand_binop (word_mode, and_optab, index, expr,
2328                            NULL_RTX, 1, OPTAB_WIDEN);
2329       emit_cmp_and_jump_insns (expr, const0_rtx, NE, NULL_RTX,
2330                                word_mode, 1, test[i].label);
2331     }
2332
2333   emit_jump (default_label);
2334 }
2335
2336 #ifndef HAVE_casesi
2337 #define HAVE_casesi 0
2338 #endif
2339
2340 #ifndef HAVE_tablejump
2341 #define HAVE_tablejump 0
2342 #endif
2343
2344 /* Terminate a case (Pascal) or switch (C) statement
2345    in which ORIG_INDEX is the expression to be tested.
2346    If ORIG_TYPE is not NULL, it is the original ORIG_INDEX
2347    type as given in the source before any compiler conversions.
2348    Generate the code to test it and jump to the right place.  */
2349
2350 void
2351 expand_case (tree exp)
2352 {
2353   tree minval = NULL_TREE, maxval = NULL_TREE, range = NULL_TREE;
2354   rtx default_label = 0;
2355   struct case_node *n, *m;
2356   unsigned int count, uniq;
2357   rtx index;
2358   rtx table_label;
2359   int ncases;
2360   rtx *labelvec;
2361   int i;
2362   rtx before_case, end, lab;
2363
2364   tree vec = SWITCH_LABELS (exp);
2365   tree orig_type = TREE_TYPE (exp);
2366   tree index_expr = SWITCH_COND (exp);
2367   tree index_type = TREE_TYPE (index_expr);
2368   int unsignedp = TYPE_UNSIGNED (index_type);
2369
2370   /* The insn after which the case dispatch should finally
2371      be emitted.  Zero for a dummy.  */
2372   rtx start;
2373
2374   /* A list of case labels; it is first built as a list and it may then
2375      be rearranged into a nearly balanced binary tree.  */
2376   struct case_node *case_list = 0;
2377
2378   /* Label to jump to if no case matches.  */
2379   tree default_label_decl = 0;
2380
2381   /* The switch body is lowered in gimplify.c, we should never have
2382      switches with a non-NULL SWITCH_BODY here.  */
2383   if (SWITCH_BODY (exp) || !SWITCH_LABELS (exp))
2384     abort ();
2385
2386   for (i = TREE_VEC_LENGTH (vec); --i >= 0; )
2387     {
2388       tree elt = TREE_VEC_ELT (vec, i);
2389
2390       /* Handle default labels specially.  */
2391       if (!CASE_HIGH (elt) && !CASE_LOW (elt))
2392         {
2393 #ifdef ENABLE_CHECKING
2394           if (default_label_decl != 0)
2395             abort ();
2396 #endif
2397           default_label_decl = CASE_LABEL (elt);
2398         }
2399       else
2400         case_list = add_case_node (case_list, CASE_LOW (elt), CASE_HIGH (elt),
2401                                    CASE_LABEL (elt));
2402     }
2403
2404   do_pending_stack_adjust ();
2405
2406   /* Make sure start points to something that won't need any transformation
2407      before the end of this function.  */
2408   if (!NOTE_P (get_last_insn ()))
2409     emit_note (NOTE_INSN_DELETED);
2410
2411   start = get_last_insn ();
2412
2413   /* An ERROR_MARK occurs for various reasons including invalid data type.  */
2414   if (index_type != error_mark_node)
2415     {
2416       /* If we don't have a default-label, create one here,
2417          after the body of the switch.  */
2418       if (default_label_decl == 0)
2419         {
2420           default_label_decl
2421             = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
2422           expand_label (default_label_decl);
2423         }
2424       default_label = label_rtx (default_label_decl);
2425
2426       before_case = get_last_insn ();
2427
2428       /* Get upper and lower bounds of case values.
2429          Also convert all the case values to the index expr's data type.  */
2430
2431       uniq = 0;
2432       count = 0;
2433       for (n = case_list; n; n = n->right)
2434         {
2435           /* Check low and high label values are integers.  */
2436           if (TREE_CODE (n->low) != INTEGER_CST)
2437             abort ();
2438           if (TREE_CODE (n->high) != INTEGER_CST)
2439             abort ();
2440
2441           n->low = convert (index_type, n->low);
2442           n->high = convert (index_type, n->high);
2443
2444           /* Count the elements and track the largest and smallest
2445              of them (treating them as signed even if they are not).  */
2446           if (count++ == 0)
2447             {
2448               minval = n->low;
2449               maxval = n->high;
2450             }
2451           else
2452             {
2453               if (INT_CST_LT (n->low, minval))
2454                 minval = n->low;
2455               if (INT_CST_LT (maxval, n->high))
2456                 maxval = n->high;
2457             }
2458           /* A range counts double, since it requires two compares.  */
2459           if (! tree_int_cst_equal (n->low, n->high))
2460             count++;
2461
2462           /* Count the number of unique case node targets.  */
2463           uniq++;
2464           lab = label_rtx (n->code_label);
2465           for (m = case_list; m != n; m = m->right)
2466             if (label_rtx (m->code_label) == lab)
2467               {
2468                 uniq--;
2469                 break;
2470               }
2471         }
2472
2473       /* Compute span of values.  */
2474       if (count != 0)
2475         range = fold (build2 (MINUS_EXPR, index_type, maxval, minval));
2476
2477       if (count == 0)
2478         {
2479           expand_expr (index_expr, const0_rtx, VOIDmode, 0);
2480           emit_jump (default_label);
2481         }
2482
2483       /* Try implementing this switch statement by a short sequence of
2484          bit-wise comparisons.  However, we let the binary-tree case
2485          below handle constant index expressions.  */
2486       else if (CASE_USE_BIT_TESTS
2487                && ! TREE_CONSTANT (index_expr)
2488                && compare_tree_int (range, GET_MODE_BITSIZE (word_mode)) < 0
2489                && compare_tree_int (range, 0) > 0
2490                && lshift_cheap_p ()
2491                && ((uniq == 1 && count >= 3)
2492                    || (uniq == 2 && count >= 5)
2493                    || (uniq == 3 && count >= 6)))
2494         {
2495           /* Optimize the case where all the case values fit in a
2496              word without having to subtract MINVAL.  In this case,
2497              we can optimize away the subtraction.  */
2498           if (compare_tree_int (minval, 0) > 0
2499               && compare_tree_int (maxval, GET_MODE_BITSIZE (word_mode)) < 0)
2500             {
2501               minval = integer_zero_node;
2502               range = maxval;
2503             }
2504           emit_case_bit_tests (index_type, index_expr, minval, range,
2505                                case_list, default_label);
2506         }
2507
2508       /* If range of values is much bigger than number of values,
2509          make a sequence of conditional branches instead of a dispatch.
2510          If the switch-index is a constant, do it this way
2511          because we can optimize it.  */
2512
2513       else if (count < case_values_threshold ()
2514                || compare_tree_int (range,
2515                                     (optimize_size ? 3 : 10) * count) > 0
2516                /* RANGE may be signed, and really large ranges will show up
2517                   as negative numbers.  */
2518                || compare_tree_int (range, 0) < 0
2519 #ifndef ASM_OUTPUT_ADDR_DIFF_ELT
2520                || flag_pic
2521 #endif
2522                || TREE_CONSTANT (index_expr)
2523                /* If neither casesi or tablejump is available, we can
2524                   only go this way.  */
2525                || (!HAVE_casesi && !HAVE_tablejump))
2526         {
2527           index = expand_expr (index_expr, NULL_RTX, VOIDmode, 0);
2528
2529           /* If the index is a short or char that we do not have
2530              an insn to handle comparisons directly, convert it to
2531              a full integer now, rather than letting each comparison
2532              generate the conversion.  */
2533
2534           if (GET_MODE_CLASS (GET_MODE (index)) == MODE_INT
2535               && ! have_insn_for (COMPARE, GET_MODE (index)))
2536             {
2537               enum machine_mode wider_mode;
2538               for (wider_mode = GET_MODE (index); wider_mode != VOIDmode;
2539                    wider_mode = GET_MODE_WIDER_MODE (wider_mode))
2540                 if (have_insn_for (COMPARE, wider_mode))
2541                   {
2542                     index = convert_to_mode (wider_mode, index, unsignedp);
2543                     break;
2544                   }
2545             }
2546
2547           do_pending_stack_adjust ();
2548
2549           if (MEM_P (index))
2550             index = copy_to_reg (index);
2551           if (GET_CODE (index) == CONST_INT
2552               || TREE_CODE (index_expr) == INTEGER_CST)
2553             {
2554               /* Make a tree node with the proper constant value
2555                  if we don't already have one.  */
2556               if (TREE_CODE (index_expr) != INTEGER_CST)
2557                 {
2558                   index_expr
2559                     = build_int_cst (NULL_TREE, INTVAL (index),
2560                                    unsignedp || INTVAL (index) >= 0 ? 0 : -1);
2561                   index_expr = convert (index_type, index_expr);
2562                 }
2563
2564               /* For constant index expressions we need only
2565                  issue an unconditional branch to the appropriate
2566                  target code.  The job of removing any unreachable
2567                  code is left to the optimization phase if the
2568                  "-O" option is specified.  */
2569               for (n = case_list; n; n = n->right)
2570                 if (! tree_int_cst_lt (index_expr, n->low)
2571                     && ! tree_int_cst_lt (n->high, index_expr))
2572                   break;
2573
2574               if (n)
2575                 emit_jump (label_rtx (n->code_label));
2576               else
2577                 emit_jump (default_label);
2578             }
2579           else
2580             {
2581               /* If the index expression is not constant we generate
2582                  a binary decision tree to select the appropriate
2583                  target code.  This is done as follows:
2584
2585                  The list of cases is rearranged into a binary tree,
2586                  nearly optimal assuming equal probability for each case.
2587
2588                  The tree is transformed into RTL, eliminating
2589                  redundant test conditions at the same time.
2590
2591                  If program flow could reach the end of the
2592                  decision tree an unconditional jump to the
2593                  default code is emitted.  */
2594
2595               use_cost_table
2596                 = (TREE_CODE (orig_type) != ENUMERAL_TYPE
2597                    && estimate_case_costs (case_list));
2598               balance_case_nodes (&case_list, NULL);
2599               emit_case_nodes (index, case_list, default_label, index_type);
2600               emit_jump (default_label);
2601             }
2602         }
2603       else
2604         {
2605           table_label = gen_label_rtx ();
2606           if (! try_casesi (index_type, index_expr, minval, range,
2607                             table_label, default_label))
2608             {
2609               index_type = integer_type_node;
2610
2611               /* Index jumptables from zero for suitable values of
2612                  minval to avoid a subtraction.  */
2613               if (! optimize_size
2614                   && compare_tree_int (minval, 0) > 0
2615                   && compare_tree_int (minval, 3) < 0)
2616                 {
2617                   minval = integer_zero_node;
2618                   range = maxval;
2619                 }
2620
2621               if (! try_tablejump (index_type, index_expr, minval, range,
2622                                    table_label, default_label))
2623                 abort ();
2624             }
2625
2626           /* Get table of labels to jump to, in order of case index.  */
2627
2628           ncases = tree_low_cst (range, 0) + 1;
2629           labelvec = alloca (ncases * sizeof (rtx));
2630           memset (labelvec, 0, ncases * sizeof (rtx));
2631
2632           for (n = case_list; n; n = n->right)
2633             {
2634               /* Compute the low and high bounds relative to the minimum
2635                  value since that should fit in a HOST_WIDE_INT while the
2636                  actual values may not.  */
2637               HOST_WIDE_INT i_low
2638                 = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2639                                               n->low, minval)), 1);
2640               HOST_WIDE_INT i_high
2641                 = tree_low_cst (fold (build2 (MINUS_EXPR, index_type,
2642                                               n->high, minval)), 1);
2643               HOST_WIDE_INT i;
2644
2645               for (i = i_low; i <= i_high; i ++)
2646                 labelvec[i]
2647                   = gen_rtx_LABEL_REF (Pmode, label_rtx (n->code_label));
2648             }
2649
2650           /* Fill in the gaps with the default.  */
2651           for (i = 0; i < ncases; i++)
2652             if (labelvec[i] == 0)
2653               labelvec[i] = gen_rtx_LABEL_REF (Pmode, default_label);
2654
2655           /* Output the table.  */
2656           emit_label (table_label);
2657
2658           if (CASE_VECTOR_PC_RELATIVE || flag_pic)
2659             emit_jump_insn (gen_rtx_ADDR_DIFF_VEC (CASE_VECTOR_MODE,
2660                                                    gen_rtx_LABEL_REF (Pmode, table_label),
2661                                                    gen_rtvec_v (ncases, labelvec),
2662                                                    const0_rtx, const0_rtx));
2663           else
2664             emit_jump_insn (gen_rtx_ADDR_VEC (CASE_VECTOR_MODE,
2665                                               gen_rtvec_v (ncases, labelvec)));
2666
2667           /* If the case insn drops through the table,
2668              after the table we must jump to the default-label.
2669              Otherwise record no drop-through after the table.  */
2670 #ifdef CASE_DROPS_THROUGH
2671           emit_jump (default_label);
2672 #else
2673           emit_barrier ();
2674 #endif
2675         }
2676
2677       before_case = NEXT_INSN (before_case);
2678       end = get_last_insn ();
2679       if (squeeze_notes (&before_case, &end))
2680         abort ();
2681       reorder_insns (before_case, end, start);
2682     }
2683
2684   free_temp_slots ();
2685 }
2686
2687 /* Generate code to jump to LABEL if OP1 and OP2 are equal.  */
2688
2689 static void
2690 do_jump_if_equal (rtx op1, rtx op2, rtx label, int unsignedp)
2691 {
2692   if (GET_CODE (op1) == CONST_INT && GET_CODE (op2) == CONST_INT)
2693     {
2694       if (op1 == op2)
2695         emit_jump (label);
2696     }
2697   else
2698     emit_cmp_and_jump_insns (op1, op2, EQ, NULL_RTX,
2699                              (GET_MODE (op1) == VOIDmode
2700                              ? GET_MODE (op2) : GET_MODE (op1)),
2701                              unsignedp, label);
2702 }
2703 \f
2704 /* Not all case values are encountered equally.  This function
2705    uses a heuristic to weight case labels, in cases where that
2706    looks like a reasonable thing to do.
2707
2708    Right now, all we try to guess is text, and we establish the
2709    following weights:
2710
2711         chars above space:      16
2712         digits:                 16
2713         default:                12
2714         space, punct:           8
2715         tab:                    4
2716         newline:                2
2717         other "\" chars:        1
2718         remaining chars:        0
2719
2720    If we find any cases in the switch that are not either -1 or in the range
2721    of valid ASCII characters, or are control characters other than those
2722    commonly used with "\", don't treat this switch scanning text.
2723
2724    Return 1 if these nodes are suitable for cost estimation, otherwise
2725    return 0.  */
2726
2727 static int
2728 estimate_case_costs (case_node_ptr node)
2729 {
2730   tree min_ascii = integer_minus_one_node;
2731   tree max_ascii = convert (TREE_TYPE (node->high),
2732                             build_int_cst (NULL_TREE, 127, 0));
2733   case_node_ptr n;
2734   int i;
2735
2736   /* If we haven't already made the cost table, make it now.  Note that the
2737      lower bound of the table is -1, not zero.  */
2738
2739   if (! cost_table_initialized)
2740     {
2741       cost_table_initialized = 1;
2742
2743       for (i = 0; i < 128; i++)
2744         {
2745           if (ISALNUM (i))
2746             COST_TABLE (i) = 16;
2747           else if (ISPUNCT (i))
2748             COST_TABLE (i) = 8;
2749           else if (ISCNTRL (i))
2750             COST_TABLE (i) = -1;
2751         }
2752
2753       COST_TABLE (' ') = 8;
2754       COST_TABLE ('\t') = 4;
2755       COST_TABLE ('\0') = 4;
2756       COST_TABLE ('\n') = 2;
2757       COST_TABLE ('\f') = 1;
2758       COST_TABLE ('\v') = 1;
2759       COST_TABLE ('\b') = 1;
2760     }
2761
2762   /* See if all the case expressions look like text.  It is text if the
2763      constant is >= -1 and the highest constant is <= 127.  Do all comparisons
2764      as signed arithmetic since we don't want to ever access cost_table with a
2765      value less than -1.  Also check that none of the constants in a range
2766      are strange control characters.  */
2767
2768   for (n = node; n; n = n->right)
2769     {
2770       if ((INT_CST_LT (n->low, min_ascii)) || INT_CST_LT (max_ascii, n->high))
2771         return 0;
2772
2773       for (i = (HOST_WIDE_INT) TREE_INT_CST_LOW (n->low);
2774            i <= (HOST_WIDE_INT) TREE_INT_CST_LOW (n->high); i++)
2775         if (COST_TABLE (i) < 0)
2776           return 0;
2777     }
2778
2779   /* All interesting values are within the range of interesting
2780      ASCII characters.  */
2781   return 1;
2782 }
2783
2784 /* Take an ordered list of case nodes
2785    and transform them into a near optimal binary tree,
2786    on the assumption that any target code selection value is as
2787    likely as any other.
2788
2789    The transformation is performed by splitting the ordered
2790    list into two equal sections plus a pivot.  The parts are
2791    then attached to the pivot as left and right branches.  Each
2792    branch is then transformed recursively.  */
2793
2794 static void
2795 balance_case_nodes (case_node_ptr *head, case_node_ptr parent)
2796 {
2797   case_node_ptr np;
2798
2799   np = *head;
2800   if (np)
2801     {
2802       int cost = 0;
2803       int i = 0;
2804       int ranges = 0;
2805       case_node_ptr *npp;
2806       case_node_ptr left;
2807
2808       /* Count the number of entries on branch.  Also count the ranges.  */
2809
2810       while (np)
2811         {
2812           if (!tree_int_cst_equal (np->low, np->high))
2813             {
2814               ranges++;
2815               if (use_cost_table)
2816                 cost += COST_TABLE (TREE_INT_CST_LOW (np->high));
2817             }
2818
2819           if (use_cost_table)
2820             cost += COST_TABLE (TREE_INT_CST_LOW (np->low));
2821
2822           i++;
2823           np = np->right;
2824         }
2825
2826       if (i > 2)
2827         {
2828           /* Split this list if it is long enough for that to help.  */
2829           npp = head;
2830           left = *npp;
2831           if (use_cost_table)
2832             {
2833               /* Find the place in the list that bisects the list's total cost,
2834                  Here I gets half the total cost.  */
2835               int n_moved = 0;
2836               i = (cost + 1) / 2;
2837               while (1)
2838                 {
2839                   /* Skip nodes while their cost does not reach that amount.  */
2840                   if (!tree_int_cst_equal ((*npp)->low, (*npp)->high))
2841                     i -= COST_TABLE (TREE_INT_CST_LOW ((*npp)->high));
2842                   i -= COST_TABLE (TREE_INT_CST_LOW ((*npp)->low));
2843                   if (i <= 0)
2844                     break;
2845                   npp = &(*npp)->right;
2846                   n_moved += 1;
2847                 }
2848               if (n_moved == 0)
2849                 {
2850                   /* Leave this branch lopsided, but optimize left-hand
2851                      side and fill in `parent' fields for right-hand side.  */
2852                   np = *head;
2853                   np->parent = parent;
2854                   balance_case_nodes (&np->left, np);
2855                   for (; np->right; np = np->right)
2856                     np->right->parent = np;
2857                   return;
2858                 }
2859             }
2860           /* If there are just three nodes, split at the middle one.  */
2861           else if (i == 3)
2862             npp = &(*npp)->right;
2863           else
2864             {
2865               /* Find the place in the list that bisects the list's total cost,
2866                  where ranges count as 2.
2867                  Here I gets half the total cost.  */
2868               i = (i + ranges + 1) / 2;
2869               while (1)
2870                 {
2871                   /* Skip nodes while their cost does not reach that amount.  */
2872                   if (!tree_int_cst_equal ((*npp)->low, (*npp)->high))
2873                     i--;
2874                   i--;
2875                   if (i <= 0)
2876                     break;
2877                   npp = &(*npp)->right;
2878                 }
2879             }
2880           *head = np = *npp;
2881           *npp = 0;
2882           np->parent = parent;
2883           np->left = left;
2884
2885           /* Optimize each of the two split parts.  */
2886           balance_case_nodes (&np->left, np);
2887           balance_case_nodes (&np->right, np);
2888         }
2889       else
2890         {
2891           /* Else leave this branch as one level,
2892              but fill in `parent' fields.  */
2893           np = *head;
2894           np->parent = parent;
2895           for (; np->right; np = np->right)
2896             np->right->parent = np;
2897         }
2898     }
2899 }
2900 \f
2901 /* Search the parent sections of the case node tree
2902    to see if a test for the lower bound of NODE would be redundant.
2903    INDEX_TYPE is the type of the index expression.
2904
2905    The instructions to generate the case decision tree are
2906    output in the same order as nodes are processed so it is
2907    known that if a parent node checks the range of the current
2908    node minus one that the current node is bounded at its lower
2909    span.  Thus the test would be redundant.  */
2910
2911 static int
2912 node_has_low_bound (case_node_ptr node, tree index_type)
2913 {
2914   tree low_minus_one;
2915   case_node_ptr pnode;
2916
2917   /* If the lower bound of this node is the lowest value in the index type,
2918      we need not test it.  */
2919
2920   if (tree_int_cst_equal (node->low, TYPE_MIN_VALUE (index_type)))
2921     return 1;
2922
2923   /* If this node has a left branch, the value at the left must be less
2924      than that at this node, so it cannot be bounded at the bottom and
2925      we need not bother testing any further.  */
2926
2927   if (node->left)
2928     return 0;
2929
2930   low_minus_one = fold (build2 (MINUS_EXPR, TREE_TYPE (node->low),
2931                                 node->low, integer_one_node));
2932
2933   /* If the subtraction above overflowed, we can't verify anything.
2934      Otherwise, look for a parent that tests our value - 1.  */
2935
2936   if (! tree_int_cst_lt (low_minus_one, node->low))
2937     return 0;
2938
2939   for (pnode = node->parent; pnode; pnode = pnode->parent)
2940     if (tree_int_cst_equal (low_minus_one, pnode->high))
2941       return 1;
2942
2943   return 0;
2944 }
2945
2946 /* Search the parent sections of the case node tree
2947    to see if a test for the upper bound of NODE would be redundant.
2948    INDEX_TYPE is the type of the index expression.
2949
2950    The instructions to generate the case decision tree are
2951    output in the same order as nodes are processed so it is
2952    known that if a parent node checks the range of the current
2953    node plus one that the current node is bounded at its upper
2954    span.  Thus the test would be redundant.  */
2955
2956 static int
2957 node_has_high_bound (case_node_ptr node, tree index_type)
2958 {
2959   tree high_plus_one;
2960   case_node_ptr pnode;
2961
2962   /* If there is no upper bound, obviously no test is needed.  */
2963
2964   if (TYPE_MAX_VALUE (index_type) == NULL)
2965     return 1;
2966
2967   /* If the upper bound of this node is the highest value in the type
2968      of the index expression, we need not test against it.  */
2969
2970   if (tree_int_cst_equal (node->high, TYPE_MAX_VALUE (index_type)))
2971     return 1;
2972
2973   /* If this node has a right branch, the value at the right must be greater
2974      than that at this node, so it cannot be bounded at the top and
2975      we need not bother testing any further.  */
2976
2977   if (node->right)
2978     return 0;
2979
2980   high_plus_one = fold (build2 (PLUS_EXPR, TREE_TYPE (node->high),
2981                                 node->high, integer_one_node));
2982
2983   /* If the addition above overflowed, we can't verify anything.
2984      Otherwise, look for a parent that tests our value + 1.  */
2985
2986   if (! tree_int_cst_lt (node->high, high_plus_one))
2987     return 0;
2988
2989   for (pnode = node->parent; pnode; pnode = pnode->parent)
2990     if (tree_int_cst_equal (high_plus_one, pnode->low))
2991       return 1;
2992
2993   return 0;
2994 }
2995
2996 /* Search the parent sections of the
2997    case node tree to see if both tests for the upper and lower
2998    bounds of NODE would be redundant.  */
2999
3000 static int
3001 node_is_bounded (case_node_ptr node, tree index_type)
3002 {
3003   return (node_has_low_bound (node, index_type)
3004           && node_has_high_bound (node, index_type));
3005 }
3006 \f
3007 /* Emit step-by-step code to select a case for the value of INDEX.
3008    The thus generated decision tree follows the form of the
3009    case-node binary tree NODE, whose nodes represent test conditions.
3010    INDEX_TYPE is the type of the index of the switch.
3011
3012    Care is taken to prune redundant tests from the decision tree
3013    by detecting any boundary conditions already checked by
3014    emitted rtx.  (See node_has_high_bound, node_has_low_bound
3015    and node_is_bounded, above.)
3016
3017    Where the test conditions can be shown to be redundant we emit
3018    an unconditional jump to the target code.  As a further
3019    optimization, the subordinates of a tree node are examined to
3020    check for bounded nodes.  In this case conditional and/or
3021    unconditional jumps as a result of the boundary check for the
3022    current node are arranged to target the subordinates associated
3023    code for out of bound conditions on the current node.
3024
3025    We can assume that when control reaches the code generated here,
3026    the index value has already been compared with the parents
3027    of this node, and determined to be on the same side of each parent
3028    as this node is.  Thus, if this node tests for the value 51,
3029    and a parent tested for 52, we don't need to consider
3030    the possibility of a value greater than 51.  If another parent
3031    tests for the value 50, then this node need not test anything.  */
3032
3033 static void
3034 emit_case_nodes (rtx index, case_node_ptr node, rtx default_label,
3035                  tree index_type)
3036 {
3037   /* If INDEX has an unsigned type, we must make unsigned branches.  */
3038   int unsignedp = TYPE_UNSIGNED (index_type);
3039   enum machine_mode mode = GET_MODE (index);
3040   enum machine_mode imode = TYPE_MODE (index_type);
3041
3042   /* See if our parents have already tested everything for us.
3043      If they have, emit an unconditional jump for this node.  */
3044   if (node_is_bounded (node, index_type))
3045     emit_jump (label_rtx (node->code_label));
3046
3047   else if (tree_int_cst_equal (node->low, node->high))
3048     {
3049       /* Node is single valued.  First see if the index expression matches
3050          this node and then check our children, if any.  */
3051
3052       do_jump_if_equal (index,
3053                         convert_modes (mode, imode,
3054                                        expand_expr (node->low, NULL_RTX,
3055                                                     VOIDmode, 0),
3056                                        unsignedp),
3057                         label_rtx (node->code_label), unsignedp);
3058
3059       if (node->right != 0 && node->left != 0)
3060         {
3061           /* This node has children on both sides.
3062              Dispatch to one side or the other
3063              by comparing the index value with this node's value.
3064              If one subtree is bounded, check that one first,
3065              so we can avoid real branches in the tree.  */
3066
3067           if (node_is_bounded (node->right, index_type))
3068             {
3069               emit_cmp_and_jump_insns (index,
3070                                        convert_modes
3071                                        (mode, imode,
3072                                         expand_expr (node->high, NULL_RTX,
3073                                                      VOIDmode, 0),
3074                                         unsignedp),
3075                                        GT, NULL_RTX, mode, unsignedp,
3076                                        label_rtx (node->right->code_label));
3077               emit_case_nodes (index, node->left, default_label, index_type);
3078             }
3079
3080           else if (node_is_bounded (node->left, index_type))
3081             {
3082               emit_cmp_and_jump_insns (index,
3083                                        convert_modes
3084                                        (mode, imode,
3085                                         expand_expr (node->high, NULL_RTX,
3086                                                      VOIDmode, 0),
3087                                         unsignedp),
3088                                        LT, NULL_RTX, mode, unsignedp,
3089                                        label_rtx (node->left->code_label));
3090               emit_case_nodes (index, node->right, default_label, index_type);
3091             }
3092
3093           /* If both children are single-valued cases with no
3094              children, finish up all the work.  This way, we can save
3095              one ordered comparison.  */
3096           else if (tree_int_cst_equal (node->right->low, node->right->high)
3097                    && node->right->left == 0
3098                    && node->right->right == 0
3099                    && tree_int_cst_equal (node->left->low, node->left->high)
3100                    && node->left->left == 0
3101                    && node->left->right == 0)
3102             {
3103               /* Neither node is bounded.  First distinguish the two sides;
3104                  then emit the code for one side at a time.  */
3105
3106               /* See if the value matches what the right hand side
3107                  wants.  */
3108               do_jump_if_equal (index,
3109                                 convert_modes (mode, imode,
3110                                                expand_expr (node->right->low,
3111                                                             NULL_RTX,
3112                                                             VOIDmode, 0),
3113                                                unsignedp),
3114                                 label_rtx (node->right->code_label),
3115                                 unsignedp);
3116
3117               /* See if the value matches what the left hand side
3118                  wants.  */
3119               do_jump_if_equal (index,
3120                                 convert_modes (mode, imode,
3121                                                expand_expr (node->left->low,
3122                                                             NULL_RTX,
3123                                                             VOIDmode, 0),
3124                                                unsignedp),
3125                                 label_rtx (node->left->code_label),
3126                                 unsignedp);
3127             }
3128
3129           else
3130             {
3131               /* Neither node is bounded.  First distinguish the two sides;
3132                  then emit the code for one side at a time.  */
3133
3134               tree test_label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
3135
3136               /* See if the value is on the right.  */
3137               emit_cmp_and_jump_insns (index,
3138                                        convert_modes
3139                                        (mode, imode,
3140                                         expand_expr (node->high, NULL_RTX,
3141                                                      VOIDmode, 0),
3142                                         unsignedp),
3143                                        GT, NULL_RTX, mode, unsignedp,
3144                                        label_rtx (test_label));
3145
3146               /* Value must be on the left.
3147                  Handle the left-hand subtree.  */
3148               emit_case_nodes (index, node->left, default_label, index_type);
3149               /* If left-hand subtree does nothing,
3150                  go to default.  */
3151               emit_jump (default_label);
3152
3153               /* Code branches here for the right-hand subtree.  */
3154               expand_label (test_label);
3155               emit_case_nodes (index, node->right, default_label, index_type);
3156             }
3157         }
3158
3159       else if (node->right != 0 && node->left == 0)
3160         {
3161           /* Here we have a right child but no left so we issue conditional
3162              branch to default and process the right child.
3163
3164              Omit the conditional branch to default if we it avoid only one
3165              right child; it costs too much space to save so little time.  */
3166
3167           if (node->right->right || node->right->left
3168               || !tree_int_cst_equal (node->right->low, node->right->high))
3169             {
3170               if (!node_has_low_bound (node, index_type))
3171                 {
3172                   emit_cmp_and_jump_insns (index,
3173                                            convert_modes
3174                                            (mode, imode,
3175                                             expand_expr (node->high, NULL_RTX,
3176                                                          VOIDmode, 0),
3177                                             unsignedp),
3178                                            LT, NULL_RTX, mode, unsignedp,
3179                                            default_label);
3180                 }
3181
3182               emit_case_nodes (index, node->right, default_label, index_type);
3183             }
3184           else
3185             /* We cannot process node->right normally
3186                since we haven't ruled out the numbers less than
3187                this node's value.  So handle node->right explicitly.  */
3188             do_jump_if_equal (index,
3189                               convert_modes
3190                               (mode, imode,
3191                                expand_expr (node->right->low, NULL_RTX,
3192                                             VOIDmode, 0),
3193                                unsignedp),
3194                               label_rtx (node->right->code_label), unsignedp);
3195         }
3196
3197       else if (node->right == 0 && node->left != 0)
3198         {
3199           /* Just one subtree, on the left.  */
3200           if (node->left->left || node->left->right
3201               || !tree_int_cst_equal (node->left->low, node->left->high))
3202             {
3203               if (!node_has_high_bound (node, index_type))
3204                 {
3205                   emit_cmp_and_jump_insns (index,
3206                                            convert_modes
3207                                            (mode, imode,
3208                                             expand_expr (node->high, NULL_RTX,
3209                                                          VOIDmode, 0),
3210                                             unsignedp),
3211                                            GT, NULL_RTX, mode, unsignedp,
3212                                            default_label);
3213                 }
3214
3215               emit_case_nodes (index, node->left, default_label, index_type);
3216             }
3217           else
3218             /* We cannot process node->left normally
3219                since we haven't ruled out the numbers less than
3220                this node's value.  So handle node->left explicitly.  */
3221             do_jump_if_equal (index,
3222                               convert_modes
3223                               (mode, imode,
3224                                expand_expr (node->left->low, NULL_RTX,
3225                                             VOIDmode, 0),
3226                                unsignedp),
3227                               label_rtx (node->left->code_label), unsignedp);
3228         }
3229     }
3230   else
3231     {
3232       /* Node is a range.  These cases are very similar to those for a single
3233          value, except that we do not start by testing whether this node
3234          is the one to branch to.  */
3235
3236       if (node->right != 0 && node->left != 0)
3237         {
3238           /* Node has subtrees on both sides.
3239              If the right-hand subtree is bounded,
3240              test for it first, since we can go straight there.
3241              Otherwise, we need to make a branch in the control structure,
3242              then handle the two subtrees.  */
3243           tree test_label = 0;
3244
3245           if (node_is_bounded (node->right, index_type))
3246             /* Right hand node is fully bounded so we can eliminate any
3247                testing and branch directly to the target code.  */
3248             emit_cmp_and_jump_insns (index,
3249                                      convert_modes
3250                                      (mode, imode,
3251                                       expand_expr (node->high, NULL_RTX,
3252                                                    VOIDmode, 0),
3253                                       unsignedp),
3254                                      GT, NULL_RTX, mode, unsignedp,
3255                                      label_rtx (node->right->code_label));
3256           else
3257             {
3258               /* Right hand node requires testing.
3259                  Branch to a label where we will handle it later.  */
3260
3261               test_label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
3262               emit_cmp_and_jump_insns (index,
3263                                        convert_modes
3264                                        (mode, imode,
3265                                         expand_expr (node->high, NULL_RTX,
3266                                                      VOIDmode, 0),
3267                                         unsignedp),
3268                                        GT, NULL_RTX, mode, unsignedp,
3269                                        label_rtx (test_label));
3270             }
3271
3272           /* Value belongs to this node or to the left-hand subtree.  */
3273
3274           emit_cmp_and_jump_insns (index,
3275                                    convert_modes
3276                                    (mode, imode,
3277                                     expand_expr (node->low, NULL_RTX,
3278                                                  VOIDmode, 0),
3279                                     unsignedp),
3280                                    GE, NULL_RTX, mode, unsignedp,
3281                                    label_rtx (node->code_label));
3282
3283           /* Handle the left-hand subtree.  */
3284           emit_case_nodes (index, node->left, default_label, index_type);
3285
3286           /* If right node had to be handled later, do that now.  */
3287
3288           if (test_label)
3289             {
3290               /* If the left-hand subtree fell through,
3291                  don't let it fall into the right-hand subtree.  */
3292               emit_jump (default_label);
3293
3294               expand_label (test_label);
3295               emit_case_nodes (index, node->right, default_label, index_type);
3296             }
3297         }
3298
3299       else if (node->right != 0 && node->left == 0)
3300         {
3301           /* Deal with values to the left of this node,
3302              if they are possible.  */
3303           if (!node_has_low_bound (node, index_type))
3304             {
3305               emit_cmp_and_jump_insns (index,
3306                                        convert_modes
3307                                        (mode, imode,
3308                                         expand_expr (node->low, NULL_RTX,
3309                                                      VOIDmode, 0),
3310                                         unsignedp),
3311                                        LT, NULL_RTX, mode, unsignedp,
3312                                        default_label);
3313             }
3314
3315           /* Value belongs to this node or to the right-hand subtree.  */
3316
3317           emit_cmp_and_jump_insns (index,
3318                                    convert_modes
3319                                    (mode, imode,
3320                                     expand_expr (node->high, NULL_RTX,
3321                                                  VOIDmode, 0),
3322                                     unsignedp),
3323                                    LE, NULL_RTX, mode, unsignedp,
3324                                    label_rtx (node->code_label));
3325
3326           emit_case_nodes (index, node->right, default_label, index_type);
3327         }
3328
3329       else if (node->right == 0 && node->left != 0)
3330         {
3331           /* Deal with values to the right of this node,
3332              if they are possible.  */
3333           if (!node_has_high_bound (node, index_type))
3334             {
3335               emit_cmp_and_jump_insns (index,
3336                                        convert_modes
3337                                        (mode, imode,
3338                                         expand_expr (node->high, NULL_RTX,
3339                                                      VOIDmode, 0),
3340                                         unsignedp),
3341                                        GT, NULL_RTX, mode, unsignedp,
3342                                        default_label);
3343             }
3344
3345           /* Value belongs to this node or to the left-hand subtree.  */
3346
3347           emit_cmp_and_jump_insns (index,
3348                                    convert_modes
3349                                    (mode, imode,
3350                                     expand_expr (node->low, NULL_RTX,
3351                                                  VOIDmode, 0),
3352                                     unsignedp),
3353                                    GE, NULL_RTX, mode, unsignedp,
3354                                    label_rtx (node->code_label));
3355
3356           emit_case_nodes (index, node->left, default_label, index_type);
3357         }
3358
3359       else
3360         {
3361           /* Node has no children so we check low and high bounds to remove
3362              redundant tests.  Only one of the bounds can exist,
3363              since otherwise this node is bounded--a case tested already.  */
3364           int high_bound = node_has_high_bound (node, index_type);
3365           int low_bound = node_has_low_bound (node, index_type);
3366
3367           if (!high_bound && low_bound)
3368             {
3369               emit_cmp_and_jump_insns (index,
3370                                        convert_modes
3371                                        (mode, imode,
3372                                         expand_expr (node->high, NULL_RTX,
3373                                                      VOIDmode, 0),
3374                                         unsignedp),
3375                                        GT, NULL_RTX, mode, unsignedp,
3376                                        default_label);
3377             }
3378
3379           else if (!low_bound && high_bound)
3380             {
3381               emit_cmp_and_jump_insns (index,
3382                                        convert_modes
3383                                        (mode, imode,
3384                                         expand_expr (node->low, NULL_RTX,
3385                                                      VOIDmode, 0),
3386                                         unsignedp),
3387                                        LT, NULL_RTX, mode, unsignedp,
3388                                        default_label);
3389             }
3390           else if (!low_bound && !high_bound)
3391             {
3392               /* Widen LOW and HIGH to the same width as INDEX.  */
3393               tree type = lang_hooks.types.type_for_mode (mode, unsignedp);
3394               tree low = build1 (CONVERT_EXPR, type, node->low);
3395               tree high = build1 (CONVERT_EXPR, type, node->high);
3396               rtx low_rtx, new_index, new_bound;
3397
3398               /* Instead of doing two branches, emit one unsigned branch for
3399                  (index-low) > (high-low).  */
3400               low_rtx = expand_expr (low, NULL_RTX, mode, 0);
3401               new_index = expand_simple_binop (mode, MINUS, index, low_rtx,
3402                                                NULL_RTX, unsignedp,
3403                                                OPTAB_WIDEN);
3404               new_bound = expand_expr (fold (build2 (MINUS_EXPR, type,
3405                                                      high, low)),
3406                                        NULL_RTX, mode, 0);
3407
3408               emit_cmp_and_jump_insns (new_index, new_bound, GT, NULL_RTX,
3409                                        mode, 1, default_label);
3410             }
3411
3412           emit_jump (label_rtx (node->code_label));
3413         }
3414     }
3415 }