OSDN Git Service

2e646f98d4c45082f1500a7346a98099f4a4aa70
[pf3gnuchains/gcc-fork.git] / gcc / config / stormy16 / stormy16.c
1 /* Xstormy16 target functions.
2    Copyright (C) 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005,
3    2006, 2007, 2008, 2009 Free Software Foundation, Inc.
4    Contributed by Red Hat, Inc.
5
6    This file is part of GCC.
7
8    GCC is free software; you can redistribute it and/or modify
9    it under the terms of the GNU General Public License as published by
10    the Free Software Foundation; either version 3, or (at your option)
11    any later version.
12
13    GCC is distributed in the hope that it will be useful,
14    but WITHOUT ANY WARRANTY; without even the implied warranty of
15    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16    GNU General Public License for more details.
17
18    You should have received a copy of the GNU General Public License
19    along with GCC; see the file COPYING3.  If not see
20    <http://www.gnu.org/licenses/>.  */
21
22 #include "config.h"
23 #include "system.h"
24 #include "coretypes.h"
25 #include "tm.h"
26 #include "rtl.h"
27 #include "regs.h"
28 #include "hard-reg-set.h"
29 #include "real.h"
30 #include "insn-config.h"
31 #include "conditions.h"
32 #include "insn-flags.h"
33 #include "output.h"
34 #include "insn-attr.h"
35 #include "flags.h"
36 #include "recog.h"
37 #include "toplev.h"
38 #include "obstack.h"
39 #include "tree.h"
40 #include "expr.h"
41 #include "optabs.h"
42 #include "except.h"
43 #include "function.h"
44 #include "target.h"
45 #include "target-def.h"
46 #include "tm_p.h"
47 #include "langhooks.h"
48 #include "gimple.h"
49 #include "df.h"
50 #include "ggc.h"
51
52 static rtx emit_addhi3_postreload (rtx, rtx, rtx);
53 static void xstormy16_asm_out_constructor (rtx, int);
54 static void xstormy16_asm_out_destructor (rtx, int);
55 static void xstormy16_asm_output_mi_thunk (FILE *, tree, HOST_WIDE_INT,
56                                            HOST_WIDE_INT, tree);
57
58 static void xstormy16_init_builtins (void);
59 static rtx xstormy16_expand_builtin (tree, rtx, rtx, enum machine_mode, int);
60 static bool xstormy16_rtx_costs (rtx, int, int, int *, bool);
61 static int xstormy16_address_cost (rtx, bool);
62 static bool xstormy16_return_in_memory (const_tree, const_tree);
63
64 static GTY(()) section *bss100_section;
65
66 /* Compute a (partial) cost for rtx X.  Return true if the complete
67    cost has been computed, and false if subexpressions should be
68    scanned.  In either case, *TOTAL contains the cost result.  */
69
70 static bool
71 xstormy16_rtx_costs (rtx x, int code, int outer_code ATTRIBUTE_UNUSED,
72                      int *total, bool speed ATTRIBUTE_UNUSED)
73 {
74   switch (code)
75     {
76     case CONST_INT:
77       if (INTVAL (x) < 16 && INTVAL (x) >= 0)
78         *total = COSTS_N_INSNS (1) / 2;
79       else if (INTVAL (x) < 256 && INTVAL (x) >= 0)
80         *total = COSTS_N_INSNS (1);
81       else
82         *total = COSTS_N_INSNS (2);
83       return true;
84
85     case CONST_DOUBLE:
86     case CONST:
87     case SYMBOL_REF:
88     case LABEL_REF:
89       *total = COSTS_N_INSNS (2);
90       return true;
91
92     case MULT:
93       *total = COSTS_N_INSNS (35 + 6);
94       return true;
95     case DIV:
96       *total = COSTS_N_INSNS (51 - 6);
97       return true;
98
99     default:
100       return false;
101     }
102 }
103
104 static int
105 xstormy16_address_cost (rtx x, bool speed ATTRIBUTE_UNUSED)
106 {
107   return (GET_CODE (x) == CONST_INT ? 2
108           : GET_CODE (x) == PLUS ? 7
109           : 5);
110 }
111
112 /* Branches are handled as follows:
113
114    1. HImode compare-and-branches.  The machine supports these
115       natively, so the appropriate pattern is emitted directly.
116
117    2. SImode EQ and NE.  These are emitted as pairs of HImode
118       compare-and-branches.
119
120    3. SImode LT, GE, LTU and GEU.  These are emitted as a sequence
121       of a SImode subtract followed by a branch (not a compare-and-branch),
122       like this:
123       sub
124       sbc
125       blt
126
127    4. SImode GT, LE, GTU, LEU.  These are emitted as a sequence like:
128       sub
129       sbc
130       blt
131       or
132       bne.  */
133
134 /* Emit a branch of kind CODE to location LOC.  */
135
136 void
137 xstormy16_emit_cbranch (enum rtx_code code, rtx op0, rtx op1, rtx loc)
138 {
139   rtx condition_rtx, loc_ref, branch, cy_clobber;
140   rtvec vec;
141   enum machine_mode mode;
142
143   mode = GET_MODE (op0);
144   gcc_assert (mode == HImode || mode == SImode);
145
146   if (mode == SImode
147       && (code == GT || code == LE || code == GTU || code == LEU))
148     {
149       int unsigned_p = (code == GTU || code == LEU);
150       int gt_p = (code == GT || code == GTU);
151       rtx lab = NULL_RTX;
152
153       if (gt_p)
154         lab = gen_label_rtx ();
155       xstormy16_emit_cbranch (unsigned_p ? LTU : LT, op0, op1, gt_p ? lab : loc);
156       /* This should be generated as a comparison against the temporary
157          created by the previous insn, but reload can't handle that.  */
158       xstormy16_emit_cbranch (gt_p ? NE : EQ, op0, op1, loc);
159       if (gt_p)
160         emit_label (lab);
161       return;
162     }
163   else if (mode == SImode
164            && (code == NE || code == EQ)
165            && op1 != const0_rtx)
166     {
167       rtx op0_word, op1_word;
168       rtx lab = NULL_RTX;
169       int num_words = GET_MODE_BITSIZE (mode) / BITS_PER_WORD;
170       int i;
171
172       if (code == EQ)
173         lab = gen_label_rtx ();
174
175       for (i = 0; i < num_words - 1; i++)
176         {
177           op0_word = simplify_gen_subreg (word_mode, op0, mode,
178                                           i * UNITS_PER_WORD);
179           op1_word = simplify_gen_subreg (word_mode, op1, mode,
180                                           i * UNITS_PER_WORD);
181           xstormy16_emit_cbranch (NE, op0_word, op1_word, code == EQ ? lab : loc);
182         }
183       op0_word = simplify_gen_subreg (word_mode, op0, mode,
184                                       i * UNITS_PER_WORD);
185       op1_word = simplify_gen_subreg (word_mode, op1, mode,
186                                       i * UNITS_PER_WORD);
187       xstormy16_emit_cbranch (code, op0_word, op1_word, loc);
188
189       if (code == EQ)
190         emit_label (lab);
191       return;
192     }
193
194   /* We can't allow reload to try to generate any reload after a branch,
195      so when some register must match we must make the temporary ourselves.  */
196   if (mode != HImode)
197     {
198       rtx tmp;
199       tmp = gen_reg_rtx (mode);
200       emit_move_insn (tmp, op0);
201       op0 = tmp;
202     }
203
204   condition_rtx = gen_rtx_fmt_ee (code, mode, op0, op1);
205   loc_ref = gen_rtx_LABEL_REF (VOIDmode, loc);
206   branch = gen_rtx_SET (VOIDmode, pc_rtx,
207                         gen_rtx_IF_THEN_ELSE (VOIDmode, condition_rtx,
208                                               loc_ref, pc_rtx));
209
210   cy_clobber = gen_rtx_CLOBBER (VOIDmode, gen_rtx_REG (BImode, CARRY_REGNUM));
211
212   if (mode == HImode)
213     vec = gen_rtvec (2, branch, cy_clobber);
214   else if (code == NE || code == EQ)
215     vec = gen_rtvec (2, branch, gen_rtx_CLOBBER (VOIDmode, op0));
216   else
217     {
218       rtx sub;
219 #if 0
220       sub = gen_rtx_SET (VOIDmode, op0, gen_rtx_MINUS (SImode, op0, op1));
221 #else
222       sub = gen_rtx_CLOBBER (SImode, op0);
223 #endif
224       vec = gen_rtvec (3, branch, sub, cy_clobber);
225     }
226
227   emit_jump_insn (gen_rtx_PARALLEL (VOIDmode, vec));
228 }
229
230 /* Take a SImode conditional branch, one of GT/LE/GTU/LEU, and split
231    the arithmetic operation.  Most of the work is done by
232    xstormy16_expand_arith.  */
233
234 void
235 xstormy16_split_cbranch (enum machine_mode mode, rtx label, rtx comparison,
236                          rtx dest)
237 {
238   rtx op0 = XEXP (comparison, 0);
239   rtx op1 = XEXP (comparison, 1);
240   rtx seq, last_insn;
241   rtx compare;
242
243   start_sequence ();
244   xstormy16_expand_arith (mode, COMPARE, dest, op0, op1);
245   seq = get_insns ();
246   end_sequence ();
247
248   gcc_assert (INSN_P (seq));
249
250   last_insn = seq;
251   while (NEXT_INSN (last_insn) != NULL_RTX)
252     last_insn = NEXT_INSN (last_insn);
253
254   compare = SET_SRC (XVECEXP (PATTERN (last_insn), 0, 0));
255   PUT_CODE (XEXP (compare, 0), GET_CODE (comparison));
256   XEXP (compare, 1) = gen_rtx_LABEL_REF (VOIDmode, label);
257   emit_insn (seq);
258 }
259
260
261 /* Return the string to output a conditional branch to LABEL, which is
262    the operand number of the label.
263
264    OP is the conditional expression, or NULL for branch-always.
265
266    REVERSED is nonzero if we should reverse the sense of the comparison.
267
268    INSN is the insn.  */
269
270 char *
271 xstormy16_output_cbranch_hi (rtx op, const char *label, int reversed, rtx insn)
272 {
273   static char string[64];
274   int need_longbranch = (op != NULL_RTX
275                          ? get_attr_length (insn) == 8
276                          : get_attr_length (insn) == 4);
277   int really_reversed = reversed ^ need_longbranch;
278   const char *ccode;
279   const char *templ;
280   const char *operands;
281   enum rtx_code code;
282
283   if (! op)
284     {
285       if (need_longbranch)
286         ccode = "jmpf";
287       else
288         ccode = "br";
289       sprintf (string, "%s %s", ccode, label);
290       return string;
291     }
292
293   code = GET_CODE (op);
294
295   if (GET_CODE (XEXP (op, 0)) != REG)
296     {
297       code = swap_condition (code);
298       operands = "%3,%2";
299     }
300   else
301       operands = "%2,%3";
302
303   /* Work out which way this really branches.  */
304   if (really_reversed)
305     code = reverse_condition (code);
306
307   switch (code)
308     {
309     case EQ:   ccode = "z";   break;
310     case NE:   ccode = "nz";  break;
311     case GE:   ccode = "ge";  break;
312     case LT:   ccode = "lt";  break;
313     case GT:   ccode = "gt";  break;
314     case LE:   ccode = "le";  break;
315     case GEU:  ccode = "nc";  break;
316     case LTU:  ccode = "c";   break;
317     case GTU:  ccode = "hi";  break;
318     case LEU:  ccode = "ls";  break;
319
320     default:
321       gcc_unreachable ();
322     }
323
324   if (need_longbranch)
325     templ = "b%s %s,.+8 | jmpf %s";
326   else
327     templ = "b%s %s,%s";
328   sprintf (string, templ, ccode, operands, label);
329
330   return string;
331 }
332
333 /* Return the string to output a conditional branch to LABEL, which is
334    the operand number of the label, but suitable for the tail of a
335    SImode branch.
336
337    OP is the conditional expression (OP is never NULL_RTX).
338
339    REVERSED is nonzero if we should reverse the sense of the comparison.
340
341    INSN is the insn.  */
342
343 char *
344 xstormy16_output_cbranch_si (rtx op, const char *label, int reversed, rtx insn)
345 {
346   static char string[64];
347   int need_longbranch = get_attr_length (insn) >= 8;
348   int really_reversed = reversed ^ need_longbranch;
349   const char *ccode;
350   const char *templ;
351   char prevop[16];
352   enum rtx_code code;
353
354   code = GET_CODE (op);
355
356   /* Work out which way this really branches.  */
357   if (really_reversed)
358     code = reverse_condition (code);
359
360   switch (code)
361     {
362     case EQ:   ccode = "z";   break;
363     case NE:   ccode = "nz";  break;
364     case GE:   ccode = "ge";  break;
365     case LT:   ccode = "lt";  break;
366     case GEU:  ccode = "nc";  break;
367     case LTU:  ccode = "c";   break;
368
369       /* The missing codes above should never be generated.  */
370     default:
371       gcc_unreachable ();
372     }
373
374   switch (code)
375     {
376     case EQ: case NE:
377       {
378         int regnum;
379
380         gcc_assert (GET_CODE (XEXP (op, 0)) == REG);
381
382         regnum = REGNO (XEXP (op, 0));
383         sprintf (prevop, "or %s,%s", reg_names[regnum], reg_names[regnum+1]);
384       }
385       break;
386
387     case GE: case LT: case GEU: case LTU:
388       strcpy (prevop, "sbc %2,%3");
389       break;
390
391     default:
392       gcc_unreachable ();
393     }
394
395   if (need_longbranch)
396     templ = "%s | b%s .+6 | jmpf %s";
397   else
398     templ = "%s | b%s %s";
399   sprintf (string, templ, prevop, ccode, label);
400
401   return string;
402 }
403 \f
404 /* Many machines have some registers that cannot be copied directly to or from
405    memory or even from other types of registers.  An example is the `MQ'
406    register, which on most machines, can only be copied to or from general
407    registers, but not memory.  Some machines allow copying all registers to and
408    from memory, but require a scratch register for stores to some memory
409    locations (e.g., those with symbolic address on the RT, and those with
410    certain symbolic address on the SPARC when compiling PIC).  In some cases,
411    both an intermediate and a scratch register are required.
412
413    You should define these macros to indicate to the reload phase that it may
414    need to allocate at least one register for a reload in addition to the
415    register to contain the data.  Specifically, if copying X to a register
416    RCLASS in MODE requires an intermediate register, you should define
417    `SECONDARY_INPUT_RELOAD_CLASS' to return the largest register class all of
418    whose registers can be used as intermediate registers or scratch registers.
419
420    If copying a register RCLASS in MODE to X requires an intermediate or scratch
421    register, `SECONDARY_OUTPUT_RELOAD_CLASS' should be defined to return the
422    largest register class required.  If the requirements for input and output
423    reloads are the same, the macro `SECONDARY_RELOAD_CLASS' should be used
424    instead of defining both macros identically.
425
426    The values returned by these macros are often `GENERAL_REGS'.  Return
427    `NO_REGS' if no spare register is needed; i.e., if X can be directly copied
428    to or from a register of RCLASS in MODE without requiring a scratch register.
429    Do not define this macro if it would always return `NO_REGS'.
430
431    If a scratch register is required (either with or without an intermediate
432    register), you should define patterns for `reload_inM' or `reload_outM', as
433    required..  These patterns, which will normally be implemented with a
434    `define_expand', should be similar to the `movM' patterns, except that
435    operand 2 is the scratch register.
436
437    Define constraints for the reload register and scratch register that contain
438    a single register class.  If the original reload register (whose class is
439    RCLASS) can meet the constraint given in the pattern, the value returned by
440    these macros is used for the class of the scratch register.  Otherwise, two
441    additional reload registers are required.  Their classes are obtained from
442    the constraints in the insn pattern.
443
444    X might be a pseudo-register or a `subreg' of a pseudo-register, which could
445    either be in a hard register or in memory.  Use `true_regnum' to find out;
446    it will return -1 if the pseudo is in memory and the hard register number if
447    it is in a register.
448
449    These macros should not be used in the case where a particular class of
450    registers can only be copied to memory and not to another class of
451    registers.  In that case, secondary reload registers are not needed and
452    would not be helpful.  Instead, a stack location must be used to perform the
453    copy and the `movM' pattern should use memory as an intermediate storage.
454    This case often occurs between floating-point and general registers.  */
455
456 enum reg_class
457 xstormy16_secondary_reload_class (enum reg_class rclass,
458                                   enum machine_mode mode,
459                                   rtx x)
460 {
461   /* This chip has the interesting property that only the first eight
462      registers can be moved to/from memory.  */
463   if ((GET_CODE (x) == MEM
464        || ((GET_CODE (x) == SUBREG || GET_CODE (x) == REG)
465            && (true_regnum (x) == -1
466                || true_regnum (x) >= FIRST_PSEUDO_REGISTER)))
467       && ! reg_class_subset_p (rclass, EIGHT_REGS))
468     return EIGHT_REGS;
469
470   return NO_REGS;
471 }
472
473 enum reg_class
474 xstormy16_preferred_reload_class (rtx x, enum reg_class rclass)
475 {
476   if (rclass == GENERAL_REGS
477       && GET_CODE (x) == MEM)
478     return EIGHT_REGS;
479
480   return rclass;
481 }
482
483 /* Predicate for symbols and addresses that reflect special 8-bit
484    addressing.  */
485
486 int
487 xstormy16_below100_symbol (rtx x,
488                            enum machine_mode mode ATTRIBUTE_UNUSED)
489 {
490   if (GET_CODE (x) == CONST)
491     x = XEXP (x, 0);
492   if (GET_CODE (x) == PLUS
493       && GET_CODE (XEXP (x, 1)) == CONST_INT)
494     x = XEXP (x, 0);
495
496   if (GET_CODE (x) == SYMBOL_REF)
497     return (SYMBOL_REF_FLAGS (x) & SYMBOL_FLAG_XSTORMY16_BELOW100) != 0;
498
499   if (GET_CODE (x) == CONST_INT)
500     {
501       HOST_WIDE_INT i = INTVAL (x);
502       if ((i >= 0x0000 && i <= 0x00ff)
503           || (i >= 0x7f00 && i <= 0x7fff))
504         return 1;
505     }
506   return 0;
507 }
508
509 /* Likewise, but only for non-volatile MEMs, for patterns where the
510    MEM will get split into smaller sized accesses.  */
511
512 int
513 xstormy16_splittable_below100_operand (rtx x, enum machine_mode mode)
514 {
515   if (GET_CODE (x) == MEM && MEM_VOLATILE_P (x))
516     return 0;
517   return xstormy16_below100_operand (x, mode);
518 }
519
520 /* Expand an 8-bit IOR.  This either detects the one case we can
521    actually do, or uses a 16-bit IOR.  */
522
523 void
524 xstormy16_expand_iorqi3 (rtx *operands)
525 {
526   rtx in, out, outsub, val;
527
528   out = operands[0];
529   in = operands[1];
530   val = operands[2];
531
532   if (xstormy16_onebit_set_operand (val, QImode))
533     {
534       if (!xstormy16_below100_or_register (in, QImode))
535         in = copy_to_mode_reg (QImode, in);
536       if (!xstormy16_below100_or_register (out, QImode))
537         out = gen_reg_rtx (QImode);
538       emit_insn (gen_iorqi3_internal (out, in, val));
539       if (out != operands[0])
540         emit_move_insn (operands[0], out);
541       return;
542     }
543
544   if (GET_CODE (in) != REG)
545     in = copy_to_mode_reg (QImode, in);
546   if (GET_CODE (val) != REG
547       && GET_CODE (val) != CONST_INT)
548     val = copy_to_mode_reg (QImode, val);
549   if (GET_CODE (out) != REG)
550     out = gen_reg_rtx (QImode);
551
552   in = simplify_gen_subreg (HImode, in, QImode, 0);
553   outsub = simplify_gen_subreg (HImode, out, QImode, 0);
554   if (GET_CODE (val) != CONST_INT)
555     val = simplify_gen_subreg (HImode, val, QImode, 0);
556
557   emit_insn (gen_iorhi3 (outsub, in, val));
558
559   if (out != operands[0])
560     emit_move_insn (operands[0], out);
561 }
562
563 /* Expand an 8-bit AND.  This either detects the one case we can
564    actually do, or uses a 16-bit AND.  */
565
566 void
567 xstormy16_expand_andqi3 (rtx *operands)
568 {
569   rtx in, out, outsub, val;
570
571   out = operands[0];
572   in = operands[1];
573   val = operands[2];
574
575   if (xstormy16_onebit_clr_operand (val, QImode))
576     {
577       if (!xstormy16_below100_or_register (in, QImode))
578         in = copy_to_mode_reg (QImode, in);
579       if (!xstormy16_below100_or_register (out, QImode))
580         out = gen_reg_rtx (QImode);
581       emit_insn (gen_andqi3_internal (out, in, val));
582       if (out != operands[0])
583         emit_move_insn (operands[0], out);
584       return;
585     }
586
587   if (GET_CODE (in) != REG)
588     in = copy_to_mode_reg (QImode, in);
589   if (GET_CODE (val) != REG
590       && GET_CODE (val) != CONST_INT)
591     val = copy_to_mode_reg (QImode, val);
592   if (GET_CODE (out) != REG)
593     out = gen_reg_rtx (QImode);
594
595   in = simplify_gen_subreg (HImode, in, QImode, 0);
596   outsub = simplify_gen_subreg (HImode, out, QImode, 0);
597   if (GET_CODE (val) != CONST_INT)
598     val = simplify_gen_subreg (HImode, val, QImode, 0);
599
600   emit_insn (gen_andhi3 (outsub, in, val));
601
602   if (out != operands[0])
603     emit_move_insn (operands[0], out);
604 }
605
606 #define LEGITIMATE_ADDRESS_INTEGER_P(X, OFFSET)                         \
607  (GET_CODE (X) == CONST_INT                                             \
608   && (unsigned HOST_WIDE_INT) (INTVAL (X) + (OFFSET) + 2048) < 4096)
609
610 #define LEGITIMATE_ADDRESS_CONST_INT_P(X, OFFSET)                        \
611  (GET_CODE (X) == CONST_INT                                              \
612   && INTVAL (X) + (OFFSET) >= 0                                          \
613   && INTVAL (X) + (OFFSET) < 0x8000                                      \
614   && (INTVAL (X) + (OFFSET) < 0x100 || INTVAL (X) + (OFFSET) >= 0x7F00))
615
616 static bool
617 xstormy16_legitimate_address_p (enum machine_mode mode ATTRIBUTE_UNUSED,
618                                 rtx x, bool strict)
619 {
620   if (LEGITIMATE_ADDRESS_CONST_INT_P (x, 0))
621     return 1;
622
623   if (GET_CODE (x) == PLUS
624       && LEGITIMATE_ADDRESS_INTEGER_P (XEXP (x, 1), 0))
625     {
626       x = XEXP (x, 0);
627       /* PR 31232: Do not allow INT+INT as an address.  */
628       if (GET_CODE (x) == CONST_INT)
629         return 0;
630     }
631
632   if ((GET_CODE (x) == PRE_MODIFY
633        && GET_CODE (XEXP (XEXP (x, 1), 1)) == CONST_INT)
634       || GET_CODE (x) == POST_INC
635       || GET_CODE (x) == PRE_DEC)
636     x = XEXP (x, 0);
637
638   if (GET_CODE (x) == REG && REGNO_OK_FOR_BASE_P (REGNO (x))
639       && (! strict || REGNO (x) < FIRST_PSEUDO_REGISTER))
640     return 1;
641
642   if (xstormy16_below100_symbol (x, mode))
643     return 1;
644
645   return 0;
646 }
647
648 /* Return nonzero if memory address X (an RTX) can have different
649    meanings depending on the machine mode of the memory reference it
650    is used for or if the address is valid for some modes but not
651    others.
652
653    Autoincrement and autodecrement addresses typically have mode-dependent
654    effects because the amount of the increment or decrement is the size of the
655    operand being addressed.  Some machines have other mode-dependent addresses.
656    Many RISC machines have no mode-dependent addresses.
657
658    You may assume that ADDR is a valid address for the machine.
659
660    On this chip, this is true if the address is valid with an offset
661    of 0 but not of 6, because in that case it cannot be used as an
662    address for DImode or DFmode, or if the address is a post-increment
663    or pre-decrement address.  */
664
665 int
666 xstormy16_mode_dependent_address_p (rtx x)
667 {
668   if (LEGITIMATE_ADDRESS_CONST_INT_P (x, 0)
669       && ! LEGITIMATE_ADDRESS_CONST_INT_P (x, 6))
670     return 1;
671
672   if (GET_CODE (x) == PLUS
673       && LEGITIMATE_ADDRESS_INTEGER_P (XEXP (x, 1), 0)
674       && ! LEGITIMATE_ADDRESS_INTEGER_P (XEXP (x, 1), 6))
675     return 1;
676
677   if (GET_CODE (x) == PLUS)
678     x = XEXP (x, 0);
679
680   /* Auto-increment addresses are now treated generically in recog.c.  */
681   return 0;
682 }
683
684 /* A C expression that defines the optional machine-dependent constraint
685    letters (`Q', `R', `S', `T', `U') that can be used to segregate specific
686    types of operands, usually memory references, for the target machine.
687    Normally this macro will not be defined.  If it is required for a particular
688    target machine, it should return 1 if VALUE corresponds to the operand type
689    represented by the constraint letter C.  If C is not defined as an extra
690    constraint, the value returned should be 0 regardless of VALUE.  */
691
692 int
693 xstormy16_extra_constraint_p (rtx x, int c)
694 {
695   switch (c)
696     {
697       /* 'Q' is for pushes.  */
698     case 'Q':
699       return (GET_CODE (x) == MEM
700               && GET_CODE (XEXP (x, 0)) == POST_INC
701               && XEXP (XEXP (x, 0), 0) == stack_pointer_rtx);
702
703       /* 'R' is for pops.  */
704     case 'R':
705       return (GET_CODE (x) == MEM
706               && GET_CODE (XEXP (x, 0)) == PRE_DEC
707               && XEXP (XEXP (x, 0), 0) == stack_pointer_rtx);
708
709       /* 'S' is for immediate memory addresses.  */
710     case 'S':
711       return (GET_CODE (x) == MEM
712               && GET_CODE (XEXP (x, 0)) == CONST_INT
713               && xstormy16_legitimate_address_p (VOIDmode, XEXP (x, 0), 0));
714
715       /* 'T' is for Rx.  */
716     case 'T':
717       /* Not implemented yet.  */
718       return 0;
719
720       /* 'U' is for CONST_INT values not between 2 and 15 inclusive,
721          for allocating a scratch register for 32-bit shifts.  */
722     case 'U':
723       return (GET_CODE (x) == CONST_INT
724               && (INTVAL (x) < 2 || INTVAL (x) > 15));
725
726       /* 'Z' is for CONST_INT value zero.  This is for adding zero to
727          a register in addhi3, which would otherwise require a carry.  */
728     case 'Z':
729       return (GET_CODE (x) == CONST_INT
730               && (INTVAL (x) == 0));
731
732     case 'W':
733       return xstormy16_below100_operand (x, GET_MODE (x));
734
735     default:
736       return 0;
737     }
738 }
739
740 int
741 short_memory_operand (rtx x, enum machine_mode mode)
742 {
743   if (! memory_operand (x, mode))
744     return 0;
745   return (GET_CODE (XEXP (x, 0)) != PLUS);
746 }
747
748 /* Splitter for the 'move' patterns, for modes not directly implemented
749    by hardware.  Emit insns to copy a value of mode MODE from SRC to
750    DEST.
751
752    This function is only called when reload_completed.  */
753
754 void
755 xstormy16_split_move (enum machine_mode mode, rtx dest, rtx src)
756 {
757   int num_words = GET_MODE_BITSIZE (mode) / BITS_PER_WORD;
758   int direction, end, i;
759   int src_modifies = 0;
760   int dest_modifies = 0;
761   int src_volatile = 0;
762   int dest_volatile = 0;
763   rtx mem_operand;
764   rtx auto_inc_reg_rtx = NULL_RTX;
765
766   /* Check initial conditions.  */
767   gcc_assert (reload_completed
768               && mode != QImode && mode != HImode
769               && nonimmediate_operand (dest, mode)
770               && general_operand (src, mode));
771
772   /* This case is not supported below, and shouldn't be generated.  */
773   gcc_assert (GET_CODE (dest) != MEM || GET_CODE (src) != MEM);
774
775   /* This case is very very bad after reload, so trap it now.  */
776   gcc_assert (GET_CODE (dest) != SUBREG && GET_CODE (src) != SUBREG);
777
778   /* The general idea is to copy by words, offsetting the source and
779      destination.  Normally the least-significant word will be copied
780      first, but for pre-dec operations it's better to copy the
781      most-significant word first.  Only one operand can be a pre-dec
782      or post-inc operand.
783
784      It's also possible that the copy overlaps so that the direction
785      must be reversed.  */
786   direction = 1;
787
788   if (GET_CODE (dest) == MEM)
789     {
790       mem_operand = XEXP (dest, 0);
791       dest_modifies = side_effects_p (mem_operand);
792       if (auto_inc_p (mem_operand))
793         auto_inc_reg_rtx = XEXP (mem_operand, 0);
794       dest_volatile = MEM_VOLATILE_P (dest);
795       if (dest_volatile)
796         {
797           dest = copy_rtx (dest);
798           MEM_VOLATILE_P (dest) = 0;
799         }
800     }
801   else if (GET_CODE (src) == MEM)
802     {
803       mem_operand = XEXP (src, 0);
804       src_modifies = side_effects_p (mem_operand);
805       if (auto_inc_p (mem_operand))
806         auto_inc_reg_rtx = XEXP (mem_operand, 0);
807       src_volatile = MEM_VOLATILE_P (src);
808       if (src_volatile)
809         {
810           src = copy_rtx (src);
811           MEM_VOLATILE_P (src) = 0;
812         }
813     }
814   else
815     mem_operand = NULL_RTX;
816
817   if (mem_operand == NULL_RTX)
818     {
819       if (GET_CODE (src) == REG
820           && GET_CODE (dest) == REG
821           && reg_overlap_mentioned_p (dest, src)
822           && REGNO (dest) > REGNO (src))
823         direction = -1;
824     }
825   else if (GET_CODE (mem_operand) == PRE_DEC
826       || (GET_CODE (mem_operand) == PLUS
827           && GET_CODE (XEXP (mem_operand, 0)) == PRE_DEC))
828     direction = -1;
829   else if (GET_CODE (src) == MEM
830            && reg_overlap_mentioned_p (dest, src))
831     {
832       int regno;
833
834       gcc_assert (GET_CODE (dest) == REG);
835       regno = REGNO (dest);
836
837       gcc_assert (refers_to_regno_p (regno, regno + num_words,
838                                      mem_operand, 0));
839
840       if (refers_to_regno_p (regno, regno + 1, mem_operand, 0))
841         direction = -1;
842       else if (refers_to_regno_p (regno + num_words - 1, regno + num_words,
843                                   mem_operand, 0))
844         direction = 1;
845       else
846         /* This means something like
847            (set (reg:DI r0) (mem:DI (reg:HI r1)))
848            which we'd need to support by doing the set of the second word
849            last.  */
850         gcc_unreachable ();
851     }
852
853   end = direction < 0 ? -1 : num_words;
854   for (i = direction < 0 ? num_words - 1 : 0; i != end; i += direction)
855     {
856       rtx w_src, w_dest, insn;
857
858       if (src_modifies)
859         w_src = gen_rtx_MEM (word_mode, mem_operand);
860       else
861         w_src = simplify_gen_subreg (word_mode, src, mode, i * UNITS_PER_WORD);
862       if (src_volatile)
863         MEM_VOLATILE_P (w_src) = 1;
864       if (dest_modifies)
865         w_dest = gen_rtx_MEM (word_mode, mem_operand);
866       else
867         w_dest = simplify_gen_subreg (word_mode, dest, mode,
868                                       i * UNITS_PER_WORD);
869       if (dest_volatile)
870         MEM_VOLATILE_P (w_dest) = 1;
871
872       /* The simplify_subreg calls must always be able to simplify.  */
873       gcc_assert (GET_CODE (w_src) != SUBREG
874                   && GET_CODE (w_dest) != SUBREG);
875
876       insn = emit_insn (gen_rtx_SET (VOIDmode, w_dest, w_src));
877       if (auto_inc_reg_rtx)
878         REG_NOTES (insn) = alloc_EXPR_LIST (REG_INC,
879                                             auto_inc_reg_rtx,
880                                             REG_NOTES (insn));
881     }
882 }
883
884 /* Expander for the 'move' patterns.  Emit insns to copy a value of
885    mode MODE from SRC to DEST.  */
886
887 void
888 xstormy16_expand_move (enum machine_mode mode, rtx dest, rtx src)
889 {
890   if ((GET_CODE (dest) == MEM) && (GET_CODE (XEXP (dest, 0)) == PRE_MODIFY))
891     {
892       rtx pmv      = XEXP (dest, 0);
893       rtx dest_reg = XEXP (pmv, 0);
894       rtx dest_mod = XEXP (pmv, 1);
895       rtx set      = gen_rtx_SET (Pmode, dest_reg, dest_mod);
896       rtx clobber  = gen_rtx_CLOBBER (VOIDmode, gen_rtx_REG (BImode, CARRY_REGNUM));
897
898       dest = gen_rtx_MEM (mode, dest_reg);
899       emit_insn (gen_rtx_PARALLEL (VOIDmode, gen_rtvec (2, set, clobber)));
900     }
901   else if ((GET_CODE (src) == MEM) && (GET_CODE (XEXP (src, 0)) == PRE_MODIFY))
902     {
903       rtx pmv     = XEXP (src, 0);
904       rtx src_reg = XEXP (pmv, 0);
905       rtx src_mod = XEXP (pmv, 1);
906       rtx set     = gen_rtx_SET (Pmode, src_reg, src_mod);
907       rtx clobber = gen_rtx_CLOBBER (VOIDmode, gen_rtx_REG (BImode, CARRY_REGNUM));
908
909       src = gen_rtx_MEM (mode, src_reg);
910       emit_insn (gen_rtx_PARALLEL (VOIDmode, gen_rtvec (2, set, clobber)));
911     }
912
913   /* There are only limited immediate-to-memory move instructions.  */
914   if (! reload_in_progress
915       && ! reload_completed
916       && GET_CODE (dest) == MEM
917       && (GET_CODE (XEXP (dest, 0)) != CONST_INT
918           || ! xstormy16_legitimate_address_p (mode, XEXP (dest, 0), 0))
919       && ! xstormy16_below100_operand (dest, mode)
920       && GET_CODE (src) != REG
921       && GET_CODE (src) != SUBREG)
922     src = copy_to_mode_reg (mode, src);
923
924   /* Don't emit something we would immediately split.  */
925   if (reload_completed
926       && mode != HImode && mode != QImode)
927     {
928       xstormy16_split_move (mode, dest, src);
929       return;
930     }
931
932   emit_insn (gen_rtx_SET (VOIDmode, dest, src));
933 }
934 \f
935 /* Stack Layout:
936
937    The stack is laid out as follows:
938
939 SP->
940 FP->    Local variables
941         Register save area (up to 4 words)
942         Argument register save area for stdarg (NUM_ARGUMENT_REGISTERS words)
943
944 AP->    Return address (two words)
945         9th procedure parameter word
946         10th procedure parameter word
947         ...
948         last procedure parameter word
949
950   The frame pointer location is tuned to make it most likely that all
951   parameters and local variables can be accessed using a load-indexed
952   instruction.  */
953
954 /* A structure to describe the layout.  */
955 struct xstormy16_stack_layout
956 {
957   /* Size of the topmost three items on the stack.  */
958   int locals_size;
959   int register_save_size;
960   int stdarg_save_size;
961   /* Sum of the above items.  */
962   int frame_size;
963   /* Various offsets.  */
964   int first_local_minus_ap;
965   int sp_minus_fp;
966   int fp_minus_ap;
967 };
968
969 /* Does REGNO need to be saved?  */
970 #define REG_NEEDS_SAVE(REGNUM, IFUN)                                    \
971   ((df_regs_ever_live_p (REGNUM) && ! call_used_regs[REGNUM])           \
972    || (IFUN && ! fixed_regs[REGNUM] && call_used_regs[REGNUM]           \
973        && (REGNUM != CARRY_REGNUM)                                      \
974        && (df_regs_ever_live_p (REGNUM) || ! current_function_is_leaf)))
975
976 /* Compute the stack layout.  */
977
978 struct xstormy16_stack_layout
979 xstormy16_compute_stack_layout (void)
980 {
981   struct xstormy16_stack_layout layout;
982   int regno;
983   const int ifun = xstormy16_interrupt_function_p ();
984
985   layout.locals_size = get_frame_size ();
986
987   layout.register_save_size = 0;
988   for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
989     if (REG_NEEDS_SAVE (regno, ifun))
990       layout.register_save_size += UNITS_PER_WORD;
991
992   if (cfun->stdarg)
993     layout.stdarg_save_size = NUM_ARGUMENT_REGISTERS * UNITS_PER_WORD;
994   else
995     layout.stdarg_save_size = 0;
996
997   layout.frame_size = (layout.locals_size
998                        + layout.register_save_size
999                        + layout.stdarg_save_size);
1000
1001   if (crtl->args.size <= 2048 && crtl->args.size != -1)
1002     {
1003       if (layout.frame_size - INCOMING_FRAME_SP_OFFSET
1004           + crtl->args.size <= 2048)
1005         layout.fp_minus_ap = layout.frame_size - INCOMING_FRAME_SP_OFFSET;
1006       else
1007         layout.fp_minus_ap = 2048 - crtl->args.size;
1008     }
1009   else
1010     layout.fp_minus_ap = (layout.stdarg_save_size
1011                           + layout.register_save_size
1012                           - INCOMING_FRAME_SP_OFFSET);
1013   layout.sp_minus_fp = (layout.frame_size - INCOMING_FRAME_SP_OFFSET
1014                         - layout.fp_minus_ap);
1015   layout.first_local_minus_ap = layout.sp_minus_fp - layout.locals_size;
1016   return layout;
1017 }
1018
1019 /* Determine how all the special registers get eliminated.  */
1020
1021 int
1022 xstormy16_initial_elimination_offset (int from, int to)
1023 {
1024   struct xstormy16_stack_layout layout;
1025   int result;
1026
1027   layout = xstormy16_compute_stack_layout ();
1028
1029   if (from == FRAME_POINTER_REGNUM && to == HARD_FRAME_POINTER_REGNUM)
1030     result = layout.sp_minus_fp - layout.locals_size;
1031   else if (from == FRAME_POINTER_REGNUM && to == STACK_POINTER_REGNUM)
1032     result = - layout.locals_size;
1033   else if (from == ARG_POINTER_REGNUM && to == HARD_FRAME_POINTER_REGNUM)
1034     result = - layout.fp_minus_ap;
1035   else if (from == ARG_POINTER_REGNUM && to == STACK_POINTER_REGNUM)
1036     result = - (layout.sp_minus_fp + layout.fp_minus_ap);
1037   else
1038     gcc_unreachable ();
1039
1040   return result;
1041 }
1042
1043 static rtx
1044 emit_addhi3_postreload (rtx dest, rtx src0, rtx src1)
1045 {
1046   rtx set, clobber, insn;
1047
1048   set = gen_rtx_SET (VOIDmode, dest, gen_rtx_PLUS (HImode, src0, src1));
1049   clobber = gen_rtx_CLOBBER (VOIDmode, gen_rtx_REG (BImode, CARRY_REGNUM));
1050   insn = emit_insn (gen_rtx_PARALLEL (VOIDmode, gen_rtvec (2, set, clobber)));
1051   return insn;
1052 }
1053
1054 /* Called after register allocation to add any instructions needed for
1055    the prologue.  Using a prologue insn is favored compared to putting
1056    all of the instructions in the TARGET_ASM_FUNCTION_PROLOGUE macro,
1057    since it allows the scheduler to intermix instructions with the
1058    saves of the caller saved registers.  In some cases, it might be
1059    necessary to emit a barrier instruction as the last insn to prevent
1060    such scheduling.
1061
1062    Also any insns generated here should have RTX_FRAME_RELATED_P(insn) = 1
1063    so that the debug info generation code can handle them properly.  */
1064
1065 void
1066 xstormy16_expand_prologue (void)
1067 {
1068   struct xstormy16_stack_layout layout;
1069   int regno;
1070   rtx insn;
1071   rtx mem_push_rtx;
1072   const int ifun = xstormy16_interrupt_function_p ();
1073
1074   mem_push_rtx = gen_rtx_POST_INC (Pmode, stack_pointer_rtx);
1075   mem_push_rtx = gen_rtx_MEM (HImode, mem_push_rtx);
1076
1077   layout = xstormy16_compute_stack_layout ();
1078
1079   if (layout.locals_size >= 32768)
1080     error ("local variable memory requirements exceed capacity");
1081
1082   /* Save the argument registers if necessary.  */
1083   if (layout.stdarg_save_size)
1084     for (regno = FIRST_ARGUMENT_REGISTER;
1085          regno < FIRST_ARGUMENT_REGISTER + NUM_ARGUMENT_REGISTERS;
1086          regno++)
1087       {
1088         rtx dwarf;
1089         rtx reg = gen_rtx_REG (HImode, regno);
1090
1091         insn = emit_move_insn (mem_push_rtx, reg);
1092         RTX_FRAME_RELATED_P (insn) = 1;
1093
1094         dwarf = gen_rtx_SEQUENCE (VOIDmode, rtvec_alloc (2));
1095
1096         XVECEXP (dwarf, 0, 0) = gen_rtx_SET (VOIDmode,
1097                                              gen_rtx_MEM (Pmode, stack_pointer_rtx),
1098                                              reg);
1099         XVECEXP (dwarf, 0, 1) = gen_rtx_SET (Pmode, stack_pointer_rtx,
1100                                              plus_constant (stack_pointer_rtx,
1101                                                             GET_MODE_SIZE (Pmode)));
1102         REG_NOTES (insn) = gen_rtx_EXPR_LIST (REG_FRAME_RELATED_EXPR,
1103                                               dwarf,
1104                                               REG_NOTES (insn));
1105         RTX_FRAME_RELATED_P (XVECEXP (dwarf, 0, 0)) = 1;
1106         RTX_FRAME_RELATED_P (XVECEXP (dwarf, 0, 1)) = 1;
1107       }
1108
1109   /* Push each of the registers to save.  */
1110   for (regno = 0; regno < FIRST_PSEUDO_REGISTER; regno++)
1111     if (REG_NEEDS_SAVE (regno, ifun))
1112       {
1113         rtx dwarf;
1114         rtx reg = gen_rtx_REG (HImode, regno);
1115
1116         insn = emit_move_insn (mem_push_rtx, reg);
1117         RTX_FRAME_RELATED_P (insn) = 1;
1118
1119         dwarf = gen_rtx_SEQUENCE (VOIDmode, rtvec_alloc (2));
1120
1121         XVECEXP (dwarf, 0, 0) = gen_rtx_SET (VOIDmode,
1122                                              gen_rtx_MEM (Pmode, stack_pointer_rtx),
1123                                              reg);
1124         XVECEXP (dwarf, 0, 1) = gen_rtx_SET (Pmode, stack_pointer_rtx,
1125                                              plus_constant (stack_pointer_rtx,
1126                                                             GET_MODE_SIZE (Pmode)));
1127         REG_NOTES (insn) = gen_rtx_EXPR_LIST (REG_FRAME_RELATED_EXPR,
1128                                               dwarf,
1129                                               REG_NOTES (insn));
1130         RTX_FRAME_RELATED_P (XVECEXP (dwarf, 0, 0)) = 1;
1131         RTX_FRAME_RELATED_P (XVECEXP (dwarf, 0, 1)) = 1;
1132       }
1133
1134   /* It's just possible that the SP here might be what we need for
1135      the new FP...  */
1136   if (frame_pointer_needed && layout.sp_minus_fp == layout.locals_size)
1137     {
1138       insn = emit_move_insn (hard_frame_pointer_rtx, stack_pointer_rtx);
1139       RTX_FRAME_RELATED_P (insn) = 1;
1140     }
1141
1142   /* Allocate space for local variables.  */
1143   if (layout.locals_size)
1144     {
1145       insn = emit_addhi3_postreload (stack_pointer_rtx, stack_pointer_rtx,
1146                                      GEN_INT (layout.locals_size));
1147       RTX_FRAME_RELATED_P (insn) = 1;
1148     }
1149
1150   /* Set up the frame pointer, if required.  */
1151   if (frame_pointer_needed && layout.sp_minus_fp != layout.locals_size)
1152     {
1153       insn = emit_move_insn (hard_frame_pointer_rtx, stack_pointer_rtx);
1154       RTX_FRAME_RELATED_P (insn) = 1;
1155
1156       if (layout.sp_minus_fp)
1157         {
1158           insn = emit_addhi3_postreload (hard_frame_pointer_rtx,
1159                                          hard_frame_pointer_rtx,
1160                                          GEN_INT (- layout.sp_minus_fp));
1161           RTX_FRAME_RELATED_P (insn) = 1;
1162         }
1163     }
1164 }
1165
1166 /* Do we need an epilogue at all?  */
1167
1168 int
1169 direct_return (void)
1170 {
1171   return (reload_completed
1172           && xstormy16_compute_stack_layout ().frame_size == 0);
1173 }
1174
1175 /* Called after register allocation to add any instructions needed for
1176    the epilogue.  Using an epilogue insn is favored compared to putting
1177    all of the instructions in the TARGET_ASM_FUNCTION_PROLOGUE macro,
1178    since it allows the scheduler to intermix instructions with the
1179    saves of the caller saved registers.  In some cases, it might be
1180    necessary to emit a barrier instruction as the last insn to prevent
1181    such scheduling.  */
1182
1183 void
1184 xstormy16_expand_epilogue (void)
1185 {
1186   struct xstormy16_stack_layout layout;
1187   rtx mem_pop_rtx, insn;
1188   int regno;
1189   const int ifun = xstormy16_interrupt_function_p ();
1190
1191   mem_pop_rtx = gen_rtx_PRE_DEC (Pmode, stack_pointer_rtx);
1192   mem_pop_rtx = gen_rtx_MEM (HImode, mem_pop_rtx);
1193
1194   layout = xstormy16_compute_stack_layout ();
1195
1196   /* Pop the stack for the locals.  */
1197   if (layout.locals_size)
1198     {
1199       if (frame_pointer_needed && layout.sp_minus_fp == layout.locals_size)
1200         emit_move_insn (stack_pointer_rtx, hard_frame_pointer_rtx);
1201       else
1202         emit_addhi3_postreload (stack_pointer_rtx, stack_pointer_rtx,
1203                                 GEN_INT (- layout.locals_size));
1204     }
1205
1206   /* Restore any call-saved registers.  */
1207   for (regno = FIRST_PSEUDO_REGISTER - 1; regno >= 0; regno--)
1208     if (REG_NEEDS_SAVE (regno, ifun))
1209       emit_move_insn (gen_rtx_REG (HImode, regno), mem_pop_rtx);
1210
1211   /* Pop the stack for the stdarg save area.  */
1212   if (layout.stdarg_save_size)
1213     emit_addhi3_postreload (stack_pointer_rtx, stack_pointer_rtx,
1214                             GEN_INT (- layout.stdarg_save_size));
1215
1216   /* Return.  */
1217   if (ifun)
1218     emit_jump_insn (gen_return_internal_interrupt ());
1219   else
1220     emit_jump_insn (gen_return_internal ());
1221 }
1222
1223 int
1224 xstormy16_epilogue_uses (int regno)
1225 {
1226   if (reload_completed && call_used_regs[regno])
1227     {
1228       const int ifun = xstormy16_interrupt_function_p ();
1229       return REG_NEEDS_SAVE (regno, ifun);
1230     }
1231   return 0;
1232 }
1233
1234 void
1235 xstormy16_function_profiler (void)
1236 {
1237   sorry ("function_profiler support");
1238 }
1239 \f
1240 /* Return an updated summarizer variable CUM to advance past an
1241    argument in the argument list.  The values MODE, TYPE and NAMED
1242    describe that argument.  Once this is done, the variable CUM is
1243    suitable for analyzing the *following* argument with
1244    `FUNCTION_ARG', etc.
1245
1246    This function need not do anything if the argument in question was
1247    passed on the stack.  The compiler knows how to track the amount of
1248    stack space used for arguments without any special help.  However,
1249    it makes life easier for xstormy16_build_va_list if it does update
1250    the word count.  */
1251
1252 CUMULATIVE_ARGS
1253 xstormy16_function_arg_advance (CUMULATIVE_ARGS cum, enum machine_mode mode,
1254                                 tree type, int named ATTRIBUTE_UNUSED)
1255 {
1256   /* If an argument would otherwise be passed partially in registers,
1257      and partially on the stack, the whole of it is passed on the
1258      stack.  */
1259   if (cum < NUM_ARGUMENT_REGISTERS
1260       && cum + XSTORMY16_WORD_SIZE (type, mode) > NUM_ARGUMENT_REGISTERS)
1261     cum = NUM_ARGUMENT_REGISTERS;
1262
1263   cum += XSTORMY16_WORD_SIZE (type, mode);
1264
1265   return cum;
1266 }
1267
1268 rtx
1269 xstormy16_function_arg (CUMULATIVE_ARGS cum, enum machine_mode mode,
1270                         tree type, int named ATTRIBUTE_UNUSED)
1271 {
1272   if (mode == VOIDmode)
1273     return const0_rtx;
1274   if (targetm.calls.must_pass_in_stack (mode, type)
1275       || cum + XSTORMY16_WORD_SIZE (type, mode) > NUM_ARGUMENT_REGISTERS)
1276     return NULL_RTX;
1277   return gen_rtx_REG (mode, cum + 2);
1278 }
1279
1280 /* Build the va_list type.
1281
1282    For this chip, va_list is a record containing a counter and a pointer.
1283    The counter is of type 'int' and indicates how many bytes
1284    have been used to date.  The pointer indicates the stack position
1285    for arguments that have not been passed in registers.
1286    To keep the layout nice, the pointer is first in the structure.  */
1287
1288 static tree
1289 xstormy16_build_builtin_va_list (void)
1290 {
1291   tree f_1, f_2, record, type_decl;
1292
1293   record = (*lang_hooks.types.make_type) (RECORD_TYPE);
1294   type_decl = build_decl (BUILTINS_LOCATION,
1295                           TYPE_DECL, get_identifier ("__va_list_tag"), record);
1296
1297   f_1 = build_decl (BUILTINS_LOCATION,
1298                     FIELD_DECL, get_identifier ("base"),
1299                       ptr_type_node);
1300   f_2 = build_decl (BUILTINS_LOCATION,
1301                     FIELD_DECL, get_identifier ("count"),
1302                       unsigned_type_node);
1303
1304   DECL_FIELD_CONTEXT (f_1) = record;
1305   DECL_FIELD_CONTEXT (f_2) = record;
1306
1307   TREE_CHAIN (record) = type_decl;
1308   TYPE_NAME (record) = type_decl;
1309   TYPE_FIELDS (record) = f_1;
1310   TREE_CHAIN (f_1) = f_2;
1311
1312   layout_type (record);
1313
1314   return record;
1315 }
1316
1317 /* Implement the stdarg/varargs va_start macro.  STDARG_P is nonzero if this
1318    is stdarg.h instead of varargs.h.  VALIST is the tree of the va_list
1319    variable to initialize.  NEXTARG is the machine independent notion of the
1320    'next' argument after the variable arguments.  */
1321
1322 static void
1323 xstormy16_expand_builtin_va_start (tree valist, rtx nextarg ATTRIBUTE_UNUSED)
1324 {
1325   tree f_base, f_count;
1326   tree base, count;
1327   tree t,u;
1328
1329   if (xstormy16_interrupt_function_p ())
1330     error ("cannot use va_start in interrupt function");
1331
1332   f_base = TYPE_FIELDS (va_list_type_node);
1333   f_count = TREE_CHAIN (f_base);
1334
1335   base = build3 (COMPONENT_REF, TREE_TYPE (f_base), valist, f_base, NULL_TREE);
1336   count = build3 (COMPONENT_REF, TREE_TYPE (f_count), valist, f_count,
1337                   NULL_TREE);
1338
1339   t = make_tree (TREE_TYPE (base), virtual_incoming_args_rtx);
1340   u = build_int_cst (NULL_TREE, - INCOMING_FRAME_SP_OFFSET);
1341   u = fold_convert (TREE_TYPE (count), u);
1342   t = build2 (POINTER_PLUS_EXPR, TREE_TYPE (base), t, u);
1343   t = build2 (MODIFY_EXPR, TREE_TYPE (base), base, t);
1344   TREE_SIDE_EFFECTS (t) = 1;
1345   expand_expr (t, const0_rtx, VOIDmode, EXPAND_NORMAL);
1346
1347   t = build2 (MODIFY_EXPR, TREE_TYPE (count), count,
1348               build_int_cst (NULL_TREE,
1349                              crtl->args.info * UNITS_PER_WORD));
1350   TREE_SIDE_EFFECTS (t) = 1;
1351   expand_expr (t, const0_rtx, VOIDmode, EXPAND_NORMAL);
1352 }
1353
1354 /* Implement the stdarg/varargs va_arg macro.  VALIST is the variable
1355    of type va_list as a tree, TYPE is the type passed to va_arg.
1356    Note:  This algorithm is documented in stormy-abi.  */
1357
1358 static tree
1359 xstormy16_gimplify_va_arg_expr (tree valist, tree type, gimple_seq *pre_p,
1360                                 gimple_seq *post_p ATTRIBUTE_UNUSED)
1361 {
1362   tree f_base, f_count;
1363   tree base, count;
1364   tree count_tmp, addr, t;
1365   tree lab_gotaddr, lab_fromstack;
1366   int size, size_of_reg_args, must_stack;
1367   tree size_tree;
1368
1369   f_base = TYPE_FIELDS (va_list_type_node);
1370   f_count = TREE_CHAIN (f_base);
1371
1372   base = build3 (COMPONENT_REF, TREE_TYPE (f_base), valist, f_base, NULL_TREE);
1373   count = build3 (COMPONENT_REF, TREE_TYPE (f_count), valist, f_count,
1374                   NULL_TREE);
1375
1376   must_stack = targetm.calls.must_pass_in_stack (TYPE_MODE (type), type);
1377   size_tree = round_up (size_in_bytes (type), UNITS_PER_WORD);
1378   gimplify_expr (&size_tree, pre_p, NULL, is_gimple_val, fb_rvalue);
1379
1380   size_of_reg_args = NUM_ARGUMENT_REGISTERS * UNITS_PER_WORD;
1381
1382   count_tmp = get_initialized_tmp_var (count, pre_p, NULL);
1383   lab_gotaddr = create_artificial_label (UNKNOWN_LOCATION);
1384   lab_fromstack = create_artificial_label (UNKNOWN_LOCATION);
1385   addr = create_tmp_var (ptr_type_node, NULL);
1386
1387   if (!must_stack)
1388     {
1389       tree r;
1390
1391       t = fold_convert (TREE_TYPE (count), size_tree);
1392       t = build2 (PLUS_EXPR, TREE_TYPE (count), count_tmp, t);
1393       r = fold_convert (TREE_TYPE (count), size_int (size_of_reg_args));
1394       t = build2 (GT_EXPR, boolean_type_node, t, r);
1395       t = build3 (COND_EXPR, void_type_node, t,
1396                   build1 (GOTO_EXPR, void_type_node, lab_fromstack),
1397                   NULL_TREE);
1398       gimplify_and_add (t, pre_p);
1399
1400       t = build2 (POINTER_PLUS_EXPR, ptr_type_node, base, count_tmp);
1401       gimplify_assign (addr, t, pre_p);
1402
1403       t = build1 (GOTO_EXPR, void_type_node, lab_gotaddr);
1404       gimplify_and_add (t, pre_p);
1405
1406       t = build1 (LABEL_EXPR, void_type_node, lab_fromstack);
1407       gimplify_and_add (t, pre_p);
1408     }
1409
1410   /* Arguments larger than a word might need to skip over some
1411      registers, since arguments are either passed entirely in
1412      registers or entirely on the stack.  */
1413   size = PUSH_ROUNDING (int_size_in_bytes (type));
1414   if (size > 2 || size < 0 || must_stack)
1415     {
1416       tree r, u;
1417
1418       r = size_int (NUM_ARGUMENT_REGISTERS * UNITS_PER_WORD);
1419       u = build2 (MODIFY_EXPR, TREE_TYPE (count_tmp), count_tmp, r);
1420
1421       t = fold_convert (TREE_TYPE (count), r);
1422       t = build2 (GE_EXPR, boolean_type_node, count_tmp, t);
1423       t = build3 (COND_EXPR, void_type_node, t, NULL_TREE, u);
1424       gimplify_and_add (t, pre_p);
1425     }
1426
1427   t = size_int (NUM_ARGUMENT_REGISTERS * UNITS_PER_WORD
1428                 + INCOMING_FRAME_SP_OFFSET);
1429   t = fold_convert (TREE_TYPE (count), t);
1430   t = build2 (MINUS_EXPR, TREE_TYPE (count), count_tmp, t);
1431   t = build2 (PLUS_EXPR, TREE_TYPE (count), t,
1432               fold_convert (TREE_TYPE (count), size_tree));
1433   t = fold_convert (TREE_TYPE (t), fold (t));
1434   t = fold_build1 (NEGATE_EXPR, TREE_TYPE (t), t);
1435   t = build2 (POINTER_PLUS_EXPR, TREE_TYPE (base), base, t);
1436   gimplify_assign (addr, t, pre_p);
1437
1438   t = build1 (LABEL_EXPR, void_type_node, lab_gotaddr);
1439   gimplify_and_add (t, pre_p);
1440
1441   t = fold_convert (TREE_TYPE (count), size_tree);
1442   t = build2 (PLUS_EXPR, TREE_TYPE (count), count_tmp, t);
1443   gimplify_assign (count, t, pre_p);
1444
1445   addr = fold_convert (build_pointer_type (type), addr);
1446   return build_va_arg_indirect_ref (addr);
1447 }
1448
1449 /* Initialize the variable parts of a trampoline.  ADDR is an RTX for
1450    the address of the trampoline; FNADDR is an RTX for the address of
1451    the nested function; STATIC_CHAIN is an RTX for the static chain
1452    value that should be passed to the function when it is called.  */
1453
1454 void
1455 xstormy16_initialize_trampoline (rtx addr, rtx fnaddr, rtx static_chain)
1456 {
1457   rtx reg_addr = gen_reg_rtx (Pmode);
1458   rtx temp = gen_reg_rtx (HImode);
1459   rtx reg_fnaddr = gen_reg_rtx (HImode);
1460   rtx reg_addr_mem;
1461
1462   reg_addr_mem = gen_rtx_MEM (HImode, reg_addr);
1463
1464   emit_move_insn (reg_addr, addr);
1465   emit_move_insn (temp, GEN_INT (0x3130 | STATIC_CHAIN_REGNUM));
1466   emit_move_insn (reg_addr_mem, temp);
1467   emit_insn (gen_addhi3 (reg_addr, reg_addr, const2_rtx));
1468   emit_move_insn (temp, static_chain);
1469   emit_move_insn (reg_addr_mem, temp);
1470   emit_insn (gen_addhi3 (reg_addr, reg_addr, const2_rtx));
1471   emit_move_insn (reg_fnaddr, fnaddr);
1472   emit_move_insn (temp, reg_fnaddr);
1473   emit_insn (gen_andhi3 (temp, temp, GEN_INT (0xFF)));
1474   emit_insn (gen_iorhi3 (temp, temp, GEN_INT (0x0200)));
1475   emit_move_insn (reg_addr_mem, temp);
1476   emit_insn (gen_addhi3 (reg_addr, reg_addr, const2_rtx));
1477   emit_insn (gen_lshrhi3 (reg_fnaddr, reg_fnaddr, GEN_INT (8)));
1478   emit_move_insn (reg_addr_mem, reg_fnaddr);
1479 }
1480
1481 /* Worker function for FUNCTION_VALUE.  */
1482
1483 rtx
1484 xstormy16_function_value (const_tree valtype, const_tree func ATTRIBUTE_UNUSED)
1485 {
1486   enum machine_mode mode;
1487   mode = TYPE_MODE (valtype);
1488   PROMOTE_MODE (mode, 0, valtype);
1489   return gen_rtx_REG (mode, RETURN_VALUE_REGNUM);
1490 }
1491
1492 /* A C compound statement that outputs the assembler code for a thunk function,
1493    used to implement C++ virtual function calls with multiple inheritance.  The
1494    thunk acts as a wrapper around a virtual function, adjusting the implicit
1495    object parameter before handing control off to the real function.
1496
1497    First, emit code to add the integer DELTA to the location that contains the
1498    incoming first argument.  Assume that this argument contains a pointer, and
1499    is the one used to pass the `this' pointer in C++.  This is the incoming
1500    argument *before* the function prologue, e.g. `%o0' on a sparc.  The
1501    addition must preserve the values of all other incoming arguments.
1502
1503    After the addition, emit code to jump to FUNCTION, which is a
1504    `FUNCTION_DECL'.  This is a direct pure jump, not a call, and does not touch
1505    the return address.  Hence returning from FUNCTION will return to whoever
1506    called the current `thunk'.
1507
1508    The effect must be as if @var{function} had been called directly
1509    with the adjusted first argument.  This macro is responsible for
1510    emitting all of the code for a thunk function;
1511    TARGET_ASM_FUNCTION_PROLOGUE and TARGET_ASM_FUNCTION_EPILOGUE are
1512    not invoked.
1513
1514    The THUNK_FNDECL is redundant.  (DELTA and FUNCTION have already been
1515    extracted from it.)  It might possibly be useful on some targets, but
1516    probably not.  */
1517
1518 static void
1519 xstormy16_asm_output_mi_thunk (FILE *file,
1520                                tree thunk_fndecl ATTRIBUTE_UNUSED,
1521                                HOST_WIDE_INT delta,
1522                                HOST_WIDE_INT vcall_offset ATTRIBUTE_UNUSED,
1523                                tree function)
1524 {
1525   int regnum = FIRST_ARGUMENT_REGISTER;
1526
1527   /* There might be a hidden first argument for a returned structure.  */
1528   if (aggregate_value_p (TREE_TYPE (TREE_TYPE (function)), function))
1529     regnum += 1;
1530
1531   fprintf (file, "\tadd %s,#0x%x\n", reg_names[regnum], (int) delta & 0xFFFF);
1532   fputs ("\tjmpf ", file);
1533   assemble_name (file, XSTR (XEXP (DECL_RTL (function), 0), 0));
1534   putc ('\n', file);
1535 }
1536
1537 /* The purpose of this function is to override the default behavior of
1538    BSS objects.  Normally, they go into .bss or .sbss via ".common"
1539    directives, but we need to override that and put them in
1540    .bss_below100.  We can't just use a section override (like we do
1541    for .data_below100), because that makes them initialized rather
1542    than uninitialized.  */
1543
1544 void
1545 xstormy16_asm_output_aligned_common (FILE *stream,
1546                                      tree decl,
1547                                      const char *name,
1548                                      int size,
1549                                      int align,
1550                                      int global)
1551 {
1552   rtx mem = DECL_RTL (decl);
1553   rtx symbol;
1554
1555   if (mem != NULL_RTX
1556       && GET_CODE (mem) == MEM
1557       && GET_CODE (symbol = XEXP (mem, 0)) == SYMBOL_REF
1558       && SYMBOL_REF_FLAGS (symbol) & SYMBOL_FLAG_XSTORMY16_BELOW100)
1559     {
1560       const char *name2;
1561       int p2align = 0;
1562
1563       switch_to_section (bss100_section);
1564
1565       while (align > 8)
1566         {
1567           align /= 2;
1568           p2align ++;
1569         }
1570
1571       name2 = default_strip_name_encoding (name);
1572       if (global)
1573         fprintf (stream, "\t.globl\t%s\n", name2);
1574       if (p2align)
1575         fprintf (stream, "\t.p2align %d\n", p2align);
1576       fprintf (stream, "\t.type\t%s, @object\n", name2);
1577       fprintf (stream, "\t.size\t%s, %d\n", name2, size);
1578       fprintf (stream, "%s:\n\t.space\t%d\n", name2, size);
1579       return;
1580     }
1581
1582   if (!global)
1583     {
1584       fprintf (stream, "\t.local\t");
1585       assemble_name (stream, name);
1586       fprintf (stream, "\n");
1587     }
1588   fprintf (stream, "\t.comm\t");
1589   assemble_name (stream, name);
1590   fprintf (stream, ",%u,%u\n", size, align / BITS_PER_UNIT);
1591 }
1592
1593 /* Implement TARGET_ASM_INIT_SECTIONS.  */
1594
1595 static void
1596 xstormy16_asm_init_sections (void)
1597 {
1598   bss100_section
1599     = get_unnamed_section (SECTION_WRITE | SECTION_BSS,
1600                            output_section_asm_op,
1601                            "\t.section \".bss_below100\",\"aw\",@nobits");
1602 }
1603
1604 /* Mark symbols with the "below100" attribute so that we can use the
1605    special addressing modes for them.  */
1606
1607 static void
1608 xstormy16_encode_section_info (tree decl, rtx r, int first)
1609 {
1610   default_encode_section_info (decl, r, first);
1611
1612    if (TREE_CODE (decl) == VAR_DECL
1613       && (lookup_attribute ("below100", DECL_ATTRIBUTES (decl))
1614           || lookup_attribute ("BELOW100", DECL_ATTRIBUTES (decl))))
1615     {
1616       rtx symbol = XEXP (r, 0);
1617
1618       gcc_assert (GET_CODE (symbol) == SYMBOL_REF);
1619       SYMBOL_REF_FLAGS (symbol) |= SYMBOL_FLAG_XSTORMY16_BELOW100;
1620     }
1621 }
1622
1623 #undef  TARGET_ASM_CONSTRUCTOR
1624 #define TARGET_ASM_CONSTRUCTOR  xstormy16_asm_out_constructor
1625 #undef  TARGET_ASM_DESTRUCTOR
1626 #define TARGET_ASM_DESTRUCTOR   xstormy16_asm_out_destructor
1627
1628 /* Output constructors and destructors.  Just like
1629    default_named_section_asm_out_* but don't set the sections writable.  */
1630
1631 static void
1632 xstormy16_asm_out_destructor (rtx symbol, int priority)
1633 {
1634   const char *section = ".dtors";
1635   char buf[16];
1636
1637   /* ??? This only works reliably with the GNU linker.  */
1638   if (priority != DEFAULT_INIT_PRIORITY)
1639     {
1640       sprintf (buf, ".dtors.%.5u",
1641                /* Invert the numbering so the linker puts us in the proper
1642                   order; constructors are run from right to left, and the
1643                   linker sorts in increasing order.  */
1644                MAX_INIT_PRIORITY - priority);
1645       section = buf;
1646     }
1647
1648   switch_to_section (get_section (section, 0, NULL));
1649   assemble_align (POINTER_SIZE);
1650   assemble_integer (symbol, POINTER_SIZE / BITS_PER_UNIT, POINTER_SIZE, 1);
1651 }
1652
1653 static void
1654 xstormy16_asm_out_constructor (rtx symbol, int priority)
1655 {
1656   const char *section = ".ctors";
1657   char buf[16];
1658
1659   /* ??? This only works reliably with the GNU linker.  */
1660   if (priority != DEFAULT_INIT_PRIORITY)
1661     {
1662       sprintf (buf, ".ctors.%.5u",
1663                /* Invert the numbering so the linker puts us in the proper
1664                   order; constructors are run from right to left, and the
1665                   linker sorts in increasing order.  */
1666                MAX_INIT_PRIORITY - priority);
1667       section = buf;
1668     }
1669
1670   switch_to_section (get_section (section, 0, NULL));
1671   assemble_align (POINTER_SIZE);
1672   assemble_integer (symbol, POINTER_SIZE / BITS_PER_UNIT, POINTER_SIZE, 1);
1673 }
1674 \f
1675 /* Print a memory address as an operand to reference that memory location.  */
1676
1677 void
1678 xstormy16_print_operand_address (FILE *file, rtx address)
1679 {
1680   HOST_WIDE_INT offset;
1681   int pre_dec, post_inc;
1682
1683   /* There are a few easy cases.  */
1684   if (GET_CODE (address) == CONST_INT)
1685     {
1686       fprintf (file, HOST_WIDE_INT_PRINT_DEC, INTVAL (address) & 0xFFFF);
1687       return;
1688     }
1689
1690   if (CONSTANT_P (address) || GET_CODE (address) == CODE_LABEL)
1691     {
1692       output_addr_const (file, address);
1693       return;
1694     }
1695
1696   /* Otherwise, it's hopefully something of the form
1697      (plus:HI (pre_dec:HI (reg:HI ...)) (const_int ...)).  */
1698   if (GET_CODE (address) == PLUS)
1699     {
1700       gcc_assert (GET_CODE (XEXP (address, 1)) == CONST_INT);
1701       offset = INTVAL (XEXP (address, 1));
1702       address = XEXP (address, 0);
1703     }
1704   else
1705     offset = 0;
1706
1707   pre_dec = (GET_CODE (address) == PRE_DEC);
1708   post_inc = (GET_CODE (address) == POST_INC);
1709   if (pre_dec || post_inc)
1710     address = XEXP (address, 0);
1711
1712   gcc_assert (GET_CODE (address) == REG);
1713
1714   fputc ('(', file);
1715   if (pre_dec)
1716     fputs ("--", file);
1717   fputs (reg_names [REGNO (address)], file);
1718   if (post_inc)
1719     fputs ("++", file);
1720   if (offset != 0)
1721     fprintf (file, "," HOST_WIDE_INT_PRINT_DEC, offset);
1722   fputc (')', file);
1723 }
1724
1725 /* Print an operand to an assembler instruction.  */
1726
1727 void
1728 xstormy16_print_operand (FILE *file, rtx x, int code)
1729 {
1730   switch (code)
1731     {
1732     case 'B':
1733         /* There is either one bit set, or one bit clear, in X.
1734            Print it preceded by '#'.  */
1735       {
1736         static int bits_set[8] = { 0, 1, 1, 2, 1, 2, 2, 3 };
1737         HOST_WIDE_INT xx = 1;
1738         HOST_WIDE_INT l;
1739
1740         if (GET_CODE (x) == CONST_INT)
1741           xx = INTVAL (x);
1742         else
1743           output_operand_lossage ("'B' operand is not constant");
1744
1745         /* GCC sign-extends masks with the MSB set, so we have to
1746            detect all the cases that differ only in sign extension
1747            beyond the bits we care about.  Normally, the predicates
1748            and constraints ensure that we have the right values.  This
1749            works correctly for valid masks.  */
1750         if (bits_set[xx & 7] <= 1)
1751           {
1752             /* Remove sign extension bits.  */
1753             if ((~xx & ~(HOST_WIDE_INT)0xff) == 0)
1754               xx &= 0xff;
1755             else if ((~xx & ~(HOST_WIDE_INT)0xffff) == 0)
1756               xx &= 0xffff;
1757             l = exact_log2 (xx);
1758           }
1759         else
1760           {
1761             /* Add sign extension bits.  */
1762             if ((xx & ~(HOST_WIDE_INT)0xff) == 0)
1763               xx |= ~(HOST_WIDE_INT)0xff;
1764             else if ((xx & ~(HOST_WIDE_INT)0xffff) == 0)
1765               xx |= ~(HOST_WIDE_INT)0xffff;
1766             l = exact_log2 (~xx);
1767           }
1768
1769         if (l == -1)
1770           output_operand_lossage ("'B' operand has multiple bits set");
1771
1772         fprintf (file, IMMEDIATE_PREFIX HOST_WIDE_INT_PRINT_DEC, l);
1773         return;
1774       }
1775
1776     case 'C':
1777       /* Print the symbol without a surrounding @fptr().  */
1778       if (GET_CODE (x) == SYMBOL_REF)
1779         assemble_name (file, XSTR (x, 0));
1780       else if (GET_CODE (x) == LABEL_REF)
1781         output_asm_label (x);
1782       else
1783         xstormy16_print_operand_address (file, x);
1784       return;
1785
1786     case 'o':
1787     case 'O':
1788       /* Print the immediate operand less one, preceded by '#'.
1789          For 'O', negate it first.  */
1790       {
1791         HOST_WIDE_INT xx = 0;
1792
1793         if (GET_CODE (x) == CONST_INT)
1794           xx = INTVAL (x);
1795         else
1796           output_operand_lossage ("'o' operand is not constant");
1797
1798         if (code == 'O')
1799           xx = -xx;
1800
1801         fprintf (file, IMMEDIATE_PREFIX HOST_WIDE_INT_PRINT_DEC, xx - 1);
1802         return;
1803       }
1804
1805     case 'b':
1806       /* Print the shift mask for bp/bn.  */
1807       {
1808         HOST_WIDE_INT xx = 1;
1809         HOST_WIDE_INT l;
1810
1811         if (GET_CODE (x) == CONST_INT)
1812           xx = INTVAL (x);
1813         else
1814           output_operand_lossage ("'B' operand is not constant");
1815
1816         l = 7 - xx;
1817
1818         fputs (IMMEDIATE_PREFIX, file);
1819         fprintf (file, HOST_WIDE_INT_PRINT_DEC, l);
1820         return;
1821       }
1822
1823     case 0:
1824       /* Handled below.  */
1825       break;
1826
1827     default:
1828       output_operand_lossage ("xstormy16_print_operand: unknown code");
1829       return;
1830     }
1831
1832   switch (GET_CODE (x))
1833     {
1834     case REG:
1835       fputs (reg_names [REGNO (x)], file);
1836       break;
1837
1838     case MEM:
1839       xstormy16_print_operand_address (file, XEXP (x, 0));
1840       break;
1841
1842     default:
1843       /* Some kind of constant or label; an immediate operand,
1844          so prefix it with '#' for the assembler.  */
1845       fputs (IMMEDIATE_PREFIX, file);
1846       output_addr_const (file, x);
1847       break;
1848     }
1849
1850   return;
1851 }
1852 \f
1853 /* Expander for the `casesi' pattern.
1854    INDEX is the index of the switch statement.
1855    LOWER_BOUND is a CONST_INT that is the value of INDEX corresponding
1856      to the first table entry.
1857    RANGE is the number of table entries.
1858    TABLE is an ADDR_VEC that is the jump table.
1859    DEFAULT_LABEL is the address to branch to if INDEX is outside the
1860      range LOWER_BOUND to LOWER_BOUND + RANGE - 1.  */
1861
1862 void
1863 xstormy16_expand_casesi (rtx index, rtx lower_bound, rtx range,
1864                          rtx table, rtx default_label)
1865 {
1866   HOST_WIDE_INT range_i = INTVAL (range);
1867   rtx int_index;
1868
1869   /* This code uses 'br', so it can deal only with tables of size up to
1870      8192 entries.  */
1871   if (range_i >= 8192)
1872     sorry ("switch statement of size %lu entries too large",
1873            (unsigned long) range_i);
1874
1875   index = expand_binop (SImode, sub_optab, index, lower_bound, NULL_RTX, 0,
1876                         OPTAB_LIB_WIDEN);
1877   emit_cmp_and_jump_insns (index, range, GTU, NULL_RTX, SImode, 1,
1878                            default_label);
1879   int_index = gen_lowpart_common (HImode, index);
1880   emit_insn (gen_ashlhi3 (int_index, int_index, const2_rtx));
1881   emit_jump_insn (gen_tablejump_pcrel (int_index, table));
1882 }
1883
1884 /* Output an ADDR_VEC.  It is output as a sequence of 'jmpf'
1885    instructions, without label or alignment or any other special
1886    constructs.  We know that the previous instruction will be the
1887    `tablejump_pcrel' output above.
1888
1889    TODO: it might be nice to output 'br' instructions if they could
1890    all reach.  */
1891
1892 void
1893 xstormy16_output_addr_vec (FILE *file, rtx label ATTRIBUTE_UNUSED, rtx table)
1894 {
1895   int vlen, idx;
1896
1897   switch_to_section (current_function_section ());
1898
1899   vlen = XVECLEN (table, 0);
1900   for (idx = 0; idx < vlen; idx++)
1901     {
1902       fputs ("\tjmpf ", file);
1903       output_asm_label (XEXP (XVECEXP (table, 0, idx), 0));
1904       fputc ('\n', file);
1905     }
1906 }
1907 \f
1908 /* Expander for the `call' patterns.
1909    INDEX is the index of the switch statement.
1910    LOWER_BOUND is a CONST_INT that is the value of INDEX corresponding
1911      to the first table entry.
1912    RANGE is the number of table entries.
1913    TABLE is an ADDR_VEC that is the jump table.
1914    DEFAULT_LABEL is the address to branch to if INDEX is outside the
1915      range LOWER_BOUND to LOWER_BOUND + RANGE - 1.  */
1916
1917 void
1918 xstormy16_expand_call (rtx retval, rtx dest, rtx counter)
1919 {
1920   rtx call, temp;
1921   enum machine_mode mode;
1922
1923   gcc_assert (GET_CODE (dest) == MEM);
1924   dest = XEXP (dest, 0);
1925
1926   if (! CONSTANT_P (dest)
1927       && GET_CODE (dest) != REG)
1928     dest = force_reg (Pmode, dest);
1929
1930   if (retval == NULL)
1931     mode = VOIDmode;
1932   else
1933     mode = GET_MODE (retval);
1934
1935   call = gen_rtx_CALL (mode, gen_rtx_MEM (FUNCTION_MODE, dest),
1936                        counter);
1937   if (retval)
1938     call = gen_rtx_SET (VOIDmode, retval, call);
1939
1940   if (! CONSTANT_P (dest))
1941     {
1942       temp = gen_reg_rtx (HImode);
1943       emit_move_insn (temp, const0_rtx);
1944     }
1945   else
1946     temp = const0_rtx;
1947
1948   call = gen_rtx_PARALLEL (VOIDmode, gen_rtvec (2, call,
1949                                                 gen_rtx_USE (VOIDmode, temp)));
1950   emit_call_insn (call);
1951 }
1952 \f
1953 /* Expanders for multiword computational operations.  */
1954
1955 /* Expander for arithmetic operations; emit insns to compute
1956
1957    (set DEST (CODE:MODE SRC0 SRC1))
1958
1959    When CODE is COMPARE, a branch template is generated
1960    (this saves duplicating code in xstormy16_split_cbranch).  */
1961
1962 void
1963 xstormy16_expand_arith (enum machine_mode mode, enum rtx_code code,
1964                         rtx dest, rtx src0, rtx src1)
1965 {
1966   int num_words = GET_MODE_BITSIZE (mode) / BITS_PER_WORD;
1967   int i;
1968   int firstloop = 1;
1969
1970   if (code == NEG)
1971     emit_move_insn (src0, const0_rtx);
1972
1973   for (i = 0; i < num_words; i++)
1974     {
1975       rtx w_src0, w_src1, w_dest;
1976       rtx insn;
1977
1978       w_src0 = simplify_gen_subreg (word_mode, src0, mode,
1979                                     i * UNITS_PER_WORD);
1980       w_src1 = simplify_gen_subreg (word_mode, src1, mode, i * UNITS_PER_WORD);
1981       w_dest = simplify_gen_subreg (word_mode, dest, mode, i * UNITS_PER_WORD);
1982
1983       switch (code)
1984         {
1985         case PLUS:
1986           if (firstloop
1987               && GET_CODE (w_src1) == CONST_INT && INTVAL (w_src1) == 0)
1988             continue;
1989
1990           if (firstloop)
1991             insn = gen_addchi4 (w_dest, w_src0, w_src1);
1992           else
1993             insn = gen_addchi5 (w_dest, w_src0, w_src1);
1994           break;
1995
1996         case NEG:
1997         case MINUS:
1998         case COMPARE:
1999           if (code == COMPARE && i == num_words - 1)
2000             {
2001               rtx branch, sub, clobber, sub_1;
2002
2003               sub_1 = gen_rtx_MINUS (HImode, w_src0,
2004                                      gen_rtx_ZERO_EXTEND (HImode, gen_rtx_REG (BImode, CARRY_REGNUM)));
2005               sub = gen_rtx_SET (VOIDmode, w_dest,
2006                                  gen_rtx_MINUS (HImode, sub_1, w_src1));
2007               clobber = gen_rtx_CLOBBER (VOIDmode, gen_rtx_REG (BImode, CARRY_REGNUM));
2008               branch = gen_rtx_SET (VOIDmode, pc_rtx,
2009                                     gen_rtx_IF_THEN_ELSE (VOIDmode,
2010                                                           gen_rtx_EQ (HImode,
2011                                                                       sub_1,
2012                                                                       w_src1),
2013                                                           pc_rtx,
2014                                                           pc_rtx));
2015               insn = gen_rtx_PARALLEL (VOIDmode,
2016                                        gen_rtvec (3, branch, sub, clobber));
2017             }
2018           else if (firstloop
2019                    && code != COMPARE
2020                    && GET_CODE (w_src1) == CONST_INT && INTVAL (w_src1) == 0)
2021             continue;
2022           else if (firstloop)
2023             insn = gen_subchi4 (w_dest, w_src0, w_src1);
2024           else
2025             insn = gen_subchi5 (w_dest, w_src0, w_src1);
2026           break;
2027
2028         case IOR:
2029         case XOR:
2030         case AND:
2031           if (GET_CODE (w_src1) == CONST_INT
2032               && INTVAL (w_src1) == -(code == AND))
2033             continue;
2034
2035           insn = gen_rtx_SET (VOIDmode, w_dest, gen_rtx_fmt_ee (code, mode,
2036                                                                 w_src0, w_src1));
2037           break;
2038
2039         case NOT:
2040           insn = gen_rtx_SET (VOIDmode, w_dest, gen_rtx_NOT (mode, w_src0));
2041           break;
2042
2043         default:
2044           gcc_unreachable ();
2045         }
2046
2047       firstloop = 0;
2048       emit (insn);
2049     }
2050
2051   /* If we emit nothing, try_split() will think we failed.  So emit
2052      something that does nothing and can be optimized away.  */
2053   if (firstloop)
2054     emit (gen_nop ());
2055 }
2056
2057 /* The shift operations are split at output time for constant values;
2058    variable-width shifts get handed off to a library routine.
2059
2060    Generate an output string to do (set X (CODE:MODE X SIZE_R))
2061    SIZE_R will be a CONST_INT, X will be a hard register.  */
2062
2063 const char *
2064 xstormy16_output_shift (enum machine_mode mode, enum rtx_code code,
2065                         rtx x, rtx size_r, rtx temp)
2066 {
2067   HOST_WIDE_INT size;
2068   const char *r0, *r1, *rt;
2069   static char r[64];
2070
2071   gcc_assert (GET_CODE (size_r) == CONST_INT
2072               && GET_CODE (x) == REG && mode == SImode);
2073   size = INTVAL (size_r) & (GET_MODE_BITSIZE (mode) - 1);
2074
2075   if (size == 0)
2076     return "";
2077
2078   r0 = reg_names [REGNO (x)];
2079   r1 = reg_names [REGNO (x) + 1];
2080
2081   /* For shifts of size 1, we can use the rotate instructions.  */
2082   if (size == 1)
2083     {
2084       switch (code)
2085         {
2086         case ASHIFT:
2087           sprintf (r, "shl %s,#1 | rlc %s,#1", r0, r1);
2088           break;
2089         case ASHIFTRT:
2090           sprintf (r, "asr %s,#1 | rrc %s,#1", r1, r0);
2091           break;
2092         case LSHIFTRT:
2093           sprintf (r, "shr %s,#1 | rrc %s,#1", r1, r0);
2094           break;
2095         default:
2096           gcc_unreachable ();
2097         }
2098       return r;
2099     }
2100
2101   /* For large shifts, there are easy special cases.  */
2102   if (size == 16)
2103     {
2104       switch (code)
2105         {
2106         case ASHIFT:
2107           sprintf (r, "mov %s,%s | mov %s,#0", r1, r0, r0);
2108           break;
2109         case ASHIFTRT:
2110           sprintf (r, "mov %s,%s | asr %s,#15", r0, r1, r1);
2111           break;
2112         case LSHIFTRT:
2113           sprintf (r, "mov %s,%s | mov %s,#0", r0, r1, r1);
2114           break;
2115         default:
2116           gcc_unreachable ();
2117         }
2118       return r;
2119     }
2120   if (size > 16)
2121     {
2122       switch (code)
2123         {
2124         case ASHIFT:
2125           sprintf (r, "mov %s,%s | mov %s,#0 | shl %s,#%d",
2126                    r1, r0, r0, r1, (int) size - 16);
2127           break;
2128         case ASHIFTRT:
2129           sprintf (r, "mov %s,%s | asr %s,#15 | asr %s,#%d",
2130                    r0, r1, r1, r0, (int) size - 16);
2131           break;
2132         case LSHIFTRT:
2133           sprintf (r, "mov %s,%s | mov %s,#0 | shr %s,#%d",
2134                    r0, r1, r1, r0, (int) size - 16);
2135           break;
2136         default:
2137           gcc_unreachable ();
2138         }
2139       return r;
2140     }
2141
2142   /* For the rest, we have to do more work.  In particular, we
2143      need a temporary.  */
2144   rt = reg_names [REGNO (temp)];
2145   switch (code)
2146     {
2147     case ASHIFT:
2148       sprintf (r,
2149                "mov %s,%s | shl %s,#%d | shl %s,#%d | shr %s,#%d | or %s,%s",
2150                rt, r0, r0, (int) size, r1, (int) size, rt, (int) (16 - size),
2151                r1, rt);
2152       break;
2153     case ASHIFTRT:
2154       sprintf (r,
2155                "mov %s,%s | asr %s,#%d | shr %s,#%d | shl %s,#%d | or %s,%s",
2156                rt, r1, r1, (int) size, r0, (int) size, rt, (int) (16 - size),
2157                r0, rt);
2158       break;
2159     case LSHIFTRT:
2160       sprintf (r,
2161                "mov %s,%s | shr %s,#%d | shr %s,#%d | shl %s,#%d | or %s,%s",
2162                rt, r1, r1, (int) size, r0, (int) size, rt, (int) (16 - size),
2163                r0, rt);
2164       break;
2165     default:
2166       gcc_unreachable ();
2167     }
2168   return r;
2169 }
2170 \f
2171 /* Attribute handling.  */
2172
2173 /* Return nonzero if the function is an interrupt function.  */
2174
2175 int
2176 xstormy16_interrupt_function_p (void)
2177 {
2178   tree attributes;
2179
2180   /* The dwarf2 mechanism asks for INCOMING_FRAME_SP_OFFSET before
2181      any functions are declared, which is demonstrably wrong, but
2182      it is worked around here.  FIXME.  */
2183   if (!cfun)
2184     return 0;
2185
2186   attributes = TYPE_ATTRIBUTES (TREE_TYPE (current_function_decl));
2187   return lookup_attribute ("interrupt", attributes) != NULL_TREE;
2188 }
2189
2190 #undef  TARGET_ATTRIBUTE_TABLE
2191 #define TARGET_ATTRIBUTE_TABLE  xstormy16_attribute_table
2192
2193 static tree xstormy16_handle_interrupt_attribute
2194   (tree *, tree, tree, int, bool *);
2195 static tree xstormy16_handle_below100_attribute
2196   (tree *, tree, tree, int, bool *);
2197
2198 static const struct attribute_spec xstormy16_attribute_table[] =
2199 {
2200   /* name, min_len, max_len, decl_req, type_req, fn_type_req, handler.  */
2201   { "interrupt", 0, 0, false, true,  true,  xstormy16_handle_interrupt_attribute },
2202   { "BELOW100",  0, 0, false, false, false, xstormy16_handle_below100_attribute },
2203   { "below100",  0, 0, false, false, false, xstormy16_handle_below100_attribute },
2204   { NULL,        0, 0, false, false, false, NULL }
2205 };
2206
2207 /* Handle an "interrupt" attribute;
2208    arguments as in struct attribute_spec.handler.  */
2209
2210 static tree
2211 xstormy16_handle_interrupt_attribute (tree *node, tree name,
2212                                       tree args ATTRIBUTE_UNUSED,
2213                                       int flags ATTRIBUTE_UNUSED,
2214                                       bool *no_add_attrs)
2215 {
2216   if (TREE_CODE (*node) != FUNCTION_TYPE)
2217     {
2218       warning (OPT_Wattributes, "%qE attribute only applies to functions",
2219                name);
2220       *no_add_attrs = true;
2221     }
2222
2223   return NULL_TREE;
2224 }
2225
2226 /* Handle an "below" attribute;
2227    arguments as in struct attribute_spec.handler.  */
2228
2229 static tree
2230 xstormy16_handle_below100_attribute (tree *node,
2231                                      tree name ATTRIBUTE_UNUSED,
2232                                      tree args ATTRIBUTE_UNUSED,
2233                                      int flags ATTRIBUTE_UNUSED,
2234                                      bool *no_add_attrs)
2235 {
2236   if (TREE_CODE (*node) != VAR_DECL
2237       && TREE_CODE (*node) != POINTER_TYPE
2238       && TREE_CODE (*node) != TYPE_DECL)
2239     {
2240       warning (OPT_Wattributes,
2241                "%<__BELOW100__%> attribute only applies to variables");
2242       *no_add_attrs = true;
2243     }
2244   else if (args == NULL_TREE && TREE_CODE (*node) == VAR_DECL)
2245     {
2246       if (! (TREE_PUBLIC (*node) || TREE_STATIC (*node)))
2247         {
2248           warning (OPT_Wattributes, "__BELOW100__ attribute not allowed "
2249                    "with auto storage class");
2250           *no_add_attrs = true;
2251         }
2252     }
2253
2254   return NULL_TREE;
2255 }
2256 \f
2257 #undef  TARGET_INIT_BUILTINS
2258 #define TARGET_INIT_BUILTINS   xstormy16_init_builtins
2259 #undef  TARGET_EXPAND_BUILTIN
2260 #define TARGET_EXPAND_BUILTIN  xstormy16_expand_builtin
2261
2262 static struct
2263 {
2264   const char * name;
2265   int          md_code;
2266   const char * arg_ops;   /* 0..9, t for temp register, r for return value.  */
2267   const char * arg_types; /* s=short,l=long, upper case for unsigned.  */
2268 }
2269   s16builtins[] =
2270 {
2271   { "__sdivlh", CODE_FOR_sdivlh, "rt01", "sls" },
2272   { "__smodlh", CODE_FOR_sdivlh, "tr01", "sls" },
2273   { "__udivlh", CODE_FOR_udivlh, "rt01", "SLS" },
2274   { "__umodlh", CODE_FOR_udivlh, "tr01", "SLS" },
2275   { NULL, 0, NULL, NULL }
2276 };
2277
2278 static void
2279 xstormy16_init_builtins (void)
2280 {
2281   tree args, ret_type, arg;
2282   int i, a;
2283
2284   ret_type = void_type_node;
2285
2286   for (i = 0; s16builtins[i].name; i++)
2287     {
2288       args = void_list_node;
2289       for (a = strlen (s16builtins[i].arg_types) - 1; a >= 0; a--)
2290         {
2291           switch (s16builtins[i].arg_types[a])
2292             {
2293             case 's': arg = short_integer_type_node; break;
2294             case 'S': arg = short_unsigned_type_node; break;
2295             case 'l': arg = long_integer_type_node; break;
2296             case 'L': arg = long_unsigned_type_node; break;
2297             default: gcc_unreachable ();
2298             }
2299           if (a == 0)
2300             ret_type = arg;
2301           else
2302             args = tree_cons (NULL_TREE, arg, args);
2303         }
2304       add_builtin_function (s16builtins[i].name,
2305                             build_function_type (ret_type, args),
2306                             i, BUILT_IN_MD, NULL, NULL);
2307     }
2308 }
2309
2310 static rtx
2311 xstormy16_expand_builtin (tree exp, rtx target,
2312                           rtx subtarget ATTRIBUTE_UNUSED,
2313                           enum machine_mode mode ATTRIBUTE_UNUSED,
2314                           int ignore ATTRIBUTE_UNUSED)
2315 {
2316   rtx op[10], args[10], pat, copyto[10], retval = 0;
2317   tree fndecl, argtree;
2318   int i, a, o, code;
2319
2320   fndecl = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
2321   argtree = TREE_OPERAND (exp, 1);
2322   i = DECL_FUNCTION_CODE (fndecl);
2323   code = s16builtins[i].md_code;
2324
2325   for (a = 0; a < 10 && argtree; a++)
2326     {
2327       args[a] = expand_expr (TREE_VALUE (argtree), NULL_RTX, VOIDmode, 0);
2328       argtree = TREE_CHAIN (argtree);
2329     }
2330
2331   for (o = 0; s16builtins[i].arg_ops[o]; o++)
2332     {
2333       char ao = s16builtins[i].arg_ops[o];
2334       char c = insn_data[code].operand[o].constraint[0];
2335       int omode;
2336
2337       copyto[o] = 0;
2338
2339       omode = insn_data[code].operand[o].mode;
2340       if (ao == 'r')
2341         op[o] = target ? target : gen_reg_rtx (omode);
2342       else if (ao == 't')
2343         op[o] = gen_reg_rtx (omode);
2344       else
2345         op[o] = args[(int) hex_value (ao)];
2346
2347       if (! (*insn_data[code].operand[o].predicate) (op[o], GET_MODE (op[o])))
2348         {
2349           if (c == '+' || c == '=')
2350             {
2351               copyto[o] = op[o];
2352               op[o] = gen_reg_rtx (omode);
2353             }
2354           else
2355             op[o] = copy_to_mode_reg (omode, op[o]);
2356         }
2357
2358       if (ao == 'r')
2359         retval = op[o];
2360     }
2361
2362   pat = GEN_FCN (code) (op[0], op[1], op[2], op[3], op[4],
2363                         op[5], op[6], op[7], op[8], op[9]);
2364   emit_insn (pat);
2365
2366   for (o = 0; s16builtins[i].arg_ops[o]; o++)
2367     if (copyto[o])
2368       {
2369         emit_move_insn (copyto[o], op[o]);
2370         if (op[o] == retval)
2371           retval = copyto[o];
2372       }
2373
2374   return retval;
2375 }
2376 \f
2377 /* Look for combinations of insns that can be converted to BN or BP
2378    opcodes.  This is, unfortunately, too complex to do with MD
2379    patterns.  */
2380
2381 static void
2382 combine_bnp (rtx insn)
2383 {
2384   int insn_code, regno, need_extend;
2385   unsigned int mask;
2386   rtx cond, reg, and, load, qireg, mem;
2387   enum machine_mode load_mode = QImode;
2388   enum machine_mode and_mode = QImode;
2389   rtx shift = NULL_RTX;
2390
2391   insn_code = recog_memoized (insn);
2392   if (insn_code != CODE_FOR_cbranchhi
2393       && insn_code != CODE_FOR_cbranchhi_neg)
2394     return;
2395
2396   cond = XVECEXP (PATTERN (insn), 0, 0); /* set */
2397   cond = XEXP (cond, 1); /* if */
2398   cond = XEXP (cond, 0); /* cond */
2399   switch (GET_CODE (cond))
2400     {
2401     case NE:
2402     case EQ:
2403       need_extend = 0;
2404       break;
2405     case LT:
2406     case GE:
2407       need_extend = 1;
2408       break;
2409     default:
2410       return;
2411     }
2412
2413   reg = XEXP (cond, 0);
2414   if (GET_CODE (reg) != REG)
2415     return;
2416   regno = REGNO (reg);
2417   if (XEXP (cond, 1) != const0_rtx)
2418     return;
2419   if (! find_regno_note (insn, REG_DEAD, regno))
2420     return;
2421   qireg = gen_rtx_REG (QImode, regno);
2422
2423   if (need_extend)
2424     {
2425       /* LT and GE conditionals should have a sign extend before
2426          them.  */
2427       for (and = prev_real_insn (insn); and; and = prev_real_insn (and))
2428         {
2429           int and_code = recog_memoized (and);
2430
2431           if (and_code == CODE_FOR_extendqihi2
2432               && rtx_equal_p (SET_DEST (PATTERN (and)), reg)
2433               && rtx_equal_p (XEXP (SET_SRC (PATTERN (and)), 0), qireg))
2434             break;
2435
2436           if (and_code == CODE_FOR_movhi_internal
2437               && rtx_equal_p (SET_DEST (PATTERN (and)), reg))
2438             {
2439               /* This is for testing bit 15.  */
2440               and = insn;
2441               break;
2442             }
2443
2444           if (reg_mentioned_p (reg, and))
2445             return;
2446
2447           if (GET_CODE (and) != NOTE
2448               && GET_CODE (and) != INSN)
2449             return;
2450         }
2451     }
2452   else
2453     {
2454       /* EQ and NE conditionals have an AND before them.  */
2455       for (and = prev_real_insn (insn); and; and = prev_real_insn (and))
2456         {
2457           if (recog_memoized (and) == CODE_FOR_andhi3
2458               && rtx_equal_p (SET_DEST (PATTERN (and)), reg)
2459               && rtx_equal_p (XEXP (SET_SRC (PATTERN (and)), 0), reg))
2460             break;
2461
2462           if (reg_mentioned_p (reg, and))
2463             return;
2464
2465           if (GET_CODE (and) != NOTE
2466               && GET_CODE (and) != INSN)
2467             return;
2468         }
2469
2470       if (and)
2471         {
2472           /* Some mis-optimizations by GCC can generate a RIGHT-SHIFT
2473              followed by an AND like this:
2474
2475                (parallel [(set (reg:HI r7) (lshiftrt:HI (reg:HI r7) (const_int 3)))
2476                           (clobber (reg:BI carry))]
2477
2478                (set (reg:HI r7) (and:HI (reg:HI r7) (const_int 1)))
2479
2480              Attempt to detect this here.  */
2481           for (shift = prev_real_insn (and); shift; shift = prev_real_insn (shift))
2482             {
2483               if (recog_memoized (shift) == CODE_FOR_lshrhi3
2484                   && rtx_equal_p (SET_DEST (XVECEXP (PATTERN (shift), 0, 0)), reg)
2485                   && rtx_equal_p (XEXP (SET_SRC (XVECEXP (PATTERN (shift), 0, 0)), 0), reg))
2486                 break;
2487
2488               if (reg_mentioned_p (reg, shift)
2489                   || (GET_CODE (shift) != NOTE
2490                       && GET_CODE (shift) != INSN))
2491                 {
2492                   shift = NULL_RTX;
2493                   break;
2494                 }
2495             }
2496         }
2497     }
2498   if (!and)
2499     return;
2500
2501   for (load = shift ? prev_real_insn (shift) : prev_real_insn (and);
2502        load;
2503        load = prev_real_insn (load))
2504     {
2505       int load_code = recog_memoized (load);
2506
2507       if (load_code == CODE_FOR_movhi_internal
2508           && rtx_equal_p (SET_DEST (PATTERN (load)), reg)
2509           && xstormy16_below100_operand (SET_SRC (PATTERN (load)), HImode)
2510           && ! MEM_VOLATILE_P (SET_SRC (PATTERN (load))))
2511         {
2512           load_mode = HImode;
2513           break;
2514         }
2515
2516       if (load_code == CODE_FOR_movqi_internal
2517           && rtx_equal_p (SET_DEST (PATTERN (load)), qireg)
2518           && xstormy16_below100_operand (SET_SRC (PATTERN (load)), QImode))
2519         {
2520           load_mode = QImode;
2521           break;
2522         }
2523
2524       if (load_code == CODE_FOR_zero_extendqihi2
2525           && rtx_equal_p (SET_DEST (PATTERN (load)), reg)
2526           && xstormy16_below100_operand (XEXP (SET_SRC (PATTERN (load)), 0), QImode))
2527         {
2528           load_mode = QImode;
2529           and_mode = HImode;
2530           break;
2531         }
2532
2533       if (reg_mentioned_p (reg, load))
2534         return;
2535
2536       if (GET_CODE (load) != NOTE
2537           && GET_CODE (load) != INSN)
2538         return;
2539     }
2540   if (!load)
2541     return;
2542
2543   mem = SET_SRC (PATTERN (load));
2544
2545   if (need_extend)
2546     {
2547       mask = (load_mode == HImode) ? 0x8000 : 0x80;
2548
2549       /* If the mem includes a zero-extend operation and we are
2550          going to generate a sign-extend operation then move the
2551          mem inside the zero-extend.  */
2552       if (GET_CODE (mem) == ZERO_EXTEND)
2553         mem = XEXP (mem, 0);
2554     }
2555   else
2556     {
2557       if (!xstormy16_onebit_set_operand (XEXP (SET_SRC (PATTERN (and)), 1), load_mode))
2558         return;
2559
2560       mask = (int) INTVAL (XEXP (SET_SRC (PATTERN (and)), 1));
2561
2562       if (shift)
2563         mask <<= INTVAL (XEXP (SET_SRC (XVECEXP (PATTERN (shift), 0, 0)), 1));
2564     }
2565
2566   if (load_mode == HImode)
2567     {
2568       rtx addr = XEXP (mem, 0);
2569
2570       if (! (mask & 0xff))
2571         {
2572           addr = plus_constant (addr, 1);
2573           mask >>= 8;
2574         }
2575       mem = gen_rtx_MEM (QImode, addr);
2576     }
2577
2578   if (need_extend)
2579     XEXP (cond, 0) = gen_rtx_SIGN_EXTEND (HImode, mem);
2580   else
2581     XEXP (cond, 0) = gen_rtx_AND (and_mode, mem, GEN_INT (mask));
2582
2583   INSN_CODE (insn) = -1;
2584   delete_insn (load);
2585
2586   if (and != insn)
2587     delete_insn (and);
2588
2589   if (shift != NULL_RTX)
2590     delete_insn (shift);
2591 }
2592
2593 static void
2594 xstormy16_reorg (void)
2595 {
2596   rtx insn;
2597
2598   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
2599     {
2600       if (! JUMP_P (insn))
2601         continue;
2602       combine_bnp (insn);
2603     }
2604 }
2605 \f
2606 /* Worker function for TARGET_RETURN_IN_MEMORY.  */
2607
2608 static bool
2609 xstormy16_return_in_memory (const_tree type, const_tree fntype ATTRIBUTE_UNUSED)
2610 {
2611   const HOST_WIDE_INT size = int_size_in_bytes (type);
2612   return (size == -1 || size > UNITS_PER_WORD * NUM_ARGUMENT_REGISTERS);
2613 }
2614 \f
2615 #undef  TARGET_ASM_ALIGNED_HI_OP
2616 #define TARGET_ASM_ALIGNED_HI_OP "\t.hword\t"
2617 #undef  TARGET_ASM_ALIGNED_SI_OP
2618 #define TARGET_ASM_ALIGNED_SI_OP "\t.word\t"
2619 #undef  TARGET_ENCODE_SECTION_INFO
2620 #define TARGET_ENCODE_SECTION_INFO xstormy16_encode_section_info
2621
2622 /* Select_section doesn't handle .bss_below100.  */
2623 #undef  TARGET_HAVE_SWITCHABLE_BSS_SECTIONS
2624 #define TARGET_HAVE_SWITCHABLE_BSS_SECTIONS false
2625
2626 #undef  TARGET_ASM_OUTPUT_MI_THUNK
2627 #define TARGET_ASM_OUTPUT_MI_THUNK xstormy16_asm_output_mi_thunk
2628 #undef  TARGET_ASM_CAN_OUTPUT_MI_THUNK
2629 #define TARGET_ASM_CAN_OUTPUT_MI_THUNK default_can_output_mi_thunk_no_vcall
2630
2631 #undef  TARGET_RTX_COSTS
2632 #define TARGET_RTX_COSTS xstormy16_rtx_costs
2633 #undef  TARGET_ADDRESS_COST
2634 #define TARGET_ADDRESS_COST xstormy16_address_cost
2635
2636 #undef  TARGET_BUILD_BUILTIN_VA_LIST
2637 #define TARGET_BUILD_BUILTIN_VA_LIST xstormy16_build_builtin_va_list
2638 #undef  TARGET_EXPAND_BUILTIN_VA_START
2639 #define TARGET_EXPAND_BUILTIN_VA_START xstormy16_expand_builtin_va_start
2640 #undef  TARGET_GIMPLIFY_VA_ARG_EXPR
2641 #define TARGET_GIMPLIFY_VA_ARG_EXPR xstormy16_gimplify_va_arg_expr
2642
2643 #undef  TARGET_PROMOTE_FUNCTION_ARGS
2644 #define TARGET_PROMOTE_FUNCTION_ARGS hook_bool_const_tree_true
2645 #undef  TARGET_PROMOTE_FUNCTION_RETURN
2646 #define TARGET_PROMOTE_FUNCTION_RETURN hook_bool_const_tree_true
2647 #undef  TARGET_PROMOTE_PROTOTYPES
2648 #define TARGET_PROMOTE_PROTOTYPES hook_bool_const_tree_true
2649
2650 #undef  TARGET_RETURN_IN_MEMORY
2651 #define TARGET_RETURN_IN_MEMORY xstormy16_return_in_memory
2652
2653 #undef  TARGET_MACHINE_DEPENDENT_REORG
2654 #define TARGET_MACHINE_DEPENDENT_REORG xstormy16_reorg
2655
2656 #undef TARGET_LEGITIMATE_ADDRESS_P
2657 #define TARGET_LEGITIMATE_ADDRESS_P     xstormy16_legitimate_address_p
2658
2659 struct gcc_target targetm = TARGET_INITIALIZER;
2660
2661 #include "gt-stormy16.h"