OSDN Git Service

10b446b511881f9161d9625c4a3eb903e60108b6
[pf3gnuchains/gcc-fork.git] / gcc / config / i386 / i386.h
1 /* Definitions of target machine for GCC for IA-32.
2    Copyright (C) 1988, 1992, 1994, 1995, 1996, 1997, 1998, 1999, 2000,
3    2001, 2002, 2003, 2004, 2005, 2006 Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify
8 it under the terms of the GNU General Public License as published by
9 the Free Software Foundation; either version 2, or (at your option)
10 any later version.
11
12 GCC is distributed in the hope that it will be useful,
13 but WITHOUT ANY WARRANTY; without even the implied warranty of
14 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15 GNU General Public License for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to
19 the Free Software Foundation, 51 Franklin Street, Fifth Floor,
20 Boston, MA 02110-1301, USA.  */
21
22 /* The purpose of this file is to define the characteristics of the i386,
23    independent of assembler syntax or operating system.
24
25    Three other files build on this one to describe a specific assembler syntax:
26    bsd386.h, att386.h, and sun386.h.
27
28    The actual tm.h file for a particular system should include
29    this file, and then the file for the appropriate assembler syntax.
30
31    Many macros that specify assembler syntax are omitted entirely from
32    this file because they really belong in the files for particular
33    assemblers.  These include RP, IP, LPREFIX, PUT_OP_SIZE, USE_STAR,
34    ADDR_BEG, ADDR_END, PRINT_IREG, PRINT_SCALE, PRINT_B_I_S, and many
35    that start with ASM_ or end in ASM_OP.  */
36
37 /* Define the specific costs for a given cpu */
38
39 struct processor_costs {
40   const int add;                /* cost of an add instruction */
41   const int lea;                /* cost of a lea instruction */
42   const int shift_var;          /* variable shift costs */
43   const int shift_const;        /* constant shift costs */
44   const int mult_init[5];       /* cost of starting a multiply
45                                    in QImode, HImode, SImode, DImode, TImode*/
46   const int mult_bit;           /* cost of multiply per each bit set */
47   const int divide[5];          /* cost of a divide/mod
48                                    in QImode, HImode, SImode, DImode, TImode*/
49   int movsx;                    /* The cost of movsx operation.  */
50   int movzx;                    /* The cost of movzx operation.  */
51   const int large_insn;         /* insns larger than this cost more */
52   const int move_ratio;         /* The threshold of number of scalar
53                                    memory-to-memory move insns.  */
54   const int movzbl_load;        /* cost of loading using movzbl */
55   const int int_load[3];        /* cost of loading integer registers
56                                    in QImode, HImode and SImode relative
57                                    to reg-reg move (2).  */
58   const int int_store[3];       /* cost of storing integer register
59                                    in QImode, HImode and SImode */
60   const int fp_move;            /* cost of reg,reg fld/fst */
61   const int fp_load[3];         /* cost of loading FP register
62                                    in SFmode, DFmode and XFmode */
63   const int fp_store[3];        /* cost of storing FP register
64                                    in SFmode, DFmode and XFmode */
65   const int mmx_move;           /* cost of moving MMX register.  */
66   const int mmx_load[2];        /* cost of loading MMX register
67                                    in SImode and DImode */
68   const int mmx_store[2];       /* cost of storing MMX register
69                                    in SImode and DImode */
70   const int sse_move;           /* cost of moving SSE register.  */
71   const int sse_load[3];        /* cost of loading SSE register
72                                    in SImode, DImode and TImode*/
73   const int sse_store[3];       /* cost of storing SSE register
74                                    in SImode, DImode and TImode*/
75   const int mmxsse_to_integer;  /* cost of moving mmxsse register to
76                                    integer and vice versa.  */
77   const int prefetch_block;     /* bytes moved to cache for prefetch.  */
78   const int simultaneous_prefetches; /* number of parallel prefetch
79                                    operations.  */
80   const int branch_cost;        /* Default value for BRANCH_COST.  */
81   const int fadd;               /* cost of FADD and FSUB instructions.  */
82   const int fmul;               /* cost of FMUL instruction.  */
83   const int fdiv;               /* cost of FDIV instruction.  */
84   const int fabs;               /* cost of FABS instruction.  */
85   const int fchs;               /* cost of FCHS instruction.  */
86   const int fsqrt;              /* cost of FSQRT instruction.  */
87 };
88
89 extern const struct processor_costs *ix86_cost;
90
91 /* Macros used in the machine description to test the flags.  */
92
93 /* configure can arrange to make this 2, to force a 486.  */
94
95 #ifndef TARGET_CPU_DEFAULT
96 #define TARGET_CPU_DEFAULT TARGET_CPU_DEFAULT_generic
97 #endif
98
99 #ifndef TARGET_FPMATH_DEFAULT
100 #define TARGET_FPMATH_DEFAULT \
101   (TARGET_64BIT && TARGET_SSE ? FPMATH_SSE : FPMATH_387)
102 #endif
103
104 #define TARGET_FLOAT_RETURNS_IN_80387 TARGET_FLOAT_RETURNS
105
106 /* 64bit Sledgehammer mode.  For libgcc2 we make sure this is a
107    compile-time constant.  */
108 #ifdef IN_LIBGCC2
109 #undef TARGET_64BIT
110 #ifdef __x86_64__
111 #define TARGET_64BIT 1
112 #else
113 #define TARGET_64BIT 0
114 #endif
115 #else
116 #ifndef TARGET_BI_ARCH
117 #undef TARGET_64BIT
118 #if TARGET_64BIT_DEFAULT
119 #define TARGET_64BIT 1
120 #else
121 #define TARGET_64BIT 0
122 #endif
123 #endif
124 #endif
125
126 #define HAS_LONG_COND_BRANCH 1
127 #define HAS_LONG_UNCOND_BRANCH 1
128
129 #define TARGET_386 (ix86_tune == PROCESSOR_I386)
130 #define TARGET_486 (ix86_tune == PROCESSOR_I486)
131 #define TARGET_PENTIUM (ix86_tune == PROCESSOR_PENTIUM)
132 #define TARGET_PENTIUMPRO (ix86_tune == PROCESSOR_PENTIUMPRO)
133 #define TARGET_K6 (ix86_tune == PROCESSOR_K6)
134 #define TARGET_ATHLON (ix86_tune == PROCESSOR_ATHLON)
135 #define TARGET_PENTIUM4 (ix86_tune == PROCESSOR_PENTIUM4)
136 #define TARGET_K8 (ix86_tune == PROCESSOR_K8)
137 #define TARGET_ATHLON_K8 (TARGET_K8 || TARGET_ATHLON)
138 #define TARGET_NOCONA (ix86_tune == PROCESSOR_NOCONA)
139 #define TARGET_GENERIC32 (ix86_tune == PROCESSOR_GENERIC32)
140 #define TARGET_GENERIC64 (ix86_tune == PROCESSOR_GENERIC64)
141 #define TARGET_GENERIC (TARGET_GENERIC32 || TARGET_GENERIC64)
142
143 #define TUNEMASK (1 << ix86_tune)
144 extern const int x86_use_leave, x86_push_memory, x86_zero_extend_with_and;
145 extern const int x86_use_bit_test, x86_cmove, x86_fisttp, x86_deep_branch;
146 extern const int x86_branch_hints, x86_unroll_strlen;
147 extern const int x86_double_with_add, x86_partial_reg_stall, x86_movx;
148 extern const int x86_use_himode_fiop, x86_use_simode_fiop;
149 extern const int x86_use_mov0, x86_use_cltd, x86_read_modify_write;
150 extern const int x86_read_modify, x86_split_long_moves;
151 extern const int x86_promote_QImode, x86_single_stringop, x86_fast_prefix;
152 extern const int x86_himode_math, x86_qimode_math, x86_promote_qi_regs;
153 extern const int x86_promote_hi_regs, x86_integer_DFmode_moves;
154 extern const int x86_add_esp_4, x86_add_esp_8, x86_sub_esp_4, x86_sub_esp_8;
155 extern const int x86_partial_reg_dependency, x86_memory_mismatch_stall;
156 extern const int x86_accumulate_outgoing_args, x86_prologue_using_move;
157 extern const int x86_epilogue_using_move, x86_decompose_lea;
158 extern const int x86_arch_always_fancy_math_387, x86_shift1;
159 extern const int x86_sse_partial_reg_dependency, x86_sse_split_regs;
160 extern const int x86_sse_typeless_stores, x86_sse_load0_by_pxor;
161 extern const int x86_use_ffreep;
162 extern const int x86_inter_unit_moves, x86_schedule;
163 extern const int x86_use_bt;
164 extern const int x86_cmpxchg, x86_cmpxchg8b, x86_cmpxchg16b, x86_xadd;
165 extern const int x86_use_incdec;
166 extern const int x86_pad_returns;
167 extern int x86_prefetch_sse;
168
169 #define TARGET_USE_LEAVE (x86_use_leave & TUNEMASK)
170 #define TARGET_PUSH_MEMORY (x86_push_memory & TUNEMASK)
171 #define TARGET_ZERO_EXTEND_WITH_AND (x86_zero_extend_with_and & TUNEMASK)
172 #define TARGET_USE_BIT_TEST (x86_use_bit_test & TUNEMASK)
173 #define TARGET_UNROLL_STRLEN (x86_unroll_strlen & TUNEMASK)
174 /* For sane SSE instruction set generation we need fcomi instruction.  It is
175    safe to enable all CMOVE instructions.  */
176 #define TARGET_CMOVE ((x86_cmove & (1 << ix86_arch)) || TARGET_SSE)
177 #define TARGET_FISTTP (((x86_fisttp & (1 << ix86_arch)) || TARGET_SSE3) \
178                         && TARGET_80387)
179 #define TARGET_DEEP_BRANCH_PREDICTION (x86_deep_branch & TUNEMASK)
180 #define TARGET_BRANCH_PREDICTION_HINTS (x86_branch_hints & TUNEMASK)
181 #define TARGET_DOUBLE_WITH_ADD (x86_double_with_add & TUNEMASK)
182 #define TARGET_USE_SAHF ((x86_use_sahf & TUNEMASK) && !TARGET_64BIT)
183 #define TARGET_MOVX (x86_movx & TUNEMASK)
184 #define TARGET_PARTIAL_REG_STALL (x86_partial_reg_stall & TUNEMASK)
185 #define TARGET_USE_HIMODE_FIOP (x86_use_himode_fiop & TUNEMASK)
186 #define TARGET_USE_SIMODE_FIOP (x86_use_simode_fiop & TUNEMASK)
187 #define TARGET_USE_MOV0 (x86_use_mov0 & TUNEMASK)
188 #define TARGET_USE_CLTD (x86_use_cltd & TUNEMASK)
189 #define TARGET_SPLIT_LONG_MOVES (x86_split_long_moves & TUNEMASK)
190 #define TARGET_READ_MODIFY_WRITE (x86_read_modify_write & TUNEMASK)
191 #define TARGET_READ_MODIFY (x86_read_modify & TUNEMASK)
192 #define TARGET_PROMOTE_QImode (x86_promote_QImode & TUNEMASK)
193 #define TARGET_FAST_PREFIX (x86_fast_prefix & TUNEMASK)
194 #define TARGET_SINGLE_STRINGOP (x86_single_stringop & TUNEMASK)
195 #define TARGET_QIMODE_MATH (x86_qimode_math & TUNEMASK)
196 #define TARGET_HIMODE_MATH (x86_himode_math & TUNEMASK)
197 #define TARGET_PROMOTE_QI_REGS (x86_promote_qi_regs & TUNEMASK)
198 #define TARGET_PROMOTE_HI_REGS (x86_promote_hi_regs & TUNEMASK)
199 #define TARGET_ADD_ESP_4 (x86_add_esp_4 & TUNEMASK)
200 #define TARGET_ADD_ESP_8 (x86_add_esp_8 & TUNEMASK)
201 #define TARGET_SUB_ESP_4 (x86_sub_esp_4 & TUNEMASK)
202 #define TARGET_SUB_ESP_8 (x86_sub_esp_8 & TUNEMASK)
203 #define TARGET_INTEGER_DFMODE_MOVES (x86_integer_DFmode_moves & TUNEMASK)
204 #define TARGET_PARTIAL_REG_DEPENDENCY (x86_partial_reg_dependency & TUNEMASK)
205 #define TARGET_SSE_PARTIAL_REG_DEPENDENCY \
206                                       (x86_sse_partial_reg_dependency & TUNEMASK)
207 #define TARGET_SSE_SPLIT_REGS (x86_sse_split_regs & TUNEMASK)
208 #define TARGET_SSE_TYPELESS_STORES (x86_sse_typeless_stores & TUNEMASK)
209 #define TARGET_SSE_LOAD0_BY_PXOR (x86_sse_load0_by_pxor & TUNEMASK)
210 #define TARGET_MEMORY_MISMATCH_STALL (x86_memory_mismatch_stall & TUNEMASK)
211 #define TARGET_PROLOGUE_USING_MOVE (x86_prologue_using_move & TUNEMASK)
212 #define TARGET_EPILOGUE_USING_MOVE (x86_epilogue_using_move & TUNEMASK)
213 #define TARGET_PREFETCH_SSE (x86_prefetch_sse)
214 #define TARGET_SHIFT1 (x86_shift1 & TUNEMASK)
215 #define TARGET_USE_FFREEP (x86_use_ffreep & TUNEMASK)
216 #define TARGET_REP_MOVL_OPTIMAL (x86_rep_movl_optimal & TUNEMASK)
217 #define TARGET_INTER_UNIT_MOVES (x86_inter_unit_moves & TUNEMASK)
218 #define TARGET_FOUR_JUMP_LIMIT (x86_four_jump_limit & TUNEMASK)
219 #define TARGET_SCHEDULE (x86_schedule & TUNEMASK)
220 #define TARGET_USE_BT (x86_use_bt & TUNEMASK)
221 #define TARGET_USE_INCDEC (x86_use_incdec & TUNEMASK)
222 #define TARGET_PAD_RETURNS (x86_pad_returns & TUNEMASK)
223
224 #define ASSEMBLER_DIALECT (ix86_asm_dialect)
225
226 #define TARGET_SSE_MATH ((ix86_fpmath & FPMATH_SSE) != 0)
227 #define TARGET_MIX_SSE_I387 ((ix86_fpmath & FPMATH_SSE) \
228                              && (ix86_fpmath & FPMATH_387))
229
230 #define TARGET_GNU_TLS (ix86_tls_dialect == TLS_DIALECT_GNU)
231 #define TARGET_GNU2_TLS (ix86_tls_dialect == TLS_DIALECT_GNU2)
232 #define TARGET_ANY_GNU_TLS (TARGET_GNU_TLS || TARGET_GNU2_TLS)
233 #define TARGET_SUN_TLS (ix86_tls_dialect == TLS_DIALECT_SUN)
234
235 #define TARGET_CMPXCHG (x86_cmpxchg & (1 << ix86_arch))
236 #define TARGET_CMPXCHG8B (x86_cmpxchg8b & (1 << ix86_arch))
237 #define TARGET_CMPXCHG16B (x86_cmpxchg16b & (1 << ix86_arch))
238 #define TARGET_XADD (x86_xadd & (1 << ix86_arch))
239
240 #ifndef TARGET_64BIT_DEFAULT
241 #define TARGET_64BIT_DEFAULT 0
242 #endif
243 #ifndef TARGET_TLS_DIRECT_SEG_REFS_DEFAULT
244 #define TARGET_TLS_DIRECT_SEG_REFS_DEFAULT 0
245 #endif
246
247 /* Once GDB has been enhanced to deal with functions without frame
248    pointers, we can change this to allow for elimination of
249    the frame pointer in leaf functions.  */
250 #define TARGET_DEFAULT 0
251
252 /* This is not really a target flag, but is done this way so that
253    it's analogous to similar code for Mach-O on PowerPC.  darwin.h
254    redefines this to 1.  */
255 #define TARGET_MACHO 0
256
257 /* Subtargets may reset this to 1 in order to enable 96-bit long double
258    with the rounding mode forced to 53 bits.  */
259 #define TARGET_96_ROUND_53_LONG_DOUBLE 0
260
261 /* Sometimes certain combinations of command options do not make
262    sense on a particular target machine.  You can define a macro
263    `OVERRIDE_OPTIONS' to take account of this.  This macro, if
264    defined, is executed once just after all the command options have
265    been parsed.
266
267    Don't use this macro to turn on various extra optimizations for
268    `-O'.  That is what `OPTIMIZATION_OPTIONS' is for.  */
269
270 #define OVERRIDE_OPTIONS override_options ()
271
272 /* Define this to change the optimizations performed by default.  */
273 #define OPTIMIZATION_OPTIONS(LEVEL, SIZE) \
274   optimization_options ((LEVEL), (SIZE))
275
276 /* -march=native handling only makes sense with a native compiler.  */
277 #ifndef CROSS_COMPILE
278 /* In driver-i386.c.  */
279 extern const char *host_detect_local_cpu (int argc, const char **argv);
280 #define EXTRA_SPEC_FUNCTIONS \
281   { "local_cpu_detect", host_detect_local_cpu },
282 #endif
283
284 /* Support for configure-time defaults of some command line options.
285    The order here is important so that -march doesn't squash the
286    tune or cpu values.  */
287 #define OPTION_DEFAULT_SPECS \
288   {"tune", "%{!mtune=*:%{!mcpu=*:%{!march=*:-mtune=%(VALUE)}}}" }, \
289   {"cpu", "%{!mtune=*:%{!mcpu=*:%{!march=*:-mtune=%(VALUE)}}}" }, \
290   {"arch", "%{!march=*:-march=%(VALUE)}"}
291
292 /* Specs for the compiler proper */
293
294 #ifndef CC1_CPU_SPEC
295 #define CC1_CPU_SPEC_1 "\
296 %{!mtune*: \
297 %{m386:mtune=i386 \
298 %n`-m386' is deprecated. Use `-march=i386' or `-mtune=i386' instead.\n} \
299 %{m486:-mtune=i486 \
300 %n`-m486' is deprecated. Use `-march=i486' or `-mtune=i486' instead.\n} \
301 %{mpentium:-mtune=pentium \
302 %n`-mpentium' is deprecated. Use `-march=pentium' or `-mtune=pentium' instead.\n} \
303 %{mpentiumpro:-mtune=pentiumpro \
304 %n`-mpentiumpro' is deprecated. Use `-march=pentiumpro' or `-mtune=pentiumpro' instead.\n} \
305 %{mcpu=*:-mtune=%* \
306 %n`-mcpu=' is deprecated. Use `-mtune=' or '-march=' instead.\n}} \
307 %<mcpu=* \
308 %{mintel-syntax:-masm=intel \
309 %n`-mintel-syntax' is deprecated. Use `-masm=intel' instead.\n} \
310 %{mno-intel-syntax:-masm=att \
311 %n`-mno-intel-syntax' is deprecated. Use `-masm=att' instead.\n}"
312
313 #ifdef CROSS_COMPILE
314 #define CC1_CPU_SPEC CC1_CPU_SPEC_1
315 #else
316 #define CC1_CPU_SPEC CC1_CPU_SPEC_1 \
317 "%{march=native:%<march=native %:local_cpu_detect(arch)} \
318 %{mtune=native:%<mtune=native %:local_cpu_detect(tune)}"
319 #endif
320 #endif
321 \f
322 /* Target CPU builtins.  */
323 #define TARGET_CPU_CPP_BUILTINS()                               \
324   do                                                            \
325     {                                                           \
326       size_t arch_len = strlen (ix86_arch_string);              \
327       size_t tune_len = strlen (ix86_tune_string);              \
328       int last_arch_char = ix86_arch_string[arch_len - 1];      \
329       int last_tune_char = ix86_tune_string[tune_len - 1];              \
330                                                                 \
331       if (TARGET_64BIT)                                         \
332         {                                                       \
333           builtin_assert ("cpu=x86_64");                        \
334           builtin_assert ("machine=x86_64");                    \
335           builtin_define ("__amd64");                           \
336           builtin_define ("__amd64__");                         \
337           builtin_define ("__x86_64");                          \
338           builtin_define ("__x86_64__");                        \
339         }                                                       \
340       else                                                      \
341         {                                                       \
342           builtin_assert ("cpu=i386");                          \
343           builtin_assert ("machine=i386");                      \
344           builtin_define_std ("i386");                          \
345         }                                                       \
346                                                                 \
347       /* Built-ins based on -mtune= (or -march= if no           \
348          -mtune= given).  */                                    \
349       if (TARGET_386)                                           \
350         builtin_define ("__tune_i386__");                       \
351       else if (TARGET_486)                                      \
352         builtin_define ("__tune_i486__");                       \
353       else if (TARGET_PENTIUM)                                  \
354         {                                                       \
355           builtin_define ("__tune_i586__");                     \
356           builtin_define ("__tune_pentium__");                  \
357           if (last_tune_char == 'x')                            \
358             builtin_define ("__tune_pentium_mmx__");            \
359         }                                                       \
360       else if (TARGET_PENTIUMPRO)                               \
361         {                                                       \
362           builtin_define ("__tune_i686__");                     \
363           builtin_define ("__tune_pentiumpro__");               \
364           switch (last_tune_char)                               \
365             {                                                   \
366             case '3':                                           \
367               builtin_define ("__tune_pentium3__");             \
368               /* FALLTHRU */                                    \
369             case '2':                                           \
370               builtin_define ("__tune_pentium2__");             \
371               break;                                            \
372             }                                                   \
373         }                                                       \
374       else if (TARGET_K6)                                       \
375         {                                                       \
376           builtin_define ("__tune_k6__");                       \
377           if (last_tune_char == '2')                            \
378             builtin_define ("__tune_k6_2__");                   \
379           else if (last_tune_char == '3')                       \
380             builtin_define ("__tune_k6_3__");                   \
381         }                                                       \
382       else if (TARGET_ATHLON)                                   \
383         {                                                       \
384           builtin_define ("__tune_athlon__");                   \
385           /* Only plain "athlon" lacks SSE.  */                 \
386           if (last_tune_char != 'n')                            \
387             builtin_define ("__tune_athlon_sse__");             \
388         }                                                       \
389       else if (TARGET_K8)                                       \
390         builtin_define ("__tune_k8__");                         \
391       else if (TARGET_PENTIUM4)                                 \
392         builtin_define ("__tune_pentium4__");                   \
393       else if (TARGET_NOCONA)                                   \
394         builtin_define ("__tune_nocona__");                     \
395                                                                 \
396       if (TARGET_MMX)                                           \
397         builtin_define ("__MMX__");                             \
398       if (TARGET_3DNOW)                                         \
399         builtin_define ("__3dNOW__");                           \
400       if (TARGET_3DNOW_A)                                       \
401         builtin_define ("__3dNOW_A__");                         \
402       if (TARGET_SSE)                                           \
403         builtin_define ("__SSE__");                             \
404       if (TARGET_SSE2)                                          \
405         builtin_define ("__SSE2__");                            \
406       if (TARGET_SSE3)                                          \
407         builtin_define ("__SSE3__");                            \
408       if (TARGET_SSE_MATH && TARGET_SSE)                        \
409         builtin_define ("__SSE_MATH__");                        \
410       if (TARGET_SSE_MATH && TARGET_SSE2)                       \
411         builtin_define ("__SSE2_MATH__");                       \
412                                                                 \
413       /* Built-ins based on -march=.  */                        \
414       if (ix86_arch == PROCESSOR_I486)                          \
415         {                                                       \
416           builtin_define ("__i486");                            \
417           builtin_define ("__i486__");                          \
418         }                                                       \
419       else if (ix86_arch == PROCESSOR_PENTIUM)                  \
420         {                                                       \
421           builtin_define ("__i586");                            \
422           builtin_define ("__i586__");                          \
423           builtin_define ("__pentium");                         \
424           builtin_define ("__pentium__");                       \
425           if (last_arch_char == 'x')                            \
426             builtin_define ("__pentium_mmx__");                 \
427         }                                                       \
428       else if (ix86_arch == PROCESSOR_PENTIUMPRO)               \
429         {                                                       \
430           builtin_define ("__i686");                            \
431           builtin_define ("__i686__");                          \
432           builtin_define ("__pentiumpro");                      \
433           builtin_define ("__pentiumpro__");                    \
434         }                                                       \
435       else if (ix86_arch == PROCESSOR_K6)                       \
436         {                                                       \
437                                                                 \
438           builtin_define ("__k6");                              \
439           builtin_define ("__k6__");                            \
440           if (last_arch_char == '2')                            \
441             builtin_define ("__k6_2__");                        \
442           else if (last_arch_char == '3')                       \
443             builtin_define ("__k6_3__");                        \
444         }                                                       \
445       else if (ix86_arch == PROCESSOR_ATHLON)                   \
446         {                                                       \
447           builtin_define ("__athlon");                          \
448           builtin_define ("__athlon__");                        \
449           /* Only plain "athlon" lacks SSE.  */                 \
450           if (last_arch_char != 'n')                            \
451             builtin_define ("__athlon_sse__");                  \
452         }                                                       \
453       else if (ix86_arch == PROCESSOR_K8)                       \
454         {                                                       \
455           builtin_define ("__k8");                              \
456           builtin_define ("__k8__");                            \
457         }                                                       \
458       else if (ix86_arch == PROCESSOR_PENTIUM4)                 \
459         {                                                       \
460           builtin_define ("__pentium4");                        \
461           builtin_define ("__pentium4__");                      \
462         }                                                       \
463       else if (ix86_arch == PROCESSOR_NOCONA)                   \
464         {                                                       \
465           builtin_define ("__nocona");                          \
466           builtin_define ("__nocona__");                        \
467         }                                                       \
468     }                                                           \
469   while (0)
470
471 #define TARGET_CPU_DEFAULT_i386 0
472 #define TARGET_CPU_DEFAULT_i486 1
473 #define TARGET_CPU_DEFAULT_pentium 2
474 #define TARGET_CPU_DEFAULT_pentium_mmx 3
475 #define TARGET_CPU_DEFAULT_pentiumpro 4
476 #define TARGET_CPU_DEFAULT_pentium2 5
477 #define TARGET_CPU_DEFAULT_pentium3 6
478 #define TARGET_CPU_DEFAULT_pentium4 7
479 #define TARGET_CPU_DEFAULT_k6 8
480 #define TARGET_CPU_DEFAULT_k6_2 9
481 #define TARGET_CPU_DEFAULT_k6_3 10
482 #define TARGET_CPU_DEFAULT_athlon 11
483 #define TARGET_CPU_DEFAULT_athlon_sse 12
484 #define TARGET_CPU_DEFAULT_k8 13
485 #define TARGET_CPU_DEFAULT_pentium_m 14
486 #define TARGET_CPU_DEFAULT_prescott 15
487 #define TARGET_CPU_DEFAULT_nocona 16
488 #define TARGET_CPU_DEFAULT_generic 17
489
490 #define TARGET_CPU_DEFAULT_NAMES {"i386", "i486", "pentium", "pentium-mmx",\
491                                   "pentiumpro", "pentium2", "pentium3", \
492                                   "pentium4", "k6", "k6-2", "k6-3",\
493                                   "athlon", "athlon-4", "k8", \
494                                   "pentium-m", "prescott", "nocona", \
495                                   "generic"}
496
497 #ifndef CC1_SPEC
498 #define CC1_SPEC "%(cc1_cpu) "
499 #endif
500
501 /* This macro defines names of additional specifications to put in the
502    specs that can be used in various specifications like CC1_SPEC.  Its
503    definition is an initializer with a subgrouping for each command option.
504
505    Each subgrouping contains a string constant, that defines the
506    specification name, and a string constant that used by the GCC driver
507    program.
508
509    Do not define this macro if it does not need to do anything.  */
510
511 #ifndef SUBTARGET_EXTRA_SPECS
512 #define SUBTARGET_EXTRA_SPECS
513 #endif
514
515 #define EXTRA_SPECS                                                     \
516   { "cc1_cpu",  CC1_CPU_SPEC },                                         \
517   SUBTARGET_EXTRA_SPECS
518 \f
519 /* target machine storage layout */
520
521 #define LONG_DOUBLE_TYPE_SIZE 80
522
523 /* Set the value of FLT_EVAL_METHOD in float.h.  When using only the
524    FPU, assume that the fpcw is set to extended precision; when using
525    only SSE, rounding is correct; when using both SSE and the FPU,
526    the rounding precision is indeterminate, since either may be chosen
527    apparently at random.  */
528 #define TARGET_FLT_EVAL_METHOD \
529   (TARGET_MIX_SSE_I387 ? -1 : TARGET_SSE_MATH ? 0 : 2)
530
531 #define SHORT_TYPE_SIZE 16
532 #define INT_TYPE_SIZE 32
533 #define FLOAT_TYPE_SIZE 32
534 #define LONG_TYPE_SIZE BITS_PER_WORD
535 #define DOUBLE_TYPE_SIZE 64
536 #define LONG_LONG_TYPE_SIZE 64
537
538 #if defined (TARGET_BI_ARCH) || TARGET_64BIT_DEFAULT
539 #define MAX_BITS_PER_WORD 64
540 #else
541 #define MAX_BITS_PER_WORD 32
542 #endif
543
544 /* Define this if most significant byte of a word is the lowest numbered.  */
545 /* That is true on the 80386.  */
546
547 #define BITS_BIG_ENDIAN 0
548
549 /* Define this if most significant byte of a word is the lowest numbered.  */
550 /* That is not true on the 80386.  */
551 #define BYTES_BIG_ENDIAN 0
552
553 /* Define this if most significant word of a multiword number is the lowest
554    numbered.  */
555 /* Not true for 80386 */
556 #define WORDS_BIG_ENDIAN 0
557
558 /* Width of a word, in units (bytes).  */
559 #define UNITS_PER_WORD (TARGET_64BIT ? 8 : 4)
560 #ifdef IN_LIBGCC2
561 #define MIN_UNITS_PER_WORD      (TARGET_64BIT ? 8 : 4)
562 #else
563 #define MIN_UNITS_PER_WORD      4
564 #endif
565
566 /* Allocation boundary (in *bits*) for storing arguments in argument list.  */
567 #define PARM_BOUNDARY BITS_PER_WORD
568
569 /* Boundary (in *bits*) on which stack pointer should be aligned.  */
570 #define STACK_BOUNDARY BITS_PER_WORD
571
572 /* Boundary (in *bits*) on which the stack pointer prefers to be
573    aligned; the compiler cannot rely on having this alignment.  */
574 #define PREFERRED_STACK_BOUNDARY ix86_preferred_stack_boundary
575
576 /* As of July 2001, many runtimes do not align the stack properly when
577    entering main.  This causes expand_main_function to forcibly align
578    the stack, which results in aligned frames for functions called from
579    main, though it does nothing for the alignment of main itself.  */
580 #define FORCE_PREFERRED_STACK_BOUNDARY_IN_MAIN \
581   (ix86_preferred_stack_boundary > STACK_BOUNDARY && !TARGET_64BIT)
582
583 /* Minimum allocation boundary for the code of a function.  */
584 #define FUNCTION_BOUNDARY 8
585
586 /* C++ stores the virtual bit in the lowest bit of function pointers.  */
587 #define TARGET_PTRMEMFUNC_VBIT_LOCATION ptrmemfunc_vbit_in_pfn
588
589 /* Alignment of field after `int : 0' in a structure.  */
590
591 #define EMPTY_FIELD_BOUNDARY BITS_PER_WORD
592
593 /* Minimum size in bits of the largest boundary to which any
594    and all fundamental data types supported by the hardware
595    might need to be aligned. No data type wants to be aligned
596    rounder than this.
597
598    Pentium+ prefers DFmode values to be aligned to 64 bit boundary
599    and Pentium Pro XFmode values at 128 bit boundaries.  */
600
601 #define BIGGEST_ALIGNMENT 128
602
603 /* Decide whether a variable of mode MODE should be 128 bit aligned.  */
604 #define ALIGN_MODE_128(MODE) \
605  ((MODE) == XFmode || SSE_REG_MODE_P (MODE))
606
607 /* The published ABIs say that doubles should be aligned on word
608    boundaries, so lower the alignment for structure fields unless
609    -malign-double is set.  */
610
611 /* ??? Blah -- this macro is used directly by libobjc.  Since it
612    supports no vector modes, cut out the complexity and fall back
613    on BIGGEST_FIELD_ALIGNMENT.  */
614 #ifdef IN_TARGET_LIBS
615 #ifdef __x86_64__
616 #define BIGGEST_FIELD_ALIGNMENT 128
617 #else
618 #define BIGGEST_FIELD_ALIGNMENT 32
619 #endif
620 #else
621 #define ADJUST_FIELD_ALIGN(FIELD, COMPUTED) \
622    x86_field_alignment (FIELD, COMPUTED)
623 #endif
624
625 /* If defined, a C expression to compute the alignment given to a
626    constant that is being placed in memory.  EXP is the constant
627    and ALIGN is the alignment that the object would ordinarily have.
628    The value of this macro is used instead of that alignment to align
629    the object.
630
631    If this macro is not defined, then ALIGN is used.
632
633    The typical use of this macro is to increase alignment for string
634    constants to be word aligned so that `strcpy' calls that copy
635    constants can be done inline.  */
636
637 #define CONSTANT_ALIGNMENT(EXP, ALIGN) ix86_constant_alignment ((EXP), (ALIGN))
638
639 /* If defined, a C expression to compute the alignment for a static
640    variable.  TYPE is the data type, and ALIGN is the alignment that
641    the object would ordinarily have.  The value of this macro is used
642    instead of that alignment to align the object.
643
644    If this macro is not defined, then ALIGN is used.
645
646    One use of this macro is to increase alignment of medium-size
647    data to make it all fit in fewer cache lines.  Another is to
648    cause character arrays to be word-aligned so that `strcpy' calls
649    that copy constants to character arrays can be done inline.  */
650
651 #define DATA_ALIGNMENT(TYPE, ALIGN) ix86_data_alignment ((TYPE), (ALIGN))
652
653 /* If defined, a C expression to compute the alignment for a local
654    variable.  TYPE is the data type, and ALIGN is the alignment that
655    the object would ordinarily have.  The value of this macro is used
656    instead of that alignment to align the object.
657
658    If this macro is not defined, then ALIGN is used.
659
660    One use of this macro is to increase alignment of medium-size
661    data to make it all fit in fewer cache lines.  */
662
663 #define LOCAL_ALIGNMENT(TYPE, ALIGN) ix86_local_alignment ((TYPE), (ALIGN))
664
665 /* If defined, a C expression that gives the alignment boundary, in
666    bits, of an argument with the specified mode and type.  If it is
667    not defined, `PARM_BOUNDARY' is used for all arguments.  */
668
669 #define FUNCTION_ARG_BOUNDARY(MODE, TYPE) \
670   ix86_function_arg_boundary ((MODE), (TYPE))
671
672 /* Set this nonzero if move instructions will actually fail to work
673    when given unaligned data.  */
674 #define STRICT_ALIGNMENT 0
675
676 /* If bit field type is int, don't let it cross an int,
677    and give entire struct the alignment of an int.  */
678 /* Required on the 386 since it doesn't have bit-field insns.  */
679 #define PCC_BITFIELD_TYPE_MATTERS 1
680 \f
681 /* Standard register usage.  */
682
683 /* This processor has special stack-like registers.  See reg-stack.c
684    for details.  */
685
686 #define STACK_REGS
687 #define IS_STACK_MODE(MODE)                                     \
688   (((MODE) == SFmode && (!TARGET_SSE || !TARGET_SSE_MATH))      \
689    || ((MODE) == DFmode && (!TARGET_SSE2 || !TARGET_SSE_MATH))  \
690    || (MODE) == XFmode)
691
692 /* Number of actual hardware registers.
693    The hardware registers are assigned numbers for the compiler
694    from 0 to just below FIRST_PSEUDO_REGISTER.
695    All registers that the compiler knows about must be given numbers,
696    even those that are not normally considered general registers.
697
698    In the 80386 we give the 8 general purpose registers the numbers 0-7.
699    We number the floating point registers 8-15.
700    Note that registers 0-7 can be accessed as a  short or int,
701    while only 0-3 may be used with byte `mov' instructions.
702
703    Reg 16 does not correspond to any hardware register, but instead
704    appears in the RTL as an argument pointer prior to reload, and is
705    eliminated during reloading in favor of either the stack or frame
706    pointer.  */
707
708 #define FIRST_PSEUDO_REGISTER 53
709
710 /* Number of hardware registers that go into the DWARF-2 unwind info.
711    If not defined, equals FIRST_PSEUDO_REGISTER.  */
712
713 #define DWARF_FRAME_REGISTERS 17
714
715 /* 1 for registers that have pervasive standard uses
716    and are not available for the register allocator.
717    On the 80386, the stack pointer is such, as is the arg pointer.
718
719    The value is zero if the register is not fixed on either 32 or
720    64 bit targets, one if the register if fixed on both 32 and 64
721    bit targets, two if it is only fixed on 32bit targets and three
722    if its only fixed on 64bit targets.
723    Proper values are computed in the CONDITIONAL_REGISTER_USAGE.
724  */
725 #define FIXED_REGISTERS                                         \
726 /*ax,dx,cx,bx,si,di,bp,sp,st,st1,st2,st3,st4,st5,st6,st7*/      \
727 {  0, 0, 0, 0, 0, 0, 0, 1, 0,  0,  0,  0,  0,  0,  0,  0,       \
728 /*arg,flags,fpsr,dir,frame*/                                    \
729     1,    1,   1,  1,    1,                                     \
730 /*xmm0,xmm1,xmm2,xmm3,xmm4,xmm5,xmm6,xmm7*/                     \
731      0,   0,   0,   0,   0,   0,   0,   0,                      \
732 /*mmx0,mmx1,mmx2,mmx3,mmx4,mmx5,mmx6,mmx7*/                     \
733      0,   0,   0,   0,   0,   0,   0,   0,                      \
734 /*  r8,  r9, r10, r11, r12, r13, r14, r15*/                     \
735      2,   2,   2,   2,   2,   2,   2,   2,                      \
736 /*xmm8,xmm9,xmm10,xmm11,xmm12,xmm13,xmm14,xmm15*/               \
737      2,   2,    2,    2,    2,    2,    2,    2}
738
739
740 /* 1 for registers not available across function calls.
741    These must include the FIXED_REGISTERS and also any
742    registers that can be used without being saved.
743    The latter must include the registers where values are returned
744    and the register where structure-value addresses are passed.
745    Aside from that, you can include as many other registers as you like.
746
747    The value is zero if the register is not call used on either 32 or
748    64 bit targets, one if the register if call used on both 32 and 64
749    bit targets, two if it is only call used on 32bit targets and three
750    if its only call used on 64bit targets.
751    Proper values are computed in the CONDITIONAL_REGISTER_USAGE.
752 */
753 #define CALL_USED_REGISTERS                                     \
754 /*ax,dx,cx,bx,si,di,bp,sp,st,st1,st2,st3,st4,st5,st6,st7*/      \
755 {  1, 1, 1, 0, 3, 3, 0, 1, 1,  1,  1,  1,  1,  1,  1,  1,       \
756 /*arg,flags,fpsr,dir,frame*/                                    \
757      1,   1,   1,  1,    1,                                     \
758 /*xmm0,xmm1,xmm2,xmm3,xmm4,xmm5,xmm6,xmm7*/                     \
759      1,   1,   1,   1,   1,  1,    1,   1,                      \
760 /*mmx0,mmx1,mmx2,mmx3,mmx4,mmx5,mmx6,mmx7*/                     \
761      1,   1,   1,   1,   1,   1,   1,   1,                      \
762 /*  r8,  r9, r10, r11, r12, r13, r14, r15*/                     \
763      1,   1,   1,   1,   2,   2,   2,   2,                      \
764 /*xmm8,xmm9,xmm10,xmm11,xmm12,xmm13,xmm14,xmm15*/               \
765      1,   1,    1,    1,    1,    1,    1,    1}                \
766
767 /* Order in which to allocate registers.  Each register must be
768    listed once, even those in FIXED_REGISTERS.  List frame pointer
769    late and fixed registers last.  Note that, in general, we prefer
770    registers listed in CALL_USED_REGISTERS, keeping the others
771    available for storage of persistent values.
772
773    The ORDER_REGS_FOR_LOCAL_ALLOC actually overwrite the order,
774    so this is just empty initializer for array.  */
775
776 #define REG_ALLOC_ORDER                                         \
777 {  0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17,\
778    18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32,  \
779    33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47,  \
780    48, 49, 50, 51, 52 }
781
782 /* ORDER_REGS_FOR_LOCAL_ALLOC is a macro which permits reg_alloc_order
783    to be rearranged based on a particular function.  When using sse math,
784    we want to allocate SSE before x87 registers and vice vera.  */
785
786 #define ORDER_REGS_FOR_LOCAL_ALLOC x86_order_regs_for_local_alloc ()
787
788
789 /* Macro to conditionally modify fixed_regs/call_used_regs.  */
790 #define CONDITIONAL_REGISTER_USAGE                                      \
791 do {                                                                    \
792     int i;                                                              \
793     for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)                         \
794       {                                                                 \
795         if (fixed_regs[i] > 1)                                          \
796           fixed_regs[i] = (fixed_regs[i] == (TARGET_64BIT ? 3 : 2));    \
797         if (call_used_regs[i] > 1)                                      \
798           call_used_regs[i] = (call_used_regs[i]                        \
799                                == (TARGET_64BIT ? 3 : 2));              \
800       }                                                                 \
801     if (PIC_OFFSET_TABLE_REGNUM != INVALID_REGNUM)                      \
802       {                                                                 \
803         fixed_regs[PIC_OFFSET_TABLE_REGNUM] = 1;                        \
804         call_used_regs[PIC_OFFSET_TABLE_REGNUM] = 1;                    \
805       }                                                                 \
806     if (! TARGET_MMX)                                                   \
807       {                                                                 \
808         int i;                                                          \
809         for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)                     \
810           if (TEST_HARD_REG_BIT (reg_class_contents[(int)MMX_REGS], i)) \
811             fixed_regs[i] = call_used_regs[i] = 1, reg_names[i] = "";   \
812       }                                                                 \
813     if (! TARGET_SSE)                                                   \
814       {                                                                 \
815         int i;                                                          \
816         for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)                     \
817           if (TEST_HARD_REG_BIT (reg_class_contents[(int)SSE_REGS], i)) \
818             fixed_regs[i] = call_used_regs[i] = 1, reg_names[i] = "";   \
819       }                                                                 \
820     if (! TARGET_80387 && ! TARGET_FLOAT_RETURNS_IN_80387)              \
821       {                                                                 \
822         int i;                                                          \
823         HARD_REG_SET x;                                                 \
824         COPY_HARD_REG_SET (x, reg_class_contents[(int)FLOAT_REGS]);     \
825         for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)                     \
826           if (TEST_HARD_REG_BIT (x, i))                                 \
827             fixed_regs[i] = call_used_regs[i] = 1, reg_names[i] = "";   \
828       }                                                                 \
829     if (! TARGET_64BIT)                                                 \
830       {                                                                 \
831         int i;                                                          \
832         for (i = FIRST_REX_INT_REG; i <= LAST_REX_INT_REG; i++)         \
833           reg_names[i] = "";                                            \
834         for (i = FIRST_REX_SSE_REG; i <= LAST_REX_SSE_REG; i++)         \
835           reg_names[i] = "";                                            \
836       }                                                                 \
837   } while (0)
838
839 /* Return number of consecutive hard regs needed starting at reg REGNO
840    to hold something of mode MODE.
841    This is ordinarily the length in words of a value of mode MODE
842    but can be less for certain modes in special long registers.
843
844    Actually there are no two word move instructions for consecutive
845    registers.  And only registers 0-3 may have mov byte instructions
846    applied to them.
847    */
848
849 #define HARD_REGNO_NREGS(REGNO, MODE)   \
850   (FP_REGNO_P (REGNO) || SSE_REGNO_P (REGNO) || MMX_REGNO_P (REGNO)     \
851    ? (COMPLEX_MODE_P (MODE) ? 2 : 1)                                    \
852    : ((MODE) == XFmode                                                  \
853       ? (TARGET_64BIT ? 2 : 3)                                          \
854       : (MODE) == XCmode                                                \
855       ? (TARGET_64BIT ? 4 : 6)                                          \
856       : ((GET_MODE_SIZE (MODE) + UNITS_PER_WORD - 1) / UNITS_PER_WORD)))
857
858 #define VALID_SSE2_REG_MODE(MODE) \
859     ((MODE) == V16QImode || (MODE) == V8HImode || (MODE) == V2DFmode    \
860      || (MODE) == V2DImode || (MODE) == DFmode)
861
862 #define VALID_SSE_REG_MODE(MODE)                                        \
863     ((MODE) == TImode || (MODE) == V4SFmode || (MODE) == V4SImode       \
864      || (MODE) == SFmode || (MODE) == TFmode)
865
866 #define VALID_MMX_REG_MODE_3DNOW(MODE) \
867     ((MODE) == V2SFmode || (MODE) == SFmode)
868
869 #define VALID_MMX_REG_MODE(MODE)                                        \
870     ((MODE) == DImode || (MODE) == V8QImode || (MODE) == V4HImode       \
871      || (MODE) == V2SImode || (MODE) == SImode)
872
873 /* ??? No autovectorization into MMX or 3DNOW until we can reliably
874    place emms and femms instructions.  */
875 #define UNITS_PER_SIMD_WORD (TARGET_SSE ? 16 : UNITS_PER_WORD)
876
877 #define VALID_FP_MODE_P(MODE)                                           \
878     ((MODE) == SFmode || (MODE) == DFmode || (MODE) == XFmode           \
879      || (MODE) == SCmode || (MODE) == DCmode || (MODE) == XCmode)       \
880
881 #define VALID_INT_MODE_P(MODE)                                          \
882     ((MODE) == QImode || (MODE) == HImode || (MODE) == SImode           \
883      || (MODE) == DImode                                                \
884      || (MODE) == CQImode || (MODE) == CHImode || (MODE) == CSImode     \
885      || (MODE) == CDImode                                               \
886      || (TARGET_64BIT && ((MODE) == TImode || (MODE) == CTImode         \
887          || (MODE) == TFmode || (MODE) == TCmode)))
888
889 /* Return true for modes passed in SSE registers.  */
890 #define SSE_REG_MODE_P(MODE) \
891  ((MODE) == TImode || (MODE) == V16QImode || (MODE) == TFmode           \
892    || (MODE) == V8HImode || (MODE) == V2DFmode || (MODE) == V2DImode    \
893    || (MODE) == V4SFmode || (MODE) == V4SImode)
894
895 /* Value is 1 if hard register REGNO can hold a value of machine-mode MODE.  */
896
897 #define HARD_REGNO_MODE_OK(REGNO, MODE) \
898    ix86_hard_regno_mode_ok ((REGNO), (MODE))
899
900 /* Value is 1 if it is a good idea to tie two pseudo registers
901    when one has mode MODE1 and one has mode MODE2.
902    If HARD_REGNO_MODE_OK could produce different values for MODE1 and MODE2,
903    for any hard reg, then this must be 0 for correct output.  */
904
905 #define MODES_TIEABLE_P(MODE1, MODE2)  ix86_modes_tieable_p (MODE1, MODE2)
906
907 /* It is possible to write patterns to move flags; but until someone
908    does it,  */
909 #define AVOID_CCMODE_COPIES
910
911 /* Specify the modes required to caller save a given hard regno.
912    We do this on i386 to prevent flags from being saved at all.
913
914    Kill any attempts to combine saving of modes.  */
915
916 #define HARD_REGNO_CALLER_SAVE_MODE(REGNO, NREGS, MODE)                 \
917   (CC_REGNO_P (REGNO) ? VOIDmode                                        \
918    : (MODE) == VOIDmode && (NREGS) != 1 ? VOIDmode                      \
919    : (MODE) == VOIDmode ? choose_hard_reg_mode ((REGNO), (NREGS), false)\
920    : (MODE) == HImode && !TARGET_PARTIAL_REG_STALL ? SImode             \
921    : (MODE) == QImode && (REGNO) >= 4 && !TARGET_64BIT ? SImode         \
922    : (MODE))
923 /* Specify the registers used for certain standard purposes.
924    The values of these macros are register numbers.  */
925
926 /* on the 386 the pc register is %eip, and is not usable as a general
927    register.  The ordinary mov instructions won't work */
928 /* #define PC_REGNUM  */
929
930 /* Register to use for pushing function arguments.  */
931 #define STACK_POINTER_REGNUM 7
932
933 /* Base register for access to local variables of the function.  */
934 #define HARD_FRAME_POINTER_REGNUM 6
935
936 /* Base register for access to local variables of the function.  */
937 #define FRAME_POINTER_REGNUM 20
938
939 /* First floating point reg */
940 #define FIRST_FLOAT_REG 8
941
942 /* First & last stack-like regs */
943 #define FIRST_STACK_REG FIRST_FLOAT_REG
944 #define LAST_STACK_REG (FIRST_FLOAT_REG + 7)
945
946 #define FIRST_SSE_REG (FRAME_POINTER_REGNUM + 1)
947 #define LAST_SSE_REG  (FIRST_SSE_REG + 7)
948
949 #define FIRST_MMX_REG  (LAST_SSE_REG + 1)
950 #define LAST_MMX_REG   (FIRST_MMX_REG + 7)
951
952 #define FIRST_REX_INT_REG  (LAST_MMX_REG + 1)
953 #define LAST_REX_INT_REG   (FIRST_REX_INT_REG + 7)
954
955 #define FIRST_REX_SSE_REG  (LAST_REX_INT_REG + 1)
956 #define LAST_REX_SSE_REG   (FIRST_REX_SSE_REG + 7)
957
958 /* Value should be nonzero if functions must have frame pointers.
959    Zero means the frame pointer need not be set up (and parms
960    may be accessed via the stack pointer) in functions that seem suitable.
961    This is computed in `reload', in reload1.c.  */
962 #define FRAME_POINTER_REQUIRED  ix86_frame_pointer_required ()
963
964 /* Override this in other tm.h files to cope with various OS lossage
965    requiring a frame pointer.  */
966 #ifndef SUBTARGET_FRAME_POINTER_REQUIRED
967 #define SUBTARGET_FRAME_POINTER_REQUIRED 0
968 #endif
969
970 /* Make sure we can access arbitrary call frames.  */
971 #define SETUP_FRAME_ADDRESSES()  ix86_setup_frame_addresses ()
972
973 /* Base register for access to arguments of the function.  */
974 #define ARG_POINTER_REGNUM 16
975
976 /* Register in which static-chain is passed to a function.
977    We do use ECX as static chain register for 32 bit ABI.  On the
978    64bit ABI, ECX is an argument register, so we use R10 instead.  */
979 #define STATIC_CHAIN_REGNUM (TARGET_64BIT ? FIRST_REX_INT_REG + 10 - 8 : 2)
980
981 /* Register to hold the addressing base for position independent
982    code access to data items.  We don't use PIC pointer for 64bit
983    mode.  Define the regnum to dummy value to prevent gcc from
984    pessimizing code dealing with EBX.
985
986    To avoid clobbering a call-saved register unnecessarily, we renumber
987    the pic register when possible.  The change is visible after the
988    prologue has been emitted.  */
989
990 #define REAL_PIC_OFFSET_TABLE_REGNUM  3
991
992 #define PIC_OFFSET_TABLE_REGNUM                         \
993   ((TARGET_64BIT && ix86_cmodel == CM_SMALL_PIC)        \
994    || !flag_pic ? INVALID_REGNUM                        \
995    : reload_completed ? REGNO (pic_offset_table_rtx)    \
996    : REAL_PIC_OFFSET_TABLE_REGNUM)
997
998 #define GOT_SYMBOL_NAME "_GLOBAL_OFFSET_TABLE_"
999
1000 /* A C expression which can inhibit the returning of certain function
1001    values in registers, based on the type of value.  A nonzero value
1002    says to return the function value in memory, just as large
1003    structures are always returned.  Here TYPE will be a C expression
1004    of type `tree', representing the data type of the value.
1005
1006    Note that values of mode `BLKmode' must be explicitly handled by
1007    this macro.  Also, the option `-fpcc-struct-return' takes effect
1008    regardless of this macro.  On most systems, it is possible to
1009    leave the macro undefined; this causes a default definition to be
1010    used, whose value is the constant 1 for `BLKmode' values, and 0
1011    otherwise.
1012
1013    Do not use this macro to indicate that structures and unions
1014    should always be returned in memory.  You should instead use
1015    `DEFAULT_PCC_STRUCT_RETURN' to indicate this.  */
1016
1017 #define RETURN_IN_MEMORY(TYPE) \
1018   ix86_return_in_memory (TYPE)
1019
1020 /* This is overridden by <cygwin.h>.  */
1021 #define MS_AGGREGATE_RETURN 0
1022
1023 /* This is overridden by <netware.h>.  */
1024 #define KEEP_AGGREGATE_RETURN_POINTER 0
1025 \f
1026 /* Define the classes of registers for register constraints in the
1027    machine description.  Also define ranges of constants.
1028
1029    One of the classes must always be named ALL_REGS and include all hard regs.
1030    If there is more than one class, another class must be named NO_REGS
1031    and contain no registers.
1032
1033    The name GENERAL_REGS must be the name of a class (or an alias for
1034    another name such as ALL_REGS).  This is the class of registers
1035    that is allowed by "g" or "r" in a register constraint.
1036    Also, registers outside this class are allocated only when
1037    instructions express preferences for them.
1038
1039    The classes must be numbered in nondecreasing order; that is,
1040    a larger-numbered class must never be contained completely
1041    in a smaller-numbered class.
1042
1043    For any two classes, it is very desirable that there be another
1044    class that represents their union.
1045
1046    It might seem that class BREG is unnecessary, since no useful 386
1047    opcode needs reg %ebx.  But some systems pass args to the OS in ebx,
1048    and the "b" register constraint is useful in asms for syscalls.
1049
1050    The flags and fpsr registers are in no class.  */
1051
1052 enum reg_class
1053 {
1054   NO_REGS,
1055   AREG, DREG, CREG, BREG, SIREG, DIREG,
1056   AD_REGS,                      /* %eax/%edx for DImode */
1057   Q_REGS,                       /* %eax %ebx %ecx %edx */
1058   NON_Q_REGS,                   /* %esi %edi %ebp %esp */
1059   INDEX_REGS,                   /* %eax %ebx %ecx %edx %esi %edi %ebp */
1060   LEGACY_REGS,                  /* %eax %ebx %ecx %edx %esi %edi %ebp %esp */
1061   GENERAL_REGS,                 /* %eax %ebx %ecx %edx %esi %edi %ebp %esp %r8 - %r15*/
1062   FP_TOP_REG, FP_SECOND_REG,    /* %st(0) %st(1) */
1063   FLOAT_REGS,
1064   SSE_REGS,
1065   MMX_REGS,
1066   FP_TOP_SSE_REGS,
1067   FP_SECOND_SSE_REGS,
1068   FLOAT_SSE_REGS,
1069   FLOAT_INT_REGS,
1070   INT_SSE_REGS,
1071   FLOAT_INT_SSE_REGS,
1072   ALL_REGS, LIM_REG_CLASSES
1073 };
1074
1075 #define N_REG_CLASSES ((int) LIM_REG_CLASSES)
1076
1077 #define INTEGER_CLASS_P(CLASS) \
1078   reg_class_subset_p ((CLASS), GENERAL_REGS)
1079 #define FLOAT_CLASS_P(CLASS) \
1080   reg_class_subset_p ((CLASS), FLOAT_REGS)
1081 #define SSE_CLASS_P(CLASS) \
1082   ((CLASS) == SSE_REGS)
1083 #define MMX_CLASS_P(CLASS) \
1084   ((CLASS) == MMX_REGS)
1085 #define MAYBE_INTEGER_CLASS_P(CLASS) \
1086   reg_classes_intersect_p ((CLASS), GENERAL_REGS)
1087 #define MAYBE_FLOAT_CLASS_P(CLASS) \
1088   reg_classes_intersect_p ((CLASS), FLOAT_REGS)
1089 #define MAYBE_SSE_CLASS_P(CLASS) \
1090   reg_classes_intersect_p (SSE_REGS, (CLASS))
1091 #define MAYBE_MMX_CLASS_P(CLASS) \
1092   reg_classes_intersect_p (MMX_REGS, (CLASS))
1093
1094 #define Q_CLASS_P(CLASS) \
1095   reg_class_subset_p ((CLASS), Q_REGS)
1096
1097 /* Give names of register classes as strings for dump file.  */
1098
1099 #define REG_CLASS_NAMES \
1100 {  "NO_REGS",                           \
1101    "AREG", "DREG", "CREG", "BREG",      \
1102    "SIREG", "DIREG",                    \
1103    "AD_REGS",                           \
1104    "Q_REGS", "NON_Q_REGS",              \
1105    "INDEX_REGS",                        \
1106    "LEGACY_REGS",                       \
1107    "GENERAL_REGS",                      \
1108    "FP_TOP_REG", "FP_SECOND_REG",       \
1109    "FLOAT_REGS",                        \
1110    "SSE_REGS",                          \
1111    "MMX_REGS",                          \
1112    "FP_TOP_SSE_REGS",                   \
1113    "FP_SECOND_SSE_REGS",                \
1114    "FLOAT_SSE_REGS",                    \
1115    "FLOAT_INT_REGS",                    \
1116    "INT_SSE_REGS",                      \
1117    "FLOAT_INT_SSE_REGS",                \
1118    "ALL_REGS" }
1119
1120 /* Define which registers fit in which classes.
1121    This is an initializer for a vector of HARD_REG_SET
1122    of length N_REG_CLASSES.  */
1123
1124 #define REG_CLASS_CONTENTS                                              \
1125 {     { 0x00,     0x0 },                                                \
1126       { 0x01,     0x0 }, { 0x02, 0x0 }, /* AREG, DREG */                \
1127       { 0x04,     0x0 }, { 0x08, 0x0 }, /* CREG, BREG */                \
1128       { 0x10,     0x0 }, { 0x20, 0x0 }, /* SIREG, DIREG */              \
1129       { 0x03,     0x0 },                /* AD_REGS */                   \
1130       { 0x0f,     0x0 },                /* Q_REGS */                    \
1131   { 0x1100f0,  0x1fe0 },                /* NON_Q_REGS */                \
1132       { 0x7f,  0x1fe0 },                /* INDEX_REGS */                \
1133   { 0x1100ff,  0x0 },                   /* LEGACY_REGS */               \
1134   { 0x1100ff,  0x1fe0 },                /* GENERAL_REGS */              \
1135      { 0x100,     0x0 }, { 0x0200, 0x0 },/* FP_TOP_REG, FP_SECOND_REG */\
1136     { 0xff00,     0x0 },                /* FLOAT_REGS */                \
1137 { 0x1fe00000,0x1fe000 },                /* SSE_REGS */                  \
1138 { 0xe0000000,    0x1f },                /* MMX_REGS */                  \
1139 { 0x1fe00100,0x1fe000 },                /* FP_TOP_SSE_REG */            \
1140 { 0x1fe00200,0x1fe000 },                /* FP_SECOND_SSE_REG */         \
1141 { 0x1fe0ff00,0x1fe000 },                /* FLOAT_SSE_REGS */            \
1142    { 0x1ffff,  0x1fe0 },                /* FLOAT_INT_REGS */            \
1143 { 0x1fe100ff,0x1fffe0 },                /* INT_SSE_REGS */              \
1144 { 0x1fe1ffff,0x1fffe0 },                /* FLOAT_INT_SSE_REGS */        \
1145 { 0xffffffff,0x1fffff }                                                 \
1146 }
1147
1148 /* The same information, inverted:
1149    Return the class number of the smallest class containing
1150    reg number REGNO.  This could be a conditional expression
1151    or could index an array.  */
1152
1153 #define REGNO_REG_CLASS(REGNO) (regclass_map[REGNO])
1154
1155 /* When defined, the compiler allows registers explicitly used in the
1156    rtl to be used as spill registers but prevents the compiler from
1157    extending the lifetime of these registers.  */
1158
1159 #define SMALL_REGISTER_CLASSES 1
1160
1161 #define QI_REG_P(X) \
1162   (REG_P (X) && REGNO (X) < 4)
1163
1164 #define GENERAL_REGNO_P(N) \
1165   ((N) < 8 || REX_INT_REGNO_P (N))
1166
1167 #define GENERAL_REG_P(X) \
1168   (REG_P (X) && GENERAL_REGNO_P (REGNO (X)))
1169
1170 #define ANY_QI_REG_P(X) (TARGET_64BIT ? GENERAL_REG_P(X) : QI_REG_P (X))
1171
1172 #define NON_QI_REG_P(X) \
1173   (REG_P (X) && REGNO (X) >= 4 && REGNO (X) < FIRST_PSEUDO_REGISTER)
1174
1175 #define REX_INT_REGNO_P(N) ((N) >= FIRST_REX_INT_REG && (N) <= LAST_REX_INT_REG)
1176 #define REX_INT_REG_P(X) (REG_P (X) && REX_INT_REGNO_P (REGNO (X)))
1177
1178 #define FP_REG_P(X) (REG_P (X) && FP_REGNO_P (REGNO (X)))
1179 #define FP_REGNO_P(N) ((N) >= FIRST_STACK_REG && (N) <= LAST_STACK_REG)
1180 #define ANY_FP_REG_P(X) (REG_P (X) && ANY_FP_REGNO_P (REGNO (X)))
1181 #define ANY_FP_REGNO_P(N) (FP_REGNO_P (N) || SSE_REGNO_P (N))
1182
1183 #define SSE_REGNO_P(N) \
1184   (((N) >= FIRST_SSE_REG && (N) <= LAST_SSE_REG) \
1185    || ((N) >= FIRST_REX_SSE_REG && (N) <= LAST_REX_SSE_REG))
1186
1187 #define REX_SSE_REGNO_P(N) \
1188    ((N) >= FIRST_REX_SSE_REG && (N) <= LAST_REX_SSE_REG)
1189
1190 #define SSE_REGNO(N) \
1191   ((N) < 8 ? FIRST_SSE_REG + (N) : FIRST_REX_SSE_REG + (N) - 8)
1192 #define SSE_REG_P(N) (REG_P (N) && SSE_REGNO_P (REGNO (N)))
1193
1194 #define SSE_FLOAT_MODE_P(MODE) \
1195   ((TARGET_SSE && (MODE) == SFmode) || (TARGET_SSE2 && (MODE) == DFmode))
1196
1197 #define MMX_REGNO_P(N) ((N) >= FIRST_MMX_REG && (N) <= LAST_MMX_REG)
1198 #define MMX_REG_P(XOP) (REG_P (XOP) && MMX_REGNO_P (REGNO (XOP)))
1199
1200 #define STACK_REG_P(XOP)                \
1201   (REG_P (XOP) &&                       \
1202    REGNO (XOP) >= FIRST_STACK_REG &&    \
1203    REGNO (XOP) <= LAST_STACK_REG)
1204
1205 #define NON_STACK_REG_P(XOP) (REG_P (XOP) && ! STACK_REG_P (XOP))
1206
1207 #define STACK_TOP_P(XOP) (REG_P (XOP) && REGNO (XOP) == FIRST_STACK_REG)
1208
1209 #define CC_REG_P(X) (REG_P (X) && CC_REGNO_P (REGNO (X)))
1210 #define CC_REGNO_P(X) ((X) == FLAGS_REG || (X) == FPSR_REG)
1211
1212 /* The class value for index registers, and the one for base regs.  */
1213
1214 #define INDEX_REG_CLASS INDEX_REGS
1215 #define BASE_REG_CLASS GENERAL_REGS
1216
1217 /* Place additional restrictions on the register class to use when it
1218    is necessary to be able to hold a value of mode MODE in a reload
1219    register for which class CLASS would ordinarily be used.  */
1220
1221 #define LIMIT_RELOAD_CLASS(MODE, CLASS)                         \
1222   ((MODE) == QImode && !TARGET_64BIT                            \
1223    && ((CLASS) == ALL_REGS || (CLASS) == GENERAL_REGS           \
1224        || (CLASS) == LEGACY_REGS || (CLASS) == INDEX_REGS)      \
1225    ? Q_REGS : (CLASS))
1226
1227 /* Given an rtx X being reloaded into a reg required to be
1228    in class CLASS, return the class of reg to actually use.
1229    In general this is just CLASS; but on some machines
1230    in some cases it is preferable to use a more restrictive class.
1231    On the 80386 series, we prevent floating constants from being
1232    reloaded into floating registers (since no move-insn can do that)
1233    and we ensure that QImodes aren't reloaded into the esi or edi reg.  */
1234
1235 /* Put float CONST_DOUBLE in the constant pool instead of fp regs.
1236    QImode must go into class Q_REGS.
1237    Narrow ALL_REGS to GENERAL_REGS.  This supports allowing movsf and
1238    movdf to do mem-to-mem moves through integer regs.  */
1239
1240 #define PREFERRED_RELOAD_CLASS(X, CLASS) \
1241    ix86_preferred_reload_class ((X), (CLASS))
1242
1243 /* Discourage putting floating-point values in SSE registers unless
1244    SSE math is being used, and likewise for the 387 registers.  */
1245
1246 #define PREFERRED_OUTPUT_RELOAD_CLASS(X, CLASS) \
1247    ix86_preferred_output_reload_class ((X), (CLASS))
1248
1249 /* If we are copying between general and FP registers, we need a memory
1250    location. The same is true for SSE and MMX registers.  */
1251 #define SECONDARY_MEMORY_NEEDED(CLASS1, CLASS2, MODE) \
1252   ix86_secondary_memory_needed ((CLASS1), (CLASS2), (MODE), 1)
1253
1254 /* QImode spills from non-QI registers need a scratch.  This does not
1255    happen often -- the only example so far requires an uninitialized
1256    pseudo.  */
1257
1258 #define SECONDARY_OUTPUT_RELOAD_CLASS(CLASS, MODE, OUT)                 \
1259   (((CLASS) == GENERAL_REGS || (CLASS) == LEGACY_REGS                   \
1260     || (CLASS) == INDEX_REGS) && !TARGET_64BIT && (MODE) == QImode      \
1261    ? Q_REGS : NO_REGS)
1262
1263 /* Return the maximum number of consecutive registers
1264    needed to represent mode MODE in a register of class CLASS.  */
1265 /* On the 80386, this is the size of MODE in words,
1266    except in the FP regs, where a single reg is always enough.  */
1267 #define CLASS_MAX_NREGS(CLASS, MODE)                                    \
1268  (!MAYBE_INTEGER_CLASS_P (CLASS)                                        \
1269   ? (COMPLEX_MODE_P (MODE) ? 2 : 1)                                     \
1270   : (((((MODE) == XFmode ? 12 : GET_MODE_SIZE (MODE)))                  \
1271       + UNITS_PER_WORD - 1) / UNITS_PER_WORD))
1272
1273 /* A C expression whose value is nonzero if pseudos that have been
1274    assigned to registers of class CLASS would likely be spilled
1275    because registers of CLASS are needed for spill registers.
1276
1277    The default value of this macro returns 1 if CLASS has exactly one
1278    register and zero otherwise.  On most machines, this default
1279    should be used.  Only define this macro to some other expression
1280    if pseudo allocated by `local-alloc.c' end up in memory because
1281    their hard registers were needed for spill registers.  If this
1282    macro returns nonzero for those classes, those pseudos will only
1283    be allocated by `global.c', which knows how to reallocate the
1284    pseudo to another register.  If there would not be another
1285    register available for reallocation, you should not change the
1286    definition of this macro since the only effect of such a
1287    definition would be to slow down register allocation.  */
1288
1289 #define CLASS_LIKELY_SPILLED_P(CLASS)                                   \
1290   (((CLASS) == AREG)                                                    \
1291    || ((CLASS) == DREG)                                                 \
1292    || ((CLASS) == CREG)                                                 \
1293    || ((CLASS) == BREG)                                                 \
1294    || ((CLASS) == AD_REGS)                                              \
1295    || ((CLASS) == SIREG)                                                \
1296    || ((CLASS) == DIREG)                                                \
1297    || ((CLASS) == FP_TOP_REG)                                           \
1298    || ((CLASS) == FP_SECOND_REG))
1299
1300 /* Return a class of registers that cannot change FROM mode to TO mode.  */
1301
1302 #define CANNOT_CHANGE_MODE_CLASS(FROM, TO, CLASS) \
1303   ix86_cannot_change_mode_class (FROM, TO, CLASS)
1304 \f
1305 /* Stack layout; function entry, exit and calling.  */
1306
1307 /* Define this if pushing a word on the stack
1308    makes the stack pointer a smaller address.  */
1309 #define STACK_GROWS_DOWNWARD
1310
1311 /* Define this to nonzero if the nominal address of the stack frame
1312    is at the high-address end of the local variables;
1313    that is, each additional local variable allocated
1314    goes at a more negative offset in the frame.  */
1315 #define FRAME_GROWS_DOWNWARD 1
1316
1317 /* Offset within stack frame to start allocating local variables at.
1318    If FRAME_GROWS_DOWNWARD, this is the offset to the END of the
1319    first local allocated.  Otherwise, it is the offset to the BEGINNING
1320    of the first local allocated.  */
1321 #define STARTING_FRAME_OFFSET 0
1322
1323 /* If we generate an insn to push BYTES bytes,
1324    this says how many the stack pointer really advances by.
1325    On 386, we have pushw instruction that decrements by exactly 2 no
1326    matter what the position was, there is no pushb.
1327    But as CIE data alignment factor on this arch is -4, we need to make
1328    sure all stack pointer adjustments are in multiple of 4.
1329
1330    For 64bit ABI we round up to 8 bytes.
1331  */
1332
1333 #define PUSH_ROUNDING(BYTES) \
1334   (TARGET_64BIT              \
1335    ? (((BYTES) + 7) & (-8))  \
1336    : (((BYTES) + 3) & (-4)))
1337
1338 /* If defined, the maximum amount of space required for outgoing arguments will
1339    be computed and placed into the variable
1340    `current_function_outgoing_args_size'.  No space will be pushed onto the
1341    stack for each call; instead, the function prologue should increase the stack
1342    frame size by this amount.  */
1343
1344 #define ACCUMULATE_OUTGOING_ARGS TARGET_ACCUMULATE_OUTGOING_ARGS
1345
1346 /* If defined, a C expression whose value is nonzero when we want to use PUSH
1347    instructions to pass outgoing arguments.  */
1348
1349 #define PUSH_ARGS (TARGET_PUSH_ARGS && !ACCUMULATE_OUTGOING_ARGS)
1350
1351 /* We want the stack and args grow in opposite directions, even if
1352    PUSH_ARGS is 0.  */
1353 #define PUSH_ARGS_REVERSED 1
1354
1355 /* Offset of first parameter from the argument pointer register value.  */
1356 #define FIRST_PARM_OFFSET(FNDECL) 0
1357
1358 /* Define this macro if functions should assume that stack space has been
1359    allocated for arguments even when their values are passed in registers.
1360
1361    The value of this macro is the size, in bytes, of the area reserved for
1362    arguments passed in registers for the function represented by FNDECL.
1363
1364    This space can be allocated by the caller, or be a part of the
1365    machine-dependent stack frame: `OUTGOING_REG_PARM_STACK_SPACE' says
1366    which.  */
1367 #define REG_PARM_STACK_SPACE(FNDECL) 0
1368
1369 /* Value is the number of bytes of arguments automatically
1370    popped when returning from a subroutine call.
1371    FUNDECL is the declaration node of the function (as a tree),
1372    FUNTYPE is the data type of the function (as a tree),
1373    or for a library call it is an identifier node for the subroutine name.
1374    SIZE is the number of bytes of arguments passed on the stack.
1375
1376    On the 80386, the RTD insn may be used to pop them if the number
1377      of args is fixed, but if the number is variable then the caller
1378      must pop them all.  RTD can't be used for library calls now
1379      because the library is compiled with the Unix compiler.
1380    Use of RTD is a selectable option, since it is incompatible with
1381    standard Unix calling sequences.  If the option is not selected,
1382    the caller must always pop the args.
1383
1384    The attribute stdcall is equivalent to RTD on a per module basis.  */
1385
1386 #define RETURN_POPS_ARGS(FUNDECL, FUNTYPE, SIZE) \
1387   ix86_return_pops_args ((FUNDECL), (FUNTYPE), (SIZE))
1388
1389 #define FUNCTION_VALUE_REGNO_P(N) \
1390   ix86_function_value_regno_p (N)
1391
1392 /* Define how to find the value returned by a library function
1393    assuming the value has mode MODE.  */
1394
1395 #define LIBCALL_VALUE(MODE) \
1396   ix86_libcall_value (MODE)
1397
1398 /* Define the size of the result block used for communication between
1399    untyped_call and untyped_return.  The block contains a DImode value
1400    followed by the block used by fnsave and frstor.  */
1401
1402 #define APPLY_RESULT_SIZE (8+108)
1403
1404 /* 1 if N is a possible register number for function argument passing.  */
1405 #define FUNCTION_ARG_REGNO_P(N) ix86_function_arg_regno_p (N)
1406
1407 /* Define a data type for recording info about an argument list
1408    during the scan of that argument list.  This data type should
1409    hold all necessary information about the function itself
1410    and about the args processed so far, enough to enable macros
1411    such as FUNCTION_ARG to determine where the next arg should go.  */
1412
1413 typedef struct ix86_args {
1414   int words;                    /* # words passed so far */
1415   int nregs;                    /* # registers available for passing */
1416   int regno;                    /* next available register number */
1417   int fastcall;                 /* fastcall calling convention is used */
1418   int sse_words;                /* # sse words passed so far */
1419   int sse_nregs;                /* # sse registers available for passing */
1420   int warn_sse;                 /* True when we want to warn about SSE ABI.  */
1421   int warn_mmx;                 /* True when we want to warn about MMX ABI.  */
1422   int sse_regno;                /* next available sse register number */
1423   int mmx_words;                /* # mmx words passed so far */
1424   int mmx_nregs;                /* # mmx registers available for passing */
1425   int mmx_regno;                /* next available mmx register number */
1426   int maybe_vaarg;              /* true for calls to possibly vardic fncts.  */
1427   int float_in_sse;             /* 1 if in 32-bit mode SFmode (2 for DFmode) should
1428                                    be passed in SSE registers.  Otherwise 0.  */
1429 } CUMULATIVE_ARGS;
1430
1431 /* Initialize a variable CUM of type CUMULATIVE_ARGS
1432    for a call to a function whose data type is FNTYPE.
1433    For a library call, FNTYPE is 0.  */
1434
1435 #define INIT_CUMULATIVE_ARGS(CUM, FNTYPE, LIBNAME, FNDECL, N_NAMED_ARGS) \
1436   init_cumulative_args (&(CUM), (FNTYPE), (LIBNAME), (FNDECL))
1437
1438 /* Update the data in CUM to advance over an argument
1439    of mode MODE and data type TYPE.
1440    (TYPE is null for libcalls where that information may not be available.)  */
1441
1442 #define FUNCTION_ARG_ADVANCE(CUM, MODE, TYPE, NAMED) \
1443   function_arg_advance (&(CUM), (MODE), (TYPE), (NAMED))
1444
1445 /* Define where to put the arguments to a function.
1446    Value is zero to push the argument on the stack,
1447    or a hard register in which to store the argument.
1448
1449    MODE is the argument's machine mode.
1450    TYPE is the data type of the argument (as a tree).
1451     This is null for libcalls where that information may
1452     not be available.
1453    CUM is a variable of type CUMULATIVE_ARGS which gives info about
1454     the preceding args and about the function being called.
1455    NAMED is nonzero if this argument is a named parameter
1456     (otherwise it is an extra parameter matching an ellipsis).  */
1457
1458 #define FUNCTION_ARG(CUM, MODE, TYPE, NAMED) \
1459   function_arg (&(CUM), (MODE), (TYPE), (NAMED))
1460
1461 /* Implement `va_start' for varargs and stdarg.  */
1462 #define EXPAND_BUILTIN_VA_START(VALIST, NEXTARG) \
1463   ix86_va_start (VALIST, NEXTARG)
1464
1465 #define TARGET_ASM_FILE_END ix86_file_end
1466 #define NEED_INDICATE_EXEC_STACK 0
1467
1468 /* Output assembler code to FILE to increment profiler label # LABELNO
1469    for profiling a function entry.  */
1470
1471 #define FUNCTION_PROFILER(FILE, LABELNO) x86_function_profiler (FILE, LABELNO)
1472
1473 #define MCOUNT_NAME "_mcount"
1474
1475 #define PROFILE_COUNT_REGISTER "edx"
1476
1477 /* EXIT_IGNORE_STACK should be nonzero if, when returning from a function,
1478    the stack pointer does not matter.  The value is tested only in
1479    functions that have frame pointers.
1480    No definition is equivalent to always zero.  */
1481 /* Note on the 386 it might be more efficient not to define this since
1482    we have to restore it ourselves from the frame pointer, in order to
1483    use pop */
1484
1485 #define EXIT_IGNORE_STACK 1
1486
1487 /* Output assembler code for a block containing the constant parts
1488    of a trampoline, leaving space for the variable parts.  */
1489
1490 /* On the 386, the trampoline contains two instructions:
1491      mov #STATIC,ecx
1492      jmp FUNCTION
1493    The trampoline is generated entirely at runtime.  The operand of JMP
1494    is the address of FUNCTION relative to the instruction following the
1495    JMP (which is 5 bytes long).  */
1496
1497 /* Length in units of the trampoline for entering a nested function.  */
1498
1499 #define TRAMPOLINE_SIZE (TARGET_64BIT ? 23 : 10)
1500
1501 /* Emit RTL insns to initialize the variable parts of a trampoline.
1502    FNADDR is an RTX for the address of the function's pure code.
1503    CXT is an RTX for the static chain value for the function.  */
1504
1505 #define INITIALIZE_TRAMPOLINE(TRAMP, FNADDR, CXT) \
1506   x86_initialize_trampoline ((TRAMP), (FNADDR), (CXT))
1507 \f
1508 /* Definitions for register eliminations.
1509
1510    This is an array of structures.  Each structure initializes one pair
1511    of eliminable registers.  The "from" register number is given first,
1512    followed by "to".  Eliminations of the same "from" register are listed
1513    in order of preference.
1514
1515    There are two registers that can always be eliminated on the i386.
1516    The frame pointer and the arg pointer can be replaced by either the
1517    hard frame pointer or to the stack pointer, depending upon the
1518    circumstances.  The hard frame pointer is not used before reload and
1519    so it is not eligible for elimination.  */
1520
1521 #define ELIMINABLE_REGS                                 \
1522 {{ ARG_POINTER_REGNUM, STACK_POINTER_REGNUM},           \
1523  { ARG_POINTER_REGNUM, HARD_FRAME_POINTER_REGNUM},      \
1524  { FRAME_POINTER_REGNUM, STACK_POINTER_REGNUM},         \
1525  { FRAME_POINTER_REGNUM, HARD_FRAME_POINTER_REGNUM}}    \
1526
1527 /* Given FROM and TO register numbers, say whether this elimination is
1528    allowed.  Frame pointer elimination is automatically handled.
1529
1530    All other eliminations are valid.  */
1531
1532 #define CAN_ELIMINATE(FROM, TO) \
1533   ((TO) == STACK_POINTER_REGNUM ? ! frame_pointer_needed : 1)
1534
1535 /* Define the offset between two registers, one to be eliminated, and the other
1536    its replacement, at the start of a routine.  */
1537
1538 #define INITIAL_ELIMINATION_OFFSET(FROM, TO, OFFSET) \
1539   ((OFFSET) = ix86_initial_elimination_offset ((FROM), (TO)))
1540 \f
1541 /* Addressing modes, and classification of registers for them.  */
1542
1543 /* Macros to check register numbers against specific register classes.  */
1544
1545 /* These assume that REGNO is a hard or pseudo reg number.
1546    They give nonzero only if REGNO is a hard reg of the suitable class
1547    or a pseudo reg currently allocated to a suitable hard reg.
1548    Since they use reg_renumber, they are safe only once reg_renumber
1549    has been allocated, which happens in local-alloc.c.  */
1550
1551 #define REGNO_OK_FOR_INDEX_P(REGNO)                                     \
1552   ((REGNO) < STACK_POINTER_REGNUM                                       \
1553    || (REGNO >= FIRST_REX_INT_REG                                       \
1554        && (REGNO) <= LAST_REX_INT_REG)                                  \
1555    || ((unsigned) reg_renumber[(REGNO)] >= FIRST_REX_INT_REG            \
1556        && (unsigned) reg_renumber[(REGNO)] <= LAST_REX_INT_REG)         \
1557    || (unsigned) reg_renumber[(REGNO)] < STACK_POINTER_REGNUM)
1558
1559 #define REGNO_OK_FOR_BASE_P(REGNO)                                      \
1560   ((REGNO) <= STACK_POINTER_REGNUM                                      \
1561    || (REGNO) == ARG_POINTER_REGNUM                                     \
1562    || (REGNO) == FRAME_POINTER_REGNUM                                   \
1563    || (REGNO >= FIRST_REX_INT_REG                                       \
1564        && (REGNO) <= LAST_REX_INT_REG)                                  \
1565    || ((unsigned) reg_renumber[(REGNO)] >= FIRST_REX_INT_REG            \
1566        && (unsigned) reg_renumber[(REGNO)] <= LAST_REX_INT_REG)         \
1567    || (unsigned) reg_renumber[(REGNO)] <= STACK_POINTER_REGNUM)
1568
1569 #define REGNO_OK_FOR_SIREG_P(REGNO) \
1570   ((REGNO) == 4 || reg_renumber[(REGNO)] == 4)
1571 #define REGNO_OK_FOR_DIREG_P(REGNO) \
1572   ((REGNO) == 5 || reg_renumber[(REGNO)] == 5)
1573
1574 /* The macros REG_OK_FOR..._P assume that the arg is a REG rtx
1575    and check its validity for a certain class.
1576    We have two alternate definitions for each of them.
1577    The usual definition accepts all pseudo regs; the other rejects
1578    them unless they have been allocated suitable hard regs.
1579    The symbol REG_OK_STRICT causes the latter definition to be used.
1580
1581    Most source files want to accept pseudo regs in the hope that
1582    they will get allocated to the class that the insn wants them to be in.
1583    Source files for reload pass need to be strict.
1584    After reload, it makes no difference, since pseudo regs have
1585    been eliminated by then.  */
1586
1587
1588 /* Non strict versions, pseudos are ok.  */
1589 #define REG_OK_FOR_INDEX_NONSTRICT_P(X)                                 \
1590   (REGNO (X) < STACK_POINTER_REGNUM                                     \
1591    || (REGNO (X) >= FIRST_REX_INT_REG                                   \
1592        && REGNO (X) <= LAST_REX_INT_REG)                                \
1593    || REGNO (X) >= FIRST_PSEUDO_REGISTER)
1594
1595 #define REG_OK_FOR_BASE_NONSTRICT_P(X)                                  \
1596   (REGNO (X) <= STACK_POINTER_REGNUM                                    \
1597    || REGNO (X) == ARG_POINTER_REGNUM                                   \
1598    || REGNO (X) == FRAME_POINTER_REGNUM                                 \
1599    || (REGNO (X) >= FIRST_REX_INT_REG                                   \
1600        && REGNO (X) <= LAST_REX_INT_REG)                                \
1601    || REGNO (X) >= FIRST_PSEUDO_REGISTER)
1602
1603 /* Strict versions, hard registers only */
1604 #define REG_OK_FOR_INDEX_STRICT_P(X) REGNO_OK_FOR_INDEX_P (REGNO (X))
1605 #define REG_OK_FOR_BASE_STRICT_P(X)  REGNO_OK_FOR_BASE_P (REGNO (X))
1606
1607 #ifndef REG_OK_STRICT
1608 #define REG_OK_FOR_INDEX_P(X)  REG_OK_FOR_INDEX_NONSTRICT_P (X)
1609 #define REG_OK_FOR_BASE_P(X)   REG_OK_FOR_BASE_NONSTRICT_P (X)
1610
1611 #else
1612 #define REG_OK_FOR_INDEX_P(X)  REG_OK_FOR_INDEX_STRICT_P (X)
1613 #define REG_OK_FOR_BASE_P(X)   REG_OK_FOR_BASE_STRICT_P (X)
1614 #endif
1615
1616 /* GO_IF_LEGITIMATE_ADDRESS recognizes an RTL expression
1617    that is a valid memory address for an instruction.
1618    The MODE argument is the machine mode for the MEM expression
1619    that wants to use this address.
1620
1621    The other macros defined here are used only in GO_IF_LEGITIMATE_ADDRESS,
1622    except for CONSTANT_ADDRESS_P which is usually machine-independent.
1623
1624    See legitimize_pic_address in i386.c for details as to what
1625    constitutes a legitimate address when -fpic is used.  */
1626
1627 #define MAX_REGS_PER_ADDRESS 2
1628
1629 #define CONSTANT_ADDRESS_P(X)  constant_address_p (X)
1630
1631 /* Nonzero if the constant value X is a legitimate general operand.
1632    It is given that X satisfies CONSTANT_P or is a CONST_DOUBLE.  */
1633
1634 #define LEGITIMATE_CONSTANT_P(X)  legitimate_constant_p (X)
1635
1636 #ifdef REG_OK_STRICT
1637 #define GO_IF_LEGITIMATE_ADDRESS(MODE, X, ADDR)                         \
1638 do {                                                                    \
1639   if (legitimate_address_p ((MODE), (X), 1))                            \
1640     goto ADDR;                                                          \
1641 } while (0)
1642
1643 #else
1644 #define GO_IF_LEGITIMATE_ADDRESS(MODE, X, ADDR)                         \
1645 do {                                                                    \
1646   if (legitimate_address_p ((MODE), (X), 0))                            \
1647     goto ADDR;                                                          \
1648 } while (0)
1649
1650 #endif
1651
1652 /* If defined, a C expression to determine the base term of address X.
1653    This macro is used in only one place: `find_base_term' in alias.c.
1654
1655    It is always safe for this macro to not be defined.  It exists so
1656    that alias analysis can understand machine-dependent addresses.
1657
1658    The typical use of this macro is to handle addresses containing
1659    a label_ref or symbol_ref within an UNSPEC.  */
1660
1661 #define FIND_BASE_TERM(X) ix86_find_base_term (X)
1662
1663 /* Try machine-dependent ways of modifying an illegitimate address
1664    to be legitimate.  If we find one, return the new, valid address.
1665    This macro is used in only one place: `memory_address' in explow.c.
1666
1667    OLDX is the address as it was before break_out_memory_refs was called.
1668    In some cases it is useful to look at this to decide what needs to be done.
1669
1670    MODE and WIN are passed so that this macro can use
1671    GO_IF_LEGITIMATE_ADDRESS.
1672
1673    It is always safe for this macro to do nothing.  It exists to recognize
1674    opportunities to optimize the output.
1675
1676    For the 80386, we handle X+REG by loading X into a register R and
1677    using R+REG.  R will go in a general reg and indexing will be used.
1678    However, if REG is a broken-out memory address or multiplication,
1679    nothing needs to be done because REG can certainly go in a general reg.
1680
1681    When -fpic is used, special handling is needed for symbolic references.
1682    See comments by legitimize_pic_address in i386.c for details.  */
1683
1684 #define LEGITIMIZE_ADDRESS(X, OLDX, MODE, WIN)                          \
1685 do {                                                                    \
1686   (X) = legitimize_address ((X), (OLDX), (MODE));                       \
1687   if (memory_address_p ((MODE), (X)))                                   \
1688     goto WIN;                                                           \
1689 } while (0)
1690
1691 #define REWRITE_ADDRESS(X) rewrite_address (X)
1692
1693 /* Nonzero if the constant value X is a legitimate general operand
1694    when generating PIC code.  It is given that flag_pic is on and
1695    that X satisfies CONSTANT_P or is a CONST_DOUBLE.  */
1696
1697 #define LEGITIMATE_PIC_OPERAND_P(X) legitimate_pic_operand_p (X)
1698
1699 #define SYMBOLIC_CONST(X)       \
1700   (GET_CODE (X) == SYMBOL_REF                                           \
1701    || GET_CODE (X) == LABEL_REF                                         \
1702    || (GET_CODE (X) == CONST && symbolic_reference_mentioned_p (X)))
1703
1704 /* Go to LABEL if ADDR (a legitimate address expression)
1705    has an effect that depends on the machine mode it is used for.
1706    On the 80386, only postdecrement and postincrement address depend thus
1707    (the amount of decrement or increment being the length of the operand).  */
1708 #define GO_IF_MODE_DEPENDENT_ADDRESS(ADDR, LABEL)       \
1709 do {                                                    \
1710  if (GET_CODE (ADDR) == POST_INC                        \
1711      || GET_CODE (ADDR) == POST_DEC)                    \
1712    goto LABEL;                                          \
1713 } while (0)
1714 \f
1715 /* Max number of args passed in registers.  If this is more than 3, we will
1716    have problems with ebx (register #4), since it is a caller save register and
1717    is also used as the pic register in ELF.  So for now, don't allow more than
1718    3 registers to be passed in registers.  */
1719
1720 #define REGPARM_MAX (TARGET_64BIT ? 6 : 3)
1721
1722 #define SSE_REGPARM_MAX (TARGET_64BIT ? 8 : (TARGET_SSE ? 3 : 0))
1723
1724 #define MMX_REGPARM_MAX (TARGET_64BIT ? 0 : (TARGET_MMX ? 3 : 0))
1725
1726 \f
1727 /* Specify the machine mode that this machine uses
1728    for the index in the tablejump instruction.  */
1729 #define CASE_VECTOR_MODE (!TARGET_64BIT || flag_pic ? SImode : DImode)
1730
1731 /* Define this as 1 if `char' should by default be signed; else as 0.  */
1732 #define DEFAULT_SIGNED_CHAR 1
1733
1734 /* Number of bytes moved into a data cache for a single prefetch operation.  */
1735 #define PREFETCH_BLOCK ix86_cost->prefetch_block
1736
1737 /* Number of prefetch operations that can be done in parallel.  */
1738 #define SIMULTANEOUS_PREFETCHES ix86_cost->simultaneous_prefetches
1739
1740 /* Max number of bytes we can move from memory to memory
1741    in one reasonably fast instruction.  */
1742 #define MOVE_MAX 16
1743
1744 /* MOVE_MAX_PIECES is the number of bytes at a time which we can
1745    move efficiently, as opposed to  MOVE_MAX which is the maximum
1746    number of bytes we can move with a single instruction.  */
1747 #define MOVE_MAX_PIECES (TARGET_64BIT ? 8 : 4)
1748
1749 /* If a memory-to-memory move would take MOVE_RATIO or more simple
1750    move-instruction pairs, we will do a movmem or libcall instead.
1751    Increasing the value will always make code faster, but eventually
1752    incurs high cost in increased code size.
1753
1754    If you don't define this, a reasonable default is used.  */
1755
1756 #define MOVE_RATIO (optimize_size ? 3 : ix86_cost->move_ratio)
1757
1758 /* If a clear memory operation would take CLEAR_RATIO or more simple
1759    move-instruction sequences, we will do a clrmem or libcall instead.  */
1760
1761 #define CLEAR_RATIO (optimize_size ? 2 \
1762                      : ix86_cost->move_ratio > 6 ? 6 : ix86_cost->move_ratio)
1763
1764 /* Define if shifts truncate the shift count
1765    which implies one can omit a sign-extension or zero-extension
1766    of a shift count.  */
1767 /* On i386, shifts do truncate the count.  But bit opcodes don't.  */
1768
1769 /* #define SHIFT_COUNT_TRUNCATED */
1770
1771 /* Value is 1 if truncating an integer of INPREC bits to OUTPREC bits
1772    is done just by pretending it is already truncated.  */
1773 #define TRULY_NOOP_TRUNCATION(OUTPREC, INPREC) 1
1774
1775 /* A macro to update M and UNSIGNEDP when an object whose type is
1776    TYPE and which has the specified mode and signedness is to be
1777    stored in a register.  This macro is only called when TYPE is a
1778    scalar type.
1779
1780    On i386 it is sometimes useful to promote HImode and QImode
1781    quantities to SImode.  The choice depends on target type.  */
1782
1783 #define PROMOTE_MODE(MODE, UNSIGNEDP, TYPE)             \
1784 do {                                                    \
1785   if (((MODE) == HImode && TARGET_PROMOTE_HI_REGS)      \
1786       || ((MODE) == QImode && TARGET_PROMOTE_QI_REGS))  \
1787     (MODE) = SImode;                                    \
1788 } while (0)
1789
1790 /* Specify the machine mode that pointers have.
1791    After generation of rtl, the compiler makes no further distinction
1792    between pointers and any other objects of this machine mode.  */
1793 #define Pmode (TARGET_64BIT ? DImode : SImode)
1794
1795 /* A function address in a call instruction
1796    is a byte address (for indexing purposes)
1797    so give the MEM rtx a byte's mode.  */
1798 #define FUNCTION_MODE QImode
1799 \f
1800 /* A C expression for the cost of moving data from a register in class FROM to
1801    one in class TO.  The classes are expressed using the enumeration values
1802    such as `GENERAL_REGS'.  A value of 2 is the default; other values are
1803    interpreted relative to that.
1804
1805    It is not required that the cost always equal 2 when FROM is the same as TO;
1806    on some machines it is expensive to move between registers if they are not
1807    general registers.  */
1808
1809 #define REGISTER_MOVE_COST(MODE, CLASS1, CLASS2) \
1810    ix86_register_move_cost ((MODE), (CLASS1), (CLASS2))
1811
1812 /* A C expression for the cost of moving data of mode M between a
1813    register and memory.  A value of 2 is the default; this cost is
1814    relative to those in `REGISTER_MOVE_COST'.
1815
1816    If moving between registers and memory is more expensive than
1817    between two registers, you should define this macro to express the
1818    relative cost.  */
1819
1820 #define MEMORY_MOVE_COST(MODE, CLASS, IN)       \
1821   ix86_memory_move_cost ((MODE), (CLASS), (IN))
1822
1823 /* A C expression for the cost of a branch instruction.  A value of 1
1824    is the default; other values are interpreted relative to that.  */
1825
1826 #define BRANCH_COST ix86_branch_cost
1827
1828 /* Define this macro as a C expression which is nonzero if accessing
1829    less than a word of memory (i.e. a `char' or a `short') is no
1830    faster than accessing a word of memory, i.e., if such access
1831    require more than one instruction or if there is no difference in
1832    cost between byte and (aligned) word loads.
1833
1834    When this macro is not defined, the compiler will access a field by
1835    finding the smallest containing object; when it is defined, a
1836    fullword load will be used if alignment permits.  Unless bytes
1837    accesses are faster than word accesses, using word accesses is
1838    preferable since it may eliminate subsequent memory access if
1839    subsequent accesses occur to other fields in the same word of the
1840    structure, but to different bytes.  */
1841
1842 #define SLOW_BYTE_ACCESS 0
1843
1844 /* Nonzero if access to memory by shorts is slow and undesirable.  */
1845 #define SLOW_SHORT_ACCESS 0
1846
1847 /* Define this macro to be the value 1 if unaligned accesses have a
1848    cost many times greater than aligned accesses, for example if they
1849    are emulated in a trap handler.
1850
1851    When this macro is nonzero, the compiler will act as if
1852    `STRICT_ALIGNMENT' were nonzero when generating code for block
1853    moves.  This can cause significantly more instructions to be
1854    produced.  Therefore, do not set this macro nonzero if unaligned
1855    accesses only add a cycle or two to the time for a memory access.
1856
1857    If the value of this macro is always zero, it need not be defined.  */
1858
1859 /* #define SLOW_UNALIGNED_ACCESS(MODE, ALIGN) 0 */
1860
1861 /* Define this macro if it is as good or better to call a constant
1862    function address than to call an address kept in a register.
1863
1864    Desirable on the 386 because a CALL with a constant address is
1865    faster than one with a register address.  */
1866
1867 #define NO_FUNCTION_CSE
1868 \f
1869 /* Given a comparison code (EQ, NE, etc.) and the first operand of a COMPARE,
1870    return the mode to be used for the comparison.
1871
1872    For floating-point equality comparisons, CCFPEQmode should be used.
1873    VOIDmode should be used in all other cases.
1874
1875    For integer comparisons against zero, reduce to CCNOmode or CCZmode if
1876    possible, to allow for more combinations.  */
1877
1878 #define SELECT_CC_MODE(OP, X, Y) ix86_cc_mode ((OP), (X), (Y))
1879
1880 /* Return nonzero if MODE implies a floating point inequality can be
1881    reversed.  */
1882
1883 #define REVERSIBLE_CC_MODE(MODE) 1
1884
1885 /* A C expression whose value is reversed condition code of the CODE for
1886    comparison done in CC_MODE mode.  */
1887 #define REVERSE_CONDITION(CODE, MODE) ix86_reverse_condition ((CODE), (MODE))
1888
1889 \f
1890 /* Control the assembler format that we output, to the extent
1891    this does not vary between assemblers.  */
1892
1893 /* How to refer to registers in assembler output.
1894    This sequence is indexed by compiler's hard-register-number (see above).  */
1895
1896 /* In order to refer to the first 8 regs as 32 bit regs, prefix an "e".
1897    For non floating point regs, the following are the HImode names.
1898
1899    For float regs, the stack top is sometimes referred to as "%st(0)"
1900    instead of just "%st".  PRINT_OPERAND handles this with the "y" code.  */
1901
1902 #define HI_REGISTER_NAMES                                               \
1903 {"ax","dx","cx","bx","si","di","bp","sp",                               \
1904  "st","st(1)","st(2)","st(3)","st(4)","st(5)","st(6)","st(7)",          \
1905  "argp", "flags", "fpsr", "dirflag", "frame",                           \
1906  "xmm0","xmm1","xmm2","xmm3","xmm4","xmm5","xmm6","xmm7",               \
1907  "mm0", "mm1", "mm2", "mm3", "mm4", "mm5", "mm6", "mm7" ,               \
1908  "r8", "r9", "r10", "r11", "r12", "r13", "r14", "r15",                  \
1909  "xmm8", "xmm9", "xmm10", "xmm11", "xmm12", "xmm13", "xmm14", "xmm15"}
1910
1911 #define REGISTER_NAMES HI_REGISTER_NAMES
1912
1913 /* Table of additional register names to use in user input.  */
1914
1915 #define ADDITIONAL_REGISTER_NAMES \
1916 { { "eax", 0 }, { "edx", 1 }, { "ecx", 2 }, { "ebx", 3 },       \
1917   { "esi", 4 }, { "edi", 5 }, { "ebp", 6 }, { "esp", 7 },       \
1918   { "rax", 0 }, { "rdx", 1 }, { "rcx", 2 }, { "rbx", 3 },       \
1919   { "rsi", 4 }, { "rdi", 5 }, { "rbp", 6 }, { "rsp", 7 },       \
1920   { "al", 0 }, { "dl", 1 }, { "cl", 2 }, { "bl", 3 },           \
1921   { "ah", 0 }, { "dh", 1 }, { "ch", 2 }, { "bh", 3 } }
1922
1923 /* Note we are omitting these since currently I don't know how
1924 to get gcc to use these, since they want the same but different
1925 number as al, and ax.
1926 */
1927
1928 #define QI_REGISTER_NAMES \
1929 {"al", "dl", "cl", "bl", "sil", "dil", "bpl", "spl",}
1930
1931 /* These parallel the array above, and can be used to access bits 8:15
1932    of regs 0 through 3.  */
1933
1934 #define QI_HIGH_REGISTER_NAMES \
1935 {"ah", "dh", "ch", "bh", }
1936
1937 /* How to renumber registers for dbx and gdb.  */
1938
1939 #define DBX_REGISTER_NUMBER(N) \
1940   (TARGET_64BIT ? dbx64_register_map[(N)] : dbx_register_map[(N)])
1941
1942 extern int const dbx_register_map[FIRST_PSEUDO_REGISTER];
1943 extern int const dbx64_register_map[FIRST_PSEUDO_REGISTER];
1944 extern int const svr4_dbx_register_map[FIRST_PSEUDO_REGISTER];
1945
1946 /* Before the prologue, RA is at 0(%esp).  */
1947 #define INCOMING_RETURN_ADDR_RTX \
1948   gen_rtx_MEM (VOIDmode, gen_rtx_REG (VOIDmode, STACK_POINTER_REGNUM))
1949
1950 /* After the prologue, RA is at -4(AP) in the current frame.  */
1951 #define RETURN_ADDR_RTX(COUNT, FRAME)                                      \
1952   ((COUNT) == 0                                                            \
1953    ? gen_rtx_MEM (Pmode, plus_constant (arg_pointer_rtx, -UNITS_PER_WORD)) \
1954    : gen_rtx_MEM (Pmode, plus_constant (FRAME, UNITS_PER_WORD)))
1955
1956 /* PC is dbx register 8; let's use that column for RA.  */
1957 #define DWARF_FRAME_RETURN_COLUMN       (TARGET_64BIT ? 16 : 8)
1958
1959 /* Before the prologue, the top of the frame is at 4(%esp).  */
1960 #define INCOMING_FRAME_SP_OFFSET UNITS_PER_WORD
1961
1962 /* Describe how we implement __builtin_eh_return.  */
1963 #define EH_RETURN_DATA_REGNO(N) ((N) < 2 ? (N) : INVALID_REGNUM)
1964 #define EH_RETURN_STACKADJ_RTX  gen_rtx_REG (Pmode, 2)
1965
1966
1967 /* Select a format to encode pointers in exception handling data.  CODE
1968    is 0 for data, 1 for code labels, 2 for function pointers.  GLOBAL is
1969    true if the symbol may be affected by dynamic relocations.
1970
1971    ??? All x86 object file formats are capable of representing this.
1972    After all, the relocation needed is the same as for the call insn.
1973    Whether or not a particular assembler allows us to enter such, I
1974    guess we'll have to see.  */
1975 #define ASM_PREFERRED_EH_DATA_FORMAT(CODE, GLOBAL)                      \
1976   asm_preferred_eh_data_format ((CODE), (GLOBAL))
1977
1978 /* This is how to output an insn to push a register on the stack.
1979    It need not be very fast code.  */
1980
1981 #define ASM_OUTPUT_REG_PUSH(FILE, REGNO)  \
1982 do {                                                                    \
1983   if (TARGET_64BIT)                                                     \
1984     asm_fprintf ((FILE), "\tpush{q}\t%%r%s\n",                          \
1985                  reg_names[(REGNO)] + (REX_INT_REGNO_P (REGNO) != 0));  \
1986   else                                                                  \
1987     asm_fprintf ((FILE), "\tpush{l}\t%%e%s\n", reg_names[(REGNO)]);     \
1988 } while (0)
1989
1990 /* This is how to output an insn to pop a register from the stack.
1991    It need not be very fast code.  */
1992
1993 #define ASM_OUTPUT_REG_POP(FILE, REGNO)  \
1994 do {                                                                    \
1995   if (TARGET_64BIT)                                                     \
1996     asm_fprintf ((FILE), "\tpop{q}\t%%r%s\n",                           \
1997                  reg_names[(REGNO)] + (REX_INT_REGNO_P (REGNO) != 0));  \
1998   else                                                                  \
1999     asm_fprintf ((FILE), "\tpop{l}\t%%e%s\n", reg_names[(REGNO)]);      \
2000 } while (0)
2001
2002 /* This is how to output an element of a case-vector that is absolute.  */
2003
2004 #define ASM_OUTPUT_ADDR_VEC_ELT(FILE, VALUE)  \
2005   ix86_output_addr_vec_elt ((FILE), (VALUE))
2006
2007 /* This is how to output an element of a case-vector that is relative.  */
2008
2009 #define ASM_OUTPUT_ADDR_DIFF_ELT(FILE, BODY, VALUE, REL) \
2010   ix86_output_addr_diff_elt ((FILE), (VALUE), (REL))
2011
2012 /* Under some conditions we need jump tables in the text section, because
2013    the assembler cannot handle label differences between sections.  */
2014
2015 #define JUMP_TABLES_IN_TEXT_SECTION \
2016   (!TARGET_64BIT && flag_pic && !HAVE_AS_GOTOFF_IN_DATA)
2017
2018 /* Switch to init or fini section via SECTION_OP, emit a call to FUNC,
2019    and switch back.  For x86 we do this only to save a few bytes that
2020    would otherwise be unused in the text section.  */
2021 #define CRT_CALL_STATIC_FUNCTION(SECTION_OP, FUNC)      \
2022    asm (SECTION_OP "\n\t"                               \
2023         "call " USER_LABEL_PREFIX #FUNC "\n"            \
2024         TEXT_SECTION_ASM_OP);
2025 \f
2026 /* Print operand X (an rtx) in assembler syntax to file FILE.
2027    CODE is a letter or dot (`z' in `%z0') or 0 if no letter was specified.
2028    Effect of various CODE letters is described in i386.c near
2029    print_operand function.  */
2030
2031 #define PRINT_OPERAND_PUNCT_VALID_P(CODE) \
2032   ((CODE) == '*' || (CODE) == '+' || (CODE) == '&')
2033
2034 #define PRINT_OPERAND(FILE, X, CODE)  \
2035   print_operand ((FILE), (X), (CODE))
2036
2037 #define PRINT_OPERAND_ADDRESS(FILE, ADDR)  \
2038   print_operand_address ((FILE), (ADDR))
2039
2040 #define OUTPUT_ADDR_CONST_EXTRA(FILE, X, FAIL)  \
2041 do {                                            \
2042   if (! output_addr_const_extra (FILE, (X)))    \
2043     goto FAIL;                                  \
2044 } while (0);
2045
2046 /* a letter which is not needed by the normal asm syntax, which
2047    we can use for operand syntax in the extended asm */
2048
2049 #define ASM_OPERAND_LETTER '#'
2050 #define RET return ""
2051 #define AT_SP(MODE) (gen_rtx_MEM ((MODE), stack_pointer_rtx))
2052 \f
2053 /* Which processor to schedule for. The cpu attribute defines a list that
2054    mirrors this list, so changes to i386.md must be made at the same time.  */
2055
2056 enum processor_type
2057 {
2058   PROCESSOR_I386,                       /* 80386 */
2059   PROCESSOR_I486,                       /* 80486DX, 80486SX, 80486DX[24] */
2060   PROCESSOR_PENTIUM,
2061   PROCESSOR_PENTIUMPRO,
2062   PROCESSOR_K6,
2063   PROCESSOR_ATHLON,
2064   PROCESSOR_PENTIUM4,
2065   PROCESSOR_K8,
2066   PROCESSOR_NOCONA,
2067   PROCESSOR_GENERIC32,
2068   PROCESSOR_GENERIC64,
2069   PROCESSOR_max
2070 };
2071
2072 extern enum processor_type ix86_tune;
2073 extern enum processor_type ix86_arch;
2074
2075 enum fpmath_unit
2076 {
2077   FPMATH_387 = 1,
2078   FPMATH_SSE = 2
2079 };
2080
2081 extern enum fpmath_unit ix86_fpmath;
2082
2083 enum tls_dialect
2084 {
2085   TLS_DIALECT_GNU,
2086   TLS_DIALECT_GNU2,
2087   TLS_DIALECT_SUN
2088 };
2089
2090 extern enum tls_dialect ix86_tls_dialect;
2091
2092 enum cmodel {
2093   CM_32,        /* The traditional 32-bit ABI.  */
2094   CM_SMALL,     /* Assumes all code and data fits in the low 31 bits.  */
2095   CM_KERNEL,    /* Assumes all code and data fits in the high 31 bits.  */
2096   CM_MEDIUM,    /* Assumes code fits in the low 31 bits; data unlimited.  */
2097   CM_LARGE,     /* No assumptions.  */
2098   CM_SMALL_PIC, /* Assumes code+data+got/plt fits in a 31 bit region.  */
2099   CM_MEDIUM_PIC /* Assumes code+got/plt fits in a 31 bit region.  */
2100 };
2101
2102 extern enum cmodel ix86_cmodel;
2103
2104 /* Size of the RED_ZONE area.  */
2105 #define RED_ZONE_SIZE 128
2106 /* Reserved area of the red zone for temporaries.  */
2107 #define RED_ZONE_RESERVE 8
2108
2109 enum asm_dialect {
2110   ASM_ATT,
2111   ASM_INTEL
2112 };
2113
2114 extern enum asm_dialect ix86_asm_dialect;
2115 extern unsigned int ix86_preferred_stack_boundary;
2116 extern int ix86_branch_cost, ix86_section_threshold;
2117
2118 /* Smallest class containing REGNO.  */
2119 extern enum reg_class const regclass_map[FIRST_PSEUDO_REGISTER];
2120
2121 extern rtx ix86_compare_op0;    /* operand 0 for comparisons */
2122 extern rtx ix86_compare_op1;    /* operand 1 for comparisons */
2123 extern rtx ix86_compare_emitted;
2124 \f
2125 /* To properly truncate FP values into integers, we need to set i387 control
2126    word.  We can't emit proper mode switching code before reload, as spills
2127    generated by reload may truncate values incorrectly, but we still can avoid
2128    redundant computation of new control word by the mode switching pass.
2129    The fldcw instructions are still emitted redundantly, but this is probably
2130    not going to be noticeable problem, as most CPUs do have fast path for
2131    the sequence.
2132
2133    The machinery is to emit simple truncation instructions and split them
2134    before reload to instructions having USEs of two memory locations that
2135    are filled by this code to old and new control word.
2136
2137    Post-reload pass may be later used to eliminate the redundant fildcw if
2138    needed.  */
2139
2140 enum ix86_entity
2141 {
2142   I387_TRUNC = 0,
2143   I387_FLOOR,
2144   I387_CEIL,
2145   I387_MASK_PM,
2146   MAX_386_ENTITIES
2147 };
2148
2149 enum ix86_stack_slot
2150 {
2151   SLOT_TEMP = 0,
2152   SLOT_CW_STORED,
2153   SLOT_CW_TRUNC,
2154   SLOT_CW_FLOOR,
2155   SLOT_CW_CEIL,
2156   SLOT_CW_MASK_PM,
2157   MAX_386_STACK_LOCALS
2158 };
2159
2160 /* Define this macro if the port needs extra instructions inserted
2161    for mode switching in an optimizing compilation.  */
2162
2163 #define OPTIMIZE_MODE_SWITCHING(ENTITY) \
2164    ix86_optimize_mode_switching[(ENTITY)]
2165
2166 /* If you define `OPTIMIZE_MODE_SWITCHING', you have to define this as
2167    initializer for an array of integers.  Each initializer element N
2168    refers to an entity that needs mode switching, and specifies the
2169    number of different modes that might need to be set for this
2170    entity.  The position of the initializer in the initializer -
2171    starting counting at zero - determines the integer that is used to
2172    refer to the mode-switched entity in question.  */
2173
2174 #define NUM_MODES_FOR_MODE_SWITCHING \
2175    { I387_CW_ANY, I387_CW_ANY, I387_CW_ANY, I387_CW_ANY }
2176
2177 /* ENTITY is an integer specifying a mode-switched entity.  If
2178    `OPTIMIZE_MODE_SWITCHING' is defined, you must define this macro to
2179    return an integer value not larger than the corresponding element
2180    in `NUM_MODES_FOR_MODE_SWITCHING', to denote the mode that ENTITY
2181    must be switched into prior to the execution of INSN. */
2182
2183 #define MODE_NEEDED(ENTITY, I) ix86_mode_needed ((ENTITY), (I))
2184
2185 /* This macro specifies the order in which modes for ENTITY are
2186    processed.  0 is the highest priority.  */
2187
2188 #define MODE_PRIORITY_TO_MODE(ENTITY, N) (N)
2189
2190 /* Generate one or more insns to set ENTITY to MODE.  HARD_REG_LIVE
2191    is the set of hard registers live at the point where the insn(s)
2192    are to be inserted.  */
2193
2194 #define EMIT_MODE_SET(ENTITY, MODE, HARD_REGS_LIVE)                     \
2195   ((MODE) != I387_CW_ANY && (MODE) != I387_CW_UNINITIALIZED             \
2196    ? emit_i387_cw_initialization (MODE), 0                              \
2197    : 0)
2198
2199 \f
2200 /* Avoid renaming of stack registers, as doing so in combination with
2201    scheduling just increases amount of live registers at time and in
2202    the turn amount of fxch instructions needed.
2203
2204    ??? Maybe Pentium chips benefits from renaming, someone can try....  */
2205
2206 #define HARD_REGNO_RENAME_OK(SRC, TARGET)  \
2207    ((SRC) < FIRST_STACK_REG || (SRC) > LAST_STACK_REG)
2208
2209 \f
2210 #define DLL_IMPORT_EXPORT_PREFIX '#'
2211
2212 #define FASTCALL_PREFIX '@'
2213 \f
2214 struct machine_function GTY(())
2215 {
2216   struct stack_local_entry *stack_locals;
2217   const char *some_ld_name;
2218   rtx force_align_arg_pointer;
2219   int save_varrargs_registers;
2220   int accesses_prev_frame;
2221   int optimize_mode_switching[MAX_386_ENTITIES];
2222   /* Set by ix86_compute_frame_layout and used by prologue/epilogue expander to
2223      determine the style used.  */
2224   int use_fast_prologue_epilogue;
2225   /* Number of saved registers USE_FAST_PROLOGUE_EPILOGUE has been computed
2226      for.  */
2227   int use_fast_prologue_epilogue_nregs;
2228   /* If true, the current function needs the default PIC register, not
2229      an alternate register (on x86) and must not use the red zone (on
2230      x86_64), even if it's a leaf function.  We don't want the
2231      function to be regarded as non-leaf because TLS calls need not
2232      affect register allocation.  This flag is set when a TLS call
2233      instruction is expanded within a function, and never reset, even
2234      if all such instructions are optimized away.  Use the
2235      ix86_current_function_calls_tls_descriptor macro for a better
2236      approximation.  */
2237   int tls_descriptor_call_expanded_p;
2238 };
2239
2240 #define ix86_stack_locals (cfun->machine->stack_locals)
2241 #define ix86_save_varrargs_registers (cfun->machine->save_varrargs_registers)
2242 #define ix86_optimize_mode_switching (cfun->machine->optimize_mode_switching)
2243 #define ix86_tls_descriptor_calls_expanded_in_cfun \
2244   (cfun->machine->tls_descriptor_call_expanded_p)
2245 /* Since tls_descriptor_call_expanded is not cleared, even if all TLS
2246    calls are optimized away, we try to detect cases in which it was
2247    optimized away.  Since such instructions (use (reg REG_SP)), we can
2248    verify whether there's any such instruction live by testing that
2249    REG_SP is live.  */
2250 #define ix86_current_function_calls_tls_descriptor \
2251   (ix86_tls_descriptor_calls_expanded_in_cfun && regs_ever_live[SP_REG])
2252
2253 /* Control behavior of x86_file_start.  */
2254 #define X86_FILE_START_VERSION_DIRECTIVE false
2255 #define X86_FILE_START_FLTUSED false
2256
2257 /* Flag to mark data that is in the large address area.  */
2258 #define SYMBOL_FLAG_FAR_ADDR            (SYMBOL_FLAG_MACH_DEP << 0)
2259 #define SYMBOL_REF_FAR_ADDR_P(X)        \
2260         ((SYMBOL_REF_FLAGS (X) & SYMBOL_FLAG_FAR_ADDR) != 0)
2261 /*
2262 Local variables:
2263 version-control: t
2264 End:
2265 */