OSDN Git Service

* gimplify.c (gimplify_cond_expr): Use THEN_ and ELSE_ local variables.
[pf3gnuchains/gcc-fork.git] / gcc / gimplify.c
1 /* Tree lowering pass.  This pass converts the GENERIC functions-as-trees
2    tree representation into the GIMPLE form.
3    Copyright (C) 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010
4    Free Software Foundation, Inc.
5    Major work done by Sebastian Pop <s.pop@laposte.net>,
6    Diego Novillo <dnovillo@redhat.com> and Jason Merrill <jason@redhat.com>.
7
8 This file is part of GCC.
9
10 GCC is free software; you can redistribute it and/or modify it under
11 the terms of the GNU General Public License as published by the Free
12 Software Foundation; either version 3, or (at your option) any later
13 version.
14
15 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
16 WARRANTY; without even the implied warranty of MERCHANTABILITY or
17 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
18 for more details.
19
20 You should have received a copy of the GNU General Public License
21 along with GCC; see the file COPYING3.  If not see
22 <http://www.gnu.org/licenses/>.  */
23
24 #include "config.h"
25 #include "system.h"
26 #include "coretypes.h"
27 #include "tm.h"
28 #include "tree.h"
29 #include "rtl.h"
30 #include "varray.h"
31 #include "gimple.h"
32 #include "tree-iterator.h"
33 #include "tree-inline.h"
34 #include "diagnostic.h"
35 #include "langhooks.h"
36 #include "langhooks-def.h"
37 #include "tree-flow.h"
38 #include "cgraph.h"
39 #include "timevar.h"
40 #include "except.h"
41 #include "hashtab.h"
42 #include "flags.h"
43 #include "real.h"
44 #include "function.h"
45 #include "output.h"
46 #include "expr.h"
47 #include "ggc.h"
48 #include "toplev.h"
49 #include "target.h"
50 #include "optabs.h"
51 #include "pointer-set.h"
52 #include "splay-tree.h"
53 #include "vec.h"
54 #include "gimple.h"
55 #include "tree-pass.h"
56
57
58 enum gimplify_omp_var_data
59 {
60   GOVD_SEEN = 1,
61   GOVD_EXPLICIT = 2,
62   GOVD_SHARED = 4,
63   GOVD_PRIVATE = 8,
64   GOVD_FIRSTPRIVATE = 16,
65   GOVD_LASTPRIVATE = 32,
66   GOVD_REDUCTION = 64,
67   GOVD_LOCAL = 128,
68   GOVD_DEBUG_PRIVATE = 256,
69   GOVD_PRIVATE_OUTER_REF = 512,
70   GOVD_DATA_SHARE_CLASS = (GOVD_SHARED | GOVD_PRIVATE | GOVD_FIRSTPRIVATE
71                            | GOVD_LASTPRIVATE | GOVD_REDUCTION | GOVD_LOCAL)
72 };
73
74
75 enum omp_region_type
76 {
77   ORT_WORKSHARE = 0,
78   ORT_TASK = 1,
79   ORT_PARALLEL = 2,
80   ORT_COMBINED_PARALLEL = 3
81 };
82
83 struct gimplify_omp_ctx
84 {
85   struct gimplify_omp_ctx *outer_context;
86   splay_tree variables;
87   struct pointer_set_t *privatized_types;
88   location_t location;
89   enum omp_clause_default_kind default_kind;
90   enum omp_region_type region_type;
91 };
92
93 static struct gimplify_ctx *gimplify_ctxp;
94 static struct gimplify_omp_ctx *gimplify_omp_ctxp;
95
96
97 /* Formal (expression) temporary table handling: Multiple occurrences of
98    the same scalar expression are evaluated into the same temporary.  */
99
100 typedef struct gimple_temp_hash_elt
101 {
102   tree val;   /* Key */
103   tree temp;  /* Value */
104 } elt_t;
105
106 /* Forward declarations.  */
107 static enum gimplify_status gimplify_compound_expr (tree *, gimple_seq *, bool);
108
109 /* Mark X addressable.  Unlike the langhook we expect X to be in gimple
110    form and we don't do any syntax checking.  */
111 void
112 mark_addressable (tree x)
113 {
114   while (handled_component_p (x))
115     x = TREE_OPERAND (x, 0);
116   if (TREE_CODE (x) != VAR_DECL
117       && TREE_CODE (x) != PARM_DECL
118       && TREE_CODE (x) != RESULT_DECL)
119     return ;
120   TREE_ADDRESSABLE (x) = 1;
121 }
122
123 /* Return a hash value for a formal temporary table entry.  */
124
125 static hashval_t
126 gimple_tree_hash (const void *p)
127 {
128   tree t = ((const elt_t *) p)->val;
129   return iterative_hash_expr (t, 0);
130 }
131
132 /* Compare two formal temporary table entries.  */
133
134 static int
135 gimple_tree_eq (const void *p1, const void *p2)
136 {
137   tree t1 = ((const elt_t *) p1)->val;
138   tree t2 = ((const elt_t *) p2)->val;
139   enum tree_code code = TREE_CODE (t1);
140
141   if (TREE_CODE (t2) != code
142       || TREE_TYPE (t1) != TREE_TYPE (t2))
143     return 0;
144
145   if (!operand_equal_p (t1, t2, 0))
146     return 0;
147
148   /* Only allow them to compare equal if they also hash equal; otherwise
149      results are nondeterminate, and we fail bootstrap comparison.  */
150   gcc_assert (gimple_tree_hash (p1) == gimple_tree_hash (p2));
151
152   return 1;
153 }
154
155 /* Link gimple statement GS to the end of the sequence *SEQ_P.  If
156    *SEQ_P is NULL, a new sequence is allocated.  This function is
157    similar to gimple_seq_add_stmt, but does not scan the operands.
158    During gimplification, we need to manipulate statement sequences
159    before the def/use vectors have been constructed.  */
160
161 static void
162 gimplify_seq_add_stmt (gimple_seq *seq_p, gimple gs)
163 {
164   gimple_stmt_iterator si;
165
166   if (gs == NULL)
167     return;
168
169   if (*seq_p == NULL)
170     *seq_p = gimple_seq_alloc ();
171
172   si = gsi_last (*seq_p);
173
174   gsi_insert_after_without_update (&si, gs, GSI_NEW_STMT);
175 }
176
177 /* Append sequence SRC to the end of sequence *DST_P.  If *DST_P is
178    NULL, a new sequence is allocated.   This function is
179    similar to gimple_seq_add_seq, but does not scan the operands.
180    During gimplification, we need to manipulate statement sequences
181    before the def/use vectors have been constructed.  */
182
183 static void
184 gimplify_seq_add_seq (gimple_seq *dst_p, gimple_seq src)
185 {
186   gimple_stmt_iterator si;
187
188   if (src == NULL)
189     return;
190
191   if (*dst_p == NULL)
192     *dst_p = gimple_seq_alloc ();
193
194   si = gsi_last (*dst_p);
195   gsi_insert_seq_after_without_update (&si, src, GSI_NEW_STMT);
196 }
197
198 /* Set up a context for the gimplifier.  */
199
200 void
201 push_gimplify_context (struct gimplify_ctx *c)
202 {
203   memset (c, '\0', sizeof (*c));
204   c->prev_context = gimplify_ctxp;
205   gimplify_ctxp = c;
206 }
207
208 /* Tear down a context for the gimplifier.  If BODY is non-null, then
209    put the temporaries into the outer BIND_EXPR.  Otherwise, put them
210    in the local_decls.
211
212    BODY is not a sequence, but the first tuple in a sequence.  */
213
214 void
215 pop_gimplify_context (gimple body)
216 {
217   struct gimplify_ctx *c = gimplify_ctxp;
218
219   gcc_assert (c && (c->bind_expr_stack == NULL
220                     || VEC_empty (gimple, c->bind_expr_stack)));
221   VEC_free (gimple, heap, c->bind_expr_stack);
222   gimplify_ctxp = c->prev_context;
223
224   if (body)
225     declare_vars (c->temps, body, false);
226   else
227     record_vars (c->temps);
228
229   if (c->temp_htab)
230     htab_delete (c->temp_htab);
231 }
232
233 static void
234 gimple_push_bind_expr (gimple gimple_bind)
235 {
236   if (gimplify_ctxp->bind_expr_stack == NULL)
237     gimplify_ctxp->bind_expr_stack = VEC_alloc (gimple, heap, 8);
238   VEC_safe_push (gimple, heap, gimplify_ctxp->bind_expr_stack, gimple_bind);
239 }
240
241 static void
242 gimple_pop_bind_expr (void)
243 {
244   VEC_pop (gimple, gimplify_ctxp->bind_expr_stack);
245 }
246
247 gimple
248 gimple_current_bind_expr (void)
249 {
250   return VEC_last (gimple, gimplify_ctxp->bind_expr_stack);
251 }
252
253 /* Return the stack GIMPLE_BINDs created during gimplification.  */
254
255 VEC(gimple, heap) *
256 gimple_bind_expr_stack (void)
257 {
258   return gimplify_ctxp->bind_expr_stack;
259 }
260
261 /* Returns true iff there is a COND_EXPR between us and the innermost
262    CLEANUP_POINT_EXPR.  This info is used by gimple_push_cleanup.  */
263
264 static bool
265 gimple_conditional_context (void)
266 {
267   return gimplify_ctxp->conditions > 0;
268 }
269
270 /* Note that we've entered a COND_EXPR.  */
271
272 static void
273 gimple_push_condition (void)
274 {
275 #ifdef ENABLE_GIMPLE_CHECKING
276   if (gimplify_ctxp->conditions == 0)
277     gcc_assert (gimple_seq_empty_p (gimplify_ctxp->conditional_cleanups));
278 #endif
279   ++(gimplify_ctxp->conditions);
280 }
281
282 /* Note that we've left a COND_EXPR.  If we're back at unconditional scope
283    now, add any conditional cleanups we've seen to the prequeue.  */
284
285 static void
286 gimple_pop_condition (gimple_seq *pre_p)
287 {
288   int conds = --(gimplify_ctxp->conditions);
289
290   gcc_assert (conds >= 0);
291   if (conds == 0)
292     {
293       gimplify_seq_add_seq (pre_p, gimplify_ctxp->conditional_cleanups);
294       gimplify_ctxp->conditional_cleanups = NULL;
295     }
296 }
297
298 /* A stable comparison routine for use with splay trees and DECLs.  */
299
300 static int
301 splay_tree_compare_decl_uid (splay_tree_key xa, splay_tree_key xb)
302 {
303   tree a = (tree) xa;
304   tree b = (tree) xb;
305
306   return DECL_UID (a) - DECL_UID (b);
307 }
308
309 /* Create a new omp construct that deals with variable remapping.  */
310
311 static struct gimplify_omp_ctx *
312 new_omp_context (enum omp_region_type region_type)
313 {
314   struct gimplify_omp_ctx *c;
315
316   c = XCNEW (struct gimplify_omp_ctx);
317   c->outer_context = gimplify_omp_ctxp;
318   c->variables = splay_tree_new (splay_tree_compare_decl_uid, 0, 0);
319   c->privatized_types = pointer_set_create ();
320   c->location = input_location;
321   c->region_type = region_type;
322   if (region_type != ORT_TASK)
323     c->default_kind = OMP_CLAUSE_DEFAULT_SHARED;
324   else
325     c->default_kind = OMP_CLAUSE_DEFAULT_UNSPECIFIED;
326
327   return c;
328 }
329
330 /* Destroy an omp construct that deals with variable remapping.  */
331
332 static void
333 delete_omp_context (struct gimplify_omp_ctx *c)
334 {
335   splay_tree_delete (c->variables);
336   pointer_set_destroy (c->privatized_types);
337   XDELETE (c);
338 }
339
340 static void omp_add_variable (struct gimplify_omp_ctx *, tree, unsigned int);
341 static bool omp_notice_variable (struct gimplify_omp_ctx *, tree, bool);
342
343 /* A subroutine of append_to_statement_list{,_force}.  T is not NULL.  */
344
345 static void
346 append_to_statement_list_1 (tree t, tree *list_p)
347 {
348   tree list = *list_p;
349   tree_stmt_iterator i;
350
351   if (!list)
352     {
353       if (t && TREE_CODE (t) == STATEMENT_LIST)
354         {
355           *list_p = t;
356           return;
357         }
358       *list_p = list = alloc_stmt_list ();
359     }
360
361   i = tsi_last (list);
362   tsi_link_after (&i, t, TSI_CONTINUE_LINKING);
363 }
364
365 /* Add T to the end of the list container pointed to by LIST_P.
366    If T is an expression with no effects, it is ignored.  */
367
368 void
369 append_to_statement_list (tree t, tree *list_p)
370 {
371   if (t && TREE_SIDE_EFFECTS (t))
372     append_to_statement_list_1 (t, list_p);
373 }
374
375 /* Similar, but the statement is always added, regardless of side effects.  */
376
377 void
378 append_to_statement_list_force (tree t, tree *list_p)
379 {
380   if (t != NULL_TREE)
381     append_to_statement_list_1 (t, list_p);
382 }
383
384 /* Both gimplify the statement T and append it to *SEQ_P.  This function
385    behaves exactly as gimplify_stmt, but you don't have to pass T as a
386    reference.  */
387
388 void
389 gimplify_and_add (tree t, gimple_seq *seq_p)
390 {
391   gimplify_stmt (&t, seq_p);
392 }
393
394 /* Gimplify statement T into sequence *SEQ_P, and return the first
395    tuple in the sequence of generated tuples for this statement.
396    Return NULL if gimplifying T produced no tuples.  */
397
398 static gimple
399 gimplify_and_return_first (tree t, gimple_seq *seq_p)
400 {
401   gimple_stmt_iterator last = gsi_last (*seq_p);
402
403   gimplify_and_add (t, seq_p);
404
405   if (!gsi_end_p (last))
406     {
407       gsi_next (&last);
408       return gsi_stmt (last);
409     }
410   else
411     return gimple_seq_first_stmt (*seq_p);
412 }
413
414 /* Strip off a legitimate source ending from the input string NAME of
415    length LEN.  Rather than having to know the names used by all of
416    our front ends, we strip off an ending of a period followed by
417    up to five characters.  (Java uses ".class".)  */
418
419 static inline void
420 remove_suffix (char *name, int len)
421 {
422   int i;
423
424   for (i = 2;  i < 8 && len > i;  i++)
425     {
426       if (name[len - i] == '.')
427         {
428           name[len - i] = '\0';
429           break;
430         }
431     }
432 }
433
434 /* Create a new temporary name with PREFIX.  Returns an identifier.  */
435
436 static GTY(()) unsigned int tmp_var_id_num;
437
438 tree
439 create_tmp_var_name (const char *prefix)
440 {
441   char *tmp_name;
442
443   if (prefix)
444     {
445       char *preftmp = ASTRDUP (prefix);
446
447       remove_suffix (preftmp, strlen (preftmp));
448       prefix = preftmp;
449     }
450
451   ASM_FORMAT_PRIVATE_NAME (tmp_name, prefix ? prefix : "T", tmp_var_id_num++);
452   return get_identifier (tmp_name);
453 }
454
455
456 /* Create a new temporary variable declaration of type TYPE.
457    Does NOT push it into the current binding.  */
458
459 tree
460 create_tmp_var_raw (tree type, const char *prefix)
461 {
462   tree tmp_var;
463   tree new_type;
464
465   /* Make the type of the variable writable.  */
466   new_type = build_type_variant (type, 0, 0);
467   TYPE_ATTRIBUTES (new_type) = TYPE_ATTRIBUTES (type);
468
469   tmp_var = build_decl (input_location,
470                         VAR_DECL, prefix ? create_tmp_var_name (prefix) : NULL,
471                         type);
472
473   /* The variable was declared by the compiler.  */
474   DECL_ARTIFICIAL (tmp_var) = 1;
475   /* And we don't want debug info for it.  */
476   DECL_IGNORED_P (tmp_var) = 1;
477
478   /* Make the variable writable.  */
479   TREE_READONLY (tmp_var) = 0;
480
481   DECL_EXTERNAL (tmp_var) = 0;
482   TREE_STATIC (tmp_var) = 0;
483   TREE_USED (tmp_var) = 1;
484
485   return tmp_var;
486 }
487
488 /* Create a new temporary variable declaration of type TYPE.  DOES push the
489    variable into the current binding.  Further, assume that this is called
490    only from gimplification or optimization, at which point the creation of
491    certain types are bugs.  */
492
493 tree
494 create_tmp_var (tree type, const char *prefix)
495 {
496   tree tmp_var;
497
498   /* We don't allow types that are addressable (meaning we can't make copies),
499      or incomplete.  We also used to reject every variable size objects here,
500      but now support those for which a constant upper bound can be obtained.
501      The processing for variable sizes is performed in gimple_add_tmp_var,
502      point at which it really matters and possibly reached via paths not going
503      through this function, e.g. after direct calls to create_tmp_var_raw.  */
504   gcc_assert (!TREE_ADDRESSABLE (type) && COMPLETE_TYPE_P (type));
505
506   tmp_var = create_tmp_var_raw (type, prefix);
507   gimple_add_tmp_var (tmp_var);
508   return tmp_var;
509 }
510
511 /* Create a new temporary variable declaration of type TYPE by calling
512    create_tmp_var and if TYPE is a vector or a complex number, mark the new
513    temporary as gimple register.  */
514
515 tree
516 create_tmp_reg (tree type, const char *prefix)
517 {
518   tree tmp;
519
520   tmp = create_tmp_var (type, prefix);
521   if (TREE_CODE (type) == COMPLEX_TYPE
522       || TREE_CODE (type) == VECTOR_TYPE)
523     DECL_GIMPLE_REG_P (tmp) = 1;
524
525   return tmp;
526 }
527
528 /* Create a temporary with a name derived from VAL.  Subroutine of
529    lookup_tmp_var; nobody else should call this function.  */
530
531 static inline tree
532 create_tmp_from_val (tree val)
533 {
534   return create_tmp_var (TREE_TYPE (val), get_name (val));
535 }
536
537 /* Create a temporary to hold the value of VAL.  If IS_FORMAL, try to reuse
538    an existing expression temporary.  */
539
540 static tree
541 lookup_tmp_var (tree val, bool is_formal)
542 {
543   tree ret;
544
545   /* If not optimizing, never really reuse a temporary.  local-alloc
546      won't allocate any variable that is used in more than one basic
547      block, which means it will go into memory, causing much extra
548      work in reload and final and poorer code generation, outweighing
549      the extra memory allocation here.  */
550   if (!optimize || !is_formal || TREE_SIDE_EFFECTS (val))
551     ret = create_tmp_from_val (val);
552   else
553     {
554       elt_t elt, *elt_p;
555       void **slot;
556
557       elt.val = val;
558       if (gimplify_ctxp->temp_htab == NULL)
559         gimplify_ctxp->temp_htab
560           = htab_create (1000, gimple_tree_hash, gimple_tree_eq, free);
561       slot = htab_find_slot (gimplify_ctxp->temp_htab, (void *)&elt, INSERT);
562       if (*slot == NULL)
563         {
564           elt_p = XNEW (elt_t);
565           elt_p->val = val;
566           elt_p->temp = ret = create_tmp_from_val (val);
567           *slot = (void *) elt_p;
568         }
569       else
570         {
571           elt_p = (elt_t *) *slot;
572           ret = elt_p->temp;
573         }
574     }
575
576   return ret;
577 }
578
579
580 /* Return true if T is a CALL_EXPR or an expression that can be
581    assignmed to a temporary.  Note that this predicate should only be
582    used during gimplification.  See the rationale for this in
583    gimplify_modify_expr.  */
584
585 static bool
586 is_gimple_reg_rhs_or_call (tree t)
587 {
588   return (get_gimple_rhs_class (TREE_CODE (t)) != GIMPLE_INVALID_RHS
589           || TREE_CODE (t) == CALL_EXPR);
590 }
591
592 /* Return true if T is a valid memory RHS or a CALL_EXPR.  Note that
593    this predicate should only be used during gimplification.  See the
594    rationale for this in gimplify_modify_expr.  */
595
596 static bool
597 is_gimple_mem_rhs_or_call (tree t)
598 {
599   /* If we're dealing with a renamable type, either source or dest must be
600      a renamed variable.  */
601   if (is_gimple_reg_type (TREE_TYPE (t)))
602     return is_gimple_val (t);
603   else
604     return (is_gimple_val (t) || is_gimple_lvalue (t)
605             || TREE_CODE (t) == CALL_EXPR);
606 }
607
608 /* Helper for get_formal_tmp_var and get_initialized_tmp_var.  */
609
610 static tree
611 internal_get_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p,
612                       bool is_formal)
613 {
614   tree t, mod;
615
616   /* Notice that we explicitly allow VAL to be a CALL_EXPR so that we
617      can create an INIT_EXPR and convert it into a GIMPLE_CALL below.  */
618   gimplify_expr (&val, pre_p, post_p, is_gimple_reg_rhs_or_call,
619                  fb_rvalue);
620
621   t = lookup_tmp_var (val, is_formal);
622
623   if (is_formal
624       && (TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
625           || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE))
626     DECL_GIMPLE_REG_P (t) = 1;
627
628   mod = build2 (INIT_EXPR, TREE_TYPE (t), t, unshare_expr (val));
629
630   if (EXPR_HAS_LOCATION (val))
631     SET_EXPR_LOCATION (mod, EXPR_LOCATION (val));
632   else
633     SET_EXPR_LOCATION (mod, input_location);
634
635   /* gimplify_modify_expr might want to reduce this further.  */
636   gimplify_and_add (mod, pre_p);
637   ggc_free (mod);
638
639   /* If we're gimplifying into ssa, gimplify_modify_expr will have
640      given our temporary an SSA name.  Find and return it.  */
641   if (gimplify_ctxp->into_ssa)
642     {
643       gimple last = gimple_seq_last_stmt (*pre_p);
644       t = gimple_get_lhs (last);
645     }
646
647   return t;
648 }
649
650 /* Returns a formal temporary variable initialized with VAL.  PRE_P is as
651    in gimplify_expr.  Only use this function if:
652
653    1) The value of the unfactored expression represented by VAL will not
654       change between the initialization and use of the temporary, and
655    2) The temporary will not be otherwise modified.
656
657    For instance, #1 means that this is inappropriate for SAVE_EXPR temps,
658    and #2 means it is inappropriate for && temps.
659
660    For other cases, use get_initialized_tmp_var instead.  */
661
662 tree
663 get_formal_tmp_var (tree val, gimple_seq *pre_p)
664 {
665   return internal_get_tmp_var (val, pre_p, NULL, true);
666 }
667
668 /* Returns a temporary variable initialized with VAL.  PRE_P and POST_P
669    are as in gimplify_expr.  */
670
671 tree
672 get_initialized_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p)
673 {
674   return internal_get_tmp_var (val, pre_p, post_p, false);
675 }
676
677 /* Declares all the variables in VARS in SCOPE.  If DEBUG_INFO is
678    true, generate debug info for them; otherwise don't.  */
679
680 void
681 declare_vars (tree vars, gimple scope, bool debug_info)
682 {
683   tree last = vars;
684   if (last)
685     {
686       tree temps, block;
687
688       gcc_assert (gimple_code (scope) == GIMPLE_BIND);
689
690       temps = nreverse (last);
691
692       block = gimple_bind_block (scope);
693       gcc_assert (!block || TREE_CODE (block) == BLOCK);
694       if (!block || !debug_info)
695         {
696           TREE_CHAIN (last) = gimple_bind_vars (scope);
697           gimple_bind_set_vars (scope, temps);
698         }
699       else
700         {
701           /* We need to attach the nodes both to the BIND_EXPR and to its
702              associated BLOCK for debugging purposes.  The key point here
703              is that the BLOCK_VARS of the BIND_EXPR_BLOCK of a BIND_EXPR
704              is a subchain of the BIND_EXPR_VARS of the BIND_EXPR.  */
705           if (BLOCK_VARS (block))
706             BLOCK_VARS (block) = chainon (BLOCK_VARS (block), temps);
707           else
708             {
709               gimple_bind_set_vars (scope,
710                                     chainon (gimple_bind_vars (scope), temps));
711               BLOCK_VARS (block) = temps;
712             }
713         }
714     }
715 }
716
717 /* For VAR a VAR_DECL of variable size, try to find a constant upper bound
718    for the size and adjust DECL_SIZE/DECL_SIZE_UNIT accordingly.  Abort if
719    no such upper bound can be obtained.  */
720
721 static void
722 force_constant_size (tree var)
723 {
724   /* The only attempt we make is by querying the maximum size of objects
725      of the variable's type.  */
726
727   HOST_WIDE_INT max_size;
728
729   gcc_assert (TREE_CODE (var) == VAR_DECL);
730
731   max_size = max_int_size_in_bytes (TREE_TYPE (var));
732
733   gcc_assert (max_size >= 0);
734
735   DECL_SIZE_UNIT (var)
736     = build_int_cst (TREE_TYPE (DECL_SIZE_UNIT (var)), max_size);
737   DECL_SIZE (var)
738     = build_int_cst (TREE_TYPE (DECL_SIZE (var)), max_size * BITS_PER_UNIT);
739 }
740
741 void
742 gimple_add_tmp_var (tree tmp)
743 {
744   gcc_assert (!TREE_CHAIN (tmp) && !DECL_SEEN_IN_BIND_EXPR_P (tmp));
745
746   /* Later processing assumes that the object size is constant, which might
747      not be true at this point.  Force the use of a constant upper bound in
748      this case.  */
749   if (!host_integerp (DECL_SIZE_UNIT (tmp), 1))
750     force_constant_size (tmp);
751
752   DECL_CONTEXT (tmp) = current_function_decl;
753   DECL_SEEN_IN_BIND_EXPR_P (tmp) = 1;
754
755   if (gimplify_ctxp)
756     {
757       TREE_CHAIN (tmp) = gimplify_ctxp->temps;
758       gimplify_ctxp->temps = tmp;
759
760       /* Mark temporaries local within the nearest enclosing parallel.  */
761       if (gimplify_omp_ctxp)
762         {
763           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
764           while (ctx && ctx->region_type == ORT_WORKSHARE)
765             ctx = ctx->outer_context;
766           if (ctx)
767             omp_add_variable (ctx, tmp, GOVD_LOCAL | GOVD_SEEN);
768         }
769     }
770   else if (cfun)
771     record_vars (tmp);
772   else
773     {
774       gimple_seq body_seq;
775
776       /* This case is for nested functions.  We need to expose the locals
777          they create.  */
778       body_seq = gimple_body (current_function_decl);
779       declare_vars (tmp, gimple_seq_first_stmt (body_seq), false);
780     }
781 }
782
783 /* Determines whether to assign a location to the statement GS.  */
784
785 static bool
786 should_carry_location_p (gimple gs)
787 {
788   /* Don't emit a line note for a label.  We particularly don't want to
789      emit one for the break label, since it doesn't actually correspond
790      to the beginning of the loop/switch.  */
791   if (gimple_code (gs) == GIMPLE_LABEL)
792     return false;
793
794   return true;
795 }
796
797
798 /* Return true if a location should not be emitted for this statement
799    by annotate_one_with_location.  */
800
801 static inline bool
802 gimple_do_not_emit_location_p (gimple g)
803 {
804   return gimple_plf (g, GF_PLF_1);
805 }
806
807 /* Mark statement G so a location will not be emitted by
808    annotate_one_with_location.  */
809
810 static inline void
811 gimple_set_do_not_emit_location (gimple g)
812 {
813   /* The PLF flags are initialized to 0 when a new tuple is created,
814      so no need to initialize it anywhere.  */
815   gimple_set_plf (g, GF_PLF_1, true);
816 }
817
818 /* Set the location for gimple statement GS to LOCATION.  */
819
820 static void
821 annotate_one_with_location (gimple gs, location_t location)
822 {
823   if (!gimple_has_location (gs)
824       && !gimple_do_not_emit_location_p (gs)
825       && should_carry_location_p (gs))
826     gimple_set_location (gs, location);
827 }
828
829
830 /* Set LOCATION for all the statements after iterator GSI in sequence
831    SEQ.  If GSI is pointing to the end of the sequence, start with the
832    first statement in SEQ.  */
833
834 static void
835 annotate_all_with_location_after (gimple_seq seq, gimple_stmt_iterator gsi,
836                                   location_t location)
837 {
838   if (gsi_end_p (gsi))
839     gsi = gsi_start (seq);
840   else
841     gsi_next (&gsi);
842
843   for (; !gsi_end_p (gsi); gsi_next (&gsi))
844     annotate_one_with_location (gsi_stmt (gsi), location);
845 }
846
847
848 /* Set the location for all the statements in a sequence STMT_P to LOCATION.  */
849
850 void
851 annotate_all_with_location (gimple_seq stmt_p, location_t location)
852 {
853   gimple_stmt_iterator i;
854
855   if (gimple_seq_empty_p (stmt_p))
856     return;
857
858   for (i = gsi_start (stmt_p); !gsi_end_p (i); gsi_next (&i))
859     {
860       gimple gs = gsi_stmt (i);
861       annotate_one_with_location (gs, location);
862     }
863 }
864
865
866 /* Similar to copy_tree_r() but do not copy SAVE_EXPR or TARGET_EXPR nodes.
867    These nodes model computations that should only be done once.  If we
868    were to unshare something like SAVE_EXPR(i++), the gimplification
869    process would create wrong code.  */
870
871 static tree
872 mostly_copy_tree_r (tree *tp, int *walk_subtrees, void *data)
873 {
874   enum tree_code code = TREE_CODE (*tp);
875   /* Don't unshare types, decls, constants and SAVE_EXPR nodes.  */
876   if (TREE_CODE_CLASS (code) == tcc_type
877       || TREE_CODE_CLASS (code) == tcc_declaration
878       || TREE_CODE_CLASS (code) == tcc_constant
879       || code == SAVE_EXPR || code == TARGET_EXPR
880       /* We can't do anything sensible with a BLOCK used as an expression,
881          but we also can't just die when we see it because of non-expression
882          uses.  So just avert our eyes and cross our fingers.  Silly Java.  */
883       || code == BLOCK)
884     *walk_subtrees = 0;
885   else
886     {
887       gcc_assert (code != BIND_EXPR);
888       copy_tree_r (tp, walk_subtrees, data);
889     }
890
891   return NULL_TREE;
892 }
893
894 /* Callback for walk_tree to unshare most of the shared trees rooted at
895    *TP.  If *TP has been visited already (i.e., TREE_VISITED (*TP) == 1),
896    then *TP is deep copied by calling copy_tree_r.
897
898    This unshares the same trees as copy_tree_r with the exception of
899    SAVE_EXPR nodes.  These nodes model computations that should only be
900    done once.  If we were to unshare something like SAVE_EXPR(i++), the
901    gimplification process would create wrong code.  */
902
903 static tree
904 copy_if_shared_r (tree *tp, int *walk_subtrees ATTRIBUTE_UNUSED,
905                   void *data ATTRIBUTE_UNUSED)
906 {
907   tree t = *tp;
908   enum tree_code code = TREE_CODE (t);
909
910   /* Skip types, decls, and constants.  But we do want to look at their
911      types and the bounds of types.  Mark them as visited so we properly
912      unmark their subtrees on the unmark pass.  If we've already seen them,
913      don't look down further.  */
914   if (TREE_CODE_CLASS (code) == tcc_type
915       || TREE_CODE_CLASS (code) == tcc_declaration
916       || TREE_CODE_CLASS (code) == tcc_constant)
917     {
918       if (TREE_VISITED (t))
919         *walk_subtrees = 0;
920       else
921         TREE_VISITED (t) = 1;
922     }
923
924   /* If this node has been visited already, unshare it and don't look
925      any deeper.  */
926   else if (TREE_VISITED (t))
927     {
928       walk_tree (tp, mostly_copy_tree_r, NULL, NULL);
929       *walk_subtrees = 0;
930     }
931
932   /* Otherwise, mark the tree as visited and keep looking.  */
933   else
934     TREE_VISITED (t) = 1;
935
936   return NULL_TREE;
937 }
938
939 static tree
940 unmark_visited_r (tree *tp, int *walk_subtrees ATTRIBUTE_UNUSED,
941                   void *data ATTRIBUTE_UNUSED)
942 {
943   if (TREE_VISITED (*tp))
944     TREE_VISITED (*tp) = 0;
945   else
946     *walk_subtrees = 0;
947
948   return NULL_TREE;
949 }
950
951 /* Unshare all the trees in BODY_P, a pointer into the body of FNDECL, and the
952    bodies of any nested functions if we are unsharing the entire body of
953    FNDECL.  */
954
955 static void
956 unshare_body (tree *body_p, tree fndecl)
957 {
958   struct cgraph_node *cgn = cgraph_node (fndecl);
959
960   walk_tree (body_p, copy_if_shared_r, NULL, NULL);
961   if (body_p == &DECL_SAVED_TREE (fndecl))
962     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
963       unshare_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
964 }
965
966 /* Likewise, but mark all trees as not visited.  */
967
968 static void
969 unvisit_body (tree *body_p, tree fndecl)
970 {
971   struct cgraph_node *cgn = cgraph_node (fndecl);
972
973   walk_tree (body_p, unmark_visited_r, NULL, NULL);
974   if (body_p == &DECL_SAVED_TREE (fndecl))
975     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
976       unvisit_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
977 }
978
979 /* Unconditionally make an unshared copy of EXPR.  This is used when using
980    stored expressions which span multiple functions, such as BINFO_VTABLE,
981    as the normal unsharing process can't tell that they're shared.  */
982
983 tree
984 unshare_expr (tree expr)
985 {
986   walk_tree (&expr, mostly_copy_tree_r, NULL, NULL);
987   return expr;
988 }
989 \f
990 /* WRAPPER is a code such as BIND_EXPR or CLEANUP_POINT_EXPR which can both
991    contain statements and have a value.  Assign its value to a temporary
992    and give it void_type_node.  Returns the temporary, or NULL_TREE if
993    WRAPPER was already void.  */
994
995 tree
996 voidify_wrapper_expr (tree wrapper, tree temp)
997 {
998   tree type = TREE_TYPE (wrapper);
999   if (type && !VOID_TYPE_P (type))
1000     {
1001       tree *p;
1002
1003       /* Set p to point to the body of the wrapper.  Loop until we find
1004          something that isn't a wrapper.  */
1005       for (p = &wrapper; p && *p; )
1006         {
1007           switch (TREE_CODE (*p))
1008             {
1009             case BIND_EXPR:
1010               TREE_SIDE_EFFECTS (*p) = 1;
1011               TREE_TYPE (*p) = void_type_node;
1012               /* For a BIND_EXPR, the body is operand 1.  */
1013               p = &BIND_EXPR_BODY (*p);
1014               break;
1015
1016             case CLEANUP_POINT_EXPR:
1017             case TRY_FINALLY_EXPR:
1018             case TRY_CATCH_EXPR:
1019               TREE_SIDE_EFFECTS (*p) = 1;
1020               TREE_TYPE (*p) = void_type_node;
1021               p = &TREE_OPERAND (*p, 0);
1022               break;
1023
1024             case STATEMENT_LIST:
1025               {
1026                 tree_stmt_iterator i = tsi_last (*p);
1027                 TREE_SIDE_EFFECTS (*p) = 1;
1028                 TREE_TYPE (*p) = void_type_node;
1029                 p = tsi_end_p (i) ? NULL : tsi_stmt_ptr (i);
1030               }
1031               break;
1032
1033             case COMPOUND_EXPR:
1034               /* Advance to the last statement.  Set all container types to void.  */
1035               for (; TREE_CODE (*p) == COMPOUND_EXPR; p = &TREE_OPERAND (*p, 1))
1036                 {
1037                   TREE_SIDE_EFFECTS (*p) = 1;
1038                   TREE_TYPE (*p) = void_type_node;
1039                 }
1040               break;
1041
1042             default:
1043               goto out;
1044             }
1045         }
1046
1047     out:
1048       if (p == NULL || IS_EMPTY_STMT (*p))
1049         temp = NULL_TREE;
1050       else if (temp)
1051         {
1052           /* The wrapper is on the RHS of an assignment that we're pushing
1053              down.  */
1054           gcc_assert (TREE_CODE (temp) == INIT_EXPR
1055                       || TREE_CODE (temp) == MODIFY_EXPR);
1056           TREE_OPERAND (temp, 1) = *p;
1057           *p = temp;
1058         }
1059       else
1060         {
1061           temp = create_tmp_var (type, "retval");
1062           *p = build2 (INIT_EXPR, type, temp, *p);
1063         }
1064
1065       return temp;
1066     }
1067
1068   return NULL_TREE;
1069 }
1070
1071 /* Prepare calls to builtins to SAVE and RESTORE the stack as well as
1072    a temporary through which they communicate.  */
1073
1074 static void
1075 build_stack_save_restore (gimple *save, gimple *restore)
1076 {
1077   tree tmp_var;
1078
1079   *save = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_SAVE], 0);
1080   tmp_var = create_tmp_var (ptr_type_node, "saved_stack");
1081   gimple_call_set_lhs (*save, tmp_var);
1082
1083   *restore = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_RESTORE],
1084                             1, tmp_var);
1085 }
1086
1087 /* Gimplify a BIND_EXPR.  Just voidify and recurse.  */
1088
1089 static enum gimplify_status
1090 gimplify_bind_expr (tree *expr_p, gimple_seq *pre_p)
1091 {
1092   tree bind_expr = *expr_p;
1093   bool old_save_stack = gimplify_ctxp->save_stack;
1094   tree t;
1095   gimple gimple_bind;
1096   gimple_seq body;
1097
1098   tree temp = voidify_wrapper_expr (bind_expr, NULL);
1099
1100   /* Mark variables seen in this bind expr.  */
1101   for (t = BIND_EXPR_VARS (bind_expr); t ; t = TREE_CHAIN (t))
1102     {
1103       if (TREE_CODE (t) == VAR_DECL)
1104         {
1105           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1106
1107           /* Mark variable as local.  */
1108           if (ctx && !is_global_var (t)
1109               && (! DECL_SEEN_IN_BIND_EXPR_P (t)
1110                   || splay_tree_lookup (ctx->variables,
1111                                         (splay_tree_key) t) == NULL))
1112             omp_add_variable (gimplify_omp_ctxp, t, GOVD_LOCAL | GOVD_SEEN);
1113
1114           DECL_SEEN_IN_BIND_EXPR_P (t) = 1;
1115
1116           if (DECL_HARD_REGISTER (t) && !is_global_var (t) && cfun)
1117             cfun->has_local_explicit_reg_vars = true;
1118         }
1119
1120       /* Preliminarily mark non-addressed complex variables as eligible
1121          for promotion to gimple registers.  We'll transform their uses
1122          as we find them.
1123          We exclude complex types if not optimizing because they can be
1124          subject to partial stores in GNU C by means of the __real__ and
1125          __imag__ operators and we cannot promote them to total stores
1126          (see gimplify_modify_expr_complex_part).  */
1127       if (optimize
1128           && (TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
1129               || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE)
1130           && !TREE_THIS_VOLATILE (t)
1131           && (TREE_CODE (t) == VAR_DECL && !DECL_HARD_REGISTER (t))
1132           && !needs_to_live_in_memory (t))
1133         DECL_GIMPLE_REG_P (t) = 1;
1134     }
1135
1136   gimple_bind = gimple_build_bind (BIND_EXPR_VARS (bind_expr), NULL,
1137                                    BIND_EXPR_BLOCK (bind_expr));
1138   gimple_push_bind_expr (gimple_bind);
1139
1140   gimplify_ctxp->save_stack = false;
1141
1142   /* Gimplify the body into the GIMPLE_BIND tuple's body.  */
1143   body = NULL;
1144   gimplify_stmt (&BIND_EXPR_BODY (bind_expr), &body);
1145   gimple_bind_set_body (gimple_bind, body);
1146
1147   if (gimplify_ctxp->save_stack)
1148     {
1149       gimple stack_save, stack_restore, gs;
1150       gimple_seq cleanup, new_body;
1151
1152       /* Save stack on entry and restore it on exit.  Add a try_finally
1153          block to achieve this.  Note that mudflap depends on the
1154          format of the emitted code: see mx_register_decls().  */
1155       build_stack_save_restore (&stack_save, &stack_restore);
1156
1157       cleanup = new_body = NULL;
1158       gimplify_seq_add_stmt (&cleanup, stack_restore);
1159       gs = gimple_build_try (gimple_bind_body (gimple_bind), cleanup,
1160                              GIMPLE_TRY_FINALLY);
1161
1162       gimplify_seq_add_stmt (&new_body, stack_save);
1163       gimplify_seq_add_stmt (&new_body, gs);
1164       gimple_bind_set_body (gimple_bind, new_body);
1165     }
1166
1167   gimplify_ctxp->save_stack = old_save_stack;
1168   gimple_pop_bind_expr ();
1169
1170   gimplify_seq_add_stmt (pre_p, gimple_bind);
1171
1172   if (temp)
1173     {
1174       *expr_p = temp;
1175       return GS_OK;
1176     }
1177
1178   *expr_p = NULL_TREE;
1179   return GS_ALL_DONE;
1180 }
1181
1182 /* Gimplify a RETURN_EXPR.  If the expression to be returned is not a
1183    GIMPLE value, it is assigned to a new temporary and the statement is
1184    re-written to return the temporary.
1185
1186    PRE_P points to the sequence where side effects that must happen before
1187    STMT should be stored.  */
1188
1189 static enum gimplify_status
1190 gimplify_return_expr (tree stmt, gimple_seq *pre_p)
1191 {
1192   gimple ret;
1193   tree ret_expr = TREE_OPERAND (stmt, 0);
1194   tree result_decl, result;
1195
1196   if (ret_expr == error_mark_node)
1197     return GS_ERROR;
1198
1199   if (!ret_expr
1200       || TREE_CODE (ret_expr) == RESULT_DECL
1201       || ret_expr == error_mark_node)
1202     {
1203       gimple ret = gimple_build_return (ret_expr);
1204       gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1205       gimplify_seq_add_stmt (pre_p, ret);
1206       return GS_ALL_DONE;
1207     }
1208
1209   if (VOID_TYPE_P (TREE_TYPE (TREE_TYPE (current_function_decl))))
1210     result_decl = NULL_TREE;
1211   else
1212     {
1213       result_decl = TREE_OPERAND (ret_expr, 0);
1214
1215       /* See through a return by reference.  */
1216       if (TREE_CODE (result_decl) == INDIRECT_REF)
1217         result_decl = TREE_OPERAND (result_decl, 0);
1218
1219       gcc_assert ((TREE_CODE (ret_expr) == MODIFY_EXPR
1220                    || TREE_CODE (ret_expr) == INIT_EXPR)
1221                   && TREE_CODE (result_decl) == RESULT_DECL);
1222     }
1223
1224   /* If aggregate_value_p is true, then we can return the bare RESULT_DECL.
1225      Recall that aggregate_value_p is FALSE for any aggregate type that is
1226      returned in registers.  If we're returning values in registers, then
1227      we don't want to extend the lifetime of the RESULT_DECL, particularly
1228      across another call.  In addition, for those aggregates for which
1229      hard_function_value generates a PARALLEL, we'll die during normal
1230      expansion of structure assignments; there's special code in expand_return
1231      to handle this case that does not exist in expand_expr.  */
1232   if (!result_decl
1233       || aggregate_value_p (result_decl, TREE_TYPE (current_function_decl)))
1234     result = result_decl;
1235   else if (gimplify_ctxp->return_temp)
1236     result = gimplify_ctxp->return_temp;
1237   else
1238     {
1239       result = create_tmp_reg (TREE_TYPE (result_decl), NULL);
1240
1241       /* ??? With complex control flow (usually involving abnormal edges),
1242          we can wind up warning about an uninitialized value for this.  Due
1243          to how this variable is constructed and initialized, this is never
1244          true.  Give up and never warn.  */
1245       TREE_NO_WARNING (result) = 1;
1246
1247       gimplify_ctxp->return_temp = result;
1248     }
1249
1250   /* Smash the lhs of the MODIFY_EXPR to the temporary we plan to use.
1251      Then gimplify the whole thing.  */
1252   if (result != result_decl)
1253     TREE_OPERAND (ret_expr, 0) = result;
1254
1255   gimplify_and_add (TREE_OPERAND (stmt, 0), pre_p);
1256
1257   ret = gimple_build_return (result);
1258   gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1259   gimplify_seq_add_stmt (pre_p, ret);
1260
1261   return GS_ALL_DONE;
1262 }
1263
1264 static void
1265 gimplify_vla_decl (tree decl, gimple_seq *seq_p)
1266 {
1267   /* This is a variable-sized decl.  Simplify its size and mark it
1268      for deferred expansion.  Note that mudflap depends on the format
1269      of the emitted code: see mx_register_decls().  */
1270   tree t, addr, ptr_type;
1271
1272   gimplify_one_sizepos (&DECL_SIZE (decl), seq_p);
1273   gimplify_one_sizepos (&DECL_SIZE_UNIT (decl), seq_p);
1274
1275   /* All occurrences of this decl in final gimplified code will be
1276      replaced by indirection.  Setting DECL_VALUE_EXPR does two
1277      things: First, it lets the rest of the gimplifier know what
1278      replacement to use.  Second, it lets the debug info know
1279      where to find the value.  */
1280   ptr_type = build_pointer_type (TREE_TYPE (decl));
1281   addr = create_tmp_var (ptr_type, get_name (decl));
1282   DECL_IGNORED_P (addr) = 0;
1283   t = build_fold_indirect_ref (addr);
1284   SET_DECL_VALUE_EXPR (decl, t);
1285   DECL_HAS_VALUE_EXPR_P (decl) = 1;
1286
1287   t = built_in_decls[BUILT_IN_ALLOCA];
1288   t = build_call_expr (t, 1, DECL_SIZE_UNIT (decl));
1289   t = fold_convert (ptr_type, t);
1290   t = build2 (MODIFY_EXPR, TREE_TYPE (addr), addr, t);
1291
1292   gimplify_and_add (t, seq_p);
1293
1294   /* Indicate that we need to restore the stack level when the
1295      enclosing BIND_EXPR is exited.  */
1296   gimplify_ctxp->save_stack = true;
1297 }
1298
1299
1300 /* Gimplifies a DECL_EXPR node *STMT_P by making any necessary allocation
1301    and initialization explicit.  */
1302
1303 static enum gimplify_status
1304 gimplify_decl_expr (tree *stmt_p, gimple_seq *seq_p)
1305 {
1306   tree stmt = *stmt_p;
1307   tree decl = DECL_EXPR_DECL (stmt);
1308
1309   *stmt_p = NULL_TREE;
1310
1311   if (TREE_TYPE (decl) == error_mark_node)
1312     return GS_ERROR;
1313
1314   if ((TREE_CODE (decl) == TYPE_DECL
1315        || TREE_CODE (decl) == VAR_DECL)
1316       && !TYPE_SIZES_GIMPLIFIED (TREE_TYPE (decl)))
1317     gimplify_type_sizes (TREE_TYPE (decl), seq_p);
1318
1319   if (TREE_CODE (decl) == VAR_DECL && !DECL_EXTERNAL (decl))
1320     {
1321       tree init = DECL_INITIAL (decl);
1322
1323       if (TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1324           || (!TREE_STATIC (decl)
1325               && flag_stack_check == GENERIC_STACK_CHECK
1326               && compare_tree_int (DECL_SIZE_UNIT (decl),
1327                                    STACK_CHECK_MAX_VAR_SIZE) > 0))
1328         gimplify_vla_decl (decl, seq_p);
1329
1330       if (init && init != error_mark_node)
1331         {
1332           if (!TREE_STATIC (decl))
1333             {
1334               DECL_INITIAL (decl) = NULL_TREE;
1335               init = build2 (INIT_EXPR, void_type_node, decl, init);
1336               gimplify_and_add (init, seq_p);
1337               ggc_free (init);
1338             }
1339           else
1340             /* We must still examine initializers for static variables
1341                as they may contain a label address.  */
1342             walk_tree (&init, force_labels_r, NULL, NULL);
1343         }
1344
1345       /* Some front ends do not explicitly declare all anonymous
1346          artificial variables.  We compensate here by declaring the
1347          variables, though it would be better if the front ends would
1348          explicitly declare them.  */
1349       if (!DECL_SEEN_IN_BIND_EXPR_P (decl)
1350           && DECL_ARTIFICIAL (decl) && DECL_NAME (decl) == NULL_TREE)
1351         gimple_add_tmp_var (decl);
1352     }
1353
1354   return GS_ALL_DONE;
1355 }
1356
1357 /* Gimplify a LOOP_EXPR.  Normally this just involves gimplifying the body
1358    and replacing the LOOP_EXPR with goto, but if the loop contains an
1359    EXIT_EXPR, we need to append a label for it to jump to.  */
1360
1361 static enum gimplify_status
1362 gimplify_loop_expr (tree *expr_p, gimple_seq *pre_p)
1363 {
1364   tree saved_label = gimplify_ctxp->exit_label;
1365   tree start_label = create_artificial_label (UNKNOWN_LOCATION);
1366
1367   gimplify_seq_add_stmt (pre_p, gimple_build_label (start_label));
1368
1369   gimplify_ctxp->exit_label = NULL_TREE;
1370
1371   gimplify_and_add (LOOP_EXPR_BODY (*expr_p), pre_p);
1372
1373   gimplify_seq_add_stmt (pre_p, gimple_build_goto (start_label));
1374
1375   if (gimplify_ctxp->exit_label)
1376     gimplify_seq_add_stmt (pre_p, gimple_build_label (gimplify_ctxp->exit_label));
1377
1378   gimplify_ctxp->exit_label = saved_label;
1379
1380   *expr_p = NULL;
1381   return GS_ALL_DONE;
1382 }
1383
1384 /* Gimplifies a statement list onto a sequence.  These may be created either
1385    by an enlightened front-end, or by shortcut_cond_expr.  */
1386
1387 static enum gimplify_status
1388 gimplify_statement_list (tree *expr_p, gimple_seq *pre_p)
1389 {
1390   tree temp = voidify_wrapper_expr (*expr_p, NULL);
1391
1392   tree_stmt_iterator i = tsi_start (*expr_p);
1393
1394   while (!tsi_end_p (i))
1395     {
1396       gimplify_stmt (tsi_stmt_ptr (i), pre_p);
1397       tsi_delink (&i);
1398     }
1399
1400   if (temp)
1401     {
1402       *expr_p = temp;
1403       return GS_OK;
1404     }
1405
1406   return GS_ALL_DONE;
1407 }
1408
1409 /* Compare two case labels.  Because the front end should already have
1410    made sure that case ranges do not overlap, it is enough to only compare
1411    the CASE_LOW values of each case label.  */
1412
1413 static int
1414 compare_case_labels (const void *p1, const void *p2)
1415 {
1416   const_tree const case1 = *(const_tree const*)p1;
1417   const_tree const case2 = *(const_tree const*)p2;
1418
1419   /* The 'default' case label always goes first.  */
1420   if (!CASE_LOW (case1))
1421     return -1;
1422   else if (!CASE_LOW (case2))
1423     return 1;
1424   else
1425     return tree_int_cst_compare (CASE_LOW (case1), CASE_LOW (case2));
1426 }
1427
1428
1429 /* Sort the case labels in LABEL_VEC in place in ascending order.  */
1430
1431 void
1432 sort_case_labels (VEC(tree,heap)* label_vec)
1433 {
1434   size_t len = VEC_length (tree, label_vec);
1435   qsort (VEC_address (tree, label_vec), len, sizeof (tree),
1436          compare_case_labels);
1437 }
1438
1439
1440 /* Gimplify a SWITCH_EXPR, and collect a TREE_VEC of the labels it can
1441    branch to.  */
1442
1443 static enum gimplify_status
1444 gimplify_switch_expr (tree *expr_p, gimple_seq *pre_p)
1445 {
1446   tree switch_expr = *expr_p;
1447   gimple_seq switch_body_seq = NULL;
1448   enum gimplify_status ret;
1449
1450   ret = gimplify_expr (&SWITCH_COND (switch_expr), pre_p, NULL, is_gimple_val,
1451                        fb_rvalue);
1452   if (ret == GS_ERROR || ret == GS_UNHANDLED)
1453     return ret;
1454
1455   if (SWITCH_BODY (switch_expr))
1456     {
1457       VEC (tree,heap) *labels;
1458       VEC (tree,heap) *saved_labels;
1459       tree default_case = NULL_TREE;
1460       size_t i, len;
1461       gimple gimple_switch;
1462
1463       /* If someone can be bothered to fill in the labels, they can
1464          be bothered to null out the body too.  */
1465       gcc_assert (!SWITCH_LABELS (switch_expr));
1466
1467       /* save old labels, get new ones from body, then restore the old
1468          labels.  Save all the things from the switch body to append after.  */
1469       saved_labels = gimplify_ctxp->case_labels;
1470       gimplify_ctxp->case_labels = VEC_alloc (tree, heap, 8);
1471
1472       gimplify_stmt (&SWITCH_BODY (switch_expr), &switch_body_seq);
1473       labels = gimplify_ctxp->case_labels;
1474       gimplify_ctxp->case_labels = saved_labels;
1475
1476       i = 0;
1477       while (i < VEC_length (tree, labels))
1478         {
1479           tree elt = VEC_index (tree, labels, i);
1480           tree low = CASE_LOW (elt);
1481           bool remove_element = FALSE;
1482
1483           if (low)
1484             {
1485               /* Discard empty ranges.  */
1486               tree high = CASE_HIGH (elt);
1487               if (high && tree_int_cst_lt (high, low))
1488                 remove_element = TRUE;
1489             }
1490           else
1491             {
1492               /* The default case must be the last label in the list.  */
1493               gcc_assert (!default_case);
1494               default_case = elt;
1495               remove_element = TRUE;
1496             }
1497
1498           if (remove_element)
1499             VEC_ordered_remove (tree, labels, i);
1500           else
1501             i++;
1502         }
1503       len = i;
1504
1505       if (!VEC_empty (tree, labels))
1506         sort_case_labels (labels);
1507
1508       if (!default_case)
1509         {
1510           tree type = TREE_TYPE (switch_expr);
1511
1512           /* If the switch has no default label, add one, so that we jump
1513              around the switch body.  If the labels already cover the whole
1514              range of type, add the default label pointing to one of the
1515              existing labels.  */
1516           if (type == void_type_node)
1517             type = TREE_TYPE (SWITCH_COND (switch_expr));
1518           if (len
1519               && INTEGRAL_TYPE_P (type)
1520               && TYPE_MIN_VALUE (type)
1521               && TYPE_MAX_VALUE (type)
1522               && tree_int_cst_equal (CASE_LOW (VEC_index (tree, labels, 0)),
1523                                      TYPE_MIN_VALUE (type)))
1524             {
1525               tree low, high = CASE_HIGH (VEC_index (tree, labels, len - 1));
1526               if (!high)
1527                 high = CASE_LOW (VEC_index (tree, labels, len - 1));
1528               if (tree_int_cst_equal (high, TYPE_MAX_VALUE (type)))
1529                 {
1530                   for (i = 1; i < len; i++)
1531                     {
1532                       high = CASE_LOW (VEC_index (tree, labels, i));
1533                       low = CASE_HIGH (VEC_index (tree, labels, i - 1));
1534                       if (!low)
1535                         low = CASE_LOW (VEC_index (tree, labels, i - 1));
1536                       if ((TREE_INT_CST_LOW (low) + 1
1537                            != TREE_INT_CST_LOW (high))
1538                           || (TREE_INT_CST_HIGH (low)
1539                               + (TREE_INT_CST_LOW (high) == 0)
1540                               != TREE_INT_CST_HIGH (high)))
1541                         break;
1542                     }
1543                   if (i == len)
1544                     default_case = build3 (CASE_LABEL_EXPR, void_type_node,
1545                                            NULL_TREE, NULL_TREE,
1546                                            CASE_LABEL (VEC_index (tree,
1547                                                                   labels, 0)));
1548                 }
1549             }
1550
1551           if (!default_case)
1552             {
1553               gimple new_default;
1554
1555               default_case
1556                 = build3 (CASE_LABEL_EXPR, void_type_node,
1557                           NULL_TREE, NULL_TREE,
1558                           create_artificial_label (UNKNOWN_LOCATION));
1559               new_default = gimple_build_label (CASE_LABEL (default_case));
1560               gimplify_seq_add_stmt (&switch_body_seq, new_default);
1561             }
1562         }
1563
1564       gimple_switch = gimple_build_switch_vec (SWITCH_COND (switch_expr),
1565                                                default_case, labels);
1566       gimplify_seq_add_stmt (pre_p, gimple_switch);
1567       gimplify_seq_add_seq (pre_p, switch_body_seq);
1568       VEC_free(tree, heap, labels);
1569     }
1570   else
1571     gcc_assert (SWITCH_LABELS (switch_expr));
1572
1573   return GS_ALL_DONE;
1574 }
1575
1576
1577 static enum gimplify_status
1578 gimplify_case_label_expr (tree *expr_p, gimple_seq *pre_p)
1579 {
1580   struct gimplify_ctx *ctxp;
1581   gimple gimple_label;
1582
1583   /* Invalid OpenMP programs can play Duff's Device type games with
1584      #pragma omp parallel.  At least in the C front end, we don't
1585      detect such invalid branches until after gimplification.  */
1586   for (ctxp = gimplify_ctxp; ; ctxp = ctxp->prev_context)
1587     if (ctxp->case_labels)
1588       break;
1589
1590   gimple_label = gimple_build_label (CASE_LABEL (*expr_p));
1591   VEC_safe_push (tree, heap, ctxp->case_labels, *expr_p);
1592   gimplify_seq_add_stmt (pre_p, gimple_label);
1593
1594   return GS_ALL_DONE;
1595 }
1596
1597 /* Build a GOTO to the LABEL_DECL pointed to by LABEL_P, building it first
1598    if necessary.  */
1599
1600 tree
1601 build_and_jump (tree *label_p)
1602 {
1603   if (label_p == NULL)
1604     /* If there's nowhere to jump, just fall through.  */
1605     return NULL_TREE;
1606
1607   if (*label_p == NULL_TREE)
1608     {
1609       tree label = create_artificial_label (UNKNOWN_LOCATION);
1610       *label_p = label;
1611     }
1612
1613   return build1 (GOTO_EXPR, void_type_node, *label_p);
1614 }
1615
1616 /* Gimplify an EXIT_EXPR by converting to a GOTO_EXPR inside a COND_EXPR.
1617    This also involves building a label to jump to and communicating it to
1618    gimplify_loop_expr through gimplify_ctxp->exit_label.  */
1619
1620 static enum gimplify_status
1621 gimplify_exit_expr (tree *expr_p)
1622 {
1623   tree cond = TREE_OPERAND (*expr_p, 0);
1624   tree expr;
1625
1626   expr = build_and_jump (&gimplify_ctxp->exit_label);
1627   expr = build3 (COND_EXPR, void_type_node, cond, expr, NULL_TREE);
1628   *expr_p = expr;
1629
1630   return GS_OK;
1631 }
1632
1633 /* A helper function to be called via walk_tree.  Mark all labels under *TP
1634    as being forced.  To be called for DECL_INITIAL of static variables.  */
1635
1636 tree
1637 force_labels_r (tree *tp, int *walk_subtrees, void *data ATTRIBUTE_UNUSED)
1638 {
1639   if (TYPE_P (*tp))
1640     *walk_subtrees = 0;
1641   if (TREE_CODE (*tp) == LABEL_DECL)
1642     FORCED_LABEL (*tp) = 1;
1643
1644   return NULL_TREE;
1645 }
1646
1647 /* *EXPR_P is a COMPONENT_REF being used as an rvalue.  If its type is
1648    different from its canonical type, wrap the whole thing inside a
1649    NOP_EXPR and force the type of the COMPONENT_REF to be the canonical
1650    type.
1651
1652    The canonical type of a COMPONENT_REF is the type of the field being
1653    referenced--unless the field is a bit-field which can be read directly
1654    in a smaller mode, in which case the canonical type is the
1655    sign-appropriate type corresponding to that mode.  */
1656
1657 static void
1658 canonicalize_component_ref (tree *expr_p)
1659 {
1660   tree expr = *expr_p;
1661   tree type;
1662
1663   gcc_assert (TREE_CODE (expr) == COMPONENT_REF);
1664
1665   if (INTEGRAL_TYPE_P (TREE_TYPE (expr)))
1666     type = TREE_TYPE (get_unwidened (expr, NULL_TREE));
1667   else
1668     type = TREE_TYPE (TREE_OPERAND (expr, 1));
1669
1670   /* One could argue that all the stuff below is not necessary for
1671      the non-bitfield case and declare it a FE error if type
1672      adjustment would be needed.  */
1673   if (TREE_TYPE (expr) != type)
1674     {
1675 #ifdef ENABLE_TYPES_CHECKING
1676       tree old_type = TREE_TYPE (expr);
1677 #endif
1678       int type_quals;
1679
1680       /* We need to preserve qualifiers and propagate them from
1681          operand 0.  */
1682       type_quals = TYPE_QUALS (type)
1683         | TYPE_QUALS (TREE_TYPE (TREE_OPERAND (expr, 0)));
1684       if (TYPE_QUALS (type) != type_quals)
1685         type = build_qualified_type (TYPE_MAIN_VARIANT (type), type_quals);
1686
1687       /* Set the type of the COMPONENT_REF to the underlying type.  */
1688       TREE_TYPE (expr) = type;
1689
1690 #ifdef ENABLE_TYPES_CHECKING
1691       /* It is now a FE error, if the conversion from the canonical
1692          type to the original expression type is not useless.  */
1693       gcc_assert (useless_type_conversion_p (old_type, type));
1694 #endif
1695     }
1696 }
1697
1698 /* If a NOP conversion is changing a pointer to array of foo to a pointer
1699    to foo, embed that change in the ADDR_EXPR by converting
1700       T array[U];
1701       (T *)&array
1702    ==>
1703       &array[L]
1704    where L is the lower bound.  For simplicity, only do this for constant
1705    lower bound.
1706    The constraint is that the type of &array[L] is trivially convertible
1707    to T *.  */
1708
1709 static void
1710 canonicalize_addr_expr (tree *expr_p)
1711 {
1712   tree expr = *expr_p;
1713   tree addr_expr = TREE_OPERAND (expr, 0);
1714   tree datype, ddatype, pddatype;
1715
1716   /* We simplify only conversions from an ADDR_EXPR to a pointer type.  */
1717   if (!POINTER_TYPE_P (TREE_TYPE (expr))
1718       || TREE_CODE (addr_expr) != ADDR_EXPR)
1719     return;
1720
1721   /* The addr_expr type should be a pointer to an array.  */
1722   datype = TREE_TYPE (TREE_TYPE (addr_expr));
1723   if (TREE_CODE (datype) != ARRAY_TYPE)
1724     return;
1725
1726   /* The pointer to element type shall be trivially convertible to
1727      the expression pointer type.  */
1728   ddatype = TREE_TYPE (datype);
1729   pddatype = build_pointer_type (ddatype);
1730   if (!useless_type_conversion_p (TYPE_MAIN_VARIANT (TREE_TYPE (expr)),
1731                                   pddatype))
1732     return;
1733
1734   /* The lower bound and element sizes must be constant.  */
1735   if (!TYPE_SIZE_UNIT (ddatype)
1736       || TREE_CODE (TYPE_SIZE_UNIT (ddatype)) != INTEGER_CST
1737       || !TYPE_DOMAIN (datype) || !TYPE_MIN_VALUE (TYPE_DOMAIN (datype))
1738       || TREE_CODE (TYPE_MIN_VALUE (TYPE_DOMAIN (datype))) != INTEGER_CST)
1739     return;
1740
1741   /* All checks succeeded.  Build a new node to merge the cast.  */
1742   *expr_p = build4 (ARRAY_REF, ddatype, TREE_OPERAND (addr_expr, 0),
1743                     TYPE_MIN_VALUE (TYPE_DOMAIN (datype)),
1744                     NULL_TREE, NULL_TREE);
1745   *expr_p = build1 (ADDR_EXPR, pddatype, *expr_p);
1746
1747   /* We can have stripped a required restrict qualifier above.  */
1748   if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
1749     *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
1750 }
1751
1752 /* *EXPR_P is a NOP_EXPR or CONVERT_EXPR.  Remove it and/or other conversions
1753    underneath as appropriate.  */
1754
1755 static enum gimplify_status
1756 gimplify_conversion (tree *expr_p)
1757 {
1758   tree tem;
1759   location_t loc = EXPR_LOCATION (*expr_p);
1760   gcc_assert (CONVERT_EXPR_P (*expr_p));
1761
1762   /* Then strip away all but the outermost conversion.  */
1763   STRIP_SIGN_NOPS (TREE_OPERAND (*expr_p, 0));
1764
1765   /* And remove the outermost conversion if it's useless.  */
1766   if (tree_ssa_useless_type_conversion (*expr_p))
1767     *expr_p = TREE_OPERAND (*expr_p, 0);
1768
1769   /* Attempt to avoid NOP_EXPR by producing reference to a subtype.
1770      For example this fold (subclass *)&A into &A->subclass avoiding
1771      a need for statement.  */
1772   if (CONVERT_EXPR_P (*expr_p)
1773       && POINTER_TYPE_P (TREE_TYPE (*expr_p))
1774       && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (*expr_p, 0)))
1775       && (tem = maybe_fold_offset_to_address
1776           (EXPR_LOCATION (*expr_p), TREE_OPERAND (*expr_p, 0),
1777            integer_zero_node, TREE_TYPE (*expr_p))) != NULL_TREE)
1778     *expr_p = tem;
1779
1780   /* If we still have a conversion at the toplevel,
1781      then canonicalize some constructs.  */
1782   if (CONVERT_EXPR_P (*expr_p))
1783     {
1784       tree sub = TREE_OPERAND (*expr_p, 0);
1785
1786       /* If a NOP conversion is changing the type of a COMPONENT_REF
1787          expression, then canonicalize its type now in order to expose more
1788          redundant conversions.  */
1789       if (TREE_CODE (sub) == COMPONENT_REF)
1790         canonicalize_component_ref (&TREE_OPERAND (*expr_p, 0));
1791
1792       /* If a NOP conversion is changing a pointer to array of foo
1793          to a pointer to foo, embed that change in the ADDR_EXPR.  */
1794       else if (TREE_CODE (sub) == ADDR_EXPR)
1795         canonicalize_addr_expr (expr_p);
1796     }
1797
1798   /* If we have a conversion to a non-register type force the
1799      use of a VIEW_CONVERT_EXPR instead.  */
1800   if (CONVERT_EXPR_P (*expr_p) && !is_gimple_reg_type (TREE_TYPE (*expr_p)))
1801     *expr_p = fold_build1_loc (loc, VIEW_CONVERT_EXPR, TREE_TYPE (*expr_p),
1802                                TREE_OPERAND (*expr_p, 0));
1803
1804   return GS_OK;
1805 }
1806
1807 /* Nonlocal VLAs seen in the current function.  */
1808 static struct pointer_set_t *nonlocal_vlas;
1809
1810 /* Gimplify a VAR_DECL or PARM_DECL.  Returns GS_OK if we expanded a
1811    DECL_VALUE_EXPR, and it's worth re-examining things.  */
1812
1813 static enum gimplify_status
1814 gimplify_var_or_parm_decl (tree *expr_p)
1815 {
1816   tree decl = *expr_p;
1817
1818   /* ??? If this is a local variable, and it has not been seen in any
1819      outer BIND_EXPR, then it's probably the result of a duplicate
1820      declaration, for which we've already issued an error.  It would
1821      be really nice if the front end wouldn't leak these at all.
1822      Currently the only known culprit is C++ destructors, as seen
1823      in g++.old-deja/g++.jason/binding.C.  */
1824   if (TREE_CODE (decl) == VAR_DECL
1825       && !DECL_SEEN_IN_BIND_EXPR_P (decl)
1826       && !TREE_STATIC (decl) && !DECL_EXTERNAL (decl)
1827       && decl_function_context (decl) == current_function_decl)
1828     {
1829       gcc_assert (errorcount || sorrycount);
1830       return GS_ERROR;
1831     }
1832
1833   /* When within an OpenMP context, notice uses of variables.  */
1834   if (gimplify_omp_ctxp && omp_notice_variable (gimplify_omp_ctxp, decl, true))
1835     return GS_ALL_DONE;
1836
1837   /* If the decl is an alias for another expression, substitute it now.  */
1838   if (DECL_HAS_VALUE_EXPR_P (decl))
1839     {
1840       tree value_expr = DECL_VALUE_EXPR (decl);
1841
1842       /* For referenced nonlocal VLAs add a decl for debugging purposes
1843          to the current function.  */
1844       if (TREE_CODE (decl) == VAR_DECL
1845           && TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1846           && nonlocal_vlas != NULL
1847           && TREE_CODE (value_expr) == INDIRECT_REF
1848           && TREE_CODE (TREE_OPERAND (value_expr, 0)) == VAR_DECL
1849           && decl_function_context (decl) != current_function_decl)
1850         {
1851           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1852           while (ctx && ctx->region_type == ORT_WORKSHARE)
1853             ctx = ctx->outer_context;
1854           if (!ctx && !pointer_set_insert (nonlocal_vlas, decl))
1855             {
1856               tree copy = copy_node (decl), block;
1857
1858               lang_hooks.dup_lang_specific_decl (copy);
1859               SET_DECL_RTL (copy, NULL_RTX);
1860               TREE_USED (copy) = 1;
1861               block = DECL_INITIAL (current_function_decl);
1862               TREE_CHAIN (copy) = BLOCK_VARS (block);
1863               BLOCK_VARS (block) = copy;
1864               SET_DECL_VALUE_EXPR (copy, unshare_expr (value_expr));
1865               DECL_HAS_VALUE_EXPR_P (copy) = 1;
1866             }
1867         }
1868
1869       *expr_p = unshare_expr (value_expr);
1870       return GS_OK;
1871     }
1872
1873   return GS_ALL_DONE;
1874 }
1875
1876
1877 /* Gimplify the COMPONENT_REF, ARRAY_REF, REALPART_EXPR or IMAGPART_EXPR
1878    node *EXPR_P.
1879
1880       compound_lval
1881               : min_lval '[' val ']'
1882               | min_lval '.' ID
1883               | compound_lval '[' val ']'
1884               | compound_lval '.' ID
1885
1886    This is not part of the original SIMPLE definition, which separates
1887    array and member references, but it seems reasonable to handle them
1888    together.  Also, this way we don't run into problems with union
1889    aliasing; gcc requires that for accesses through a union to alias, the
1890    union reference must be explicit, which was not always the case when we
1891    were splitting up array and member refs.
1892
1893    PRE_P points to the sequence where side effects that must happen before
1894      *EXPR_P should be stored.
1895
1896    POST_P points to the sequence where side effects that must happen after
1897      *EXPR_P should be stored.  */
1898
1899 static enum gimplify_status
1900 gimplify_compound_lval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
1901                         fallback_t fallback)
1902 {
1903   tree *p;
1904   VEC(tree,heap) *stack;
1905   enum gimplify_status ret = GS_OK, tret;
1906   int i;
1907   location_t loc = EXPR_LOCATION (*expr_p);
1908
1909   /* Create a stack of the subexpressions so later we can walk them in
1910      order from inner to outer.  */
1911   stack = VEC_alloc (tree, heap, 10);
1912
1913   /* We can handle anything that get_inner_reference can deal with.  */
1914   for (p = expr_p; ; p = &TREE_OPERAND (*p, 0))
1915     {
1916     restart:
1917       /* Fold INDIRECT_REFs now to turn them into ARRAY_REFs.  */
1918       if (TREE_CODE (*p) == INDIRECT_REF)
1919         *p = fold_indirect_ref_loc (loc, *p);
1920
1921       if (handled_component_p (*p))
1922         ;
1923       /* Expand DECL_VALUE_EXPR now.  In some cases that may expose
1924          additional COMPONENT_REFs.  */
1925       else if ((TREE_CODE (*p) == VAR_DECL || TREE_CODE (*p) == PARM_DECL)
1926                && gimplify_var_or_parm_decl (p) == GS_OK)
1927         goto restart;
1928       else
1929         break;
1930
1931       VEC_safe_push (tree, heap, stack, *p);
1932     }
1933
1934   gcc_assert (VEC_length (tree, stack));
1935
1936   /* Now STACK is a stack of pointers to all the refs we've walked through
1937      and P points to the innermost expression.
1938
1939      Java requires that we elaborated nodes in source order.  That
1940      means we must gimplify the inner expression followed by each of
1941      the indices, in order.  But we can't gimplify the inner
1942      expression until we deal with any variable bounds, sizes, or
1943      positions in order to deal with PLACEHOLDER_EXPRs.
1944
1945      So we do this in three steps.  First we deal with the annotations
1946      for any variables in the components, then we gimplify the base,
1947      then we gimplify any indices, from left to right.  */
1948   for (i = VEC_length (tree, stack) - 1; i >= 0; i--)
1949     {
1950       tree t = VEC_index (tree, stack, i);
1951
1952       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
1953         {
1954           /* Gimplify the low bound and element type size and put them into
1955              the ARRAY_REF.  If these values are set, they have already been
1956              gimplified.  */
1957           if (TREE_OPERAND (t, 2) == NULL_TREE)
1958             {
1959               tree low = unshare_expr (array_ref_low_bound (t));
1960               if (!is_gimple_min_invariant (low))
1961                 {
1962                   TREE_OPERAND (t, 2) = low;
1963                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
1964                                         post_p, is_gimple_reg,
1965                                         fb_rvalue);
1966                   ret = MIN (ret, tret);
1967                 }
1968             }
1969
1970           if (!TREE_OPERAND (t, 3))
1971             {
1972               tree elmt_type = TREE_TYPE (TREE_TYPE (TREE_OPERAND (t, 0)));
1973               tree elmt_size = unshare_expr (array_ref_element_size (t));
1974               tree factor = size_int (TYPE_ALIGN_UNIT (elmt_type));
1975
1976               /* Divide the element size by the alignment of the element
1977                  type (above).  */
1978               elmt_size = size_binop_loc (loc, EXACT_DIV_EXPR, elmt_size, factor);
1979
1980               if (!is_gimple_min_invariant (elmt_size))
1981                 {
1982                   TREE_OPERAND (t, 3) = elmt_size;
1983                   tret = gimplify_expr (&TREE_OPERAND (t, 3), pre_p,
1984                                         post_p, is_gimple_reg,
1985                                         fb_rvalue);
1986                   ret = MIN (ret, tret);
1987                 }
1988             }
1989         }
1990       else if (TREE_CODE (t) == COMPONENT_REF)
1991         {
1992           /* Set the field offset into T and gimplify it.  */
1993           if (!TREE_OPERAND (t, 2))
1994             {
1995               tree offset = unshare_expr (component_ref_field_offset (t));
1996               tree field = TREE_OPERAND (t, 1);
1997               tree factor
1998                 = size_int (DECL_OFFSET_ALIGN (field) / BITS_PER_UNIT);
1999
2000               /* Divide the offset by its alignment.  */
2001               offset = size_binop_loc (loc, EXACT_DIV_EXPR, offset, factor);
2002
2003               if (!is_gimple_min_invariant (offset))
2004                 {
2005                   TREE_OPERAND (t, 2) = offset;
2006                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
2007                                         post_p, is_gimple_reg,
2008                                         fb_rvalue);
2009                   ret = MIN (ret, tret);
2010                 }
2011             }
2012         }
2013     }
2014
2015   /* Step 2 is to gimplify the base expression.  Make sure lvalue is set
2016      so as to match the min_lval predicate.  Failure to do so may result
2017      in the creation of large aggregate temporaries.  */
2018   tret = gimplify_expr (p, pre_p, post_p, is_gimple_min_lval,
2019                         fallback | fb_lvalue);
2020   ret = MIN (ret, tret);
2021
2022   /* And finally, the indices and operands to BIT_FIELD_REF.  During this
2023      loop we also remove any useless conversions.  */
2024   for (; VEC_length (tree, stack) > 0; )
2025     {
2026       tree t = VEC_pop (tree, stack);
2027
2028       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
2029         {
2030           /* Gimplify the dimension.  */
2031           if (!is_gimple_min_invariant (TREE_OPERAND (t, 1)))
2032             {
2033               tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2034                                     is_gimple_val, fb_rvalue);
2035               ret = MIN (ret, tret);
2036             }
2037         }
2038       else if (TREE_CODE (t) == BIT_FIELD_REF)
2039         {
2040           tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2041                                 is_gimple_val, fb_rvalue);
2042           ret = MIN (ret, tret);
2043           tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p, post_p,
2044                                 is_gimple_val, fb_rvalue);
2045           ret = MIN (ret, tret);
2046         }
2047
2048       STRIP_USELESS_TYPE_CONVERSION (TREE_OPERAND (t, 0));
2049
2050       /* The innermost expression P may have originally had
2051          TREE_SIDE_EFFECTS set which would have caused all the outer
2052          expressions in *EXPR_P leading to P to also have had
2053          TREE_SIDE_EFFECTS set.  */
2054       recalculate_side_effects (t);
2055     }
2056
2057   /* If the outermost expression is a COMPONENT_REF, canonicalize its type.  */
2058   if ((fallback & fb_rvalue) && TREE_CODE (*expr_p) == COMPONENT_REF)
2059     {
2060       canonicalize_component_ref (expr_p);
2061       ret = MIN (ret, GS_OK);
2062     }
2063
2064   VEC_free (tree, heap, stack);
2065
2066   return ret;
2067 }
2068
2069 /*  Gimplify the self modifying expression pointed to by EXPR_P
2070     (++, --, +=, -=).
2071
2072     PRE_P points to the list where side effects that must happen before
2073         *EXPR_P should be stored.
2074
2075     POST_P points to the list where side effects that must happen after
2076         *EXPR_P should be stored.
2077
2078     WANT_VALUE is nonzero iff we want to use the value of this expression
2079         in another expression.  */
2080
2081 static enum gimplify_status
2082 gimplify_self_mod_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
2083                         bool want_value)
2084 {
2085   enum tree_code code;
2086   tree lhs, lvalue, rhs, t1;
2087   gimple_seq post = NULL, *orig_post_p = post_p;
2088   bool postfix;
2089   enum tree_code arith_code;
2090   enum gimplify_status ret;
2091   location_t loc = EXPR_LOCATION (*expr_p);
2092
2093   code = TREE_CODE (*expr_p);
2094
2095   gcc_assert (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR
2096               || code == PREINCREMENT_EXPR || code == PREDECREMENT_EXPR);
2097
2098   /* Prefix or postfix?  */
2099   if (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR)
2100     /* Faster to treat as prefix if result is not used.  */
2101     postfix = want_value;
2102   else
2103     postfix = false;
2104
2105   /* For postfix, make sure the inner expression's post side effects
2106      are executed after side effects from this expression.  */
2107   if (postfix)
2108     post_p = &post;
2109
2110   /* Add or subtract?  */
2111   if (code == PREINCREMENT_EXPR || code == POSTINCREMENT_EXPR)
2112     arith_code = PLUS_EXPR;
2113   else
2114     arith_code = MINUS_EXPR;
2115
2116   /* Gimplify the LHS into a GIMPLE lvalue.  */
2117   lvalue = TREE_OPERAND (*expr_p, 0);
2118   ret = gimplify_expr (&lvalue, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
2119   if (ret == GS_ERROR)
2120     return ret;
2121
2122   /* Extract the operands to the arithmetic operation.  */
2123   lhs = lvalue;
2124   rhs = TREE_OPERAND (*expr_p, 1);
2125
2126   /* For postfix operator, we evaluate the LHS to an rvalue and then use
2127      that as the result value and in the postqueue operation.  We also
2128      make sure to make lvalue a minimal lval, see
2129      gcc.c-torture/execute/20040313-1.c for an example where this matters.  */
2130   if (postfix)
2131     {
2132       if (!is_gimple_min_lval (lvalue))
2133         {
2134           mark_addressable (lvalue);
2135           lvalue = build_fold_addr_expr_loc (input_location, lvalue);
2136           gimplify_expr (&lvalue, pre_p, post_p, is_gimple_val, fb_rvalue);
2137           lvalue = build_fold_indirect_ref_loc (input_location, lvalue);
2138         }
2139       ret = gimplify_expr (&lhs, pre_p, post_p, is_gimple_val, fb_rvalue);
2140       if (ret == GS_ERROR)
2141         return ret;
2142     }
2143
2144   /* For POINTERs increment, use POINTER_PLUS_EXPR.  */
2145   if (POINTER_TYPE_P (TREE_TYPE (lhs)))
2146     {
2147       rhs = fold_convert_loc (loc, sizetype, rhs);
2148       if (arith_code == MINUS_EXPR)
2149         rhs = fold_build1_loc (loc, NEGATE_EXPR, TREE_TYPE (rhs), rhs);
2150       arith_code = POINTER_PLUS_EXPR;
2151     }
2152
2153   t1 = build2 (arith_code, TREE_TYPE (*expr_p), lhs, rhs);
2154
2155   if (postfix)
2156     {
2157       gimplify_assign (lvalue, t1, orig_post_p);
2158       gimplify_seq_add_seq (orig_post_p, post);
2159       *expr_p = lhs;
2160       return GS_ALL_DONE;
2161     }
2162   else
2163     {
2164       *expr_p = build2 (MODIFY_EXPR, TREE_TYPE (lvalue), lvalue, t1);
2165       return GS_OK;
2166     }
2167 }
2168
2169
2170 /* If *EXPR_P has a variable sized type, wrap it in a WITH_SIZE_EXPR.  */
2171
2172 static void
2173 maybe_with_size_expr (tree *expr_p)
2174 {
2175   tree expr = *expr_p;
2176   tree type = TREE_TYPE (expr);
2177   tree size;
2178
2179   /* If we've already wrapped this or the type is error_mark_node, we can't do
2180      anything.  */
2181   if (TREE_CODE (expr) == WITH_SIZE_EXPR
2182       || type == error_mark_node)
2183     return;
2184
2185   /* If the size isn't known or is a constant, we have nothing to do.  */
2186   size = TYPE_SIZE_UNIT (type);
2187   if (!size || TREE_CODE (size) == INTEGER_CST)
2188     return;
2189
2190   /* Otherwise, make a WITH_SIZE_EXPR.  */
2191   size = unshare_expr (size);
2192   size = SUBSTITUTE_PLACEHOLDER_IN_EXPR (size, expr);
2193   *expr_p = build2 (WITH_SIZE_EXPR, type, expr, size);
2194 }
2195
2196
2197 /* Helper for gimplify_call_expr.  Gimplify a single argument *ARG_P
2198    Store any side-effects in PRE_P.  CALL_LOCATION is the location of
2199    the CALL_EXPR.  */
2200
2201 static enum gimplify_status
2202 gimplify_arg (tree *arg_p, gimple_seq *pre_p, location_t call_location)
2203 {
2204   bool (*test) (tree);
2205   fallback_t fb;
2206
2207   /* In general, we allow lvalues for function arguments to avoid
2208      extra overhead of copying large aggregates out of even larger
2209      aggregates into temporaries only to copy the temporaries to
2210      the argument list.  Make optimizers happy by pulling out to
2211      temporaries those types that fit in registers.  */
2212   if (is_gimple_reg_type (TREE_TYPE (*arg_p)))
2213     test = is_gimple_val, fb = fb_rvalue;
2214   else
2215     test = is_gimple_lvalue, fb = fb_either;
2216
2217   /* If this is a variable sized type, we must remember the size.  */
2218   maybe_with_size_expr (arg_p);
2219
2220   /* FIXME diagnostics: This will mess up gcc.dg/Warray-bounds.c.  */
2221   /* Make sure arguments have the same location as the function call
2222      itself.  */
2223   protected_set_expr_location (*arg_p, call_location);
2224
2225   /* There is a sequence point before a function call.  Side effects in
2226      the argument list must occur before the actual call. So, when
2227      gimplifying arguments, force gimplify_expr to use an internal
2228      post queue which is then appended to the end of PRE_P.  */
2229   return gimplify_expr (arg_p, pre_p, NULL, test, fb);
2230 }
2231
2232
2233 /* Gimplify the CALL_EXPR node *EXPR_P into the GIMPLE sequence PRE_P.
2234    WANT_VALUE is true if the result of the call is desired.  */
2235
2236 static enum gimplify_status
2237 gimplify_call_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
2238 {
2239   tree fndecl, parms, p;
2240   enum gimplify_status ret;
2241   int i, nargs;
2242   gimple call;
2243   bool builtin_va_start_p = FALSE;
2244   location_t loc = EXPR_LOCATION (*expr_p);
2245
2246   gcc_assert (TREE_CODE (*expr_p) == CALL_EXPR);
2247
2248   /* For reliable diagnostics during inlining, it is necessary that
2249      every call_expr be annotated with file and line.  */
2250   if (! EXPR_HAS_LOCATION (*expr_p))
2251     SET_EXPR_LOCATION (*expr_p, input_location);
2252
2253   /* This may be a call to a builtin function.
2254
2255      Builtin function calls may be transformed into different
2256      (and more efficient) builtin function calls under certain
2257      circumstances.  Unfortunately, gimplification can muck things
2258      up enough that the builtin expanders are not aware that certain
2259      transformations are still valid.
2260
2261      So we attempt transformation/gimplification of the call before
2262      we gimplify the CALL_EXPR.  At this time we do not manage to
2263      transform all calls in the same manner as the expanders do, but
2264      we do transform most of them.  */
2265   fndecl = get_callee_fndecl (*expr_p);
2266   if (fndecl && DECL_BUILT_IN (fndecl))
2267     {
2268       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2269
2270       if (new_tree && new_tree != *expr_p)
2271         {
2272           /* There was a transformation of this call which computes the
2273              same value, but in a more efficient way.  Return and try
2274              again.  */
2275           *expr_p = new_tree;
2276           return GS_OK;
2277         }
2278
2279       if (DECL_BUILT_IN_CLASS (fndecl) == BUILT_IN_NORMAL
2280           && DECL_FUNCTION_CODE (fndecl) == BUILT_IN_VA_START)
2281         {
2282           builtin_va_start_p = TRUE;
2283           if (call_expr_nargs (*expr_p) < 2)
2284             {
2285               error ("too few arguments to function %<va_start%>");
2286               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2287               return GS_OK;
2288             }
2289
2290           if (fold_builtin_next_arg (*expr_p, true))
2291             {
2292               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2293               return GS_OK;
2294             }
2295         }
2296     }
2297
2298   /* There is a sequence point before the call, so any side effects in
2299      the calling expression must occur before the actual call.  Force
2300      gimplify_expr to use an internal post queue.  */
2301   ret = gimplify_expr (&CALL_EXPR_FN (*expr_p), pre_p, NULL,
2302                        is_gimple_call_addr, fb_rvalue);
2303
2304   nargs = call_expr_nargs (*expr_p);
2305
2306   /* Get argument types for verification.  */
2307   fndecl = get_callee_fndecl (*expr_p);
2308   parms = NULL_TREE;
2309   if (fndecl)
2310     parms = TYPE_ARG_TYPES (TREE_TYPE (fndecl));
2311   else if (POINTER_TYPE_P (TREE_TYPE (CALL_EXPR_FN (*expr_p))))
2312     parms = TYPE_ARG_TYPES (TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (*expr_p))));
2313
2314   if (fndecl && DECL_ARGUMENTS (fndecl))
2315     p = DECL_ARGUMENTS (fndecl);
2316   else if (parms)
2317     p = parms;
2318   else
2319     p = NULL_TREE;
2320   for (i = 0; i < nargs && p; i++, p = TREE_CHAIN (p))
2321     ;
2322
2323   /* If the last argument is __builtin_va_arg_pack () and it is not
2324      passed as a named argument, decrease the number of CALL_EXPR
2325      arguments and set instead the CALL_EXPR_VA_ARG_PACK flag.  */
2326   if (!p
2327       && i < nargs
2328       && TREE_CODE (CALL_EXPR_ARG (*expr_p, nargs - 1)) == CALL_EXPR)
2329     {
2330       tree last_arg = CALL_EXPR_ARG (*expr_p, nargs - 1);
2331       tree last_arg_fndecl = get_callee_fndecl (last_arg);
2332
2333       if (last_arg_fndecl
2334           && TREE_CODE (last_arg_fndecl) == FUNCTION_DECL
2335           && DECL_BUILT_IN_CLASS (last_arg_fndecl) == BUILT_IN_NORMAL
2336           && DECL_FUNCTION_CODE (last_arg_fndecl) == BUILT_IN_VA_ARG_PACK)
2337         {
2338           tree call = *expr_p;
2339
2340           --nargs;
2341           *expr_p = build_call_array_loc (loc, TREE_TYPE (call),
2342                                           CALL_EXPR_FN (call),
2343                                           nargs, CALL_EXPR_ARGP (call));
2344
2345           /* Copy all CALL_EXPR flags, location and block, except
2346              CALL_EXPR_VA_ARG_PACK flag.  */
2347           CALL_EXPR_STATIC_CHAIN (*expr_p) = CALL_EXPR_STATIC_CHAIN (call);
2348           CALL_EXPR_TAILCALL (*expr_p) = CALL_EXPR_TAILCALL (call);
2349           CALL_EXPR_RETURN_SLOT_OPT (*expr_p)
2350             = CALL_EXPR_RETURN_SLOT_OPT (call);
2351           CALL_FROM_THUNK_P (*expr_p) = CALL_FROM_THUNK_P (call);
2352           CALL_CANNOT_INLINE_P (*expr_p) = CALL_CANNOT_INLINE_P (call);
2353           SET_EXPR_LOCATION (*expr_p, EXPR_LOCATION (call));
2354           TREE_BLOCK (*expr_p) = TREE_BLOCK (call);
2355
2356           /* Set CALL_EXPR_VA_ARG_PACK.  */
2357           CALL_EXPR_VA_ARG_PACK (*expr_p) = 1;
2358         }
2359     }
2360
2361   /* Finally, gimplify the function arguments.  */
2362   if (nargs > 0)
2363     {
2364       for (i = (PUSH_ARGS_REVERSED ? nargs - 1 : 0);
2365            PUSH_ARGS_REVERSED ? i >= 0 : i < nargs;
2366            PUSH_ARGS_REVERSED ? i-- : i++)
2367         {
2368           enum gimplify_status t;
2369
2370           /* Avoid gimplifying the second argument to va_start, which needs to
2371              be the plain PARM_DECL.  */
2372           if ((i != 1) || !builtin_va_start_p)
2373             {
2374               t = gimplify_arg (&CALL_EXPR_ARG (*expr_p, i), pre_p,
2375                                 EXPR_LOCATION (*expr_p));
2376
2377               if (t == GS_ERROR)
2378                 ret = GS_ERROR;
2379             }
2380         }
2381     }
2382
2383   /* Verify the function result.  */
2384   if (want_value && fndecl
2385       && VOID_TYPE_P (TREE_TYPE (TREE_TYPE (fndecl))))
2386     {
2387       error_at (loc, "using result of function returning %<void%>");
2388       ret = GS_ERROR;
2389     }
2390
2391   /* Try this again in case gimplification exposed something.  */
2392   if (ret != GS_ERROR)
2393     {
2394       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2395
2396       if (new_tree && new_tree != *expr_p)
2397         {
2398           /* There was a transformation of this call which computes the
2399              same value, but in a more efficient way.  Return and try
2400              again.  */
2401           *expr_p = new_tree;
2402           return GS_OK;
2403         }
2404     }
2405   else
2406     {
2407       *expr_p = error_mark_node;
2408       return GS_ERROR;
2409     }
2410
2411   /* If the function is "const" or "pure", then clear TREE_SIDE_EFFECTS on its
2412      decl.  This allows us to eliminate redundant or useless
2413      calls to "const" functions.  */
2414   if (TREE_CODE (*expr_p) == CALL_EXPR)
2415     {
2416       int flags = call_expr_flags (*expr_p);
2417       if (flags & (ECF_CONST | ECF_PURE)
2418           /* An infinite loop is considered a side effect.  */
2419           && !(flags & (ECF_LOOPING_CONST_OR_PURE)))
2420         TREE_SIDE_EFFECTS (*expr_p) = 0;
2421     }
2422
2423   /* If the value is not needed by the caller, emit a new GIMPLE_CALL
2424      and clear *EXPR_P.  Otherwise, leave *EXPR_P in its gimplified
2425      form and delegate the creation of a GIMPLE_CALL to
2426      gimplify_modify_expr.  This is always possible because when
2427      WANT_VALUE is true, the caller wants the result of this call into
2428      a temporary, which means that we will emit an INIT_EXPR in
2429      internal_get_tmp_var which will then be handled by
2430      gimplify_modify_expr.  */
2431   if (!want_value)
2432     {
2433       /* The CALL_EXPR in *EXPR_P is already in GIMPLE form, so all we
2434          have to do is replicate it as a GIMPLE_CALL tuple.  */
2435       call = gimple_build_call_from_tree (*expr_p);
2436       gimplify_seq_add_stmt (pre_p, call);
2437       *expr_p = NULL_TREE;
2438     }
2439
2440   return ret;
2441 }
2442
2443 /* Handle shortcut semantics in the predicate operand of a COND_EXPR by
2444    rewriting it into multiple COND_EXPRs, and possibly GOTO_EXPRs.
2445
2446    TRUE_LABEL_P and FALSE_LABEL_P point to the labels to jump to if the
2447    condition is true or false, respectively.  If null, we should generate
2448    our own to skip over the evaluation of this specific expression.
2449
2450    LOCUS is the source location of the COND_EXPR.
2451
2452    This function is the tree equivalent of do_jump.
2453
2454    shortcut_cond_r should only be called by shortcut_cond_expr.  */
2455
2456 static tree
2457 shortcut_cond_r (tree pred, tree *true_label_p, tree *false_label_p,
2458                  location_t locus)
2459 {
2460   tree local_label = NULL_TREE;
2461   tree t, expr = NULL;
2462
2463   /* OK, it's not a simple case; we need to pull apart the COND_EXPR to
2464      retain the shortcut semantics.  Just insert the gotos here;
2465      shortcut_cond_expr will append the real blocks later.  */
2466   if (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2467     {
2468       location_t new_locus;
2469
2470       /* Turn if (a && b) into
2471
2472          if (a); else goto no;
2473          if (b) goto yes; else goto no;
2474          (no:) */
2475
2476       if (false_label_p == NULL)
2477         false_label_p = &local_label;
2478
2479       /* Keep the original source location on the first 'if'.  */
2480       t = shortcut_cond_r (TREE_OPERAND (pred, 0), NULL, false_label_p, locus);
2481       append_to_statement_list (t, &expr);
2482
2483       /* Set the source location of the && on the second 'if'.  */
2484       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2485       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2486                            new_locus);
2487       append_to_statement_list (t, &expr);
2488     }
2489   else if (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2490     {
2491       location_t new_locus;
2492
2493       /* Turn if (a || b) into
2494
2495          if (a) goto yes;
2496          if (b) goto yes; else goto no;
2497          (yes:) */
2498
2499       if (true_label_p == NULL)
2500         true_label_p = &local_label;
2501
2502       /* Keep the original source location on the first 'if'.  */
2503       t = shortcut_cond_r (TREE_OPERAND (pred, 0), true_label_p, NULL, locus);
2504       append_to_statement_list (t, &expr);
2505
2506       /* Set the source location of the || on the second 'if'.  */
2507       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2508       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2509                            new_locus);
2510       append_to_statement_list (t, &expr);
2511     }
2512   else if (TREE_CODE (pred) == COND_EXPR)
2513     {
2514       location_t new_locus;
2515
2516       /* As long as we're messing with gotos, turn if (a ? b : c) into
2517          if (a)
2518            if (b) goto yes; else goto no;
2519          else
2520            if (c) goto yes; else goto no;  */
2521
2522       /* Keep the original source location on the first 'if'.  Set the source
2523          location of the ? on the second 'if'.  */
2524       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2525       expr = build3 (COND_EXPR, void_type_node, TREE_OPERAND (pred, 0),
2526                      shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p,
2527                                       false_label_p, locus),
2528                      shortcut_cond_r (TREE_OPERAND (pred, 2), true_label_p,
2529                                       false_label_p, new_locus));
2530     }
2531   else
2532     {
2533       expr = build3 (COND_EXPR, void_type_node, pred,
2534                      build_and_jump (true_label_p),
2535                      build_and_jump (false_label_p));
2536       SET_EXPR_LOCATION (expr, locus);
2537     }
2538
2539   if (local_label)
2540     {
2541       t = build1 (LABEL_EXPR, void_type_node, local_label);
2542       append_to_statement_list (t, &expr);
2543     }
2544
2545   return expr;
2546 }
2547
2548 /* Given a conditional expression EXPR with short-circuit boolean
2549    predicates using TRUTH_ANDIF_EXPR or TRUTH_ORIF_EXPR, break the
2550    predicate appart into the equivalent sequence of conditionals.  */
2551
2552 static tree
2553 shortcut_cond_expr (tree expr)
2554 {
2555   tree pred = TREE_OPERAND (expr, 0);
2556   tree then_ = TREE_OPERAND (expr, 1);
2557   tree else_ = TREE_OPERAND (expr, 2);
2558   tree true_label, false_label, end_label, t;
2559   tree *true_label_p;
2560   tree *false_label_p;
2561   bool emit_end, emit_false, jump_over_else;
2562   bool then_se = then_ && TREE_SIDE_EFFECTS (then_);
2563   bool else_se = else_ && TREE_SIDE_EFFECTS (else_);
2564
2565   /* First do simple transformations.  */
2566   if (!else_se)
2567     {
2568       /* If there is no 'else', turn
2569            if (a && b) then c
2570          into
2571            if (a) if (b) then c.  */
2572       while (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2573         {
2574           /* Keep the original source location on the first 'if'.  */
2575           location_t locus = EXPR_HAS_LOCATION (expr)
2576                              ? EXPR_LOCATION (expr) : input_location;
2577           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2578           /* Set the source location of the && on the second 'if'.  */
2579           if (EXPR_HAS_LOCATION (pred))
2580             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2581           then_ = shortcut_cond_expr (expr);
2582           then_se = then_ && TREE_SIDE_EFFECTS (then_);
2583           pred = TREE_OPERAND (pred, 0);
2584           expr = build3 (COND_EXPR, void_type_node, pred, then_, NULL_TREE);
2585           SET_EXPR_LOCATION (expr, locus);
2586         }
2587     }
2588
2589   if (!then_se)
2590     {
2591       /* If there is no 'then', turn
2592            if (a || b); else d
2593          into
2594            if (a); else if (b); else d.  */
2595       while (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2596         {
2597           /* Keep the original source location on the first 'if'.  */
2598           location_t locus = EXPR_HAS_LOCATION (expr)
2599                              ? EXPR_LOCATION (expr) : input_location;
2600           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2601           /* Set the source location of the || on the second 'if'.  */
2602           if (EXPR_HAS_LOCATION (pred))
2603             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2604           else_ = shortcut_cond_expr (expr);
2605           else_se = else_ && TREE_SIDE_EFFECTS (else_);
2606           pred = TREE_OPERAND (pred, 0);
2607           expr = build3 (COND_EXPR, void_type_node, pred, NULL_TREE, else_);
2608           SET_EXPR_LOCATION (expr, locus);
2609         }
2610     }
2611
2612   /* If we're done, great.  */
2613   if (TREE_CODE (pred) != TRUTH_ANDIF_EXPR
2614       && TREE_CODE (pred) != TRUTH_ORIF_EXPR)
2615     return expr;
2616
2617   /* Otherwise we need to mess with gotos.  Change
2618        if (a) c; else d;
2619      to
2620        if (a); else goto no;
2621        c; goto end;
2622        no: d; end:
2623      and recursively gimplify the condition.  */
2624
2625   true_label = false_label = end_label = NULL_TREE;
2626
2627   /* If our arms just jump somewhere, hijack those labels so we don't
2628      generate jumps to jumps.  */
2629
2630   if (then_
2631       && TREE_CODE (then_) == GOTO_EXPR
2632       && TREE_CODE (GOTO_DESTINATION (then_)) == LABEL_DECL)
2633     {
2634       true_label = GOTO_DESTINATION (then_);
2635       then_ = NULL;
2636       then_se = false;
2637     }
2638
2639   if (else_
2640       && TREE_CODE (else_) == GOTO_EXPR
2641       && TREE_CODE (GOTO_DESTINATION (else_)) == LABEL_DECL)
2642     {
2643       false_label = GOTO_DESTINATION (else_);
2644       else_ = NULL;
2645       else_se = false;
2646     }
2647
2648   /* If we aren't hijacking a label for the 'then' branch, it falls through.  */
2649   if (true_label)
2650     true_label_p = &true_label;
2651   else
2652     true_label_p = NULL;
2653
2654   /* The 'else' branch also needs a label if it contains interesting code.  */
2655   if (false_label || else_se)
2656     false_label_p = &false_label;
2657   else
2658     false_label_p = NULL;
2659
2660   /* If there was nothing else in our arms, just forward the label(s).  */
2661   if (!then_se && !else_se)
2662     return shortcut_cond_r (pred, true_label_p, false_label_p,
2663                             EXPR_HAS_LOCATION (expr)
2664                             ? EXPR_LOCATION (expr) : input_location);
2665
2666   /* If our last subexpression already has a terminal label, reuse it.  */
2667   if (else_se)
2668     t = expr_last (else_);
2669   else if (then_se)
2670     t = expr_last (then_);
2671   else
2672     t = NULL;
2673   if (t && TREE_CODE (t) == LABEL_EXPR)
2674     end_label = LABEL_EXPR_LABEL (t);
2675
2676   /* If we don't care about jumping to the 'else' branch, jump to the end
2677      if the condition is false.  */
2678   if (!false_label_p)
2679     false_label_p = &end_label;
2680
2681   /* We only want to emit these labels if we aren't hijacking them.  */
2682   emit_end = (end_label == NULL_TREE);
2683   emit_false = (false_label == NULL_TREE);
2684
2685   /* We only emit the jump over the else clause if we have to--if the
2686      then clause may fall through.  Otherwise we can wind up with a
2687      useless jump and a useless label at the end of gimplified code,
2688      which will cause us to think that this conditional as a whole
2689      falls through even if it doesn't.  If we then inline a function
2690      which ends with such a condition, that can cause us to issue an
2691      inappropriate warning about control reaching the end of a
2692      non-void function.  */
2693   jump_over_else = block_may_fallthru (then_);
2694
2695   pred = shortcut_cond_r (pred, true_label_p, false_label_p,
2696                           EXPR_HAS_LOCATION (expr)
2697                           ? EXPR_LOCATION (expr) : input_location);
2698
2699   expr = NULL;
2700   append_to_statement_list (pred, &expr);
2701
2702   append_to_statement_list (then_, &expr);
2703   if (else_se)
2704     {
2705       if (jump_over_else)
2706         {
2707           tree last = expr_last (expr);
2708           t = build_and_jump (&end_label);
2709           if (EXPR_HAS_LOCATION (last))
2710             SET_EXPR_LOCATION (t, EXPR_LOCATION (last));
2711           append_to_statement_list (t, &expr);
2712         }
2713       if (emit_false)
2714         {
2715           t = build1 (LABEL_EXPR, void_type_node, false_label);
2716           append_to_statement_list (t, &expr);
2717         }
2718       append_to_statement_list (else_, &expr);
2719     }
2720   if (emit_end && end_label)
2721     {
2722       t = build1 (LABEL_EXPR, void_type_node, end_label);
2723       append_to_statement_list (t, &expr);
2724     }
2725
2726   return expr;
2727 }
2728
2729 /* EXPR is used in a boolean context; make sure it has BOOLEAN_TYPE.  */
2730
2731 tree
2732 gimple_boolify (tree expr)
2733 {
2734   tree type = TREE_TYPE (expr);
2735   location_t loc = EXPR_LOCATION (expr);
2736
2737   if (TREE_CODE (expr) == NE_EXPR
2738       && TREE_CODE (TREE_OPERAND (expr, 0)) == CALL_EXPR
2739       && integer_zerop (TREE_OPERAND (expr, 1)))
2740     {
2741       tree call = TREE_OPERAND (expr, 0);
2742       tree fn = get_callee_fndecl (call);
2743
2744       /* For __builtin_expect ((long) (x), y) recurse into x as well
2745          if x is truth_value_p.  */
2746       if (fn
2747           && DECL_BUILT_IN_CLASS (fn) == BUILT_IN_NORMAL
2748           && DECL_FUNCTION_CODE (fn) == BUILT_IN_EXPECT
2749           && call_expr_nargs (call) == 2)
2750         {
2751           tree arg = CALL_EXPR_ARG (call, 0);
2752           if (arg)
2753             {
2754               if (TREE_CODE (arg) == NOP_EXPR
2755                   && TREE_TYPE (arg) == TREE_TYPE (call))
2756                 arg = TREE_OPERAND (arg, 0);
2757               if (truth_value_p (TREE_CODE (arg)))
2758                 {
2759                   arg = gimple_boolify (arg);
2760                   CALL_EXPR_ARG (call, 0)
2761                     = fold_convert_loc (loc, TREE_TYPE (call), arg);
2762                 }
2763             }
2764         }
2765     }
2766
2767   if (TREE_CODE (type) == BOOLEAN_TYPE)
2768     return expr;
2769
2770   switch (TREE_CODE (expr))
2771     {
2772     case TRUTH_AND_EXPR:
2773     case TRUTH_OR_EXPR:
2774     case TRUTH_XOR_EXPR:
2775     case TRUTH_ANDIF_EXPR:
2776     case TRUTH_ORIF_EXPR:
2777       /* Also boolify the arguments of truth exprs.  */
2778       TREE_OPERAND (expr, 1) = gimple_boolify (TREE_OPERAND (expr, 1));
2779       /* FALLTHRU */
2780
2781     case TRUTH_NOT_EXPR:
2782       TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
2783       /* FALLTHRU */
2784
2785     case EQ_EXPR: case NE_EXPR:
2786     case LE_EXPR: case GE_EXPR: case LT_EXPR: case GT_EXPR:
2787       /* These expressions always produce boolean results.  */
2788       TREE_TYPE (expr) = boolean_type_node;
2789       return expr;
2790
2791     default:
2792       /* Other expressions that get here must have boolean values, but
2793          might need to be converted to the appropriate mode.  */
2794       return fold_convert_loc (loc, boolean_type_node, expr);
2795     }
2796 }
2797
2798 /* Given a conditional expression *EXPR_P without side effects, gimplify
2799    its operands.  New statements are inserted to PRE_P.  */
2800
2801 static enum gimplify_status
2802 gimplify_pure_cond_expr (tree *expr_p, gimple_seq *pre_p)
2803 {
2804   tree expr = *expr_p, cond;
2805   enum gimplify_status ret, tret;
2806   enum tree_code code;
2807
2808   cond = gimple_boolify (COND_EXPR_COND (expr));
2809
2810   /* We need to handle && and || specially, as their gimplification
2811      creates pure cond_expr, thus leading to an infinite cycle otherwise.  */
2812   code = TREE_CODE (cond);
2813   if (code == TRUTH_ANDIF_EXPR)
2814     TREE_SET_CODE (cond, TRUTH_AND_EXPR);
2815   else if (code == TRUTH_ORIF_EXPR)
2816     TREE_SET_CODE (cond, TRUTH_OR_EXPR);
2817   ret = gimplify_expr (&cond, pre_p, NULL, is_gimple_condexpr, fb_rvalue);
2818   COND_EXPR_COND (*expr_p) = cond;
2819
2820   tret = gimplify_expr (&COND_EXPR_THEN (expr), pre_p, NULL,
2821                                    is_gimple_val, fb_rvalue);
2822   ret = MIN (ret, tret);
2823   tret = gimplify_expr (&COND_EXPR_ELSE (expr), pre_p, NULL,
2824                                    is_gimple_val, fb_rvalue);
2825
2826   return MIN (ret, tret);
2827 }
2828
2829 /* Returns true if evaluating EXPR could trap.
2830    EXPR is GENERIC, while tree_could_trap_p can be called
2831    only on GIMPLE.  */
2832
2833 static bool
2834 generic_expr_could_trap_p (tree expr)
2835 {
2836   unsigned i, n;
2837
2838   if (!expr || is_gimple_val (expr))
2839     return false;
2840
2841   if (!EXPR_P (expr) || tree_could_trap_p (expr))
2842     return true;
2843
2844   n = TREE_OPERAND_LENGTH (expr);
2845   for (i = 0; i < n; i++)
2846     if (generic_expr_could_trap_p (TREE_OPERAND (expr, i)))
2847       return true;
2848
2849   return false;
2850 }
2851
2852 /*  Convert the conditional expression pointed to by EXPR_P '(p) ? a : b;'
2853     into
2854
2855     if (p)                      if (p)
2856       t1 = a;                     a;
2857     else                or      else
2858       t1 = b;                     b;
2859     t1;
2860
2861     The second form is used when *EXPR_P is of type void.
2862
2863     PRE_P points to the list where side effects that must happen before
2864       *EXPR_P should be stored.  */
2865
2866 static enum gimplify_status
2867 gimplify_cond_expr (tree *expr_p, gimple_seq *pre_p, fallback_t fallback)
2868 {
2869   tree expr = *expr_p;
2870   tree type = TREE_TYPE (expr);
2871   location_t loc = EXPR_LOCATION (expr);
2872   tree tmp, arm1, arm2;
2873   enum gimplify_status ret;
2874   tree label_true, label_false, label_cont;
2875   bool have_then_clause_p, have_else_clause_p;
2876   gimple gimple_cond;
2877   enum tree_code pred_code;
2878   gimple_seq seq = NULL;
2879
2880   /* If this COND_EXPR has a value, copy the values into a temporary within
2881      the arms.  */
2882   if (!VOID_TYPE_P (type))
2883     {
2884       tree then_ = TREE_OPERAND (expr, 1), else_ = TREE_OPERAND (expr, 2);
2885       tree result;
2886
2887       /* If either an rvalue is ok or we do not require an lvalue, create the
2888          temporary.  But we cannot do that if the type is addressable.  */
2889       if (((fallback & fb_rvalue) || !(fallback & fb_lvalue))
2890           && !TREE_ADDRESSABLE (type))
2891         {
2892           if (gimplify_ctxp->allow_rhs_cond_expr
2893               /* If either branch has side effects or could trap, it can't be
2894                  evaluated unconditionally.  */
2895               && !TREE_SIDE_EFFECTS (then_)
2896               && !generic_expr_could_trap_p (then_)
2897               && !TREE_SIDE_EFFECTS (else_)
2898               && !generic_expr_could_trap_p (else_))
2899             return gimplify_pure_cond_expr (expr_p, pre_p);
2900
2901           tmp = create_tmp_var (type, "iftmp");
2902           result = tmp;
2903         }
2904
2905       /* Otherwise, only create and copy references to the values.  */
2906       else
2907         {
2908           type = build_pointer_type (type);
2909
2910           if (!VOID_TYPE_P (TREE_TYPE (then_)))
2911             then_ = build_fold_addr_expr_loc (loc, then_);
2912
2913           if (!VOID_TYPE_P (TREE_TYPE (else_)))
2914             else_ = build_fold_addr_expr_loc (loc, else_);
2915  
2916           expr
2917             = build3 (COND_EXPR, type, TREE_OPERAND (expr, 0), then_, else_);
2918
2919           tmp = create_tmp_var (type, "iftmp");
2920           result = build_fold_indirect_ref_loc (loc, tmp);
2921         }
2922
2923       /* Build the new then clause, `tmp = then_;'.  But don't build the
2924          assignment if the value is void; in C++ it can be if it's a throw.  */
2925       if (!VOID_TYPE_P (TREE_TYPE (then_)))
2926         TREE_OPERAND (expr, 1) = build2 (MODIFY_EXPR, type, tmp, then_);
2927
2928       /* Similarly, build the new else clause, `tmp = else_;'.  */
2929       if (!VOID_TYPE_P (TREE_TYPE (else_)))
2930         TREE_OPERAND (expr, 2) = build2 (MODIFY_EXPR, type, tmp, else_);
2931
2932       TREE_TYPE (expr) = void_type_node;
2933       recalculate_side_effects (expr);
2934
2935       /* Move the COND_EXPR to the prequeue.  */
2936       gimplify_stmt (&expr, pre_p);
2937
2938       *expr_p = result;
2939       return GS_ALL_DONE;
2940     }
2941
2942   /* Make sure the condition has BOOLEAN_TYPE.  */
2943   TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
2944
2945   /* Break apart && and || conditions.  */
2946   if (TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ANDIF_EXPR
2947       || TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ORIF_EXPR)
2948     {
2949       expr = shortcut_cond_expr (expr);
2950
2951       if (expr != *expr_p)
2952         {
2953           *expr_p = expr;
2954
2955           /* We can't rely on gimplify_expr to re-gimplify the expanded
2956              form properly, as cleanups might cause the target labels to be
2957              wrapped in a TRY_FINALLY_EXPR.  To prevent that, we need to
2958              set up a conditional context.  */
2959           gimple_push_condition ();
2960           gimplify_stmt (expr_p, &seq);
2961           gimple_pop_condition (pre_p);
2962           gimple_seq_add_seq (pre_p, seq);
2963
2964           return GS_ALL_DONE;
2965         }
2966     }
2967
2968   /* Now do the normal gimplification.  */
2969
2970   /* Gimplify condition.  */
2971   ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, NULL, is_gimple_condexpr,
2972                        fb_rvalue);
2973   if (ret == GS_ERROR)
2974     return GS_ERROR;
2975   gcc_assert (TREE_OPERAND (expr, 0) != NULL_TREE);
2976
2977   gimple_push_condition ();
2978
2979   have_then_clause_p = have_else_clause_p = false;
2980   if (TREE_OPERAND (expr, 1) != NULL
2981       && TREE_CODE (TREE_OPERAND (expr, 1)) == GOTO_EXPR
2982       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 1))) == LABEL_DECL
2983       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 1)))
2984           == current_function_decl)
2985       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
2986          have different locations, otherwise we end up with incorrect
2987          location information on the branches.  */
2988       && (optimize
2989           || !EXPR_HAS_LOCATION (expr)
2990           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 1))
2991           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 1))))
2992     {
2993       label_true = GOTO_DESTINATION (TREE_OPERAND (expr, 1));
2994       have_then_clause_p = true;
2995     }
2996   else
2997     label_true = create_artificial_label (UNKNOWN_LOCATION);
2998   if (TREE_OPERAND (expr, 2) != NULL
2999       && TREE_CODE (TREE_OPERAND (expr, 2)) == GOTO_EXPR
3000       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 2))) == LABEL_DECL
3001       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 2)))
3002           == current_function_decl)
3003       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
3004          have different locations, otherwise we end up with incorrect
3005          location information on the branches.  */
3006       && (optimize
3007           || !EXPR_HAS_LOCATION (expr)
3008           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 2))
3009           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 2))))
3010     {
3011       label_false = GOTO_DESTINATION (TREE_OPERAND (expr, 2));
3012       have_else_clause_p = true;
3013     }
3014   else
3015     label_false = create_artificial_label (UNKNOWN_LOCATION);
3016
3017   gimple_cond_get_ops_from_tree (COND_EXPR_COND (expr), &pred_code, &arm1,
3018                                  &arm2);
3019
3020   gimple_cond = gimple_build_cond (pred_code, arm1, arm2, label_true,
3021                                    label_false);
3022
3023   gimplify_seq_add_stmt (&seq, gimple_cond);
3024   label_cont = NULL_TREE;
3025   if (!have_then_clause_p)
3026     {
3027       /* For if (...) {} else { code; } put label_true after
3028          the else block.  */
3029       if (TREE_OPERAND (expr, 1) == NULL_TREE
3030           && !have_else_clause_p
3031           && TREE_OPERAND (expr, 2) != NULL_TREE)
3032         label_cont = label_true;
3033       else
3034         {
3035           gimplify_seq_add_stmt (&seq, gimple_build_label (label_true));
3036           have_then_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 1), &seq);
3037           /* For if (...) { code; } else {} or
3038              if (...) { code; } else goto label; or
3039              if (...) { code; return; } else { ... }
3040              label_cont isn't needed.  */
3041           if (!have_else_clause_p
3042               && TREE_OPERAND (expr, 2) != NULL_TREE
3043               && gimple_seq_may_fallthru (seq))
3044             {
3045               gimple g;
3046               label_cont = create_artificial_label (UNKNOWN_LOCATION);
3047
3048               g = gimple_build_goto (label_cont);
3049
3050               /* GIMPLE_COND's are very low level; they have embedded
3051                  gotos.  This particular embedded goto should not be marked
3052                  with the location of the original COND_EXPR, as it would
3053                  correspond to the COND_EXPR's condition, not the ELSE or the
3054                  THEN arms.  To avoid marking it with the wrong location, flag
3055                  it as "no location".  */
3056               gimple_set_do_not_emit_location (g);
3057
3058               gimplify_seq_add_stmt (&seq, g);
3059             }
3060         }
3061     }
3062   if (!have_else_clause_p)
3063     {
3064       gimplify_seq_add_stmt (&seq, gimple_build_label (label_false));
3065       have_else_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 2), &seq);
3066     }
3067   if (label_cont)
3068     gimplify_seq_add_stmt (&seq, gimple_build_label (label_cont));
3069
3070   gimple_pop_condition (pre_p);
3071   gimple_seq_add_seq (pre_p, seq);
3072
3073   if (ret == GS_ERROR)
3074     ; /* Do nothing.  */
3075   else if (have_then_clause_p || have_else_clause_p)
3076     ret = GS_ALL_DONE;
3077   else
3078     {
3079       /* Both arms are empty; replace the COND_EXPR with its predicate.  */
3080       expr = TREE_OPERAND (expr, 0);
3081       gimplify_stmt (&expr, pre_p);
3082     }
3083
3084   *expr_p = NULL;
3085   return ret;
3086 }
3087
3088 /* Prepare the node pointed to by EXPR_P, an is_gimple_addressable expression,
3089    to be marked addressable.
3090
3091    We cannot rely on such an expression being directly markable if a temporary
3092    has been created by the gimplification.  In this case, we create another
3093    temporary and initialize it with a copy, which will become a store after we
3094    mark it addressable.  This can happen if the front-end passed us something
3095    that it could not mark addressable yet, like a Fortran pass-by-reference
3096    parameter (int) floatvar.  */
3097
3098 static void
3099 prepare_gimple_addressable (tree *expr_p, gimple_seq *seq_p)
3100 {
3101   while (handled_component_p (*expr_p))
3102     expr_p = &TREE_OPERAND (*expr_p, 0);
3103   if (is_gimple_reg (*expr_p))
3104     *expr_p = get_initialized_tmp_var (*expr_p, seq_p, NULL);
3105 }
3106
3107 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3108    a call to __builtin_memcpy.  */
3109
3110 static enum gimplify_status
3111 gimplify_modify_expr_to_memcpy (tree *expr_p, tree size, bool want_value,
3112                                 gimple_seq *seq_p)
3113 {
3114   tree t, to, to_ptr, from, from_ptr;
3115   gimple gs;
3116   location_t loc = EXPR_LOCATION (*expr_p);
3117
3118   to = TREE_OPERAND (*expr_p, 0);
3119   from = TREE_OPERAND (*expr_p, 1);
3120
3121   /* Mark the RHS addressable.  Beware that it may not be possible to do so
3122      directly if a temporary has been created by the gimplification.  */
3123   prepare_gimple_addressable (&from, seq_p);
3124
3125   mark_addressable (from);
3126   from_ptr = build_fold_addr_expr_loc (loc, from);
3127   gimplify_arg (&from_ptr, seq_p, loc);
3128
3129   mark_addressable (to);
3130   to_ptr = build_fold_addr_expr_loc (loc, to);
3131   gimplify_arg (&to_ptr, seq_p, loc);
3132
3133   t = implicit_built_in_decls[BUILT_IN_MEMCPY];
3134
3135   gs = gimple_build_call (t, 3, to_ptr, from_ptr, size);
3136
3137   if (want_value)
3138     {
3139       /* tmp = memcpy() */
3140       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3141       gimple_call_set_lhs (gs, t);
3142       gimplify_seq_add_stmt (seq_p, gs);
3143
3144       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (to), t);
3145       return GS_ALL_DONE;
3146     }
3147
3148   gimplify_seq_add_stmt (seq_p, gs);
3149   *expr_p = NULL;
3150   return GS_ALL_DONE;
3151 }
3152
3153 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3154    a call to __builtin_memset.  In this case we know that the RHS is
3155    a CONSTRUCTOR with an empty element list.  */
3156
3157 static enum gimplify_status
3158 gimplify_modify_expr_to_memset (tree *expr_p, tree size, bool want_value,
3159                                 gimple_seq *seq_p)
3160 {
3161   tree t, from, to, to_ptr;
3162   gimple gs;
3163   location_t loc = EXPR_LOCATION (*expr_p);
3164
3165   /* Assert our assumptions, to abort instead of producing wrong code
3166      silently if they are not met.  Beware that the RHS CONSTRUCTOR might
3167      not be immediately exposed.  */
3168   from = TREE_OPERAND (*expr_p, 1);
3169   if (TREE_CODE (from) == WITH_SIZE_EXPR)
3170     from = TREE_OPERAND (from, 0);
3171
3172   gcc_assert (TREE_CODE (from) == CONSTRUCTOR
3173               && VEC_empty (constructor_elt, CONSTRUCTOR_ELTS (from)));
3174
3175   /* Now proceed.  */
3176   to = TREE_OPERAND (*expr_p, 0);
3177
3178   to_ptr = build_fold_addr_expr_loc (loc, to);
3179   gimplify_arg (&to_ptr, seq_p, loc);
3180   t = implicit_built_in_decls[BUILT_IN_MEMSET];
3181
3182   gs = gimple_build_call (t, 3, to_ptr, integer_zero_node, size);
3183
3184   if (want_value)
3185     {
3186       /* tmp = memset() */
3187       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3188       gimple_call_set_lhs (gs, t);
3189       gimplify_seq_add_stmt (seq_p, gs);
3190
3191       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (to), t);
3192       return GS_ALL_DONE;
3193     }
3194
3195   gimplify_seq_add_stmt (seq_p, gs);
3196   *expr_p = NULL;
3197   return GS_ALL_DONE;
3198 }
3199
3200 /* A subroutine of gimplify_init_ctor_preeval.  Called via walk_tree,
3201    determine, cautiously, if a CONSTRUCTOR overlaps the lhs of an
3202    assignment.  Returns non-null if we detect a potential overlap.  */
3203
3204 struct gimplify_init_ctor_preeval_data
3205 {
3206   /* The base decl of the lhs object.  May be NULL, in which case we
3207      have to assume the lhs is indirect.  */
3208   tree lhs_base_decl;
3209
3210   /* The alias set of the lhs object.  */
3211   alias_set_type lhs_alias_set;
3212 };
3213
3214 static tree
3215 gimplify_init_ctor_preeval_1 (tree *tp, int *walk_subtrees, void *xdata)
3216 {
3217   struct gimplify_init_ctor_preeval_data *data
3218     = (struct gimplify_init_ctor_preeval_data *) xdata;
3219   tree t = *tp;
3220
3221   /* If we find the base object, obviously we have overlap.  */
3222   if (data->lhs_base_decl == t)
3223     return t;
3224
3225   /* If the constructor component is indirect, determine if we have a
3226      potential overlap with the lhs.  The only bits of information we
3227      have to go on at this point are addressability and alias sets.  */
3228   if (TREE_CODE (t) == INDIRECT_REF
3229       && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3230       && alias_sets_conflict_p (data->lhs_alias_set, get_alias_set (t)))
3231     return t;
3232
3233   /* If the constructor component is a call, determine if it can hide a
3234      potential overlap with the lhs through an INDIRECT_REF like above.  */
3235   if (TREE_CODE (t) == CALL_EXPR)
3236     {
3237       tree type, fntype = TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (t)));
3238
3239       for (type = TYPE_ARG_TYPES (fntype); type; type = TREE_CHAIN (type))
3240         if (POINTER_TYPE_P (TREE_VALUE (type))
3241             && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3242             && alias_sets_conflict_p (data->lhs_alias_set,
3243                                       get_alias_set
3244                                         (TREE_TYPE (TREE_VALUE (type)))))
3245           return t;
3246     }
3247
3248   if (IS_TYPE_OR_DECL_P (t))
3249     *walk_subtrees = 0;
3250   return NULL;
3251 }
3252
3253 /* A subroutine of gimplify_init_constructor.  Pre-evaluate EXPR,
3254    force values that overlap with the lhs (as described by *DATA)
3255    into temporaries.  */
3256
3257 static void
3258 gimplify_init_ctor_preeval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3259                             struct gimplify_init_ctor_preeval_data *data)
3260 {
3261   enum gimplify_status one;
3262
3263   /* If the value is constant, then there's nothing to pre-evaluate.  */
3264   if (TREE_CONSTANT (*expr_p))
3265     {
3266       /* Ensure it does not have side effects, it might contain a reference to
3267          the object we're initializing.  */
3268       gcc_assert (!TREE_SIDE_EFFECTS (*expr_p));
3269       return;
3270     }
3271
3272   /* If the type has non-trivial constructors, we can't pre-evaluate.  */
3273   if (TREE_ADDRESSABLE (TREE_TYPE (*expr_p)))
3274     return;
3275
3276   /* Recurse for nested constructors.  */
3277   if (TREE_CODE (*expr_p) == CONSTRUCTOR)
3278     {
3279       unsigned HOST_WIDE_INT ix;
3280       constructor_elt *ce;
3281       VEC(constructor_elt,gc) *v = CONSTRUCTOR_ELTS (*expr_p);
3282
3283       for (ix = 0; VEC_iterate (constructor_elt, v, ix, ce); ix++)
3284         gimplify_init_ctor_preeval (&ce->value, pre_p, post_p, data);
3285
3286       return;
3287     }
3288
3289   /* If this is a variable sized type, we must remember the size.  */
3290   maybe_with_size_expr (expr_p);
3291
3292   /* Gimplify the constructor element to something appropriate for the rhs
3293      of a MODIFY_EXPR.  Given that we know the LHS is an aggregate, we know
3294      the gimplifier will consider this a store to memory.  Doing this
3295      gimplification now means that we won't have to deal with complicated
3296      language-specific trees, nor trees like SAVE_EXPR that can induce
3297      exponential search behavior.  */
3298   one = gimplify_expr (expr_p, pre_p, post_p, is_gimple_mem_rhs, fb_rvalue);
3299   if (one == GS_ERROR)
3300     {
3301       *expr_p = NULL;
3302       return;
3303     }
3304
3305   /* If we gimplified to a bare decl, we can be sure that it doesn't overlap
3306      with the lhs, since "a = { .x=a }" doesn't make sense.  This will
3307      always be true for all scalars, since is_gimple_mem_rhs insists on a
3308      temporary variable for them.  */
3309   if (DECL_P (*expr_p))
3310     return;
3311
3312   /* If this is of variable size, we have no choice but to assume it doesn't
3313      overlap since we can't make a temporary for it.  */
3314   if (TREE_CODE (TYPE_SIZE (TREE_TYPE (*expr_p))) != INTEGER_CST)
3315     return;
3316
3317   /* Otherwise, we must search for overlap ...  */
3318   if (!walk_tree (expr_p, gimplify_init_ctor_preeval_1, data, NULL))
3319     return;
3320
3321   /* ... and if found, force the value into a temporary.  */
3322   *expr_p = get_formal_tmp_var (*expr_p, pre_p);
3323 }
3324
3325 /* A subroutine of gimplify_init_ctor_eval.  Create a loop for
3326    a RANGE_EXPR in a CONSTRUCTOR for an array.
3327
3328       var = lower;
3329     loop_entry:
3330       object[var] = value;
3331       if (var == upper)
3332         goto loop_exit;
3333       var = var + 1;
3334       goto loop_entry;
3335     loop_exit:
3336
3337    We increment var _after_ the loop exit check because we might otherwise
3338    fail if upper == TYPE_MAX_VALUE (type for upper).
3339
3340    Note that we never have to deal with SAVE_EXPRs here, because this has
3341    already been taken care of for us, in gimplify_init_ctor_preeval().  */
3342
3343 static void gimplify_init_ctor_eval (tree, VEC(constructor_elt,gc) *,
3344                                      gimple_seq *, bool);
3345
3346 static void
3347 gimplify_init_ctor_eval_range (tree object, tree lower, tree upper,
3348                                tree value, tree array_elt_type,
3349                                gimple_seq *pre_p, bool cleared)
3350 {
3351   tree loop_entry_label, loop_exit_label, fall_thru_label;
3352   tree var, var_type, cref, tmp;
3353
3354   loop_entry_label = create_artificial_label (UNKNOWN_LOCATION);
3355   loop_exit_label = create_artificial_label (UNKNOWN_LOCATION);
3356   fall_thru_label = create_artificial_label (UNKNOWN_LOCATION);
3357
3358   /* Create and initialize the index variable.  */
3359   var_type = TREE_TYPE (upper);
3360   var = create_tmp_var (var_type, NULL);
3361   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, lower));
3362
3363   /* Add the loop entry label.  */
3364   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_entry_label));
3365
3366   /* Build the reference.  */
3367   cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3368                  var, NULL_TREE, NULL_TREE);
3369
3370   /* If we are a constructor, just call gimplify_init_ctor_eval to do
3371      the store.  Otherwise just assign value to the reference.  */
3372
3373   if (TREE_CODE (value) == CONSTRUCTOR)
3374     /* NB we might have to call ourself recursively through
3375        gimplify_init_ctor_eval if the value is a constructor.  */
3376     gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3377                              pre_p, cleared);
3378   else
3379     gimplify_seq_add_stmt (pre_p, gimple_build_assign (cref, value));
3380
3381   /* We exit the loop when the index var is equal to the upper bound.  */
3382   gimplify_seq_add_stmt (pre_p,
3383                          gimple_build_cond (EQ_EXPR, var, upper,
3384                                             loop_exit_label, fall_thru_label));
3385
3386   gimplify_seq_add_stmt (pre_p, gimple_build_label (fall_thru_label));
3387
3388   /* Otherwise, increment the index var...  */
3389   tmp = build2 (PLUS_EXPR, var_type, var,
3390                 fold_convert (var_type, integer_one_node));
3391   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, tmp));
3392
3393   /* ...and jump back to the loop entry.  */
3394   gimplify_seq_add_stmt (pre_p, gimple_build_goto (loop_entry_label));
3395
3396   /* Add the loop exit label.  */
3397   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_exit_label));
3398 }
3399
3400 /* Return true if FDECL is accessing a field that is zero sized.  */
3401
3402 static bool
3403 zero_sized_field_decl (const_tree fdecl)
3404 {
3405   if (TREE_CODE (fdecl) == FIELD_DECL && DECL_SIZE (fdecl)
3406       && integer_zerop (DECL_SIZE (fdecl)))
3407     return true;
3408   return false;
3409 }
3410
3411 /* Return true if TYPE is zero sized.  */
3412
3413 static bool
3414 zero_sized_type (const_tree type)
3415 {
3416   if (AGGREGATE_TYPE_P (type) && TYPE_SIZE (type)
3417       && integer_zerop (TYPE_SIZE (type)))
3418     return true;
3419   return false;
3420 }
3421
3422 /* A subroutine of gimplify_init_constructor.  Generate individual
3423    MODIFY_EXPRs for a CONSTRUCTOR.  OBJECT is the LHS against which the
3424    assignments should happen.  ELTS is the CONSTRUCTOR_ELTS of the
3425    CONSTRUCTOR.  CLEARED is true if the entire LHS object has been
3426    zeroed first.  */
3427
3428 static void
3429 gimplify_init_ctor_eval (tree object, VEC(constructor_elt,gc) *elts,
3430                          gimple_seq *pre_p, bool cleared)
3431 {
3432   tree array_elt_type = NULL;
3433   unsigned HOST_WIDE_INT ix;
3434   tree purpose, value;
3435
3436   if (TREE_CODE (TREE_TYPE (object)) == ARRAY_TYPE)
3437     array_elt_type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (object)));
3438
3439   FOR_EACH_CONSTRUCTOR_ELT (elts, ix, purpose, value)
3440     {
3441       tree cref;
3442
3443       /* NULL values are created above for gimplification errors.  */
3444       if (value == NULL)
3445         continue;
3446
3447       if (cleared && initializer_zerop (value))
3448         continue;
3449
3450       /* ??? Here's to hoping the front end fills in all of the indices,
3451          so we don't have to figure out what's missing ourselves.  */
3452       gcc_assert (purpose);
3453
3454       /* Skip zero-sized fields, unless value has side-effects.  This can
3455          happen with calls to functions returning a zero-sized type, which
3456          we shouldn't discard.  As a number of downstream passes don't
3457          expect sets of zero-sized fields, we rely on the gimplification of
3458          the MODIFY_EXPR we make below to drop the assignment statement.  */
3459       if (! TREE_SIDE_EFFECTS (value) && zero_sized_field_decl (purpose))
3460         continue;
3461
3462       /* If we have a RANGE_EXPR, we have to build a loop to assign the
3463          whole range.  */
3464       if (TREE_CODE (purpose) == RANGE_EXPR)
3465         {
3466           tree lower = TREE_OPERAND (purpose, 0);
3467           tree upper = TREE_OPERAND (purpose, 1);
3468
3469           /* If the lower bound is equal to upper, just treat it as if
3470              upper was the index.  */
3471           if (simple_cst_equal (lower, upper))
3472             purpose = upper;
3473           else
3474             {
3475               gimplify_init_ctor_eval_range (object, lower, upper, value,
3476                                              array_elt_type, pre_p, cleared);
3477               continue;
3478             }
3479         }
3480
3481       if (array_elt_type)
3482         {
3483           /* Do not use bitsizetype for ARRAY_REF indices.  */
3484           if (TYPE_DOMAIN (TREE_TYPE (object)))
3485             purpose = fold_convert (TREE_TYPE (TYPE_DOMAIN (TREE_TYPE (object))),
3486                                     purpose);
3487           cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3488                          purpose, NULL_TREE, NULL_TREE);
3489         }
3490       else
3491         {
3492           gcc_assert (TREE_CODE (purpose) == FIELD_DECL);
3493           cref = build3 (COMPONENT_REF, TREE_TYPE (purpose),
3494                          unshare_expr (object), purpose, NULL_TREE);
3495         }
3496
3497       if (TREE_CODE (value) == CONSTRUCTOR
3498           && TREE_CODE (TREE_TYPE (value)) != VECTOR_TYPE)
3499         gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3500                                  pre_p, cleared);
3501       else
3502         {
3503           tree init = build2 (INIT_EXPR, TREE_TYPE (cref), cref, value);
3504           gimplify_and_add (init, pre_p);
3505           ggc_free (init);
3506         }
3507     }
3508 }
3509
3510
3511 /* Returns the appropriate RHS predicate for this LHS.  */
3512
3513 gimple_predicate
3514 rhs_predicate_for (tree lhs)
3515 {
3516   if (is_gimple_reg (lhs))
3517     return is_gimple_reg_rhs_or_call;
3518   else
3519     return is_gimple_mem_rhs_or_call;
3520 }
3521
3522 /* Gimplify a C99 compound literal expression.  This just means adding
3523    the DECL_EXPR before the current statement and using its anonymous
3524    decl instead.  */
3525
3526 static enum gimplify_status
3527 gimplify_compound_literal_expr (tree *expr_p, gimple_seq *pre_p)
3528 {
3529   tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (*expr_p);
3530   tree decl = DECL_EXPR_DECL (decl_s);
3531   /* Mark the decl as addressable if the compound literal
3532      expression is addressable now, otherwise it is marked too late
3533      after we gimplify the initialization expression.  */
3534   if (TREE_ADDRESSABLE (*expr_p))
3535     TREE_ADDRESSABLE (decl) = 1;
3536
3537   /* Preliminarily mark non-addressed complex variables as eligible
3538      for promotion to gimple registers.  We'll transform their uses
3539      as we find them.  */
3540   if ((TREE_CODE (TREE_TYPE (decl)) == COMPLEX_TYPE
3541        || TREE_CODE (TREE_TYPE (decl)) == VECTOR_TYPE)
3542       && !TREE_THIS_VOLATILE (decl)
3543       && !needs_to_live_in_memory (decl))
3544     DECL_GIMPLE_REG_P (decl) = 1;
3545
3546   /* This decl isn't mentioned in the enclosing block, so add it to the
3547      list of temps.  FIXME it seems a bit of a kludge to say that
3548      anonymous artificial vars aren't pushed, but everything else is.  */
3549   if (DECL_NAME (decl) == NULL_TREE && !DECL_SEEN_IN_BIND_EXPR_P (decl))
3550     gimple_add_tmp_var (decl);
3551
3552   gimplify_and_add (decl_s, pre_p);
3553   *expr_p = decl;
3554   return GS_OK;
3555 }
3556
3557 /* Optimize embedded COMPOUND_LITERAL_EXPRs within a CONSTRUCTOR,
3558    return a new CONSTRUCTOR if something changed.  */
3559
3560 static tree
3561 optimize_compound_literals_in_ctor (tree orig_ctor)
3562 {
3563   tree ctor = orig_ctor;
3564   VEC(constructor_elt,gc) *elts = CONSTRUCTOR_ELTS (ctor);
3565   unsigned int idx, num = VEC_length (constructor_elt, elts);
3566
3567   for (idx = 0; idx < num; idx++)
3568     {
3569       tree value = VEC_index (constructor_elt, elts, idx)->value;
3570       tree newval = value;
3571       if (TREE_CODE (value) == CONSTRUCTOR)
3572         newval = optimize_compound_literals_in_ctor (value);
3573       else if (TREE_CODE (value) == COMPOUND_LITERAL_EXPR)
3574         {
3575           tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (value);
3576           tree decl = DECL_EXPR_DECL (decl_s);
3577           tree init = DECL_INITIAL (decl);
3578
3579           if (!TREE_ADDRESSABLE (value)
3580               && !TREE_ADDRESSABLE (decl)
3581               && init)
3582             newval = optimize_compound_literals_in_ctor (init);
3583         }
3584       if (newval == value)
3585         continue;
3586
3587       if (ctor == orig_ctor)
3588         {
3589           ctor = copy_node (orig_ctor);
3590           CONSTRUCTOR_ELTS (ctor) = VEC_copy (constructor_elt, gc, elts);
3591           elts = CONSTRUCTOR_ELTS (ctor);
3592         }
3593       VEC_index (constructor_elt, elts, idx)->value = newval;
3594     }
3595   return ctor;
3596 }
3597
3598
3599
3600 /* A subroutine of gimplify_modify_expr.  Break out elements of a
3601    CONSTRUCTOR used as an initializer into separate MODIFY_EXPRs.
3602
3603    Note that we still need to clear any elements that don't have explicit
3604    initializers, so if not all elements are initialized we keep the
3605    original MODIFY_EXPR, we just remove all of the constructor elements.
3606
3607    If NOTIFY_TEMP_CREATION is true, do not gimplify, just return
3608    GS_ERROR if we would have to create a temporary when gimplifying
3609    this constructor.  Otherwise, return GS_OK.
3610
3611    If NOTIFY_TEMP_CREATION is false, just do the gimplification.  */
3612
3613 static enum gimplify_status
3614 gimplify_init_constructor (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3615                            bool want_value, bool notify_temp_creation)
3616 {
3617   tree object, ctor, type;
3618   enum gimplify_status ret;
3619   VEC(constructor_elt,gc) *elts;
3620
3621   gcc_assert (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == CONSTRUCTOR);
3622
3623   if (!notify_temp_creation)
3624     {
3625       ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
3626                            is_gimple_lvalue, fb_lvalue);
3627       if (ret == GS_ERROR)
3628         return ret;
3629     }
3630
3631   object = TREE_OPERAND (*expr_p, 0);
3632   ctor = TREE_OPERAND (*expr_p, 1) =
3633     optimize_compound_literals_in_ctor (TREE_OPERAND (*expr_p, 1));
3634   type = TREE_TYPE (ctor);
3635   elts = CONSTRUCTOR_ELTS (ctor);
3636   ret = GS_ALL_DONE;
3637
3638   switch (TREE_CODE (type))
3639     {
3640     case RECORD_TYPE:
3641     case UNION_TYPE:
3642     case QUAL_UNION_TYPE:
3643     case ARRAY_TYPE:
3644       {
3645         struct gimplify_init_ctor_preeval_data preeval_data;
3646         HOST_WIDE_INT num_type_elements, num_ctor_elements;
3647         HOST_WIDE_INT num_nonzero_elements;
3648         bool cleared, valid_const_initializer;
3649
3650         /* Aggregate types must lower constructors to initialization of
3651            individual elements.  The exception is that a CONSTRUCTOR node
3652            with no elements indicates zero-initialization of the whole.  */
3653         if (VEC_empty (constructor_elt, elts))
3654           {
3655             if (notify_temp_creation)
3656               return GS_OK;
3657             break;
3658           }
3659
3660         /* Fetch information about the constructor to direct later processing.
3661            We might want to make static versions of it in various cases, and
3662            can only do so if it known to be a valid constant initializer.  */
3663         valid_const_initializer
3664           = categorize_ctor_elements (ctor, &num_nonzero_elements,
3665                                       &num_ctor_elements, &cleared);
3666
3667         /* If a const aggregate variable is being initialized, then it
3668            should never be a lose to promote the variable to be static.  */
3669         if (valid_const_initializer
3670             && num_nonzero_elements > 1
3671             && TREE_READONLY (object)
3672             && TREE_CODE (object) == VAR_DECL
3673             && (flag_merge_constants >= 2 || !TREE_ADDRESSABLE (object)))
3674           {
3675             if (notify_temp_creation)
3676               return GS_ERROR;
3677             DECL_INITIAL (object) = ctor;
3678             TREE_STATIC (object) = 1;
3679             if (!DECL_NAME (object))
3680               DECL_NAME (object) = create_tmp_var_name ("C");
3681             walk_tree (&DECL_INITIAL (object), force_labels_r, NULL, NULL);
3682
3683             /* ??? C++ doesn't automatically append a .<number> to the
3684                assembler name, and even when it does, it looks a FE private
3685                data structures to figure out what that number should be,
3686                which are not set for this variable.  I suppose this is
3687                important for local statics for inline functions, which aren't
3688                "local" in the object file sense.  So in order to get a unique
3689                TU-local symbol, we must invoke the lhd version now.  */
3690             lhd_set_decl_assembler_name (object);
3691
3692             *expr_p = NULL_TREE;
3693             break;
3694           }
3695
3696         /* If there are "lots" of initialized elements, even discounting
3697            those that are not address constants (and thus *must* be
3698            computed at runtime), then partition the constructor into
3699            constant and non-constant parts.  Block copy the constant
3700            parts in, then generate code for the non-constant parts.  */
3701         /* TODO.  There's code in cp/typeck.c to do this.  */
3702
3703         num_type_elements = count_type_elements (type, true);
3704
3705         /* If count_type_elements could not determine number of type elements
3706            for a constant-sized object, assume clearing is needed.
3707            Don't do this for variable-sized objects, as store_constructor
3708            will ignore the clearing of variable-sized objects.  */
3709         if (num_type_elements < 0 && int_size_in_bytes (type) >= 0)
3710           cleared = true;
3711         /* If there are "lots" of zeros, then block clear the object first.  */
3712         else if (num_type_elements - num_nonzero_elements
3713                  > CLEAR_RATIO (optimize_function_for_speed_p (cfun))
3714                  && num_nonzero_elements < num_type_elements/4)
3715           cleared = true;
3716         /* ??? This bit ought not be needed.  For any element not present
3717            in the initializer, we should simply set them to zero.  Except
3718            we'd need to *find* the elements that are not present, and that
3719            requires trickery to avoid quadratic compile-time behavior in
3720            large cases or excessive memory use in small cases.  */
3721         else if (num_ctor_elements < num_type_elements)
3722           cleared = true;
3723
3724         /* If there are "lots" of initialized elements, and all of them
3725            are valid address constants, then the entire initializer can
3726            be dropped to memory, and then memcpy'd out.  Don't do this
3727            for sparse arrays, though, as it's more efficient to follow
3728            the standard CONSTRUCTOR behavior of memset followed by
3729            individual element initialization.  Also don't do this for small
3730            all-zero initializers (which aren't big enough to merit
3731            clearing), and don't try to make bitwise copies of
3732            TREE_ADDRESSABLE types.  */
3733         if (valid_const_initializer
3734             && !(cleared || num_nonzero_elements == 0)
3735             && !TREE_ADDRESSABLE (type))
3736           {
3737             HOST_WIDE_INT size = int_size_in_bytes (type);
3738             unsigned int align;
3739
3740             /* ??? We can still get unbounded array types, at least
3741                from the C++ front end.  This seems wrong, but attempt
3742                to work around it for now.  */
3743             if (size < 0)
3744               {
3745                 size = int_size_in_bytes (TREE_TYPE (object));
3746                 if (size >= 0)
3747                   TREE_TYPE (ctor) = type = TREE_TYPE (object);
3748               }
3749
3750             /* Find the maximum alignment we can assume for the object.  */
3751             /* ??? Make use of DECL_OFFSET_ALIGN.  */
3752             if (DECL_P (object))
3753               align = DECL_ALIGN (object);
3754             else
3755               align = TYPE_ALIGN (type);
3756
3757             if (size > 0
3758                 && num_nonzero_elements > 1
3759                 && !can_move_by_pieces (size, align))
3760               {
3761                 tree new_tree;
3762
3763                 if (notify_temp_creation)
3764                   return GS_ERROR;
3765
3766                 new_tree = create_tmp_var_raw (type, "C");
3767
3768                 gimple_add_tmp_var (new_tree);
3769                 TREE_STATIC (new_tree) = 1;
3770                 TREE_READONLY (new_tree) = 1;
3771                 DECL_INITIAL (new_tree) = ctor;
3772                 if (align > DECL_ALIGN (new_tree))
3773                   {
3774                     DECL_ALIGN (new_tree) = align;
3775                     DECL_USER_ALIGN (new_tree) = 1;
3776                   }
3777                 walk_tree (&DECL_INITIAL (new_tree), force_labels_r, NULL, NULL);
3778
3779                 TREE_OPERAND (*expr_p, 1) = new_tree;
3780
3781                 /* This is no longer an assignment of a CONSTRUCTOR, but
3782                    we still may have processing to do on the LHS.  So
3783                    pretend we didn't do anything here to let that happen.  */
3784                 return GS_UNHANDLED;
3785               }
3786           }
3787
3788         /* If the target is volatile and we have non-zero elements
3789            initialize the target from a temporary.  */
3790         if (TREE_THIS_VOLATILE (object)
3791             && !TREE_ADDRESSABLE (type)
3792             && num_nonzero_elements > 0)
3793           {
3794             tree temp = create_tmp_var (TYPE_MAIN_VARIANT (type), NULL);
3795             TREE_OPERAND (*expr_p, 0) = temp;
3796             *expr_p = build2 (COMPOUND_EXPR, TREE_TYPE (*expr_p),
3797                               *expr_p,
3798                               build2 (MODIFY_EXPR, void_type_node,
3799                                       object, temp));
3800             return GS_OK;
3801           }
3802
3803         if (notify_temp_creation)
3804           return GS_OK;
3805
3806         /* If there are nonzero elements and if needed, pre-evaluate to capture
3807            elements overlapping with the lhs into temporaries.  We must do this
3808            before clearing to fetch the values before they are zeroed-out.  */
3809         if (num_nonzero_elements > 0 && TREE_CODE (*expr_p) != INIT_EXPR)
3810           {
3811             preeval_data.lhs_base_decl = get_base_address (object);
3812             if (!DECL_P (preeval_data.lhs_base_decl))
3813               preeval_data.lhs_base_decl = NULL;
3814             preeval_data.lhs_alias_set = get_alias_set (object);
3815
3816             gimplify_init_ctor_preeval (&TREE_OPERAND (*expr_p, 1),
3817                                         pre_p, post_p, &preeval_data);
3818           }
3819
3820         if (cleared)
3821           {
3822             /* Zap the CONSTRUCTOR element list, which simplifies this case.
3823                Note that we still have to gimplify, in order to handle the
3824                case of variable sized types.  Avoid shared tree structures.  */
3825             CONSTRUCTOR_ELTS (ctor) = NULL;
3826             TREE_SIDE_EFFECTS (ctor) = 0;
3827             object = unshare_expr (object);
3828             gimplify_stmt (expr_p, pre_p);
3829           }
3830
3831         /* If we have not block cleared the object, or if there are nonzero
3832            elements in the constructor, add assignments to the individual
3833            scalar fields of the object.  */
3834         if (!cleared || num_nonzero_elements > 0)
3835           gimplify_init_ctor_eval (object, elts, pre_p, cleared);
3836
3837         *expr_p = NULL_TREE;
3838       }
3839       break;
3840
3841     case COMPLEX_TYPE:
3842       {
3843         tree r, i;
3844
3845         if (notify_temp_creation)
3846           return GS_OK;
3847
3848         /* Extract the real and imaginary parts out of the ctor.  */
3849         gcc_assert (VEC_length (constructor_elt, elts) == 2);
3850         r = VEC_index (constructor_elt, elts, 0)->value;
3851         i = VEC_index (constructor_elt, elts, 1)->value;
3852         if (r == NULL || i == NULL)
3853           {
3854             tree zero = fold_convert (TREE_TYPE (type), integer_zero_node);
3855             if (r == NULL)
3856               r = zero;
3857             if (i == NULL)
3858               i = zero;
3859           }
3860
3861         /* Complex types have either COMPLEX_CST or COMPLEX_EXPR to
3862            represent creation of a complex value.  */
3863         if (TREE_CONSTANT (r) && TREE_CONSTANT (i))
3864           {
3865             ctor = build_complex (type, r, i);
3866             TREE_OPERAND (*expr_p, 1) = ctor;
3867           }
3868         else
3869           {
3870             ctor = build2 (COMPLEX_EXPR, type, r, i);
3871             TREE_OPERAND (*expr_p, 1) = ctor;
3872             ret = gimplify_expr (&TREE_OPERAND (*expr_p, 1),
3873                                  pre_p,
3874                                  post_p,
3875                                  rhs_predicate_for (TREE_OPERAND (*expr_p, 0)),
3876                                  fb_rvalue);
3877           }
3878       }
3879       break;
3880
3881     case VECTOR_TYPE:
3882       {
3883         unsigned HOST_WIDE_INT ix;
3884         constructor_elt *ce;
3885
3886         if (notify_temp_creation)
3887           return GS_OK;
3888
3889         /* Go ahead and simplify constant constructors to VECTOR_CST.  */
3890         if (TREE_CONSTANT (ctor))
3891           {
3892             bool constant_p = true;
3893             tree value;
3894
3895             /* Even when ctor is constant, it might contain non-*_CST
3896                elements, such as addresses or trapping values like
3897                1.0/0.0 - 1.0/0.0.  Such expressions don't belong
3898                in VECTOR_CST nodes.  */
3899             FOR_EACH_CONSTRUCTOR_VALUE (elts, ix, value)
3900               if (!CONSTANT_CLASS_P (value))
3901                 {
3902                   constant_p = false;
3903                   break;
3904                 }
3905
3906             if (constant_p)
3907               {
3908                 TREE_OPERAND (*expr_p, 1) = build_vector_from_ctor (type, elts);
3909                 break;
3910               }
3911
3912             /* Don't reduce an initializer constant even if we can't
3913                make a VECTOR_CST.  It won't do anything for us, and it'll
3914                prevent us from representing it as a single constant.  */
3915             if (initializer_constant_valid_p (ctor, type))
3916               break;
3917
3918             TREE_CONSTANT (ctor) = 0;
3919           }
3920
3921         /* Vector types use CONSTRUCTOR all the way through gimple
3922           compilation as a general initializer.  */
3923         for (ix = 0; VEC_iterate (constructor_elt, elts, ix, ce); ix++)
3924           {
3925             enum gimplify_status tret;
3926             tret = gimplify_expr (&ce->value, pre_p, post_p, is_gimple_val,
3927                                   fb_rvalue);
3928             if (tret == GS_ERROR)
3929               ret = GS_ERROR;
3930           }
3931         if (!is_gimple_reg (TREE_OPERAND (*expr_p, 0)))
3932           TREE_OPERAND (*expr_p, 1) = get_formal_tmp_var (ctor, pre_p);
3933       }
3934       break;
3935
3936     default:
3937       /* So how did we get a CONSTRUCTOR for a scalar type?  */
3938       gcc_unreachable ();
3939     }
3940
3941   if (ret == GS_ERROR)
3942     return GS_ERROR;
3943   else if (want_value)
3944     {
3945       *expr_p = object;
3946       return GS_OK;
3947     }
3948   else
3949     {
3950       /* If we have gimplified both sides of the initializer but have
3951          not emitted an assignment, do so now.  */
3952       if (*expr_p)
3953         {
3954           tree lhs = TREE_OPERAND (*expr_p, 0);
3955           tree rhs = TREE_OPERAND (*expr_p, 1);
3956           gimple init = gimple_build_assign (lhs, rhs);
3957           gimplify_seq_add_stmt (pre_p, init);
3958           *expr_p = NULL;
3959         }
3960
3961       return GS_ALL_DONE;
3962     }
3963 }
3964
3965 /* Given a pointer value OP0, return a simplified version of an
3966    indirection through OP0, or NULL_TREE if no simplification is
3967    possible.  Note that the resulting type may be different from
3968    the type pointed to in the sense that it is still compatible
3969    from the langhooks point of view. */
3970
3971 tree
3972 gimple_fold_indirect_ref (tree t)
3973 {
3974   tree type = TREE_TYPE (TREE_TYPE (t));
3975   tree sub = t;
3976   tree subtype;
3977
3978   STRIP_NOPS (sub);
3979   subtype = TREE_TYPE (sub);
3980   if (!POINTER_TYPE_P (subtype))
3981     return NULL_TREE;
3982
3983   if (TREE_CODE (sub) == ADDR_EXPR)
3984     {
3985       tree op = TREE_OPERAND (sub, 0);
3986       tree optype = TREE_TYPE (op);
3987       /* *&p => p */
3988       if (useless_type_conversion_p (type, optype))
3989         return op;
3990
3991       /* *(foo *)&fooarray => fooarray[0] */
3992       if (TREE_CODE (optype) == ARRAY_TYPE
3993           && TREE_CODE (TYPE_SIZE (TREE_TYPE (optype))) == INTEGER_CST
3994           && useless_type_conversion_p (type, TREE_TYPE (optype)))
3995        {
3996          tree type_domain = TYPE_DOMAIN (optype);
3997          tree min_val = size_zero_node;
3998          if (type_domain && TYPE_MIN_VALUE (type_domain))
3999            min_val = TYPE_MIN_VALUE (type_domain);
4000          if (TREE_CODE (min_val) == INTEGER_CST)
4001            return build4 (ARRAY_REF, type, op, min_val, NULL_TREE, NULL_TREE);
4002        }
4003       /* *(foo *)&complexfoo => __real__ complexfoo */
4004       else if (TREE_CODE (optype) == COMPLEX_TYPE
4005                && useless_type_conversion_p (type, TREE_TYPE (optype)))
4006         return fold_build1 (REALPART_EXPR, type, op);
4007       /* *(foo *)&vectorfoo => BIT_FIELD_REF<vectorfoo,...> */
4008       else if (TREE_CODE (optype) == VECTOR_TYPE
4009                && useless_type_conversion_p (type, TREE_TYPE (optype)))
4010         {
4011           tree part_width = TYPE_SIZE (type);
4012           tree index = bitsize_int (0);
4013           return fold_build3 (BIT_FIELD_REF, type, op, part_width, index);
4014         }
4015     }
4016
4017   /* ((foo*)&vectorfoo)[1] => BIT_FIELD_REF<vectorfoo,...> */
4018   if (TREE_CODE (sub) == POINTER_PLUS_EXPR
4019       && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
4020     {
4021       tree op00 = TREE_OPERAND (sub, 0);
4022       tree op01 = TREE_OPERAND (sub, 1);
4023       tree op00type;
4024
4025       STRIP_NOPS (op00);
4026       op00type = TREE_TYPE (op00);
4027       if (TREE_CODE (op00) == ADDR_EXPR
4028           && TREE_CODE (TREE_TYPE (op00type)) == VECTOR_TYPE
4029           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (op00type))))
4030         {
4031           HOST_WIDE_INT offset = tree_low_cst (op01, 0);
4032           tree part_width = TYPE_SIZE (type);
4033           unsigned HOST_WIDE_INT part_widthi
4034             = tree_low_cst (part_width, 0) / BITS_PER_UNIT;
4035           unsigned HOST_WIDE_INT indexi = offset * BITS_PER_UNIT;
4036           tree index = bitsize_int (indexi);
4037           if (offset / part_widthi
4038               <= TYPE_VECTOR_SUBPARTS (TREE_TYPE (op00type)))
4039             return fold_build3 (BIT_FIELD_REF, type, TREE_OPERAND (op00, 0),
4040                                 part_width, index);
4041         }
4042     }
4043
4044   /* ((foo*)&complexfoo)[1] => __imag__ complexfoo */
4045   if (TREE_CODE (sub) == POINTER_PLUS_EXPR
4046       && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
4047     {
4048       tree op00 = TREE_OPERAND (sub, 0);
4049       tree op01 = TREE_OPERAND (sub, 1);
4050       tree op00type;
4051
4052       STRIP_NOPS (op00);
4053       op00type = TREE_TYPE (op00);
4054       if (TREE_CODE (op00) == ADDR_EXPR
4055           && TREE_CODE (TREE_TYPE (op00type)) == COMPLEX_TYPE
4056           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (op00type))))
4057         {
4058           tree size = TYPE_SIZE_UNIT (type);
4059           if (tree_int_cst_equal (size, op01))
4060             return fold_build1 (IMAGPART_EXPR, type, TREE_OPERAND (op00, 0));
4061         }
4062     }
4063
4064   /* *(foo *)fooarrptr => (*fooarrptr)[0] */
4065   if (TREE_CODE (TREE_TYPE (subtype)) == ARRAY_TYPE
4066       && TREE_CODE (TYPE_SIZE (TREE_TYPE (TREE_TYPE (subtype)))) == INTEGER_CST
4067       && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (subtype))))
4068     {
4069       tree type_domain;
4070       tree min_val = size_zero_node;
4071       tree osub = sub;
4072       sub = gimple_fold_indirect_ref (sub);
4073       if (! sub)
4074         sub = build1 (INDIRECT_REF, TREE_TYPE (subtype), osub);
4075       type_domain = TYPE_DOMAIN (TREE_TYPE (sub));
4076       if (type_domain && TYPE_MIN_VALUE (type_domain))
4077         min_val = TYPE_MIN_VALUE (type_domain);
4078       if (TREE_CODE (min_val) == INTEGER_CST)
4079         return build4 (ARRAY_REF, type, sub, min_val, NULL_TREE, NULL_TREE);
4080     }
4081
4082   return NULL_TREE;
4083 }
4084
4085 /* Given a pointer value OP0, return a simplified version of an
4086    indirection through OP0, or NULL_TREE if no simplification is
4087    possible.  This may only be applied to a rhs of an expression.
4088    Note that the resulting type may be different from the type pointed
4089    to in the sense that it is still compatible from the langhooks
4090    point of view. */
4091
4092 static tree
4093 gimple_fold_indirect_ref_rhs (tree t)
4094 {
4095   return gimple_fold_indirect_ref (t);
4096 }
4097
4098 /* Subroutine of gimplify_modify_expr to do simplifications of
4099    MODIFY_EXPRs based on the code of the RHS.  We loop for as long as
4100    something changes.  */
4101
4102 static enum gimplify_status
4103 gimplify_modify_expr_rhs (tree *expr_p, tree *from_p, tree *to_p,
4104                           gimple_seq *pre_p, gimple_seq *post_p,
4105                           bool want_value)
4106 {
4107   enum gimplify_status ret = GS_OK;
4108
4109   while (ret != GS_UNHANDLED)
4110     switch (TREE_CODE (*from_p))
4111       {
4112       case VAR_DECL:
4113         /* If we're assigning from a read-only variable initialized with
4114            a constructor, do the direct assignment from the constructor,
4115            but only if neither source nor target are volatile since this
4116            latter assignment might end up being done on a per-field basis.  */
4117         if (DECL_INITIAL (*from_p)
4118             && TREE_READONLY (*from_p)
4119             && !TREE_THIS_VOLATILE (*from_p)
4120             && !TREE_THIS_VOLATILE (*to_p)
4121             && TREE_CODE (DECL_INITIAL (*from_p)) == CONSTRUCTOR)
4122           {
4123             tree old_from = *from_p;
4124
4125             /* Move the constructor into the RHS.  */
4126             *from_p = unshare_expr (DECL_INITIAL (*from_p));
4127
4128             /* Let's see if gimplify_init_constructor will need to put
4129                it in memory.  If so, revert the change.  */
4130             ret = gimplify_init_constructor (expr_p, NULL, NULL, false, true);
4131             if (ret == GS_ERROR)
4132               {
4133                 *from_p = old_from;
4134                 /* Fall through.  */
4135               }
4136             else
4137               {
4138                 ret = GS_OK;
4139                 break;
4140               }
4141           }
4142         ret = GS_UNHANDLED;
4143         break;
4144       case INDIRECT_REF:
4145         {
4146           /* If we have code like
4147
4148                 *(const A*)(A*)&x
4149
4150              where the type of "x" is a (possibly cv-qualified variant
4151              of "A"), treat the entire expression as identical to "x".
4152              This kind of code arises in C++ when an object is bound
4153              to a const reference, and if "x" is a TARGET_EXPR we want
4154              to take advantage of the optimization below.  */
4155           tree t = gimple_fold_indirect_ref_rhs (TREE_OPERAND (*from_p, 0));
4156           if (t)
4157             {
4158               *from_p = t;
4159               ret = GS_OK;
4160             }
4161           else
4162             ret = GS_UNHANDLED;
4163           break;
4164         }
4165
4166       case TARGET_EXPR:
4167         {
4168           /* If we are initializing something from a TARGET_EXPR, strip the
4169              TARGET_EXPR and initialize it directly, if possible.  This can't
4170              be done if the initializer is void, since that implies that the
4171              temporary is set in some non-trivial way.
4172
4173              ??? What about code that pulls out the temp and uses it
4174              elsewhere? I think that such code never uses the TARGET_EXPR as
4175              an initializer.  If I'm wrong, we'll die because the temp won't
4176              have any RTL.  In that case, I guess we'll need to replace
4177              references somehow.  */
4178           tree init = TARGET_EXPR_INITIAL (*from_p);
4179
4180           if (init
4181               && !VOID_TYPE_P (TREE_TYPE (init)))
4182             {
4183               *from_p = init;
4184               ret = GS_OK;
4185             }
4186           else
4187             ret = GS_UNHANDLED;
4188         }
4189         break;
4190
4191       case COMPOUND_EXPR:
4192         /* Remove any COMPOUND_EXPR in the RHS so the following cases will be
4193            caught.  */
4194         gimplify_compound_expr (from_p, pre_p, true);
4195         ret = GS_OK;
4196         break;
4197
4198       case CONSTRUCTOR:
4199         /* If we're initializing from a CONSTRUCTOR, break this into
4200            individual MODIFY_EXPRs.  */
4201         return gimplify_init_constructor (expr_p, pre_p, post_p, want_value,
4202                                           false);
4203
4204       case COND_EXPR:
4205         /* If we're assigning to a non-register type, push the assignment
4206            down into the branches.  This is mandatory for ADDRESSABLE types,
4207            since we cannot generate temporaries for such, but it saves a
4208            copy in other cases as well.  */
4209         if (!is_gimple_reg_type (TREE_TYPE (*from_p)))
4210           {
4211             /* This code should mirror the code in gimplify_cond_expr. */
4212             enum tree_code code = TREE_CODE (*expr_p);
4213             tree cond = *from_p;
4214             tree result = *to_p;
4215
4216             ret = gimplify_expr (&result, pre_p, post_p,
4217                                  is_gimple_lvalue, fb_lvalue);
4218             if (ret != GS_ERROR)
4219               ret = GS_OK;
4220
4221             if (TREE_TYPE (TREE_OPERAND (cond, 1)) != void_type_node)
4222               TREE_OPERAND (cond, 1)
4223                 = build2 (code, void_type_node, result,
4224                           TREE_OPERAND (cond, 1));
4225             if (TREE_TYPE (TREE_OPERAND (cond, 2)) != void_type_node)
4226               TREE_OPERAND (cond, 2)
4227                 = build2 (code, void_type_node, unshare_expr (result),
4228                           TREE_OPERAND (cond, 2));
4229
4230             TREE_TYPE (cond) = void_type_node;
4231             recalculate_side_effects (cond);
4232
4233             if (want_value)
4234               {
4235                 gimplify_and_add (cond, pre_p);
4236                 *expr_p = unshare_expr (result);
4237               }
4238             else
4239               *expr_p = cond;
4240             return ret;
4241           }
4242         else
4243           ret = GS_UNHANDLED;
4244         break;
4245
4246       case CALL_EXPR:
4247         /* For calls that return in memory, give *to_p as the CALL_EXPR's
4248            return slot so that we don't generate a temporary.  */
4249         if (!CALL_EXPR_RETURN_SLOT_OPT (*from_p)
4250             && aggregate_value_p (*from_p, *from_p))
4251           {
4252             bool use_target;
4253
4254             if (!(rhs_predicate_for (*to_p))(*from_p))
4255               /* If we need a temporary, *to_p isn't accurate.  */
4256               use_target = false;
4257             else if (TREE_CODE (*to_p) == RESULT_DECL
4258                      && DECL_NAME (*to_p) == NULL_TREE
4259                      && needs_to_live_in_memory (*to_p))
4260               /* It's OK to use the return slot directly unless it's an NRV. */
4261               use_target = true;
4262             else if (is_gimple_reg_type (TREE_TYPE (*to_p))
4263                      || (DECL_P (*to_p) && DECL_REGISTER (*to_p)))
4264               /* Don't force regs into memory.  */
4265               use_target = false;
4266             else if (TREE_CODE (*expr_p) == INIT_EXPR)
4267               /* It's OK to use the target directly if it's being
4268                  initialized. */
4269               use_target = true;
4270             else if (!is_gimple_non_addressable (*to_p))
4271               /* Don't use the original target if it's already addressable;
4272                  if its address escapes, and the called function uses the
4273                  NRV optimization, a conforming program could see *to_p
4274                  change before the called function returns; see c++/19317.
4275                  When optimizing, the return_slot pass marks more functions
4276                  as safe after we have escape info.  */
4277               use_target = false;
4278             else
4279               use_target = true;
4280
4281             if (use_target)
4282               {
4283                 CALL_EXPR_RETURN_SLOT_OPT (*from_p) = 1;
4284                 mark_addressable (*to_p);
4285               }
4286           }
4287
4288         ret = GS_UNHANDLED;
4289         break;
4290
4291       case WITH_SIZE_EXPR:
4292         /* Likewise for calls that return an aggregate of non-constant size,
4293            since we would not be able to generate a temporary at all.  */
4294         if (TREE_CODE (TREE_OPERAND (*from_p, 0)) == CALL_EXPR)
4295           {
4296             *from_p = TREE_OPERAND (*from_p, 0);
4297             ret = GS_OK;
4298           }
4299         else
4300           ret = GS_UNHANDLED;
4301         break;
4302
4303         /* If we're initializing from a container, push the initialization
4304            inside it.  */
4305       case CLEANUP_POINT_EXPR:
4306       case BIND_EXPR:
4307       case STATEMENT_LIST:
4308         {
4309           tree wrap = *from_p;
4310           tree t;
4311
4312           ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_min_lval,
4313                                fb_lvalue);
4314           if (ret != GS_ERROR)
4315             ret = GS_OK;
4316
4317           t = voidify_wrapper_expr (wrap, *expr_p);
4318           gcc_assert (t == *expr_p);
4319
4320           if (want_value)
4321             {
4322               gimplify_and_add (wrap, pre_p);
4323               *expr_p = unshare_expr (*to_p);
4324             }
4325           else
4326             *expr_p = wrap;
4327           return GS_OK;
4328         }
4329
4330       case COMPOUND_LITERAL_EXPR:
4331         {
4332           tree complit = TREE_OPERAND (*expr_p, 1);
4333           tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (complit);
4334           tree decl = DECL_EXPR_DECL (decl_s);
4335           tree init = DECL_INITIAL (decl);
4336
4337           /* struct T x = (struct T) { 0, 1, 2 } can be optimized
4338              into struct T x = { 0, 1, 2 } if the address of the
4339              compound literal has never been taken.  */
4340           if (!TREE_ADDRESSABLE (complit)
4341               && !TREE_ADDRESSABLE (decl)
4342               && init)
4343             {
4344               *expr_p = copy_node (*expr_p);
4345               TREE_OPERAND (*expr_p, 1) = init;
4346               return GS_OK;
4347             }
4348         }
4349
4350       default:
4351         ret = GS_UNHANDLED;
4352         break;
4353       }
4354
4355   return ret;
4356 }
4357
4358
4359 /* Promote partial stores to COMPLEX variables to total stores.  *EXPR_P is
4360    a MODIFY_EXPR with a lhs of a REAL/IMAGPART_EXPR of a variable with
4361    DECL_GIMPLE_REG_P set.
4362
4363    IMPORTANT NOTE: This promotion is performed by introducing a load of the
4364    other, unmodified part of the complex object just before the total store.
4365    As a consequence, if the object is still uninitialized, an undefined value
4366    will be loaded into a register, which may result in a spurious exception
4367    if the register is floating-point and the value happens to be a signaling
4368    NaN for example.  Then the fully-fledged complex operations lowering pass
4369    followed by a DCE pass are necessary in order to fix things up.  */
4370
4371 static enum gimplify_status
4372 gimplify_modify_expr_complex_part (tree *expr_p, gimple_seq *pre_p,
4373                                    bool want_value)
4374 {
4375   enum tree_code code, ocode;
4376   tree lhs, rhs, new_rhs, other, realpart, imagpart;
4377
4378   lhs = TREE_OPERAND (*expr_p, 0);
4379   rhs = TREE_OPERAND (*expr_p, 1);
4380   code = TREE_CODE (lhs);
4381   lhs = TREE_OPERAND (lhs, 0);
4382
4383   ocode = code == REALPART_EXPR ? IMAGPART_EXPR : REALPART_EXPR;
4384   other = build1 (ocode, TREE_TYPE (rhs), lhs);
4385   other = get_formal_tmp_var (other, pre_p);
4386
4387   realpart = code == REALPART_EXPR ? rhs : other;
4388   imagpart = code == REALPART_EXPR ? other : rhs;
4389
4390   if (TREE_CONSTANT (realpart) && TREE_CONSTANT (imagpart))
4391     new_rhs = build_complex (TREE_TYPE (lhs), realpart, imagpart);
4392   else
4393     new_rhs = build2 (COMPLEX_EXPR, TREE_TYPE (lhs), realpart, imagpart);
4394
4395   gimplify_seq_add_stmt (pre_p, gimple_build_assign (lhs, new_rhs));
4396   *expr_p = (want_value) ? rhs : NULL_TREE;
4397
4398   return GS_ALL_DONE;
4399 }
4400
4401
4402 /* Gimplify the MODIFY_EXPR node pointed to by EXPR_P.
4403
4404       modify_expr
4405               : varname '=' rhs
4406               | '*' ID '=' rhs
4407
4408     PRE_P points to the list where side effects that must happen before
4409         *EXPR_P should be stored.
4410
4411     POST_P points to the list where side effects that must happen after
4412         *EXPR_P should be stored.
4413
4414     WANT_VALUE is nonzero iff we want to use the value of this expression
4415         in another expression.  */
4416
4417 static enum gimplify_status
4418 gimplify_modify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
4419                       bool want_value)
4420 {
4421   tree *from_p = &TREE_OPERAND (*expr_p, 1);
4422   tree *to_p = &TREE_OPERAND (*expr_p, 0);
4423   enum gimplify_status ret = GS_UNHANDLED;
4424   gimple assign;
4425   location_t loc = EXPR_LOCATION (*expr_p);
4426
4427   gcc_assert (TREE_CODE (*expr_p) == MODIFY_EXPR
4428               || TREE_CODE (*expr_p) == INIT_EXPR);
4429
4430   /* Insert pointer conversions required by the middle-end that are not
4431      required by the frontend.  This fixes middle-end type checking for
4432      for example gcc.dg/redecl-6.c.  */
4433   if (POINTER_TYPE_P (TREE_TYPE (*to_p)))
4434     {
4435       STRIP_USELESS_TYPE_CONVERSION (*from_p);
4436       if (!useless_type_conversion_p (TREE_TYPE (*to_p), TREE_TYPE (*from_p)))
4437         *from_p = fold_convert_loc (loc, TREE_TYPE (*to_p), *from_p);
4438     }
4439
4440   /* See if any simplifications can be done based on what the RHS is.  */
4441   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4442                                   want_value);
4443   if (ret != GS_UNHANDLED)
4444     return ret;
4445
4446   /* For zero sized types only gimplify the left hand side and right hand
4447      side as statements and throw away the assignment.  Do this after
4448      gimplify_modify_expr_rhs so we handle TARGET_EXPRs of addressable
4449      types properly.  */
4450   if (zero_sized_type (TREE_TYPE (*from_p)) && !want_value)
4451     {
4452       gimplify_stmt (from_p, pre_p);
4453       gimplify_stmt (to_p, pre_p);
4454       *expr_p = NULL_TREE;
4455       return GS_ALL_DONE;
4456     }
4457
4458   /* If the value being copied is of variable width, compute the length
4459      of the copy into a WITH_SIZE_EXPR.   Note that we need to do this
4460      before gimplifying any of the operands so that we can resolve any
4461      PLACEHOLDER_EXPRs in the size.  Also note that the RTL expander uses
4462      the size of the expression to be copied, not of the destination, so
4463      that is what we must do here.  */
4464   maybe_with_size_expr (from_p);
4465
4466   ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
4467   if (ret == GS_ERROR)
4468     return ret;
4469
4470   /* As a special case, we have to temporarily allow for assignments
4471      with a CALL_EXPR on the RHS.  Since in GIMPLE a function call is
4472      a toplevel statement, when gimplifying the GENERIC expression
4473      MODIFY_EXPR <a, CALL_EXPR <foo>>, we cannot create the tuple
4474      GIMPLE_ASSIGN <a, GIMPLE_CALL <foo>>.
4475
4476      Instead, we need to create the tuple GIMPLE_CALL <a, foo>.  To
4477      prevent gimplify_expr from trying to create a new temporary for
4478      foo's LHS, we tell it that it should only gimplify until it
4479      reaches the CALL_EXPR.  On return from gimplify_expr, the newly
4480      created GIMPLE_CALL <foo> will be the last statement in *PRE_P
4481      and all we need to do here is set 'a' to be its LHS.  */
4482   ret = gimplify_expr (from_p, pre_p, post_p, rhs_predicate_for (*to_p),
4483                        fb_rvalue);
4484   if (ret == GS_ERROR)
4485     return ret;
4486
4487   /* Now see if the above changed *from_p to something we handle specially.  */
4488   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4489                                   want_value);
4490   if (ret != GS_UNHANDLED)
4491     return ret;
4492
4493   /* If we've got a variable sized assignment between two lvalues (i.e. does
4494      not involve a call), then we can make things a bit more straightforward
4495      by converting the assignment to memcpy or memset.  */
4496   if (TREE_CODE (*from_p) == WITH_SIZE_EXPR)
4497     {
4498       tree from = TREE_OPERAND (*from_p, 0);
4499       tree size = TREE_OPERAND (*from_p, 1);
4500
4501       if (TREE_CODE (from) == CONSTRUCTOR)
4502         return gimplify_modify_expr_to_memset (expr_p, size, want_value, pre_p);
4503
4504       if (is_gimple_addressable (from))
4505         {
4506           *from_p = from;
4507           return gimplify_modify_expr_to_memcpy (expr_p, size, want_value,
4508                                                  pre_p);
4509         }
4510     }
4511
4512   /* Transform partial stores to non-addressable complex variables into
4513      total stores.  This allows us to use real instead of virtual operands
4514      for these variables, which improves optimization.  */
4515   if ((TREE_CODE (*to_p) == REALPART_EXPR
4516        || TREE_CODE (*to_p) == IMAGPART_EXPR)
4517       && is_gimple_reg (TREE_OPERAND (*to_p, 0)))
4518     return gimplify_modify_expr_complex_part (expr_p, pre_p, want_value);
4519
4520   /* Try to alleviate the effects of the gimplification creating artificial
4521      temporaries (see for example is_gimple_reg_rhs) on the debug info.  */
4522   if (!gimplify_ctxp->into_ssa
4523       && DECL_P (*from_p)
4524       && DECL_IGNORED_P (*from_p)
4525       && DECL_P (*to_p)
4526       && !DECL_IGNORED_P (*to_p))
4527     {
4528       if (!DECL_NAME (*from_p) && DECL_NAME (*to_p))
4529         DECL_NAME (*from_p)
4530           = create_tmp_var_name (IDENTIFIER_POINTER (DECL_NAME (*to_p)));
4531       DECL_DEBUG_EXPR_IS_FROM (*from_p) = 1;
4532       SET_DECL_DEBUG_EXPR (*from_p, *to_p);
4533    }
4534
4535   if (TREE_CODE (*from_p) == CALL_EXPR)
4536     {
4537       /* Since the RHS is a CALL_EXPR, we need to create a GIMPLE_CALL
4538          instead of a GIMPLE_ASSIGN.  */
4539       assign = gimple_build_call_from_tree (*from_p);
4540       if (!gimple_call_noreturn_p (assign))
4541         gimple_call_set_lhs (assign, *to_p);
4542     }
4543   else
4544     {
4545       assign = gimple_build_assign (*to_p, *from_p);
4546       gimple_set_location (assign, EXPR_LOCATION (*expr_p));
4547     }
4548
4549   gimplify_seq_add_stmt (pre_p, assign);
4550
4551   if (gimplify_ctxp->into_ssa && is_gimple_reg (*to_p))
4552     {
4553       /* If we've somehow already got an SSA_NAME on the LHS, then
4554          we've probably modified it twice.  Not good.  */
4555       gcc_assert (TREE_CODE (*to_p) != SSA_NAME);
4556       *to_p = make_ssa_name (*to_p, assign);
4557       gimple_set_lhs (assign, *to_p);
4558     }
4559
4560   if (want_value)
4561     {
4562       *expr_p = unshare_expr (*to_p);
4563       return GS_OK;
4564     }
4565   else
4566     *expr_p = NULL;
4567
4568   return GS_ALL_DONE;
4569 }
4570
4571 /*  Gimplify a comparison between two variable-sized objects.  Do this
4572     with a call to BUILT_IN_MEMCMP.  */
4573
4574 static enum gimplify_status
4575 gimplify_variable_sized_compare (tree *expr_p)
4576 {
4577   tree op0 = TREE_OPERAND (*expr_p, 0);
4578   tree op1 = TREE_OPERAND (*expr_p, 1);
4579   tree t, arg, dest, src;
4580   location_t loc = EXPR_LOCATION (*expr_p);
4581
4582   arg = TYPE_SIZE_UNIT (TREE_TYPE (op0));
4583   arg = unshare_expr (arg);
4584   arg = SUBSTITUTE_PLACEHOLDER_IN_EXPR (arg, op0);
4585   src = build_fold_addr_expr_loc (loc, op1);
4586   dest = build_fold_addr_expr_loc (loc, op0);
4587   t = implicit_built_in_decls[BUILT_IN_MEMCMP];
4588   t = build_call_expr_loc (loc, t, 3, dest, src, arg);
4589   *expr_p
4590     = build2 (TREE_CODE (*expr_p), TREE_TYPE (*expr_p), t, integer_zero_node);
4591
4592   return GS_OK;
4593 }
4594
4595 /*  Gimplify a comparison between two aggregate objects of integral scalar
4596     mode as a comparison between the bitwise equivalent scalar values.  */
4597
4598 static enum gimplify_status
4599 gimplify_scalar_mode_aggregate_compare (tree *expr_p)
4600 {
4601   location_t loc = EXPR_LOCATION (*expr_p);
4602   tree op0 = TREE_OPERAND (*expr_p, 0);
4603   tree op1 = TREE_OPERAND (*expr_p, 1);
4604
4605   tree type = TREE_TYPE (op0);
4606   tree scalar_type = lang_hooks.types.type_for_mode (TYPE_MODE (type), 1);
4607
4608   op0 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op0);
4609   op1 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op1);
4610
4611   *expr_p
4612     = fold_build2_loc (loc, TREE_CODE (*expr_p), TREE_TYPE (*expr_p), op0, op1);
4613
4614   return GS_OK;
4615 }
4616
4617 /*  Gimplify TRUTH_ANDIF_EXPR and TRUTH_ORIF_EXPR expressions.  EXPR_P
4618     points to the expression to gimplify.
4619
4620     Expressions of the form 'a && b' are gimplified to:
4621
4622         a && b ? true : false
4623
4624     LOCUS is the source location to be put on the generated COND_EXPR.
4625     gimplify_cond_expr will do the rest.  */
4626
4627 static enum gimplify_status
4628 gimplify_boolean_expr (tree *expr_p, location_t locus)
4629 {
4630   /* Preserve the original type of the expression.  */
4631   tree type = TREE_TYPE (*expr_p);
4632
4633   *expr_p = build3 (COND_EXPR, type, *expr_p,
4634                     fold_convert_loc (locus, type, boolean_true_node),
4635                     fold_convert_loc (locus, type, boolean_false_node));
4636
4637   SET_EXPR_LOCATION (*expr_p, locus);
4638
4639   return GS_OK;
4640 }
4641
4642 /* Gimplifies an expression sequence.  This function gimplifies each
4643    expression and re-writes the original expression with the last
4644    expression of the sequence in GIMPLE form.
4645
4646    PRE_P points to the list where the side effects for all the
4647        expressions in the sequence will be emitted.
4648
4649    WANT_VALUE is true when the result of the last COMPOUND_EXPR is used.  */
4650
4651 static enum gimplify_status
4652 gimplify_compound_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
4653 {
4654   tree t = *expr_p;
4655
4656   do
4657     {
4658       tree *sub_p = &TREE_OPERAND (t, 0);
4659
4660       if (TREE_CODE (*sub_p) == COMPOUND_EXPR)
4661         gimplify_compound_expr (sub_p, pre_p, false);
4662       else
4663         gimplify_stmt (sub_p, pre_p);
4664
4665       t = TREE_OPERAND (t, 1);
4666     }
4667   while (TREE_CODE (t) == COMPOUND_EXPR);
4668
4669   *expr_p = t;
4670   if (want_value)
4671     return GS_OK;
4672   else
4673     {
4674       gimplify_stmt (expr_p, pre_p);
4675       return GS_ALL_DONE;
4676     }
4677 }
4678
4679
4680 /* Gimplify a SAVE_EXPR node.  EXPR_P points to the expression to
4681    gimplify.  After gimplification, EXPR_P will point to a new temporary
4682    that holds the original value of the SAVE_EXPR node.
4683
4684    PRE_P points to the list where side effects that must happen before
4685       *EXPR_P should be stored.  */
4686
4687 static enum gimplify_status
4688 gimplify_save_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4689 {
4690   enum gimplify_status ret = GS_ALL_DONE;
4691   tree val;
4692
4693   gcc_assert (TREE_CODE (*expr_p) == SAVE_EXPR);
4694   val = TREE_OPERAND (*expr_p, 0);
4695
4696   /* If the SAVE_EXPR has not been resolved, then evaluate it once.  */
4697   if (!SAVE_EXPR_RESOLVED_P (*expr_p))
4698     {
4699       /* The operand may be a void-valued expression such as SAVE_EXPRs
4700          generated by the Java frontend for class initialization.  It is
4701          being executed only for its side-effects.  */
4702       if (TREE_TYPE (val) == void_type_node)
4703         {
4704           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
4705                                is_gimple_stmt, fb_none);
4706           val = NULL;
4707         }
4708       else
4709         val = get_initialized_tmp_var (val, pre_p, post_p);
4710
4711       TREE_OPERAND (*expr_p, 0) = val;
4712       SAVE_EXPR_RESOLVED_P (*expr_p) = 1;
4713     }
4714
4715   *expr_p = val;
4716
4717   return ret;
4718 }
4719
4720 /*  Re-write the ADDR_EXPR node pointed to by EXPR_P
4721
4722       unary_expr
4723               : ...
4724               | '&' varname
4725               ...
4726
4727     PRE_P points to the list where side effects that must happen before
4728         *EXPR_P should be stored.
4729
4730     POST_P points to the list where side effects that must happen after
4731         *EXPR_P should be stored.  */
4732
4733 static enum gimplify_status
4734 gimplify_addr_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4735 {
4736   tree expr = *expr_p;
4737   tree op0 = TREE_OPERAND (expr, 0);
4738   enum gimplify_status ret;
4739   location_t loc = EXPR_LOCATION (*expr_p);
4740
4741   switch (TREE_CODE (op0))
4742     {
4743     case INDIRECT_REF:
4744     case MISALIGNED_INDIRECT_REF:
4745     do_indirect_ref:
4746       /* Check if we are dealing with an expression of the form '&*ptr'.
4747          While the front end folds away '&*ptr' into 'ptr', these
4748          expressions may be generated internally by the compiler (e.g.,
4749          builtins like __builtin_va_end).  */
4750       /* Caution: the silent array decomposition semantics we allow for
4751          ADDR_EXPR means we can't always discard the pair.  */
4752       /* Gimplification of the ADDR_EXPR operand may drop
4753          cv-qualification conversions, so make sure we add them if
4754          needed.  */
4755       {
4756         tree op00 = TREE_OPERAND (op0, 0);
4757         tree t_expr = TREE_TYPE (expr);
4758         tree t_op00 = TREE_TYPE (op00);
4759
4760         if (!useless_type_conversion_p (t_expr, t_op00))
4761           op00 = fold_convert_loc (loc, TREE_TYPE (expr), op00);
4762         *expr_p = op00;
4763         ret = GS_OK;
4764       }
4765       break;
4766
4767     case VIEW_CONVERT_EXPR:
4768       /* Take the address of our operand and then convert it to the type of
4769          this ADDR_EXPR.
4770
4771          ??? The interactions of VIEW_CONVERT_EXPR and aliasing is not at
4772          all clear.  The impact of this transformation is even less clear.  */
4773
4774       /* If the operand is a useless conversion, look through it.  Doing so
4775          guarantees that the ADDR_EXPR and its operand will remain of the
4776          same type.  */
4777       if (tree_ssa_useless_type_conversion (TREE_OPERAND (op0, 0)))
4778         op0 = TREE_OPERAND (op0, 0);
4779
4780       *expr_p = fold_convert_loc (loc, TREE_TYPE (expr),
4781                                   build_fold_addr_expr_loc (loc,
4782                                                         TREE_OPERAND (op0, 0)));
4783       ret = GS_OK;
4784       break;
4785
4786     default:
4787       /* We use fb_either here because the C frontend sometimes takes
4788          the address of a call that returns a struct; see
4789          gcc.dg/c99-array-lval-1.c.  The gimplifier will correctly make
4790          the implied temporary explicit.  */
4791
4792       /* Make the operand addressable.  */
4793       ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, post_p,
4794                            is_gimple_addressable, fb_either);
4795       if (ret == GS_ERROR)
4796         break;
4797
4798       /* Then mark it.  Beware that it may not be possible to do so directly
4799          if a temporary has been created by the gimplification.  */
4800       prepare_gimple_addressable (&TREE_OPERAND (expr, 0), pre_p);
4801
4802       op0 = TREE_OPERAND (expr, 0);
4803
4804       /* For various reasons, the gimplification of the expression
4805          may have made a new INDIRECT_REF.  */
4806       if (TREE_CODE (op0) == INDIRECT_REF)
4807         goto do_indirect_ref;
4808
4809       mark_addressable (TREE_OPERAND (expr, 0));
4810
4811       /* The FEs may end up building ADDR_EXPRs early on a decl with
4812          an incomplete type.  Re-build ADDR_EXPRs in canonical form
4813          here.  */
4814       if (!types_compatible_p (TREE_TYPE (op0), TREE_TYPE (TREE_TYPE (expr))))
4815         *expr_p = build_fold_addr_expr (op0);
4816
4817       /* Make sure TREE_CONSTANT and TREE_SIDE_EFFECTS are set properly.  */
4818       recompute_tree_invariant_for_addr_expr (*expr_p);
4819
4820       /* If we re-built the ADDR_EXPR add a conversion to the original type
4821          if required.  */
4822       if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
4823         *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
4824
4825       break;
4826     }
4827
4828   return ret;
4829 }
4830
4831 /* Gimplify the operands of an ASM_EXPR.  Input operands should be a gimple
4832    value; output operands should be a gimple lvalue.  */
4833
4834 static enum gimplify_status
4835 gimplify_asm_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4836 {
4837   tree expr;
4838   int noutputs;
4839   const char **oconstraints;
4840   int i;
4841   tree link;
4842   const char *constraint;
4843   bool allows_mem, allows_reg, is_inout;
4844   enum gimplify_status ret, tret;
4845   gimple stmt;
4846   VEC(tree, gc) *inputs;
4847   VEC(tree, gc) *outputs;
4848   VEC(tree, gc) *clobbers;
4849   VEC(tree, gc) *labels;
4850   tree link_next;
4851
4852   expr = *expr_p;
4853   noutputs = list_length (ASM_OUTPUTS (expr));
4854   oconstraints = (const char **) alloca ((noutputs) * sizeof (const char *));
4855
4856   inputs = outputs = clobbers = labels = NULL;
4857
4858   ret = GS_ALL_DONE;
4859   link_next = NULL_TREE;
4860   for (i = 0, link = ASM_OUTPUTS (expr); link; ++i, link = link_next)
4861     {
4862       bool ok;
4863       size_t constraint_len;
4864
4865       link_next = TREE_CHAIN (link);
4866
4867       oconstraints[i]
4868         = constraint
4869         = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4870       constraint_len = strlen (constraint);
4871       if (constraint_len == 0)
4872         continue;
4873
4874       ok = parse_output_constraint (&constraint, i, 0, 0,
4875                                     &allows_mem, &allows_reg, &is_inout);
4876       if (!ok)
4877         {
4878           ret = GS_ERROR;
4879           is_inout = false;
4880         }
4881
4882       if (!allows_reg && allows_mem)
4883         mark_addressable (TREE_VALUE (link));
4884
4885       tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
4886                             is_inout ? is_gimple_min_lval : is_gimple_lvalue,
4887                             fb_lvalue | fb_mayfail);
4888       if (tret == GS_ERROR)
4889         {
4890           error ("invalid lvalue in asm output %d", i);
4891           ret = tret;
4892         }
4893
4894       VEC_safe_push (tree, gc, outputs, link);
4895       TREE_CHAIN (link) = NULL_TREE;
4896
4897       if (is_inout)
4898         {
4899           /* An input/output operand.  To give the optimizers more
4900              flexibility, split it into separate input and output
4901              operands.  */
4902           tree input;
4903           char buf[10];
4904
4905           /* Turn the in/out constraint into an output constraint.  */
4906           char *p = xstrdup (constraint);
4907           p[0] = '=';
4908           TREE_VALUE (TREE_PURPOSE (link)) = build_string (constraint_len, p);
4909
4910           /* And add a matching input constraint.  */
4911           if (allows_reg)
4912             {
4913               sprintf (buf, "%d", i);
4914
4915               /* If there are multiple alternatives in the constraint,
4916                  handle each of them individually.  Those that allow register
4917                  will be replaced with operand number, the others will stay
4918                  unchanged.  */
4919               if (strchr (p, ',') != NULL)
4920                 {
4921                   size_t len = 0, buflen = strlen (buf);
4922                   char *beg, *end, *str, *dst;
4923
4924                   for (beg = p + 1;;)
4925                     {
4926                       end = strchr (beg, ',');
4927                       if (end == NULL)
4928                         end = strchr (beg, '\0');
4929                       if ((size_t) (end - beg) < buflen)
4930                         len += buflen + 1;
4931                       else
4932                         len += end - beg + 1;
4933                       if (*end)
4934                         beg = end + 1;
4935                       else
4936                         break;
4937                     }
4938
4939                   str = (char *) alloca (len);
4940                   for (beg = p + 1, dst = str;;)
4941                     {
4942                       const char *tem;
4943                       bool mem_p, reg_p, inout_p;
4944
4945                       end = strchr (beg, ',');
4946                       if (end)
4947                         *end = '\0';
4948                       beg[-1] = '=';
4949                       tem = beg - 1;
4950                       parse_output_constraint (&tem, i, 0, 0,
4951                                                &mem_p, &reg_p, &inout_p);
4952                       if (dst != str)
4953                         *dst++ = ',';
4954                       if (reg_p)
4955                         {
4956                           memcpy (dst, buf, buflen);
4957                           dst += buflen;
4958                         }
4959                       else
4960                         {
4961                           if (end)
4962                             len = end - beg;
4963                           else
4964                             len = strlen (beg);
4965                           memcpy (dst, beg, len);
4966                           dst += len;
4967                         }
4968                       if (end)
4969                         beg = end + 1;
4970                       else
4971                         break;
4972                     }
4973                   *dst = '\0';
4974                   input = build_string (dst - str, str);
4975                 }
4976               else
4977                 input = build_string (strlen (buf), buf);
4978             }
4979           else
4980             input = build_string (constraint_len - 1, constraint + 1);
4981
4982           free (p);
4983
4984           input = build_tree_list (build_tree_list (NULL_TREE, input),
4985                                    unshare_expr (TREE_VALUE (link)));
4986           ASM_INPUTS (expr) = chainon (ASM_INPUTS (expr), input);
4987         }
4988     }
4989
4990   link_next = NULL_TREE;
4991   for (link = ASM_INPUTS (expr); link; ++i, link = link_next)
4992     {
4993       link_next = TREE_CHAIN (link);
4994       constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4995       parse_input_constraint (&constraint, 0, 0, noutputs, 0,
4996                               oconstraints, &allows_mem, &allows_reg);
4997
4998       /* If we can't make copies, we can only accept memory.  */
4999       if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (link))))
5000         {
5001           if (allows_mem)
5002             allows_reg = 0;
5003           else
5004             {
5005               error ("impossible constraint in %<asm%>");
5006               error ("non-memory input %d must stay in memory", i);
5007               return GS_ERROR;
5008             }
5009         }
5010
5011       /* If the operand is a memory input, it should be an lvalue.  */
5012       if (!allows_reg && allows_mem)
5013         {
5014           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
5015                                 is_gimple_lvalue, fb_lvalue | fb_mayfail);
5016           mark_addressable (TREE_VALUE (link));
5017           if (tret == GS_ERROR)
5018             {
5019               if (EXPR_HAS_LOCATION (TREE_VALUE (link)))
5020                 input_location = EXPR_LOCATION (TREE_VALUE (link));
5021               error ("memory input %d is not directly addressable", i);
5022               ret = tret;
5023             }
5024         }
5025       else
5026         {
5027           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
5028                                 is_gimple_asm_val, fb_rvalue);
5029           if (tret == GS_ERROR)
5030             ret = tret;
5031         }
5032
5033       TREE_CHAIN (link) = NULL_TREE;
5034       VEC_safe_push (tree, gc, inputs, link);
5035     }
5036
5037   for (link = ASM_CLOBBERS (expr); link; ++i, link = TREE_CHAIN (link))
5038     VEC_safe_push (tree, gc, clobbers, link);
5039
5040   for (link = ASM_LABELS (expr); link; ++i, link = TREE_CHAIN (link))
5041     VEC_safe_push (tree, gc, labels, link);
5042
5043   /* Do not add ASMs with errors to the gimple IL stream.  */
5044   if (ret != GS_ERROR)
5045     {
5046       stmt = gimple_build_asm_vec (TREE_STRING_POINTER (ASM_STRING (expr)),
5047                                    inputs, outputs, clobbers, labels);
5048
5049       gimple_asm_set_volatile (stmt, ASM_VOLATILE_P (expr));
5050       gimple_asm_set_input (stmt, ASM_INPUT_P (expr));
5051
5052       gimplify_seq_add_stmt (pre_p, stmt);
5053     }
5054
5055   return ret;
5056 }
5057
5058 /* Gimplify a CLEANUP_POINT_EXPR.  Currently this works by adding
5059    GIMPLE_WITH_CLEANUP_EXPRs to the prequeue as we encounter cleanups while
5060    gimplifying the body, and converting them to TRY_FINALLY_EXPRs when we
5061    return to this function.
5062
5063    FIXME should we complexify the prequeue handling instead?  Or use flags
5064    for all the cleanups and let the optimizer tighten them up?  The current
5065    code seems pretty fragile; it will break on a cleanup within any
5066    non-conditional nesting.  But any such nesting would be broken, anyway;
5067    we can't write a TRY_FINALLY_EXPR that starts inside a nesting construct
5068    and continues out of it.  We can do that at the RTL level, though, so
5069    having an optimizer to tighten up try/finally regions would be a Good
5070    Thing.  */
5071
5072 static enum gimplify_status
5073 gimplify_cleanup_point_expr (tree *expr_p, gimple_seq *pre_p)
5074 {
5075   gimple_stmt_iterator iter;
5076   gimple_seq body_sequence = NULL;
5077
5078   tree temp = voidify_wrapper_expr (*expr_p, NULL);
5079
5080   /* We only care about the number of conditions between the innermost
5081      CLEANUP_POINT_EXPR and the cleanup.  So save and reset the count and
5082      any cleanups collected outside the CLEANUP_POINT_EXPR.  */
5083   int old_conds = gimplify_ctxp->conditions;
5084   gimple_seq old_cleanups = gimplify_ctxp->conditional_cleanups;
5085   gimplify_ctxp->conditions = 0;
5086   gimplify_ctxp->conditional_cleanups = NULL;
5087
5088   gimplify_stmt (&TREE_OPERAND (*expr_p, 0), &body_sequence);
5089
5090   gimplify_ctxp->conditions = old_conds;
5091   gimplify_ctxp->conditional_cleanups = old_cleanups;
5092
5093   for (iter = gsi_start (body_sequence); !gsi_end_p (iter); )
5094     {
5095       gimple wce = gsi_stmt (iter);
5096
5097       if (gimple_code (wce) == GIMPLE_WITH_CLEANUP_EXPR)
5098         {
5099           if (gsi_one_before_end_p (iter))
5100             {
5101               /* Note that gsi_insert_seq_before and gsi_remove do not
5102                  scan operands, unlike some other sequence mutators.  */
5103               gsi_insert_seq_before_without_update (&iter,
5104                                                     gimple_wce_cleanup (wce),
5105                                                     GSI_SAME_STMT);
5106               gsi_remove (&iter, true);
5107               break;
5108             }
5109           else
5110             {
5111               gimple gtry;
5112               gimple_seq seq;
5113               enum gimple_try_flags kind;
5114
5115               if (gimple_wce_cleanup_eh_only (wce))
5116                 kind = GIMPLE_TRY_CATCH;
5117               else
5118                 kind = GIMPLE_TRY_FINALLY;
5119               seq = gsi_split_seq_after (iter);
5120
5121               gtry = gimple_build_try (seq, gimple_wce_cleanup (wce), kind);
5122               /* Do not use gsi_replace here, as it may scan operands.
5123                  We want to do a simple structural modification only.  */
5124               *gsi_stmt_ptr (&iter) = gtry;
5125               iter = gsi_start (seq);
5126             }
5127         }
5128       else
5129         gsi_next (&iter);
5130     }
5131
5132   gimplify_seq_add_seq (pre_p, body_sequence);
5133   if (temp)
5134     {
5135       *expr_p = temp;
5136       return GS_OK;
5137     }
5138   else
5139     {
5140       *expr_p = NULL;
5141       return GS_ALL_DONE;
5142     }
5143 }
5144
5145 /* Insert a cleanup marker for gimplify_cleanup_point_expr.  CLEANUP
5146    is the cleanup action required.  EH_ONLY is true if the cleanup should
5147    only be executed if an exception is thrown, not on normal exit.  */
5148
5149 static void
5150 gimple_push_cleanup (tree var, tree cleanup, bool eh_only, gimple_seq *pre_p)
5151 {
5152   gimple wce;
5153   gimple_seq cleanup_stmts = NULL;
5154
5155   /* Errors can result in improperly nested cleanups.  Which results in
5156      confusion when trying to resolve the GIMPLE_WITH_CLEANUP_EXPR.  */
5157   if (errorcount || sorrycount)
5158     return;
5159
5160   if (gimple_conditional_context ())
5161     {
5162       /* If we're in a conditional context, this is more complex.  We only
5163          want to run the cleanup if we actually ran the initialization that
5164          necessitates it, but we want to run it after the end of the
5165          conditional context.  So we wrap the try/finally around the
5166          condition and use a flag to determine whether or not to actually
5167          run the destructor.  Thus
5168
5169            test ? f(A()) : 0
5170
5171          becomes (approximately)
5172
5173            flag = 0;
5174            try {
5175              if (test) { A::A(temp); flag = 1; val = f(temp); }
5176              else { val = 0; }
5177            } finally {
5178              if (flag) A::~A(temp);
5179            }
5180            val
5181       */
5182       tree flag = create_tmp_var (boolean_type_node, "cleanup");
5183       gimple ffalse = gimple_build_assign (flag, boolean_false_node);
5184       gimple ftrue = gimple_build_assign (flag, boolean_true_node);
5185
5186       cleanup = build3 (COND_EXPR, void_type_node, flag, cleanup, NULL);
5187       gimplify_stmt (&cleanup, &cleanup_stmts);
5188       wce = gimple_build_wce (cleanup_stmts);
5189
5190       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, ffalse);
5191       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, wce);
5192       gimplify_seq_add_stmt (pre_p, ftrue);
5193
5194       /* Because of this manipulation, and the EH edges that jump
5195          threading cannot redirect, the temporary (VAR) will appear
5196          to be used uninitialized.  Don't warn.  */
5197       TREE_NO_WARNING (var) = 1;
5198     }
5199   else
5200     {
5201       gimplify_stmt (&cleanup, &cleanup_stmts);
5202       wce = gimple_build_wce (cleanup_stmts);
5203       gimple_wce_set_cleanup_eh_only (wce, eh_only);
5204       gimplify_seq_add_stmt (pre_p, wce);
5205     }
5206 }
5207
5208 /* Gimplify a TARGET_EXPR which doesn't appear on the rhs of an INIT_EXPR.  */
5209
5210 static enum gimplify_status
5211 gimplify_target_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
5212 {
5213   tree targ = *expr_p;
5214   tree temp = TARGET_EXPR_SLOT (targ);
5215   tree init = TARGET_EXPR_INITIAL (targ);
5216   enum gimplify_status ret;
5217
5218   if (init)
5219     {
5220       /* TARGET_EXPR temps aren't part of the enclosing block, so add it
5221          to the temps list.  Handle also variable length TARGET_EXPRs.  */
5222       if (TREE_CODE (DECL_SIZE (temp)) != INTEGER_CST)
5223         {
5224           if (!TYPE_SIZES_GIMPLIFIED (TREE_TYPE (temp)))
5225             gimplify_type_sizes (TREE_TYPE (temp), pre_p);
5226           gimplify_vla_decl (temp, pre_p);
5227         }
5228       else
5229         gimple_add_tmp_var (temp);
5230
5231       /* If TARGET_EXPR_INITIAL is void, then the mere evaluation of the
5232          expression is supposed to initialize the slot.  */
5233       if (VOID_TYPE_P (TREE_TYPE (init)))
5234         ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5235       else
5236         {
5237           tree init_expr = build2 (INIT_EXPR, void_type_node, temp, init);
5238           init = init_expr;
5239           ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5240           init = NULL;
5241           ggc_free (init_expr);
5242         }
5243       if (ret == GS_ERROR)
5244         {
5245           /* PR c++/28266 Make sure this is expanded only once. */
5246           TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5247           return GS_ERROR;
5248         }
5249       if (init)
5250         gimplify_and_add (init, pre_p);
5251
5252       /* If needed, push the cleanup for the temp.  */
5253       if (TARGET_EXPR_CLEANUP (targ))
5254         gimple_push_cleanup (temp, TARGET_EXPR_CLEANUP (targ),
5255                              CLEANUP_EH_ONLY (targ), pre_p);
5256
5257       /* Only expand this once.  */
5258       TREE_OPERAND (targ, 3) = init;
5259       TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5260     }
5261   else
5262     /* We should have expanded this before.  */
5263     gcc_assert (DECL_SEEN_IN_BIND_EXPR_P (temp));
5264
5265   *expr_p = temp;
5266   return GS_OK;
5267 }
5268
5269 /* Gimplification of expression trees.  */
5270
5271 /* Gimplify an expression which appears at statement context.  The
5272    corresponding GIMPLE statements are added to *SEQ_P.  If *SEQ_P is
5273    NULL, a new sequence is allocated.
5274
5275    Return true if we actually added a statement to the queue.  */
5276
5277 bool
5278 gimplify_stmt (tree *stmt_p, gimple_seq *seq_p)
5279 {
5280   gimple_seq_node last;
5281
5282   if (!*seq_p)
5283     *seq_p = gimple_seq_alloc ();
5284
5285   last = gimple_seq_last (*seq_p);
5286   gimplify_expr (stmt_p, seq_p, NULL, is_gimple_stmt, fb_none);
5287   return last != gimple_seq_last (*seq_p);
5288 }
5289
5290
5291 /* Add FIRSTPRIVATE entries for DECL in the OpenMP the surrounding parallels
5292    to CTX.  If entries already exist, force them to be some flavor of private.
5293    If there is no enclosing parallel, do nothing.  */
5294
5295 void
5296 omp_firstprivatize_variable (struct gimplify_omp_ctx *ctx, tree decl)
5297 {
5298   splay_tree_node n;
5299
5300   if (decl == NULL || !DECL_P (decl))
5301     return;
5302
5303   do
5304     {
5305       n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5306       if (n != NULL)
5307         {
5308           if (n->value & GOVD_SHARED)
5309             n->value = GOVD_FIRSTPRIVATE | (n->value & GOVD_SEEN);
5310           else
5311             return;
5312         }
5313       else if (ctx->region_type != ORT_WORKSHARE)
5314         omp_add_variable (ctx, decl, GOVD_FIRSTPRIVATE);
5315
5316       ctx = ctx->outer_context;
5317     }
5318   while (ctx);
5319 }
5320
5321 /* Similarly for each of the type sizes of TYPE.  */
5322
5323 static void
5324 omp_firstprivatize_type_sizes (struct gimplify_omp_ctx *ctx, tree type)
5325 {
5326   if (type == NULL || type == error_mark_node)
5327     return;
5328   type = TYPE_MAIN_VARIANT (type);
5329
5330   if (pointer_set_insert (ctx->privatized_types, type))
5331     return;
5332
5333   switch (TREE_CODE (type))
5334     {
5335     case INTEGER_TYPE:
5336     case ENUMERAL_TYPE:
5337     case BOOLEAN_TYPE:
5338     case REAL_TYPE:
5339     case FIXED_POINT_TYPE:
5340       omp_firstprivatize_variable (ctx, TYPE_MIN_VALUE (type));
5341       omp_firstprivatize_variable (ctx, TYPE_MAX_VALUE (type));
5342       break;
5343
5344     case ARRAY_TYPE:
5345       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5346       omp_firstprivatize_type_sizes (ctx, TYPE_DOMAIN (type));
5347       break;
5348
5349     case RECORD_TYPE:
5350     case UNION_TYPE:
5351     case QUAL_UNION_TYPE:
5352       {
5353         tree field;
5354         for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
5355           if (TREE_CODE (field) == FIELD_DECL)
5356             {
5357               omp_firstprivatize_variable (ctx, DECL_FIELD_OFFSET (field));
5358               omp_firstprivatize_type_sizes (ctx, TREE_TYPE (field));
5359             }
5360       }
5361       break;
5362
5363     case POINTER_TYPE:
5364     case REFERENCE_TYPE:
5365       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5366       break;
5367
5368     default:
5369       break;
5370     }
5371
5372   omp_firstprivatize_variable (ctx, TYPE_SIZE (type));
5373   omp_firstprivatize_variable (ctx, TYPE_SIZE_UNIT (type));
5374   lang_hooks.types.omp_firstprivatize_type_sizes (ctx, type);
5375 }
5376
5377 /* Add an entry for DECL in the OpenMP context CTX with FLAGS.  */
5378
5379 static void
5380 omp_add_variable (struct gimplify_omp_ctx *ctx, tree decl, unsigned int flags)
5381 {
5382   splay_tree_node n;
5383   unsigned int nflags;
5384   tree t;
5385
5386   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5387     return;
5388
5389   /* Never elide decls whose type has TREE_ADDRESSABLE set.  This means
5390      there are constructors involved somewhere.  */
5391   if (TREE_ADDRESSABLE (TREE_TYPE (decl))
5392       || TYPE_NEEDS_CONSTRUCTING (TREE_TYPE (decl)))
5393     flags |= GOVD_SEEN;
5394
5395   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5396   if (n != NULL)
5397     {
5398       /* We shouldn't be re-adding the decl with the same data
5399          sharing class.  */
5400       gcc_assert ((n->value & GOVD_DATA_SHARE_CLASS & flags) == 0);
5401       /* The only combination of data sharing classes we should see is
5402          FIRSTPRIVATE and LASTPRIVATE.  */
5403       nflags = n->value | flags;
5404       gcc_assert ((nflags & GOVD_DATA_SHARE_CLASS)
5405                   == (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE));
5406       n->value = nflags;
5407       return;
5408     }
5409
5410   /* When adding a variable-sized variable, we have to handle all sorts
5411      of additional bits of data: the pointer replacement variable, and
5412      the parameters of the type.  */
5413   if (DECL_SIZE (decl) && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5414     {
5415       /* Add the pointer replacement variable as PRIVATE if the variable
5416          replacement is private, else FIRSTPRIVATE since we'll need the
5417          address of the original variable either for SHARED, or for the
5418          copy into or out of the context.  */
5419       if (!(flags & GOVD_LOCAL))
5420         {
5421           nflags = flags & GOVD_PRIVATE ? GOVD_PRIVATE : GOVD_FIRSTPRIVATE;
5422           nflags |= flags & GOVD_SEEN;
5423           t = DECL_VALUE_EXPR (decl);
5424           gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5425           t = TREE_OPERAND (t, 0);
5426           gcc_assert (DECL_P (t));
5427           omp_add_variable (ctx, t, nflags);
5428         }
5429
5430       /* Add all of the variable and type parameters (which should have
5431          been gimplified to a formal temporary) as FIRSTPRIVATE.  */
5432       omp_firstprivatize_variable (ctx, DECL_SIZE_UNIT (decl));
5433       omp_firstprivatize_variable (ctx, DECL_SIZE (decl));
5434       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5435
5436       /* The variable-sized variable itself is never SHARED, only some form
5437          of PRIVATE.  The sharing would take place via the pointer variable
5438          which we remapped above.  */
5439       if (flags & GOVD_SHARED)
5440         flags = GOVD_PRIVATE | GOVD_DEBUG_PRIVATE
5441                 | (flags & (GOVD_SEEN | GOVD_EXPLICIT));
5442
5443       /* We're going to make use of the TYPE_SIZE_UNIT at least in the
5444          alloca statement we generate for the variable, so make sure it
5445          is available.  This isn't automatically needed for the SHARED
5446          case, since we won't be allocating local storage then.
5447          For local variables TYPE_SIZE_UNIT might not be gimplified yet,
5448          in this case omp_notice_variable will be called later
5449          on when it is gimplified.  */
5450       else if (! (flags & GOVD_LOCAL))
5451         omp_notice_variable (ctx, TYPE_SIZE_UNIT (TREE_TYPE (decl)), true);
5452     }
5453   else if (lang_hooks.decls.omp_privatize_by_reference (decl))
5454     {
5455       gcc_assert ((flags & GOVD_LOCAL) == 0);
5456       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5457
5458       /* Similar to the direct variable sized case above, we'll need the
5459          size of references being privatized.  */
5460       if ((flags & GOVD_SHARED) == 0)
5461         {
5462           t = TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (decl)));
5463           if (TREE_CODE (t) != INTEGER_CST)
5464             omp_notice_variable (ctx, t, true);
5465         }
5466     }
5467
5468   splay_tree_insert (ctx->variables, (splay_tree_key)decl, flags);
5469 }
5470
5471 /* Record the fact that DECL was used within the OpenMP context CTX.
5472    IN_CODE is true when real code uses DECL, and false when we should
5473    merely emit default(none) errors.  Return true if DECL is going to
5474    be remapped and thus DECL shouldn't be gimplified into its
5475    DECL_VALUE_EXPR (if any).  */
5476
5477 static bool
5478 omp_notice_variable (struct gimplify_omp_ctx *ctx, tree decl, bool in_code)
5479 {
5480   splay_tree_node n;
5481   unsigned flags = in_code ? GOVD_SEEN : 0;
5482   bool ret = false, shared;
5483
5484   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5485     return false;
5486
5487   /* Threadprivate variables are predetermined.  */
5488   if (is_global_var (decl))
5489     {
5490       if (DECL_THREAD_LOCAL_P (decl))
5491         return false;
5492
5493       if (DECL_HAS_VALUE_EXPR_P (decl))
5494         {
5495           tree value = get_base_address (DECL_VALUE_EXPR (decl));
5496
5497           if (value && DECL_P (value) && DECL_THREAD_LOCAL_P (value))
5498             return false;
5499         }
5500     }
5501
5502   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5503   if (n == NULL)
5504     {
5505       enum omp_clause_default_kind default_kind, kind;
5506       struct gimplify_omp_ctx *octx;
5507
5508       if (ctx->region_type == ORT_WORKSHARE)
5509         goto do_outer;
5510
5511       /* ??? Some compiler-generated variables (like SAVE_EXPRs) could be
5512          remapped firstprivate instead of shared.  To some extent this is
5513          addressed in omp_firstprivatize_type_sizes, but not effectively.  */
5514       default_kind = ctx->default_kind;
5515       kind = lang_hooks.decls.omp_predetermined_sharing (decl);
5516       if (kind != OMP_CLAUSE_DEFAULT_UNSPECIFIED)
5517         default_kind = kind;
5518
5519       switch (default_kind)
5520         {
5521         case OMP_CLAUSE_DEFAULT_NONE:
5522           error ("%qE not specified in enclosing parallel",
5523                  DECL_NAME (decl));
5524           error_at (ctx->location, "enclosing parallel");
5525           /* FALLTHRU */
5526         case OMP_CLAUSE_DEFAULT_SHARED:
5527           flags |= GOVD_SHARED;
5528           break;
5529         case OMP_CLAUSE_DEFAULT_PRIVATE:
5530           flags |= GOVD_PRIVATE;
5531           break;
5532         case OMP_CLAUSE_DEFAULT_FIRSTPRIVATE:
5533           flags |= GOVD_FIRSTPRIVATE;
5534           break;
5535         case OMP_CLAUSE_DEFAULT_UNSPECIFIED:
5536           /* decl will be either GOVD_FIRSTPRIVATE or GOVD_SHARED.  */
5537           gcc_assert (ctx->region_type == ORT_TASK);
5538           if (ctx->outer_context)
5539             omp_notice_variable (ctx->outer_context, decl, in_code);
5540           for (octx = ctx->outer_context; octx; octx = octx->outer_context)
5541             {
5542               splay_tree_node n2;
5543
5544               n2 = splay_tree_lookup (octx->variables, (splay_tree_key) decl);
5545               if (n2 && (n2->value & GOVD_DATA_SHARE_CLASS) != GOVD_SHARED)
5546                 {
5547                   flags |= GOVD_FIRSTPRIVATE;
5548                   break;
5549                 }
5550               if ((octx->region_type & ORT_PARALLEL) != 0)
5551                 break;
5552             }
5553           if (flags & GOVD_FIRSTPRIVATE)
5554             break;
5555           if (octx == NULL
5556               && (TREE_CODE (decl) == PARM_DECL
5557                   || (!is_global_var (decl)
5558                       && DECL_CONTEXT (decl) == current_function_decl)))
5559             {
5560               flags |= GOVD_FIRSTPRIVATE;
5561               break;
5562             }
5563           flags |= GOVD_SHARED;
5564           break;
5565         default:
5566           gcc_unreachable ();
5567         }
5568
5569       if ((flags & GOVD_PRIVATE)
5570           && lang_hooks.decls.omp_private_outer_ref (decl))
5571         flags |= GOVD_PRIVATE_OUTER_REF;
5572
5573       omp_add_variable (ctx, decl, flags);
5574
5575       shared = (flags & GOVD_SHARED) != 0;
5576       ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5577       goto do_outer;
5578     }
5579
5580   if ((n->value & (GOVD_SEEN | GOVD_LOCAL)) == 0
5581       && (flags & (GOVD_SEEN | GOVD_LOCAL)) == GOVD_SEEN
5582       && DECL_SIZE (decl)
5583       && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5584     {
5585       splay_tree_node n2;
5586       tree t = DECL_VALUE_EXPR (decl);
5587       gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5588       t = TREE_OPERAND (t, 0);
5589       gcc_assert (DECL_P (t));
5590       n2 = splay_tree_lookup (ctx->variables, (splay_tree_key) t);
5591       n2->value |= GOVD_SEEN;
5592     }
5593
5594   shared = ((flags | n->value) & GOVD_SHARED) != 0;
5595   ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5596
5597   /* If nothing changed, there's nothing left to do.  */
5598   if ((n->value & flags) == flags)
5599     return ret;
5600   flags |= n->value;
5601   n->value = flags;
5602
5603  do_outer:
5604   /* If the variable is private in the current context, then we don't
5605      need to propagate anything to an outer context.  */
5606   if ((flags & GOVD_PRIVATE) && !(flags & GOVD_PRIVATE_OUTER_REF))
5607     return ret;
5608   if (ctx->outer_context
5609       && omp_notice_variable (ctx->outer_context, decl, in_code))
5610     return true;
5611   return ret;
5612 }
5613
5614 /* Verify that DECL is private within CTX.  If there's specific information
5615    to the contrary in the innermost scope, generate an error.  */
5616
5617 static bool
5618 omp_is_private (struct gimplify_omp_ctx *ctx, tree decl)
5619 {
5620   splay_tree_node n;
5621
5622   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5623   if (n != NULL)
5624     {
5625       if (n->value & GOVD_SHARED)
5626         {
5627           if (ctx == gimplify_omp_ctxp)
5628             {
5629               error ("iteration variable %qE should be private",
5630                      DECL_NAME (decl));
5631               n->value = GOVD_PRIVATE;
5632               return true;
5633             }
5634           else
5635             return false;
5636         }
5637       else if ((n->value & GOVD_EXPLICIT) != 0
5638                && (ctx == gimplify_omp_ctxp
5639                    || (ctx->region_type == ORT_COMBINED_PARALLEL
5640                        && gimplify_omp_ctxp->outer_context == ctx)))
5641         {
5642           if ((n->value & GOVD_FIRSTPRIVATE) != 0)
5643             error ("iteration variable %qE should not be firstprivate",
5644                    DECL_NAME (decl));
5645           else if ((n->value & GOVD_REDUCTION) != 0)
5646             error ("iteration variable %qE should not be reduction",
5647                    DECL_NAME (decl));
5648         }
5649       return (ctx == gimplify_omp_ctxp
5650               || (ctx->region_type == ORT_COMBINED_PARALLEL
5651                   && gimplify_omp_ctxp->outer_context == ctx));
5652     }
5653
5654   if (ctx->region_type != ORT_WORKSHARE)
5655     return false;
5656   else if (ctx->outer_context)
5657     return omp_is_private (ctx->outer_context, decl);
5658   return false;
5659 }
5660
5661 /* Return true if DECL is private within a parallel region
5662    that binds to the current construct's context or in parallel
5663    region's REDUCTION clause.  */
5664
5665 static bool
5666 omp_check_private (struct gimplify_omp_ctx *ctx, tree decl)
5667 {
5668   splay_tree_node n;
5669
5670   do
5671     {
5672       ctx = ctx->outer_context;
5673       if (ctx == NULL)
5674         return !(is_global_var (decl)
5675                  /* References might be private, but might be shared too.  */
5676                  || lang_hooks.decls.omp_privatize_by_reference (decl));
5677
5678       n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5679       if (n != NULL)
5680         return (n->value & GOVD_SHARED) == 0;
5681     }
5682   while (ctx->region_type == ORT_WORKSHARE);
5683   return false;
5684 }
5685
5686 /* Scan the OpenMP clauses in *LIST_P, installing mappings into a new
5687    and previous omp contexts.  */
5688
5689 static void
5690 gimplify_scan_omp_clauses (tree *list_p, gimple_seq *pre_p,
5691                            enum omp_region_type region_type)
5692 {
5693   struct gimplify_omp_ctx *ctx, *outer_ctx;
5694   struct gimplify_ctx gctx;
5695   tree c;
5696
5697   ctx = new_omp_context (region_type);
5698   outer_ctx = ctx->outer_context;
5699
5700   while ((c = *list_p) != NULL)
5701     {
5702       bool remove = false;
5703       bool notice_outer = true;
5704       const char *check_non_private = NULL;
5705       unsigned int flags;
5706       tree decl;
5707
5708       switch (OMP_CLAUSE_CODE (c))
5709         {
5710         case OMP_CLAUSE_PRIVATE:
5711           flags = GOVD_PRIVATE | GOVD_EXPLICIT;
5712           if (lang_hooks.decls.omp_private_outer_ref (OMP_CLAUSE_DECL (c)))
5713             {
5714               flags |= GOVD_PRIVATE_OUTER_REF;
5715               OMP_CLAUSE_PRIVATE_OUTER_REF (c) = 1;
5716             }
5717           else
5718             notice_outer = false;
5719           goto do_add;
5720         case OMP_CLAUSE_SHARED:
5721           flags = GOVD_SHARED | GOVD_EXPLICIT;
5722           goto do_add;
5723         case OMP_CLAUSE_FIRSTPRIVATE:
5724           flags = GOVD_FIRSTPRIVATE | GOVD_EXPLICIT;
5725           check_non_private = "firstprivate";
5726           goto do_add;
5727         case OMP_CLAUSE_LASTPRIVATE:
5728           flags = GOVD_LASTPRIVATE | GOVD_SEEN | GOVD_EXPLICIT;
5729           check_non_private = "lastprivate";
5730           goto do_add;
5731         case OMP_CLAUSE_REDUCTION:
5732           flags = GOVD_REDUCTION | GOVD_SEEN | GOVD_EXPLICIT;
5733           check_non_private = "reduction";
5734           goto do_add;
5735
5736         do_add:
5737           decl = OMP_CLAUSE_DECL (c);
5738           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5739             {
5740               remove = true;
5741               break;
5742             }
5743           omp_add_variable (ctx, decl, flags);
5744           if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_REDUCTION
5745               && OMP_CLAUSE_REDUCTION_PLACEHOLDER (c))
5746             {
5747               omp_add_variable (ctx, OMP_CLAUSE_REDUCTION_PLACEHOLDER (c),
5748                                 GOVD_LOCAL | GOVD_SEEN);
5749               gimplify_omp_ctxp = ctx;
5750               push_gimplify_context (&gctx);
5751
5752               OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c) = gimple_seq_alloc ();
5753               OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c) = gimple_seq_alloc ();
5754
5755               gimplify_and_add (OMP_CLAUSE_REDUCTION_INIT (c),
5756                                 &OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c));
5757               pop_gimplify_context
5758                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c)));
5759               push_gimplify_context (&gctx);
5760               gimplify_and_add (OMP_CLAUSE_REDUCTION_MERGE (c),
5761                                 &OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c));
5762               pop_gimplify_context
5763                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c)));
5764               OMP_CLAUSE_REDUCTION_INIT (c) = NULL_TREE;
5765               OMP_CLAUSE_REDUCTION_MERGE (c) = NULL_TREE;
5766
5767               gimplify_omp_ctxp = outer_ctx;
5768             }
5769           else if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
5770                    && OMP_CLAUSE_LASTPRIVATE_STMT (c))
5771             {
5772               gimplify_omp_ctxp = ctx;
5773               push_gimplify_context (&gctx);
5774               if (TREE_CODE (OMP_CLAUSE_LASTPRIVATE_STMT (c)) != BIND_EXPR)
5775                 {
5776                   tree bind = build3 (BIND_EXPR, void_type_node, NULL,
5777                                       NULL, NULL);
5778                   TREE_SIDE_EFFECTS (bind) = 1;
5779                   BIND_EXPR_BODY (bind) = OMP_CLAUSE_LASTPRIVATE_STMT (c);
5780                   OMP_CLAUSE_LASTPRIVATE_STMT (c) = bind;
5781                 }
5782               gimplify_and_add (OMP_CLAUSE_LASTPRIVATE_STMT (c),
5783                                 &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
5784               pop_gimplify_context
5785                 (gimple_seq_first_stmt (OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c)));
5786               OMP_CLAUSE_LASTPRIVATE_STMT (c) = NULL_TREE;
5787
5788               gimplify_omp_ctxp = outer_ctx;
5789             }
5790           if (notice_outer)
5791             goto do_notice;
5792           break;
5793
5794         case OMP_CLAUSE_COPYIN:
5795         case OMP_CLAUSE_COPYPRIVATE:
5796           decl = OMP_CLAUSE_DECL (c);
5797           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5798             {
5799               remove = true;
5800               break;
5801             }
5802         do_notice:
5803           if (outer_ctx)
5804             omp_notice_variable (outer_ctx, decl, true);
5805           if (check_non_private
5806               && region_type == ORT_WORKSHARE
5807               && omp_check_private (ctx, decl))
5808             {
5809               error ("%s variable %qE is private in outer context",
5810                      check_non_private, DECL_NAME (decl));
5811               remove = true;
5812             }
5813           break;
5814
5815         case OMP_CLAUSE_IF:
5816           OMP_CLAUSE_OPERAND (c, 0)
5817             = gimple_boolify (OMP_CLAUSE_OPERAND (c, 0));
5818           /* Fall through.  */
5819
5820         case OMP_CLAUSE_SCHEDULE:
5821         case OMP_CLAUSE_NUM_THREADS:
5822           if (gimplify_expr (&OMP_CLAUSE_OPERAND (c, 0), pre_p, NULL,
5823                              is_gimple_val, fb_rvalue) == GS_ERROR)
5824               remove = true;
5825           break;
5826
5827         case OMP_CLAUSE_NOWAIT:
5828         case OMP_CLAUSE_ORDERED:
5829         case OMP_CLAUSE_UNTIED:
5830         case OMP_CLAUSE_COLLAPSE:
5831           break;
5832
5833         case OMP_CLAUSE_DEFAULT:
5834           ctx->default_kind = OMP_CLAUSE_DEFAULT_KIND (c);
5835           break;
5836
5837         default:
5838           gcc_unreachable ();
5839         }
5840
5841       if (remove)
5842         *list_p = OMP_CLAUSE_CHAIN (c);
5843       else
5844         list_p = &OMP_CLAUSE_CHAIN (c);
5845     }
5846
5847   gimplify_omp_ctxp = ctx;
5848 }
5849
5850 /* For all variables that were not actually used within the context,
5851    remove PRIVATE, SHARED, and FIRSTPRIVATE clauses.  */
5852
5853 static int
5854 gimplify_adjust_omp_clauses_1 (splay_tree_node n, void *data)
5855 {
5856   tree *list_p = (tree *) data;
5857   tree decl = (tree) n->key;
5858   unsigned flags = n->value;
5859   enum omp_clause_code code;
5860   tree clause;
5861   bool private_debug;
5862
5863   if (flags & (GOVD_EXPLICIT | GOVD_LOCAL))
5864     return 0;
5865   if ((flags & GOVD_SEEN) == 0)
5866     return 0;
5867   if (flags & GOVD_DEBUG_PRIVATE)
5868     {
5869       gcc_assert ((flags & GOVD_DATA_SHARE_CLASS) == GOVD_PRIVATE);
5870       private_debug = true;
5871     }
5872   else
5873     private_debug
5874       = lang_hooks.decls.omp_private_debug_clause (decl,
5875                                                    !!(flags & GOVD_SHARED));
5876   if (private_debug)
5877     code = OMP_CLAUSE_PRIVATE;
5878   else if (flags & GOVD_SHARED)
5879     {
5880       if (is_global_var (decl))
5881         {
5882           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp->outer_context;
5883           while (ctx != NULL)
5884             {
5885               splay_tree_node on
5886                 = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5887               if (on && (on->value & (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE
5888                                       | GOVD_PRIVATE | GOVD_REDUCTION)) != 0)
5889                 break;
5890               ctx = ctx->outer_context;
5891             }
5892           if (ctx == NULL)
5893             return 0;
5894         }
5895       code = OMP_CLAUSE_SHARED;
5896     }
5897   else if (flags & GOVD_PRIVATE)
5898     code = OMP_CLAUSE_PRIVATE;
5899   else if (flags & GOVD_FIRSTPRIVATE)
5900     code = OMP_CLAUSE_FIRSTPRIVATE;
5901   else
5902     gcc_unreachable ();
5903
5904   clause = build_omp_clause (input_location, code);
5905   OMP_CLAUSE_DECL (clause) = decl;
5906   OMP_CLAUSE_CHAIN (clause) = *list_p;
5907   if (private_debug)
5908     OMP_CLAUSE_PRIVATE_DEBUG (clause) = 1;
5909   else if (code == OMP_CLAUSE_PRIVATE && (flags & GOVD_PRIVATE_OUTER_REF))
5910     OMP_CLAUSE_PRIVATE_OUTER_REF (clause) = 1;
5911   *list_p = clause;
5912   lang_hooks.decls.omp_finish_clause (clause);
5913
5914   return 0;
5915 }
5916
5917 static void
5918 gimplify_adjust_omp_clauses (tree *list_p)
5919 {
5920   struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
5921   tree c, decl;
5922
5923   while ((c = *list_p) != NULL)
5924     {
5925       splay_tree_node n;
5926       bool remove = false;
5927
5928       switch (OMP_CLAUSE_CODE (c))
5929         {
5930         case OMP_CLAUSE_PRIVATE:
5931         case OMP_CLAUSE_SHARED:
5932         case OMP_CLAUSE_FIRSTPRIVATE:
5933           decl = OMP_CLAUSE_DECL (c);
5934           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5935           remove = !(n->value & GOVD_SEEN);
5936           if (! remove)
5937             {
5938               bool shared = OMP_CLAUSE_CODE (c) == OMP_CLAUSE_SHARED;
5939               if ((n->value & GOVD_DEBUG_PRIVATE)
5940                   || lang_hooks.decls.omp_private_debug_clause (decl, shared))
5941                 {
5942                   gcc_assert ((n->value & GOVD_DEBUG_PRIVATE) == 0
5943                               || ((n->value & GOVD_DATA_SHARE_CLASS)
5944                                   == GOVD_PRIVATE));
5945                   OMP_CLAUSE_SET_CODE (c, OMP_CLAUSE_PRIVATE);
5946                   OMP_CLAUSE_PRIVATE_DEBUG (c) = 1;
5947                 }
5948             }
5949           break;
5950
5951         case OMP_CLAUSE_LASTPRIVATE:
5952           /* Make sure OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE is set to
5953              accurately reflect the presence of a FIRSTPRIVATE clause.  */
5954           decl = OMP_CLAUSE_DECL (c);
5955           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5956           OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE (c)
5957             = (n->value & GOVD_FIRSTPRIVATE) != 0;
5958           break;
5959
5960         case OMP_CLAUSE_REDUCTION:
5961         case OMP_CLAUSE_COPYIN:
5962         case OMP_CLAUSE_COPYPRIVATE:
5963         case OMP_CLAUSE_IF:
5964         case OMP_CLAUSE_NUM_THREADS:
5965         case OMP_CLAUSE_SCHEDULE:
5966         case OMP_CLAUSE_NOWAIT:
5967         case OMP_CLAUSE_ORDERED:
5968         case OMP_CLAUSE_DEFAULT:
5969         case OMP_CLAUSE_UNTIED:
5970         case OMP_CLAUSE_COLLAPSE:
5971           break;
5972
5973         default:
5974           gcc_unreachable ();
5975         }
5976
5977       if (remove)
5978         *list_p = OMP_CLAUSE_CHAIN (c);
5979       else
5980         list_p = &OMP_CLAUSE_CHAIN (c);
5981     }
5982
5983   /* Add in any implicit data sharing.  */
5984   splay_tree_foreach (ctx->variables, gimplify_adjust_omp_clauses_1, list_p);
5985
5986   gimplify_omp_ctxp = ctx->outer_context;
5987   delete_omp_context (ctx);
5988 }
5989
5990 /* Gimplify the contents of an OMP_PARALLEL statement.  This involves
5991    gimplification of the body, as well as scanning the body for used
5992    variables.  We need to do this scan now, because variable-sized
5993    decls will be decomposed during gimplification.  */
5994
5995 static void
5996 gimplify_omp_parallel (tree *expr_p, gimple_seq *pre_p)
5997 {
5998   tree expr = *expr_p;
5999   gimple g;
6000   gimple_seq body = NULL;
6001   struct gimplify_ctx gctx;
6002
6003   gimplify_scan_omp_clauses (&OMP_PARALLEL_CLAUSES (expr), pre_p,
6004                              OMP_PARALLEL_COMBINED (expr)
6005                              ? ORT_COMBINED_PARALLEL
6006                              : ORT_PARALLEL);
6007
6008   push_gimplify_context (&gctx);
6009
6010   g = gimplify_and_return_first (OMP_PARALLEL_BODY (expr), &body);
6011   if (gimple_code (g) == GIMPLE_BIND)
6012     pop_gimplify_context (g);
6013   else
6014     pop_gimplify_context (NULL);
6015
6016   gimplify_adjust_omp_clauses (&OMP_PARALLEL_CLAUSES (expr));
6017
6018   g = gimple_build_omp_parallel (body,
6019                                  OMP_PARALLEL_CLAUSES (expr),
6020                                  NULL_TREE, NULL_TREE);
6021   if (OMP_PARALLEL_COMBINED (expr))
6022     gimple_omp_set_subcode (g, GF_OMP_PARALLEL_COMBINED);
6023   gimplify_seq_add_stmt (pre_p, g);
6024   *expr_p = NULL_TREE;
6025 }
6026
6027 /* Gimplify the contents of an OMP_TASK statement.  This involves
6028    gimplification of the body, as well as scanning the body for used
6029    variables.  We need to do this scan now, because variable-sized
6030    decls will be decomposed during gimplification.  */
6031
6032 static void
6033 gimplify_omp_task (tree *expr_p, gimple_seq *pre_p)
6034 {
6035   tree expr = *expr_p;
6036   gimple g;
6037   gimple_seq body = NULL;
6038   struct gimplify_ctx gctx;
6039
6040   gimplify_scan_omp_clauses (&OMP_TASK_CLAUSES (expr), pre_p, ORT_TASK);
6041
6042   push_gimplify_context (&gctx);
6043
6044   g = gimplify_and_return_first (OMP_TASK_BODY (expr), &body);
6045   if (gimple_code (g) == GIMPLE_BIND)
6046     pop_gimplify_context (g);
6047   else
6048     pop_gimplify_context (NULL);
6049
6050   gimplify_adjust_omp_clauses (&OMP_TASK_CLAUSES (expr));
6051
6052   g = gimple_build_omp_task (body,
6053                              OMP_TASK_CLAUSES (expr),
6054                              NULL_TREE, NULL_TREE,
6055                              NULL_TREE, NULL_TREE, NULL_TREE);
6056   gimplify_seq_add_stmt (pre_p, g);
6057   *expr_p = NULL_TREE;
6058 }
6059
6060 /* Gimplify the gross structure of an OMP_FOR statement.  */
6061
6062 static enum gimplify_status
6063 gimplify_omp_for (tree *expr_p, gimple_seq *pre_p)
6064 {
6065   tree for_stmt, decl, var, t;
6066   enum gimplify_status ret = GS_ALL_DONE;
6067   enum gimplify_status tret;
6068   gimple gfor;
6069   gimple_seq for_body, for_pre_body;
6070   int i;
6071
6072   for_stmt = *expr_p;
6073
6074   gimplify_scan_omp_clauses (&OMP_FOR_CLAUSES (for_stmt), pre_p,
6075                              ORT_WORKSHARE);
6076
6077   /* Handle OMP_FOR_INIT.  */
6078   for_pre_body = NULL;
6079   gimplify_and_add (OMP_FOR_PRE_BODY (for_stmt), &for_pre_body);
6080   OMP_FOR_PRE_BODY (for_stmt) = NULL_TREE;
6081
6082   for_body = gimple_seq_alloc ();
6083   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6084               == TREE_VEC_LENGTH (OMP_FOR_COND (for_stmt)));
6085   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6086               == TREE_VEC_LENGTH (OMP_FOR_INCR (for_stmt)));
6087   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6088     {
6089       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6090       gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6091       decl = TREE_OPERAND (t, 0);
6092       gcc_assert (DECL_P (decl));
6093       gcc_assert (INTEGRAL_TYPE_P (TREE_TYPE (decl))
6094                   || POINTER_TYPE_P (TREE_TYPE (decl)));
6095
6096       /* Make sure the iteration variable is private.  */
6097       if (omp_is_private (gimplify_omp_ctxp, decl))
6098         omp_notice_variable (gimplify_omp_ctxp, decl, true);
6099       else
6100         omp_add_variable (gimplify_omp_ctxp, decl, GOVD_PRIVATE | GOVD_SEEN);
6101
6102       /* If DECL is not a gimple register, create a temporary variable to act
6103          as an iteration counter.  This is valid, since DECL cannot be
6104          modified in the body of the loop.  */
6105       if (!is_gimple_reg (decl))
6106         {
6107           var = create_tmp_var (TREE_TYPE (decl), get_name (decl));
6108           TREE_OPERAND (t, 0) = var;
6109
6110           gimplify_seq_add_stmt (&for_body, gimple_build_assign (decl, var));
6111
6112           omp_add_variable (gimplify_omp_ctxp, var, GOVD_PRIVATE | GOVD_SEEN);
6113         }
6114       else
6115         var = decl;
6116
6117       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6118                             is_gimple_val, fb_rvalue);
6119       ret = MIN (ret, tret);
6120       if (ret == GS_ERROR)
6121         return ret;
6122
6123       /* Handle OMP_FOR_COND.  */
6124       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6125       gcc_assert (COMPARISON_CLASS_P (t));
6126       gcc_assert (TREE_OPERAND (t, 0) == decl);
6127
6128       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6129                             is_gimple_val, fb_rvalue);
6130       ret = MIN (ret, tret);
6131
6132       /* Handle OMP_FOR_INCR.  */
6133       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6134       switch (TREE_CODE (t))
6135         {
6136         case PREINCREMENT_EXPR:
6137         case POSTINCREMENT_EXPR:
6138           t = build_int_cst (TREE_TYPE (decl), 1);
6139           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6140           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6141           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6142           break;
6143
6144         case PREDECREMENT_EXPR:
6145         case POSTDECREMENT_EXPR:
6146           t = build_int_cst (TREE_TYPE (decl), -1);
6147           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6148           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6149           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6150           break;
6151
6152         case MODIFY_EXPR:
6153           gcc_assert (TREE_OPERAND (t, 0) == decl);
6154           TREE_OPERAND (t, 0) = var;
6155
6156           t = TREE_OPERAND (t, 1);
6157           switch (TREE_CODE (t))
6158             {
6159             case PLUS_EXPR:
6160               if (TREE_OPERAND (t, 1) == decl)
6161                 {
6162                   TREE_OPERAND (t, 1) = TREE_OPERAND (t, 0);
6163                   TREE_OPERAND (t, 0) = var;
6164                   break;
6165                 }
6166
6167               /* Fallthru.  */
6168             case MINUS_EXPR:
6169             case POINTER_PLUS_EXPR:
6170               gcc_assert (TREE_OPERAND (t, 0) == decl);
6171               TREE_OPERAND (t, 0) = var;
6172               break;
6173             default:
6174               gcc_unreachable ();
6175             }
6176
6177           tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6178                                 is_gimple_val, fb_rvalue);
6179           ret = MIN (ret, tret);
6180           break;
6181
6182         default:
6183           gcc_unreachable ();
6184         }
6185
6186       if (var != decl || TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)) > 1)
6187         {
6188           tree c;
6189           for (c = OMP_FOR_CLAUSES (for_stmt); c ; c = OMP_CLAUSE_CHAIN (c))
6190             if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
6191                 && OMP_CLAUSE_DECL (c) == decl
6192                 && OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c) == NULL)
6193               {
6194                 t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6195                 gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6196                 gcc_assert (TREE_OPERAND (t, 0) == var);
6197                 t = TREE_OPERAND (t, 1);
6198                 gcc_assert (TREE_CODE (t) == PLUS_EXPR
6199                             || TREE_CODE (t) == MINUS_EXPR
6200                             || TREE_CODE (t) == POINTER_PLUS_EXPR);
6201                 gcc_assert (TREE_OPERAND (t, 0) == var);
6202                 t = build2 (TREE_CODE (t), TREE_TYPE (decl), decl,
6203                             TREE_OPERAND (t, 1));
6204                 gimplify_assign (decl, t,
6205                                  &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
6206             }
6207         }
6208     }
6209
6210   gimplify_and_add (OMP_FOR_BODY (for_stmt), &for_body);
6211
6212   gimplify_adjust_omp_clauses (&OMP_FOR_CLAUSES (for_stmt));
6213
6214   gfor = gimple_build_omp_for (for_body, OMP_FOR_CLAUSES (for_stmt),
6215                                TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)),
6216                                for_pre_body);
6217
6218   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6219     {
6220       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6221       gimple_omp_for_set_index (gfor, i, TREE_OPERAND (t, 0));
6222       gimple_omp_for_set_initial (gfor, i, TREE_OPERAND (t, 1));
6223       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6224       gimple_omp_for_set_cond (gfor, i, TREE_CODE (t));
6225       gimple_omp_for_set_final (gfor, i, TREE_OPERAND (t, 1));
6226       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6227       gimple_omp_for_set_incr (gfor, i, TREE_OPERAND (t, 1));
6228     }
6229
6230   gimplify_seq_add_stmt (pre_p, gfor);
6231   return ret == GS_ALL_DONE ? GS_ALL_DONE : GS_ERROR;
6232 }
6233
6234 /* Gimplify the gross structure of other OpenMP worksharing constructs.
6235    In particular, OMP_SECTIONS and OMP_SINGLE.  */
6236
6237 static void
6238 gimplify_omp_workshare (tree *expr_p, gimple_seq *pre_p)
6239 {
6240   tree expr = *expr_p;
6241   gimple stmt;
6242   gimple_seq body = NULL;
6243
6244   gimplify_scan_omp_clauses (&OMP_CLAUSES (expr), pre_p, ORT_WORKSHARE);
6245   gimplify_and_add (OMP_BODY (expr), &body);
6246   gimplify_adjust_omp_clauses (&OMP_CLAUSES (expr));
6247
6248   if (TREE_CODE (expr) == OMP_SECTIONS)
6249     stmt = gimple_build_omp_sections (body, OMP_CLAUSES (expr));
6250   else if (TREE_CODE (expr) == OMP_SINGLE)
6251     stmt = gimple_build_omp_single (body, OMP_CLAUSES (expr));
6252   else
6253     gcc_unreachable ();
6254
6255   gimplify_seq_add_stmt (pre_p, stmt);
6256 }
6257
6258 /* A subroutine of gimplify_omp_atomic.  The front end is supposed to have
6259    stabilized the lhs of the atomic operation as *ADDR.  Return true if
6260    EXPR is this stabilized form.  */
6261
6262 static bool
6263 goa_lhs_expr_p (tree expr, tree addr)
6264 {
6265   /* Also include casts to other type variants.  The C front end is fond
6266      of adding these for e.g. volatile variables.  This is like
6267      STRIP_TYPE_NOPS but includes the main variant lookup.  */
6268   STRIP_USELESS_TYPE_CONVERSION (expr);
6269
6270   if (TREE_CODE (expr) == INDIRECT_REF)
6271     {
6272       expr = TREE_OPERAND (expr, 0);
6273       while (expr != addr
6274              && (CONVERT_EXPR_P (expr)
6275                  || TREE_CODE (expr) == NON_LVALUE_EXPR)
6276              && TREE_CODE (expr) == TREE_CODE (addr)
6277              && types_compatible_p (TREE_TYPE (expr), TREE_TYPE (addr)))
6278         {
6279           expr = TREE_OPERAND (expr, 0);
6280           addr = TREE_OPERAND (addr, 0);
6281         }
6282       if (expr == addr)
6283         return true;
6284       return (TREE_CODE (addr) == ADDR_EXPR
6285               && TREE_CODE (expr) == ADDR_EXPR
6286               && TREE_OPERAND (addr, 0) == TREE_OPERAND (expr, 0));
6287     }
6288   if (TREE_CODE (addr) == ADDR_EXPR && expr == TREE_OPERAND (addr, 0))
6289     return true;
6290   return false;
6291 }
6292
6293 /* Walk *EXPR_P and replace
6294    appearances of *LHS_ADDR with LHS_VAR.  If an expression does not involve
6295    the lhs, evaluate it into a temporary.  Return 1 if the lhs appeared as
6296    a subexpression, 0 if it did not, or -1 if an error was encountered.  */
6297
6298 static int
6299 goa_stabilize_expr (tree *expr_p, gimple_seq *pre_p, tree lhs_addr,
6300                     tree lhs_var)
6301 {
6302   tree expr = *expr_p;
6303   int saw_lhs;
6304
6305   if (goa_lhs_expr_p (expr, lhs_addr))
6306     {
6307       *expr_p = lhs_var;
6308       return 1;
6309     }
6310   if (is_gimple_val (expr))
6311     return 0;
6312
6313   saw_lhs = 0;
6314   switch (TREE_CODE_CLASS (TREE_CODE (expr)))
6315     {
6316     case tcc_binary:
6317     case tcc_comparison:
6318       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p, lhs_addr,
6319                                      lhs_var);
6320     case tcc_unary:
6321       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p, lhs_addr,
6322                                      lhs_var);
6323       break;
6324     case tcc_expression:
6325       switch (TREE_CODE (expr))
6326         {
6327         case TRUTH_ANDIF_EXPR:
6328         case TRUTH_ORIF_EXPR:
6329           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p,
6330                                          lhs_addr, lhs_var);
6331           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p,
6332                                          lhs_addr, lhs_var);
6333           break;
6334         default:
6335           break;
6336         }
6337       break;
6338     default:
6339       break;
6340     }
6341
6342   if (saw_lhs == 0)
6343     {
6344       enum gimplify_status gs;
6345       gs = gimplify_expr (expr_p, pre_p, NULL, is_gimple_val, fb_rvalue);
6346       if (gs != GS_ALL_DONE)
6347         saw_lhs = -1;
6348     }
6349
6350   return saw_lhs;
6351 }
6352
6353
6354 /* Gimplify an OMP_ATOMIC statement.  */
6355
6356 static enum gimplify_status
6357 gimplify_omp_atomic (tree *expr_p, gimple_seq *pre_p)
6358 {
6359   tree addr = TREE_OPERAND (*expr_p, 0);
6360   tree rhs = TREE_OPERAND (*expr_p, 1);
6361   tree type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (addr)));
6362   tree tmp_load;
6363
6364    tmp_load = create_tmp_reg (type, NULL);
6365    if (goa_stabilize_expr (&rhs, pre_p, addr, tmp_load) < 0)
6366      return GS_ERROR;
6367
6368    if (gimplify_expr (&addr, pre_p, NULL, is_gimple_val, fb_rvalue)
6369        != GS_ALL_DONE)
6370      return GS_ERROR;
6371
6372    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_load (tmp_load, addr));
6373    if (gimplify_expr (&rhs, pre_p, NULL, is_gimple_val, fb_rvalue)
6374        != GS_ALL_DONE)
6375      return GS_ERROR;
6376    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_store (rhs));
6377    *expr_p = NULL;
6378
6379    return GS_ALL_DONE;
6380 }
6381
6382
6383 /* Converts the GENERIC expression tree *EXPR_P to GIMPLE.  If the
6384    expression produces a value to be used as an operand inside a GIMPLE
6385    statement, the value will be stored back in *EXPR_P.  This value will
6386    be a tree of class tcc_declaration, tcc_constant, tcc_reference or
6387    an SSA_NAME.  The corresponding sequence of GIMPLE statements is
6388    emitted in PRE_P and POST_P.
6389
6390    Additionally, this process may overwrite parts of the input
6391    expression during gimplification.  Ideally, it should be
6392    possible to do non-destructive gimplification.
6393
6394    EXPR_P points to the GENERIC expression to convert to GIMPLE.  If
6395       the expression needs to evaluate to a value to be used as
6396       an operand in a GIMPLE statement, this value will be stored in
6397       *EXPR_P on exit.  This happens when the caller specifies one
6398       of fb_lvalue or fb_rvalue fallback flags.
6399
6400    PRE_P will contain the sequence of GIMPLE statements corresponding
6401        to the evaluation of EXPR and all the side-effects that must
6402        be executed before the main expression.  On exit, the last
6403        statement of PRE_P is the core statement being gimplified.  For
6404        instance, when gimplifying 'if (++a)' the last statement in
6405        PRE_P will be 'if (t.1)' where t.1 is the result of
6406        pre-incrementing 'a'.
6407
6408    POST_P will contain the sequence of GIMPLE statements corresponding
6409        to the evaluation of all the side-effects that must be executed
6410        after the main expression.  If this is NULL, the post
6411        side-effects are stored at the end of PRE_P.
6412
6413        The reason why the output is split in two is to handle post
6414        side-effects explicitly.  In some cases, an expression may have
6415        inner and outer post side-effects which need to be emitted in
6416        an order different from the one given by the recursive
6417        traversal.  For instance, for the expression (*p--)++ the post
6418        side-effects of '--' must actually occur *after* the post
6419        side-effects of '++'.  However, gimplification will first visit
6420        the inner expression, so if a separate POST sequence was not
6421        used, the resulting sequence would be:
6422
6423             1   t.1 = *p
6424             2   p = p - 1
6425             3   t.2 = t.1 + 1
6426             4   *p = t.2
6427
6428        However, the post-decrement operation in line #2 must not be
6429        evaluated until after the store to *p at line #4, so the
6430        correct sequence should be:
6431
6432             1   t.1 = *p
6433             2   t.2 = t.1 + 1
6434             3   *p = t.2
6435             4   p = p - 1
6436
6437        So, by specifying a separate post queue, it is possible
6438        to emit the post side-effects in the correct order.
6439        If POST_P is NULL, an internal queue will be used.  Before
6440        returning to the caller, the sequence POST_P is appended to
6441        the main output sequence PRE_P.
6442
6443    GIMPLE_TEST_F points to a function that takes a tree T and
6444        returns nonzero if T is in the GIMPLE form requested by the
6445        caller.  The GIMPLE predicates are in tree-gimple.c.
6446
6447    FALLBACK tells the function what sort of a temporary we want if
6448        gimplification cannot produce an expression that complies with
6449        GIMPLE_TEST_F.
6450
6451        fb_none means that no temporary should be generated
6452        fb_rvalue means that an rvalue is OK to generate
6453        fb_lvalue means that an lvalue is OK to generate
6454        fb_either means that either is OK, but an lvalue is preferable.
6455        fb_mayfail means that gimplification may fail (in which case
6456        GS_ERROR will be returned)
6457
6458    The return value is either GS_ERROR or GS_ALL_DONE, since this
6459    function iterates until EXPR is completely gimplified or an error
6460    occurs.  */
6461
6462 enum gimplify_status
6463 gimplify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
6464                bool (*gimple_test_f) (tree), fallback_t fallback)
6465 {
6466   tree tmp;
6467   gimple_seq internal_pre = NULL;
6468   gimple_seq internal_post = NULL;
6469   tree save_expr;
6470   bool is_statement;
6471   location_t saved_location;
6472   enum gimplify_status ret;
6473   gimple_stmt_iterator pre_last_gsi, post_last_gsi;
6474
6475   save_expr = *expr_p;
6476   if (save_expr == NULL_TREE)
6477     return GS_ALL_DONE;
6478
6479   /* If we are gimplifying a top-level statement, PRE_P must be valid.  */
6480   is_statement = gimple_test_f == is_gimple_stmt;
6481   if (is_statement)
6482     gcc_assert (pre_p);
6483
6484   /* Consistency checks.  */
6485   if (gimple_test_f == is_gimple_reg)
6486     gcc_assert (fallback & (fb_rvalue | fb_lvalue));
6487   else if (gimple_test_f == is_gimple_val
6488            || gimple_test_f == is_gimple_call_addr
6489            || gimple_test_f == is_gimple_condexpr
6490            || gimple_test_f == is_gimple_mem_rhs
6491            || gimple_test_f == is_gimple_mem_rhs_or_call
6492            || gimple_test_f == is_gimple_reg_rhs
6493            || gimple_test_f == is_gimple_reg_rhs_or_call
6494            || gimple_test_f == is_gimple_asm_val)
6495     gcc_assert (fallback & fb_rvalue);
6496   else if (gimple_test_f == is_gimple_min_lval
6497            || gimple_test_f == is_gimple_lvalue)
6498     gcc_assert (fallback & fb_lvalue);
6499   else if (gimple_test_f == is_gimple_addressable)
6500     gcc_assert (fallback & fb_either);
6501   else if (gimple_test_f == is_gimple_stmt)
6502     gcc_assert (fallback == fb_none);
6503   else
6504     {
6505       /* We should have recognized the GIMPLE_TEST_F predicate to
6506          know what kind of fallback to use in case a temporary is
6507          needed to hold the value or address of *EXPR_P.  */
6508       gcc_unreachable ();
6509     }
6510
6511   /* We used to check the predicate here and return immediately if it
6512      succeeds.  This is wrong; the design is for gimplification to be
6513      idempotent, and for the predicates to only test for valid forms, not
6514      whether they are fully simplified.  */
6515   if (pre_p == NULL)
6516     pre_p = &internal_pre;
6517
6518   if (post_p == NULL)
6519     post_p = &internal_post;
6520
6521   /* Remember the last statements added to PRE_P and POST_P.  Every
6522      new statement added by the gimplification helpers needs to be
6523      annotated with location information.  To centralize the
6524      responsibility, we remember the last statement that had been
6525      added to both queues before gimplifying *EXPR_P.  If
6526      gimplification produces new statements in PRE_P and POST_P, those
6527      statements will be annotated with the same location information
6528      as *EXPR_P.  */
6529   pre_last_gsi = gsi_last (*pre_p);
6530   post_last_gsi = gsi_last (*post_p);
6531
6532   saved_location = input_location;
6533   if (save_expr != error_mark_node
6534       && EXPR_HAS_LOCATION (*expr_p))
6535     input_location = EXPR_LOCATION (*expr_p);
6536
6537   /* Loop over the specific gimplifiers until the toplevel node
6538      remains the same.  */
6539   do
6540     {
6541       /* Strip away as many useless type conversions as possible
6542          at the toplevel.  */
6543       STRIP_USELESS_TYPE_CONVERSION (*expr_p);
6544
6545       /* Remember the expr.  */
6546       save_expr = *expr_p;
6547
6548       /* Die, die, die, my darling.  */
6549       if (save_expr == error_mark_node
6550           || (TREE_TYPE (save_expr)
6551               && TREE_TYPE (save_expr) == error_mark_node))
6552         {
6553           ret = GS_ERROR;
6554           break;
6555         }
6556
6557       /* Do any language-specific gimplification.  */
6558       ret = ((enum gimplify_status)
6559              lang_hooks.gimplify_expr (expr_p, pre_p, post_p));
6560       if (ret == GS_OK)
6561         {
6562           if (*expr_p == NULL_TREE)
6563             break;
6564           if (*expr_p != save_expr)
6565             continue;
6566         }
6567       else if (ret != GS_UNHANDLED)
6568         break;
6569
6570       ret = GS_OK;
6571       switch (TREE_CODE (*expr_p))
6572         {
6573           /* First deal with the special cases.  */
6574
6575         case POSTINCREMENT_EXPR:
6576         case POSTDECREMENT_EXPR:
6577         case PREINCREMENT_EXPR:
6578         case PREDECREMENT_EXPR:
6579           ret = gimplify_self_mod_expr (expr_p, pre_p, post_p,
6580                                         fallback != fb_none);
6581           break;
6582
6583         case ARRAY_REF:
6584         case ARRAY_RANGE_REF:
6585         case REALPART_EXPR:
6586         case IMAGPART_EXPR:
6587         case COMPONENT_REF:
6588         case VIEW_CONVERT_EXPR:
6589           ret = gimplify_compound_lval (expr_p, pre_p, post_p,
6590                                         fallback ? fallback : fb_rvalue);
6591           break;
6592
6593         case COND_EXPR:
6594           ret = gimplify_cond_expr (expr_p, pre_p, fallback);
6595
6596           /* C99 code may assign to an array in a structure value of a
6597              conditional expression, and this has undefined behavior
6598              only on execution, so create a temporary if an lvalue is
6599              required.  */
6600           if (fallback == fb_lvalue)
6601             {
6602               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6603               mark_addressable (*expr_p);
6604             }
6605           break;
6606
6607         case CALL_EXPR:
6608           ret = gimplify_call_expr (expr_p, pre_p, fallback != fb_none);
6609
6610           /* C99 code may assign to an array in a structure returned
6611              from a function, and this has undefined behavior only on
6612              execution, so create a temporary if an lvalue is
6613              required.  */
6614           if (fallback == fb_lvalue)
6615             {
6616               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6617               mark_addressable (*expr_p);
6618             }
6619           break;
6620
6621         case TREE_LIST:
6622           gcc_unreachable ();
6623
6624         case COMPOUND_EXPR:
6625           ret = gimplify_compound_expr (expr_p, pre_p, fallback != fb_none);
6626           break;
6627
6628         case COMPOUND_LITERAL_EXPR:
6629           ret = gimplify_compound_literal_expr (expr_p, pre_p);
6630           break;
6631
6632         case MODIFY_EXPR:
6633         case INIT_EXPR:
6634           ret = gimplify_modify_expr (expr_p, pre_p, post_p,
6635                                       fallback != fb_none);
6636           break;
6637
6638         case TRUTH_ANDIF_EXPR:
6639         case TRUTH_ORIF_EXPR:
6640           /* Pass the source location of the outer expression.  */
6641           ret = gimplify_boolean_expr (expr_p, saved_location);
6642           break;
6643
6644         case TRUTH_NOT_EXPR:
6645           if (TREE_CODE (TREE_TYPE (*expr_p)) != BOOLEAN_TYPE)
6646             {
6647               tree type = TREE_TYPE (*expr_p);
6648               *expr_p = fold_convert (type, gimple_boolify (*expr_p));
6649               ret = GS_OK;
6650               break;
6651             }
6652
6653           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6654                                is_gimple_val, fb_rvalue);
6655           recalculate_side_effects (*expr_p);
6656           break;
6657
6658         case ADDR_EXPR:
6659           ret = gimplify_addr_expr (expr_p, pre_p, post_p);
6660           break;
6661
6662         case VA_ARG_EXPR:
6663           ret = gimplify_va_arg_expr (expr_p, pre_p, post_p);
6664           break;
6665
6666         CASE_CONVERT:
6667           if (IS_EMPTY_STMT (*expr_p))
6668             {
6669               ret = GS_ALL_DONE;
6670               break;
6671             }
6672
6673           if (VOID_TYPE_P (TREE_TYPE (*expr_p))
6674               || fallback == fb_none)
6675             {
6676               /* Just strip a conversion to void (or in void context) and
6677                  try again.  */
6678               *expr_p = TREE_OPERAND (*expr_p, 0);
6679               break;
6680             }
6681
6682           ret = gimplify_conversion (expr_p);
6683           if (ret == GS_ERROR)
6684             break;
6685           if (*expr_p != save_expr)
6686             break;
6687           /* FALLTHRU */
6688
6689         case FIX_TRUNC_EXPR:
6690           /* unary_expr: ... | '(' cast ')' val | ...  */
6691           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6692                                is_gimple_val, fb_rvalue);
6693           recalculate_side_effects (*expr_p);
6694           break;
6695
6696         case INDIRECT_REF:
6697           *expr_p = fold_indirect_ref_loc (input_location, *expr_p);
6698           if (*expr_p != save_expr)
6699             break;
6700           /* else fall through.  */
6701         case ALIGN_INDIRECT_REF:
6702         case MISALIGNED_INDIRECT_REF:
6703           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6704                                is_gimple_reg, fb_rvalue);
6705           recalculate_side_effects (*expr_p);
6706           break;
6707
6708           /* Constants need not be gimplified.  */
6709         case INTEGER_CST:
6710         case REAL_CST:
6711         case FIXED_CST:
6712         case STRING_CST:
6713         case COMPLEX_CST:
6714         case VECTOR_CST:
6715           ret = GS_ALL_DONE;
6716           break;
6717
6718         case CONST_DECL:
6719           /* If we require an lvalue, such as for ADDR_EXPR, retain the
6720              CONST_DECL node.  Otherwise the decl is replaceable by its
6721              value.  */
6722           /* ??? Should be == fb_lvalue, but ADDR_EXPR passes fb_either.  */
6723           if (fallback & fb_lvalue)
6724             ret = GS_ALL_DONE;
6725           else
6726             *expr_p = DECL_INITIAL (*expr_p);
6727           break;
6728
6729         case DECL_EXPR:
6730           ret = gimplify_decl_expr (expr_p, pre_p);
6731           break;
6732
6733         case BIND_EXPR:
6734           ret = gimplify_bind_expr (expr_p, pre_p);
6735           break;
6736
6737         case LOOP_EXPR:
6738           ret = gimplify_loop_expr (expr_p, pre_p);
6739           break;
6740
6741         case SWITCH_EXPR:
6742           ret = gimplify_switch_expr (expr_p, pre_p);
6743           break;
6744
6745         case EXIT_EXPR:
6746           ret = gimplify_exit_expr (expr_p);
6747           break;
6748
6749         case GOTO_EXPR:
6750           /* If the target is not LABEL, then it is a computed jump
6751              and the target needs to be gimplified.  */
6752           if (TREE_CODE (GOTO_DESTINATION (*expr_p)) != LABEL_DECL)
6753             {
6754               ret = gimplify_expr (&GOTO_DESTINATION (*expr_p), pre_p,
6755                                    NULL, is_gimple_val, fb_rvalue);
6756               if (ret == GS_ERROR)
6757                 break;
6758             }
6759           gimplify_seq_add_stmt (pre_p,
6760                           gimple_build_goto (GOTO_DESTINATION (*expr_p)));
6761           break;
6762
6763         case PREDICT_EXPR:
6764           gimplify_seq_add_stmt (pre_p,
6765                         gimple_build_predict (PREDICT_EXPR_PREDICTOR (*expr_p),
6766                                               PREDICT_EXPR_OUTCOME (*expr_p)));
6767           ret = GS_ALL_DONE;
6768           break;
6769
6770         case LABEL_EXPR:
6771           ret = GS_ALL_DONE;
6772           gcc_assert (decl_function_context (LABEL_EXPR_LABEL (*expr_p))
6773                       == current_function_decl);
6774           gimplify_seq_add_stmt (pre_p,
6775                           gimple_build_label (LABEL_EXPR_LABEL (*expr_p)));
6776           break;
6777
6778         case CASE_LABEL_EXPR:
6779           ret = gimplify_case_label_expr (expr_p, pre_p);
6780           break;
6781
6782         case RETURN_EXPR:
6783           ret = gimplify_return_expr (*expr_p, pre_p);
6784           break;
6785
6786         case CONSTRUCTOR:
6787           /* Don't reduce this in place; let gimplify_init_constructor work its
6788              magic.  Buf if we're just elaborating this for side effects, just
6789              gimplify any element that has side-effects.  */
6790           if (fallback == fb_none)
6791             {
6792               unsigned HOST_WIDE_INT ix;
6793               constructor_elt *ce;
6794               tree temp = NULL_TREE;
6795               for (ix = 0;
6796                    VEC_iterate (constructor_elt, CONSTRUCTOR_ELTS (*expr_p),
6797                                 ix, ce);
6798                    ix++)
6799                 if (TREE_SIDE_EFFECTS (ce->value))
6800                   append_to_statement_list (ce->value, &temp);
6801
6802               *expr_p = temp;
6803               ret = GS_OK;
6804             }
6805           /* C99 code may assign to an array in a constructed
6806              structure or union, and this has undefined behavior only
6807              on execution, so create a temporary if an lvalue is
6808              required.  */
6809           else if (fallback == fb_lvalue)
6810             {
6811               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6812               mark_addressable (*expr_p);
6813             }
6814           else
6815             ret = GS_ALL_DONE;
6816           break;
6817
6818           /* The following are special cases that are not handled by the
6819              original GIMPLE grammar.  */
6820
6821           /* SAVE_EXPR nodes are converted into a GIMPLE identifier and
6822              eliminated.  */
6823         case SAVE_EXPR:
6824           ret = gimplify_save_expr (expr_p, pre_p, post_p);
6825           break;
6826
6827         case BIT_FIELD_REF:
6828           {
6829             enum gimplify_status r0, r1, r2;
6830
6831             r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
6832                                 post_p, is_gimple_lvalue, fb_either);
6833             r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
6834                                 post_p, is_gimple_val, fb_rvalue);
6835             r2 = gimplify_expr (&TREE_OPERAND (*expr_p, 2), pre_p,
6836                                 post_p, is_gimple_val, fb_rvalue);
6837             recalculate_side_effects (*expr_p);
6838
6839             ret = MIN (r0, MIN (r1, r2));
6840           }
6841           break;
6842
6843         case TARGET_MEM_REF:
6844           {
6845             enum gimplify_status r0 = GS_ALL_DONE, r1 = GS_ALL_DONE;
6846
6847             if (TMR_SYMBOL (*expr_p))
6848               r0 = gimplify_expr (&TMR_SYMBOL (*expr_p), pre_p,
6849                                   post_p, is_gimple_lvalue, fb_either);
6850             else if (TMR_BASE (*expr_p))
6851               r0 = gimplify_expr (&TMR_BASE (*expr_p), pre_p,
6852                                   post_p, is_gimple_val, fb_either);
6853             if (TMR_INDEX (*expr_p))
6854               r1 = gimplify_expr (&TMR_INDEX (*expr_p), pre_p,
6855                                   post_p, is_gimple_val, fb_rvalue);
6856             /* TMR_STEP and TMR_OFFSET are always integer constants.  */
6857             ret = MIN (r0, r1);
6858           }
6859           break;
6860
6861         case NON_LVALUE_EXPR:
6862           /* This should have been stripped above.  */
6863           gcc_unreachable ();
6864
6865         case ASM_EXPR:
6866           ret = gimplify_asm_expr (expr_p, pre_p, post_p);
6867           break;
6868
6869         case TRY_FINALLY_EXPR:
6870         case TRY_CATCH_EXPR:
6871           {
6872             gimple_seq eval, cleanup;
6873             gimple try_;
6874
6875             eval = cleanup = NULL;
6876             gimplify_and_add (TREE_OPERAND (*expr_p, 0), &eval);
6877             gimplify_and_add (TREE_OPERAND (*expr_p, 1), &cleanup);
6878             /* Don't create bogus GIMPLE_TRY with empty cleanup.  */
6879             if (gimple_seq_empty_p (cleanup))
6880               {
6881                 gimple_seq_add_seq (pre_p, eval);
6882                 ret = GS_ALL_DONE;
6883                 break;
6884               }
6885             try_ = gimple_build_try (eval, cleanup,
6886                                      TREE_CODE (*expr_p) == TRY_FINALLY_EXPR
6887                                      ? GIMPLE_TRY_FINALLY
6888                                      : GIMPLE_TRY_CATCH);
6889             if (TREE_CODE (*expr_p) == TRY_CATCH_EXPR)
6890               gimple_try_set_catch_is_cleanup (try_,
6891                                                TRY_CATCH_IS_CLEANUP (*expr_p));
6892             gimplify_seq_add_stmt (pre_p, try_);
6893             ret = GS_ALL_DONE;
6894             break;
6895           }
6896
6897         case CLEANUP_POINT_EXPR:
6898           ret = gimplify_cleanup_point_expr (expr_p, pre_p);
6899           break;
6900
6901         case TARGET_EXPR:
6902           ret = gimplify_target_expr (expr_p, pre_p, post_p);
6903           break;
6904
6905         case CATCH_EXPR:
6906           {
6907             gimple c;
6908             gimple_seq handler = NULL;
6909             gimplify_and_add (CATCH_BODY (*expr_p), &handler);
6910             c = gimple_build_catch (CATCH_TYPES (*expr_p), handler);
6911             gimplify_seq_add_stmt (pre_p, c);
6912             ret = GS_ALL_DONE;
6913             break;
6914           }
6915
6916         case EH_FILTER_EXPR:
6917           {
6918             gimple ehf;
6919             gimple_seq failure = NULL;
6920
6921             gimplify_and_add (EH_FILTER_FAILURE (*expr_p), &failure);
6922             ehf = gimple_build_eh_filter (EH_FILTER_TYPES (*expr_p), failure);
6923             gimple_set_no_warning (ehf, TREE_NO_WARNING (*expr_p));
6924             gimplify_seq_add_stmt (pre_p, ehf);
6925             ret = GS_ALL_DONE;
6926             break;
6927           }
6928
6929         case OBJ_TYPE_REF:
6930           {
6931             enum gimplify_status r0, r1;
6932             r0 = gimplify_expr (&OBJ_TYPE_REF_OBJECT (*expr_p), pre_p,
6933                                 post_p, is_gimple_val, fb_rvalue);
6934             r1 = gimplify_expr (&OBJ_TYPE_REF_EXPR (*expr_p), pre_p,
6935                                 post_p, is_gimple_val, fb_rvalue);
6936             TREE_SIDE_EFFECTS (*expr_p) = 0;
6937             ret = MIN (r0, r1);
6938           }
6939           break;
6940
6941         case LABEL_DECL:
6942           /* We get here when taking the address of a label.  We mark
6943              the label as "forced"; meaning it can never be removed and
6944              it is a potential target for any computed goto.  */
6945           FORCED_LABEL (*expr_p) = 1;
6946           ret = GS_ALL_DONE;
6947           break;
6948
6949         case STATEMENT_LIST:
6950           ret = gimplify_statement_list (expr_p, pre_p);
6951           break;
6952
6953         case WITH_SIZE_EXPR:
6954           {
6955             gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
6956                            post_p == &internal_post ? NULL : post_p,
6957                            gimple_test_f, fallback);
6958             gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
6959                            is_gimple_val, fb_rvalue);
6960           }
6961           break;
6962
6963         case VAR_DECL:
6964         case PARM_DECL:
6965           ret = gimplify_var_or_parm_decl (expr_p);
6966           break;
6967
6968         case RESULT_DECL:
6969           /* When within an OpenMP context, notice uses of variables.  */
6970           if (gimplify_omp_ctxp)
6971             omp_notice_variable (gimplify_omp_ctxp, *expr_p, true);
6972           ret = GS_ALL_DONE;
6973           break;
6974
6975         case SSA_NAME:
6976           /* Allow callbacks into the gimplifier during optimization.  */
6977           ret = GS_ALL_DONE;
6978           break;
6979
6980         case OMP_PARALLEL:
6981           gimplify_omp_parallel (expr_p, pre_p);
6982           ret = GS_ALL_DONE;
6983           break;
6984
6985         case OMP_TASK:
6986           gimplify_omp_task (expr_p, pre_p);
6987           ret = GS_ALL_DONE;
6988           break;
6989
6990         case OMP_FOR:
6991           ret = gimplify_omp_for (expr_p, pre_p);
6992           break;
6993
6994         case OMP_SECTIONS:
6995         case OMP_SINGLE:
6996           gimplify_omp_workshare (expr_p, pre_p);
6997           ret = GS_ALL_DONE;
6998           break;
6999
7000         case OMP_SECTION:
7001         case OMP_MASTER:
7002         case OMP_ORDERED:
7003         case OMP_CRITICAL:
7004           {
7005             gimple_seq body = NULL;
7006             gimple g;
7007
7008             gimplify_and_add (OMP_BODY (*expr_p), &body);
7009             switch (TREE_CODE (*expr_p))
7010               {
7011               case OMP_SECTION:
7012                 g = gimple_build_omp_section (body);
7013                 break;
7014               case OMP_MASTER:
7015                 g = gimple_build_omp_master (body);
7016                 break;
7017               case OMP_ORDERED:
7018                 g = gimple_build_omp_ordered (body);
7019                 break;
7020               case OMP_CRITICAL:
7021                 g = gimple_build_omp_critical (body,
7022                                                OMP_CRITICAL_NAME (*expr_p));
7023                 break;
7024               default:
7025                 gcc_unreachable ();
7026               }
7027             gimplify_seq_add_stmt (pre_p, g);
7028             ret = GS_ALL_DONE;
7029             break;
7030           }
7031
7032         case OMP_ATOMIC:
7033           ret = gimplify_omp_atomic (expr_p, pre_p);
7034           break;
7035
7036         case POINTER_PLUS_EXPR:
7037           /* Convert ((type *)A)+offset into &A->field_of_type_and_offset.
7038              The second is gimple immediate saving a need for extra statement.
7039            */
7040           if (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7041               && (tmp = maybe_fold_offset_to_address
7042                   (EXPR_LOCATION (*expr_p),
7043                    TREE_OPERAND (*expr_p, 0), TREE_OPERAND (*expr_p, 1),
7044                    TREE_TYPE (*expr_p))))
7045             {
7046               *expr_p = tmp;
7047               break;
7048             }
7049           /* Convert (void *)&a + 4 into (void *)&a[1].  */
7050           if (TREE_CODE (TREE_OPERAND (*expr_p, 0)) == NOP_EXPR
7051               && TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7052               && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p,
7053                                                                         0),0)))
7054               && (tmp = maybe_fold_offset_to_address
7055                   (EXPR_LOCATION (*expr_p),
7056                    TREE_OPERAND (TREE_OPERAND (*expr_p, 0), 0),
7057                    TREE_OPERAND (*expr_p, 1),
7058                    TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p, 0),
7059                                             0)))))
7060              {
7061                *expr_p = fold_convert (TREE_TYPE (*expr_p), tmp);
7062                break;
7063              }
7064           /* FALLTHRU */
7065
7066         default:
7067           switch (TREE_CODE_CLASS (TREE_CODE (*expr_p)))
7068             {
7069             case tcc_comparison:
7070               /* Handle comparison of objects of non scalar mode aggregates
7071                  with a call to memcmp.  It would be nice to only have to do
7072                  this for variable-sized objects, but then we'd have to allow
7073                  the same nest of reference nodes we allow for MODIFY_EXPR and
7074                  that's too complex.
7075
7076                  Compare scalar mode aggregates as scalar mode values.  Using
7077                  memcmp for them would be very inefficient at best, and is
7078                  plain wrong if bitfields are involved.  */
7079                 {
7080                   tree type = TREE_TYPE (TREE_OPERAND (*expr_p, 1));
7081
7082                   if (!AGGREGATE_TYPE_P (type))
7083                     goto expr_2;
7084                   else if (TYPE_MODE (type) != BLKmode)
7085                     ret = gimplify_scalar_mode_aggregate_compare (expr_p);
7086                   else
7087                     ret = gimplify_variable_sized_compare (expr_p);
7088
7089                   break;
7090                 }
7091
7092             /* If *EXPR_P does not need to be special-cased, handle it
7093                according to its class.  */
7094             case tcc_unary:
7095               ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7096                                    post_p, is_gimple_val, fb_rvalue);
7097               break;
7098
7099             case tcc_binary:
7100             expr_2:
7101               {
7102                 enum gimplify_status r0, r1;
7103
7104                 r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7105                                     post_p, is_gimple_val, fb_rvalue);
7106                 r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
7107                                     post_p, is_gimple_val, fb_rvalue);
7108
7109                 ret = MIN (r0, r1);
7110                 break;
7111               }
7112
7113             case tcc_declaration:
7114             case tcc_constant:
7115               ret = GS_ALL_DONE;
7116               goto dont_recalculate;
7117
7118             default:
7119               gcc_assert (TREE_CODE (*expr_p) == TRUTH_AND_EXPR
7120                           || TREE_CODE (*expr_p) == TRUTH_OR_EXPR
7121                           || TREE_CODE (*expr_p) == TRUTH_XOR_EXPR);
7122               goto expr_2;
7123             }
7124
7125           recalculate_side_effects (*expr_p);
7126
7127         dont_recalculate:
7128           break;
7129         }
7130
7131       /* If we replaced *expr_p, gimplify again.  */
7132       if (ret == GS_OK && (*expr_p == NULL || *expr_p == save_expr))
7133         ret = GS_ALL_DONE;
7134     }
7135   while (ret == GS_OK);
7136
7137   /* If we encountered an error_mark somewhere nested inside, either
7138      stub out the statement or propagate the error back out.  */
7139   if (ret == GS_ERROR)
7140     {
7141       if (is_statement)
7142         *expr_p = NULL;
7143       goto out;
7144     }
7145
7146   /* This was only valid as a return value from the langhook, which
7147      we handled.  Make sure it doesn't escape from any other context.  */
7148   gcc_assert (ret != GS_UNHANDLED);
7149
7150   if (fallback == fb_none && *expr_p && !is_gimple_stmt (*expr_p))
7151     {
7152       /* We aren't looking for a value, and we don't have a valid
7153          statement.  If it doesn't have side-effects, throw it away.  */
7154       if (!TREE_SIDE_EFFECTS (*expr_p))
7155         *expr_p = NULL;
7156       else if (!TREE_THIS_VOLATILE (*expr_p))
7157         {
7158           /* This is probably a _REF that contains something nested that
7159              has side effects.  Recurse through the operands to find it.  */
7160           enum tree_code code = TREE_CODE (*expr_p);
7161
7162           switch (code)
7163             {
7164             case COMPONENT_REF:
7165             case REALPART_EXPR:
7166             case IMAGPART_EXPR:
7167             case VIEW_CONVERT_EXPR:
7168               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7169                              gimple_test_f, fallback);
7170               break;
7171
7172             case ARRAY_REF:
7173             case ARRAY_RANGE_REF:
7174               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7175                              gimple_test_f, fallback);
7176               gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
7177                              gimple_test_f, fallback);
7178               break;
7179
7180             default:
7181                /* Anything else with side-effects must be converted to
7182                   a valid statement before we get here.  */
7183               gcc_unreachable ();
7184             }
7185
7186           *expr_p = NULL;
7187         }
7188       else if (COMPLETE_TYPE_P (TREE_TYPE (*expr_p))
7189                && TYPE_MODE (TREE_TYPE (*expr_p)) != BLKmode)
7190         {
7191           /* Historically, the compiler has treated a bare reference
7192              to a non-BLKmode volatile lvalue as forcing a load.  */
7193           tree type = TYPE_MAIN_VARIANT (TREE_TYPE (*expr_p));
7194
7195           /* Normally, we do not want to create a temporary for a
7196              TREE_ADDRESSABLE type because such a type should not be
7197              copied by bitwise-assignment.  However, we make an
7198              exception here, as all we are doing here is ensuring that
7199              we read the bytes that make up the type.  We use
7200              create_tmp_var_raw because create_tmp_var will abort when
7201              given a TREE_ADDRESSABLE type.  */
7202           tree tmp = create_tmp_var_raw (type, "vol");
7203           gimple_add_tmp_var (tmp);
7204           gimplify_assign (tmp, *expr_p, pre_p);
7205           *expr_p = NULL;
7206         }
7207       else
7208         /* We can't do anything useful with a volatile reference to
7209            an incomplete type, so just throw it away.  Likewise for
7210            a BLKmode type, since any implicit inner load should
7211            already have been turned into an explicit one by the
7212            gimplification process.  */
7213         *expr_p = NULL;
7214     }
7215
7216   /* If we are gimplifying at the statement level, we're done.  Tack
7217      everything together and return.  */
7218   if (fallback == fb_none || is_statement)
7219     {
7220       /* Since *EXPR_P has been converted into a GIMPLE tuple, clear
7221          it out for GC to reclaim it.  */
7222       *expr_p = NULL_TREE;
7223
7224       if (!gimple_seq_empty_p (internal_pre)
7225           || !gimple_seq_empty_p (internal_post))
7226         {
7227           gimplify_seq_add_seq (&internal_pre, internal_post);
7228           gimplify_seq_add_seq (pre_p, internal_pre);
7229         }
7230
7231       /* The result of gimplifying *EXPR_P is going to be the last few
7232          statements in *PRE_P and *POST_P.  Add location information
7233          to all the statements that were added by the gimplification
7234          helpers.  */
7235       if (!gimple_seq_empty_p (*pre_p))
7236         annotate_all_with_location_after (*pre_p, pre_last_gsi, input_location);
7237
7238       if (!gimple_seq_empty_p (*post_p))
7239         annotate_all_with_location_after (*post_p, post_last_gsi,
7240                                           input_location);
7241
7242       goto out;
7243     }
7244
7245 #ifdef ENABLE_GIMPLE_CHECKING
7246   if (*expr_p)
7247     {
7248       enum tree_code code = TREE_CODE (*expr_p);
7249       /* These expressions should already be in gimple IR form.  */
7250       gcc_assert (code != MODIFY_EXPR
7251                   && code != ASM_EXPR
7252                   && code != BIND_EXPR
7253                   && code != CATCH_EXPR
7254                   && (code != COND_EXPR || gimplify_ctxp->allow_rhs_cond_expr)
7255                   && code != EH_FILTER_EXPR
7256                   && code != GOTO_EXPR
7257                   && code != LABEL_EXPR
7258                   && code != LOOP_EXPR
7259                   && code != SWITCH_EXPR
7260                   && code != TRY_FINALLY_EXPR
7261                   && code != OMP_CRITICAL
7262                   && code != OMP_FOR
7263                   && code != OMP_MASTER
7264                   && code != OMP_ORDERED
7265                   && code != OMP_PARALLEL
7266                   && code != OMP_SECTIONS
7267                   && code != OMP_SECTION
7268                   && code != OMP_SINGLE);
7269     }
7270 #endif
7271
7272   /* Otherwise we're gimplifying a subexpression, so the resulting
7273      value is interesting.  If it's a valid operand that matches
7274      GIMPLE_TEST_F, we're done. Unless we are handling some
7275      post-effects internally; if that's the case, we need to copy into
7276      a temporary before adding the post-effects to POST_P.  */
7277   if (gimple_seq_empty_p (internal_post) && (*gimple_test_f) (*expr_p))
7278     goto out;
7279
7280   /* Otherwise, we need to create a new temporary for the gimplified
7281      expression.  */
7282
7283   /* We can't return an lvalue if we have an internal postqueue.  The
7284      object the lvalue refers to would (probably) be modified by the
7285      postqueue; we need to copy the value out first, which means an
7286      rvalue.  */
7287   if ((fallback & fb_lvalue)
7288       && gimple_seq_empty_p (internal_post)
7289       && is_gimple_addressable (*expr_p))
7290     {
7291       /* An lvalue will do.  Take the address of the expression, store it
7292          in a temporary, and replace the expression with an INDIRECT_REF of
7293          that temporary.  */
7294       tmp = build_fold_addr_expr_loc (input_location, *expr_p);
7295       gimplify_expr (&tmp, pre_p, post_p, is_gimple_reg, fb_rvalue);
7296       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (TREE_TYPE (tmp)), tmp);
7297     }
7298   else if ((fallback & fb_rvalue) && is_gimple_reg_rhs_or_call (*expr_p))
7299     {
7300       /* An rvalue will do.  Assign the gimplified expression into a
7301          new temporary TMP and replace the original expression with
7302          TMP.  First, make sure that the expression has a type so that
7303          it can be assigned into a temporary.  */
7304       gcc_assert (!VOID_TYPE_P (TREE_TYPE (*expr_p)));
7305
7306       if (!gimple_seq_empty_p (internal_post) || (fallback & fb_lvalue))
7307         /* The postqueue might change the value of the expression between
7308            the initialization and use of the temporary, so we can't use a
7309            formal temp.  FIXME do we care?  */
7310         {
7311           *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
7312           if (TREE_CODE (TREE_TYPE (*expr_p)) == COMPLEX_TYPE
7313               || TREE_CODE (TREE_TYPE (*expr_p)) == VECTOR_TYPE)
7314             DECL_GIMPLE_REG_P (*expr_p) = 1;
7315         }
7316       else
7317         *expr_p = get_formal_tmp_var (*expr_p, pre_p);
7318     }
7319   else
7320     {
7321 #ifdef ENABLE_GIMPLE_CHECKING
7322       if (!(fallback & fb_mayfail))
7323         {
7324           fprintf (stderr, "gimplification failed:\n");
7325           print_generic_expr (stderr, *expr_p, 0);
7326           debug_tree (*expr_p);
7327           internal_error ("gimplification failed");
7328         }
7329 #endif
7330       gcc_assert (fallback & fb_mayfail);
7331
7332       /* If this is an asm statement, and the user asked for the
7333          impossible, don't die.  Fail and let gimplify_asm_expr
7334          issue an error.  */
7335       ret = GS_ERROR;
7336       goto out;
7337     }
7338
7339   /* Make sure the temporary matches our predicate.  */
7340   gcc_assert ((*gimple_test_f) (*expr_p));
7341
7342   if (!gimple_seq_empty_p (internal_post))
7343     {
7344       annotate_all_with_location (internal_post, input_location);
7345       gimplify_seq_add_seq (pre_p, internal_post);
7346     }
7347
7348  out:
7349   input_location = saved_location;
7350   return ret;
7351 }
7352
7353 /* Look through TYPE for variable-sized objects and gimplify each such
7354    size that we find.  Add to LIST_P any statements generated.  */
7355
7356 void
7357 gimplify_type_sizes (tree type, gimple_seq *list_p)
7358 {
7359   tree field, t;
7360
7361   if (type == NULL || type == error_mark_node)
7362     return;
7363
7364   /* We first do the main variant, then copy into any other variants.  */
7365   type = TYPE_MAIN_VARIANT (type);
7366
7367   /* Avoid infinite recursion.  */
7368   if (TYPE_SIZES_GIMPLIFIED (type))
7369     return;
7370
7371   TYPE_SIZES_GIMPLIFIED (type) = 1;
7372
7373   switch (TREE_CODE (type))
7374     {
7375     case INTEGER_TYPE:
7376     case ENUMERAL_TYPE:
7377     case BOOLEAN_TYPE:
7378     case REAL_TYPE:
7379     case FIXED_POINT_TYPE:
7380       gimplify_one_sizepos (&TYPE_MIN_VALUE (type), list_p);
7381       gimplify_one_sizepos (&TYPE_MAX_VALUE (type), list_p);
7382
7383       for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7384         {
7385           TYPE_MIN_VALUE (t) = TYPE_MIN_VALUE (type);
7386           TYPE_MAX_VALUE (t) = TYPE_MAX_VALUE (type);
7387         }
7388       break;
7389
7390     case ARRAY_TYPE:
7391       /* These types may not have declarations, so handle them here.  */
7392       gimplify_type_sizes (TREE_TYPE (type), list_p);
7393       gimplify_type_sizes (TYPE_DOMAIN (type), list_p);
7394       /* Ensure VLA bounds aren't removed, for -O0 they should be variables
7395          with assigned stack slots, for -O1+ -g they should be tracked
7396          by VTA.  */
7397       if (TYPE_DOMAIN (type)
7398           && INTEGRAL_TYPE_P (TYPE_DOMAIN (type)))
7399         {
7400           t = TYPE_MIN_VALUE (TYPE_DOMAIN (type));
7401           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7402             DECL_IGNORED_P (t) = 0;
7403           t = TYPE_MAX_VALUE (TYPE_DOMAIN (type));
7404           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7405             DECL_IGNORED_P (t) = 0;
7406         }
7407       break;
7408
7409     case RECORD_TYPE:
7410     case UNION_TYPE:
7411     case QUAL_UNION_TYPE:
7412       for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
7413         if (TREE_CODE (field) == FIELD_DECL)
7414           {
7415             gimplify_one_sizepos (&DECL_FIELD_OFFSET (field), list_p);
7416             gimplify_one_sizepos (&DECL_SIZE (field), list_p);
7417             gimplify_one_sizepos (&DECL_SIZE_UNIT (field), list_p);
7418             gimplify_type_sizes (TREE_TYPE (field), list_p);
7419           }
7420       break;
7421
7422     case POINTER_TYPE:
7423     case REFERENCE_TYPE:
7424         /* We used to recurse on the pointed-to type here, which turned out to
7425            be incorrect because its definition might refer to variables not
7426            yet initialized at this point if a forward declaration is involved.
7427
7428            It was actually useful for anonymous pointed-to types to ensure
7429            that the sizes evaluation dominates every possible later use of the
7430            values.  Restricting to such types here would be safe since there
7431            is no possible forward declaration around, but would introduce an
7432            undesirable middle-end semantic to anonymity.  We then defer to
7433            front-ends the responsibility of ensuring that the sizes are
7434            evaluated both early and late enough, e.g. by attaching artificial
7435            type declarations to the tree.  */
7436       break;
7437
7438     default:
7439       break;
7440     }
7441
7442   gimplify_one_sizepos (&TYPE_SIZE (type), list_p);
7443   gimplify_one_sizepos (&TYPE_SIZE_UNIT (type), list_p);
7444
7445   for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7446     {
7447       TYPE_SIZE (t) = TYPE_SIZE (type);
7448       TYPE_SIZE_UNIT (t) = TYPE_SIZE_UNIT (type);
7449       TYPE_SIZES_GIMPLIFIED (t) = 1;
7450     }
7451 }
7452
7453 /* A subroutine of gimplify_type_sizes to make sure that *EXPR_P,
7454    a size or position, has had all of its SAVE_EXPRs evaluated.
7455    We add any required statements to *STMT_P.  */
7456
7457 void
7458 gimplify_one_sizepos (tree *expr_p, gimple_seq *stmt_p)
7459 {
7460   tree type, expr = *expr_p;
7461
7462   /* We don't do anything if the value isn't there, is constant, or contains
7463      A PLACEHOLDER_EXPR.  We also don't want to do anything if it's already
7464      a VAR_DECL.  If it's a VAR_DECL from another function, the gimplifier
7465      will want to replace it with a new variable, but that will cause problems
7466      if this type is from outside the function.  It's OK to have that here.  */
7467   if (expr == NULL_TREE || TREE_CONSTANT (expr)
7468       || TREE_CODE (expr) == VAR_DECL
7469       || CONTAINS_PLACEHOLDER_P (expr))
7470     return;
7471
7472   type = TREE_TYPE (expr);
7473   *expr_p = unshare_expr (expr);
7474
7475   gimplify_expr (expr_p, stmt_p, NULL, is_gimple_val, fb_rvalue);
7476   expr = *expr_p;
7477
7478   /* Verify that we've an exact type match with the original expression.
7479      In particular, we do not wish to drop a "sizetype" in favour of a
7480      type of similar dimensions.  We don't want to pollute the generic
7481      type-stripping code with this knowledge because it doesn't matter
7482      for the bulk of GENERIC/GIMPLE.  It only matters that TYPE_SIZE_UNIT
7483      and friends retain their "sizetype-ness".  */
7484   if (TREE_TYPE (expr) != type
7485       && TREE_CODE (type) == INTEGER_TYPE
7486       && TYPE_IS_SIZETYPE (type))
7487     {
7488       tree tmp;
7489       gimple stmt;
7490
7491       *expr_p = create_tmp_var (type, NULL);
7492       tmp = build1 (NOP_EXPR, type, expr);
7493       stmt = gimplify_assign (*expr_p, tmp, stmt_p);
7494       if (EXPR_HAS_LOCATION (expr))
7495         gimple_set_location (stmt, EXPR_LOCATION (expr));
7496       else
7497         gimple_set_location (stmt, input_location);
7498     }
7499 }
7500
7501
7502 /* Gimplify the body of statements pointed to by BODY_P and return a
7503    GIMPLE_BIND containing the sequence of GIMPLE statements
7504    corresponding to BODY_P.  FNDECL is the function decl containing
7505    *BODY_P.  */
7506
7507 gimple
7508 gimplify_body (tree *body_p, tree fndecl, bool do_parms)
7509 {
7510   location_t saved_location = input_location;
7511   gimple_seq parm_stmts, seq;
7512   gimple outer_bind;
7513   struct gimplify_ctx gctx;
7514
7515   timevar_push (TV_TREE_GIMPLIFY);
7516
7517   /* Initialize for optimize_insn_for_s{ize,peed}_p possibly called during
7518      gimplification.  */
7519   default_rtl_profile ();
7520
7521   gcc_assert (gimplify_ctxp == NULL);
7522   push_gimplify_context (&gctx);
7523
7524   /* Unshare most shared trees in the body and in that of any nested functions.
7525      It would seem we don't have to do this for nested functions because
7526      they are supposed to be output and then the outer function gimplified
7527      first, but the g++ front end doesn't always do it that way.  */
7528   unshare_body (body_p, fndecl);
7529   unvisit_body (body_p, fndecl);
7530
7531   if (cgraph_node (fndecl)->origin)
7532     nonlocal_vlas = pointer_set_create ();
7533
7534   /* Make sure input_location isn't set to something weird.  */
7535   input_location = DECL_SOURCE_LOCATION (fndecl);
7536
7537   /* Resolve callee-copies.  This has to be done before processing
7538      the body so that DECL_VALUE_EXPR gets processed correctly.  */
7539   parm_stmts = (do_parms) ? gimplify_parameters () : NULL;
7540
7541   /* Gimplify the function's body.  */
7542   seq = NULL;
7543   gimplify_stmt (body_p, &seq);
7544   outer_bind = gimple_seq_first_stmt (seq);
7545   if (!outer_bind)
7546     {
7547       outer_bind = gimple_build_nop ();
7548       gimplify_seq_add_stmt (&seq, outer_bind);
7549     }
7550
7551   /* The body must contain exactly one statement, a GIMPLE_BIND.  If this is
7552      not the case, wrap everything in a GIMPLE_BIND to make it so.  */
7553   if (gimple_code (outer_bind) == GIMPLE_BIND
7554       && gimple_seq_first (seq) == gimple_seq_last (seq))
7555     ;
7556   else
7557     outer_bind = gimple_build_bind (NULL_TREE, seq, NULL);
7558
7559   *body_p = NULL_TREE;
7560
7561   /* If we had callee-copies statements, insert them at the beginning
7562      of the function and clear DECL_VALUE_EXPR_P on the parameters.  */
7563   if (!gimple_seq_empty_p (parm_stmts))
7564     {
7565       tree parm;
7566
7567       gimplify_seq_add_seq (&parm_stmts, gimple_bind_body (outer_bind));
7568       gimple_bind_set_body (outer_bind, parm_stmts);
7569
7570       for (parm = DECL_ARGUMENTS (current_function_decl);
7571            parm; parm = TREE_CHAIN (parm))
7572         if (DECL_HAS_VALUE_EXPR_P (parm))
7573           {
7574             DECL_HAS_VALUE_EXPR_P (parm) = 0;
7575             DECL_IGNORED_P (parm) = 0;
7576           }
7577     }
7578
7579   if (nonlocal_vlas)
7580     {
7581       pointer_set_destroy (nonlocal_vlas);
7582       nonlocal_vlas = NULL;
7583     }
7584
7585   pop_gimplify_context (outer_bind);
7586   gcc_assert (gimplify_ctxp == NULL);
7587
7588 #ifdef ENABLE_TYPES_CHECKING
7589   if (!errorcount && !sorrycount)
7590     verify_types_in_gimple_seq (gimple_bind_body (outer_bind));
7591 #endif
7592
7593   timevar_pop (TV_TREE_GIMPLIFY);
7594   input_location = saved_location;
7595
7596   return outer_bind;
7597 }
7598
7599 /* Entry point to the gimplification pass.  FNDECL is the FUNCTION_DECL
7600    node for the function we want to gimplify.
7601
7602    Returns the sequence of GIMPLE statements corresponding to the body
7603    of FNDECL.  */
7604
7605 void
7606 gimplify_function_tree (tree fndecl)
7607 {
7608   tree oldfn, parm, ret;
7609   gimple_seq seq;
7610   gimple bind;
7611
7612   gcc_assert (!gimple_body (fndecl));
7613
7614   oldfn = current_function_decl;
7615   current_function_decl = fndecl;
7616   if (DECL_STRUCT_FUNCTION (fndecl))
7617     push_cfun (DECL_STRUCT_FUNCTION (fndecl));
7618   else
7619     push_struct_function (fndecl);
7620
7621   for (parm = DECL_ARGUMENTS (fndecl); parm ; parm = TREE_CHAIN (parm))
7622     {
7623       /* Preliminarily mark non-addressed complex variables as eligible
7624          for promotion to gimple registers.  We'll transform their uses
7625          as we find them.  */
7626       if ((TREE_CODE (TREE_TYPE (parm)) == COMPLEX_TYPE
7627            || TREE_CODE (TREE_TYPE (parm)) == VECTOR_TYPE)
7628           && !TREE_THIS_VOLATILE (parm)
7629           && !needs_to_live_in_memory (parm))
7630         DECL_GIMPLE_REG_P (parm) = 1;
7631     }
7632
7633   ret = DECL_RESULT (fndecl);
7634   if ((TREE_CODE (TREE_TYPE (ret)) == COMPLEX_TYPE
7635        || TREE_CODE (TREE_TYPE (ret)) == VECTOR_TYPE)
7636       && !needs_to_live_in_memory (ret))
7637     DECL_GIMPLE_REG_P (ret) = 1;
7638
7639   bind = gimplify_body (&DECL_SAVED_TREE (fndecl), fndecl, true);
7640
7641   /* The tree body of the function is no longer needed, replace it
7642      with the new GIMPLE body.  */
7643   seq = gimple_seq_alloc ();
7644   gimple_seq_add_stmt (&seq, bind);
7645   gimple_set_body (fndecl, seq);
7646
7647   /* If we're instrumenting function entry/exit, then prepend the call to
7648      the entry hook and wrap the whole function in a TRY_FINALLY_EXPR to
7649      catch the exit hook.  */
7650   /* ??? Add some way to ignore exceptions for this TFE.  */
7651   if (flag_instrument_function_entry_exit
7652       && !DECL_NO_INSTRUMENT_FUNCTION_ENTRY_EXIT (fndecl)
7653       && !flag_instrument_functions_exclude_p (fndecl))
7654     {
7655       tree x;
7656       gimple new_bind;
7657       gimple tf;
7658       gimple_seq cleanup = NULL, body = NULL;
7659
7660       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_EXIT];
7661       gimplify_seq_add_stmt (&cleanup, gimple_build_call (x, 0));
7662       tf = gimple_build_try (seq, cleanup, GIMPLE_TRY_FINALLY);
7663
7664       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_ENTER];
7665       gimplify_seq_add_stmt (&body, gimple_build_call (x, 0));
7666       gimplify_seq_add_stmt (&body, tf);
7667       new_bind = gimple_build_bind (NULL, body, gimple_bind_block (bind));
7668       /* Clear the block for BIND, since it is no longer directly inside
7669          the function, but within a try block.  */
7670       gimple_bind_set_block (bind, NULL);
7671
7672       /* Replace the current function body with the body
7673          wrapped in the try/finally TF.  */
7674       seq = gimple_seq_alloc ();
7675       gimple_seq_add_stmt (&seq, new_bind);
7676       gimple_set_body (fndecl, seq);
7677     }
7678
7679   DECL_SAVED_TREE (fndecl) = NULL_TREE;
7680   cfun->curr_properties = PROP_gimple_any;
7681
7682   current_function_decl = oldfn;
7683   pop_cfun ();
7684 }
7685
7686
7687 /* Some transformations like inlining may invalidate the GIMPLE form
7688    for operands.  This function traverses all the operands in STMT and
7689    gimplifies anything that is not a valid gimple operand.  Any new
7690    GIMPLE statements are inserted before *GSI_P.  */
7691
7692 void
7693 gimple_regimplify_operands (gimple stmt, gimple_stmt_iterator *gsi_p)
7694 {
7695   size_t i, num_ops;
7696   tree orig_lhs = NULL_TREE, lhs, t;
7697   gimple_seq pre = NULL;
7698   gimple post_stmt = NULL;
7699   struct gimplify_ctx gctx;
7700
7701   push_gimplify_context (&gctx);
7702   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
7703
7704   switch (gimple_code (stmt))
7705     {
7706     case GIMPLE_COND:
7707       gimplify_expr (gimple_cond_lhs_ptr (stmt), &pre, NULL,
7708                      is_gimple_val, fb_rvalue);
7709       gimplify_expr (gimple_cond_rhs_ptr (stmt), &pre, NULL,
7710                      is_gimple_val, fb_rvalue);
7711       break;
7712     case GIMPLE_SWITCH:
7713       gimplify_expr (gimple_switch_index_ptr (stmt), &pre, NULL,
7714                      is_gimple_val, fb_rvalue);
7715       break;
7716     case GIMPLE_OMP_ATOMIC_LOAD:
7717       gimplify_expr (gimple_omp_atomic_load_rhs_ptr (stmt), &pre, NULL,
7718                      is_gimple_val, fb_rvalue);
7719       break;
7720     case GIMPLE_ASM:
7721       {
7722         size_t i, noutputs = gimple_asm_noutputs (stmt);
7723         const char *constraint, **oconstraints;
7724         bool allows_mem, allows_reg, is_inout;
7725
7726         oconstraints
7727           = (const char **) alloca ((noutputs) * sizeof (const char *));
7728         for (i = 0; i < noutputs; i++)
7729           {
7730             tree op = gimple_asm_output_op (stmt, i);
7731             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7732             oconstraints[i] = constraint;
7733             parse_output_constraint (&constraint, i, 0, 0, &allows_mem,
7734                                      &allows_reg, &is_inout);
7735             gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7736                            is_inout ? is_gimple_min_lval : is_gimple_lvalue,
7737                            fb_lvalue | fb_mayfail);
7738           }
7739         for (i = 0; i < gimple_asm_ninputs (stmt); i++)
7740           {
7741             tree op = gimple_asm_input_op (stmt, i);
7742             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7743             parse_input_constraint (&constraint, 0, 0, noutputs, 0,
7744                                     oconstraints, &allows_mem, &allows_reg);
7745             if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (op))) && allows_mem)
7746               allows_reg = 0;
7747             if (!allows_reg && allows_mem)
7748               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7749                              is_gimple_lvalue, fb_lvalue | fb_mayfail);
7750             else
7751               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7752                              is_gimple_asm_val, fb_rvalue);
7753           }
7754       }
7755       break;
7756     default:
7757       /* NOTE: We start gimplifying operands from last to first to
7758          make sure that side-effects on the RHS of calls, assignments
7759          and ASMs are executed before the LHS.  The ordering is not
7760          important for other statements.  */
7761       num_ops = gimple_num_ops (stmt);
7762       orig_lhs = gimple_get_lhs (stmt);
7763       for (i = num_ops; i > 0; i--)
7764         {
7765           tree op = gimple_op (stmt, i - 1);
7766           if (op == NULL_TREE)
7767             continue;
7768           if (i == 1 && (is_gimple_call (stmt) || is_gimple_assign (stmt)))
7769             gimplify_expr (&op, &pre, NULL, is_gimple_lvalue, fb_lvalue);
7770           else if (i == 2
7771                    && is_gimple_assign (stmt)
7772                    && num_ops == 2
7773                    && get_gimple_rhs_class (gimple_expr_code (stmt))
7774                       == GIMPLE_SINGLE_RHS)
7775             gimplify_expr (&op, &pre, NULL,
7776                            rhs_predicate_for (gimple_assign_lhs (stmt)),
7777                            fb_rvalue);
7778           else if (i == 2 && is_gimple_call (stmt))
7779             {
7780               if (TREE_CODE (op) == FUNCTION_DECL)
7781                 continue;
7782               gimplify_expr (&op, &pre, NULL, is_gimple_call_addr, fb_rvalue);
7783             }
7784           else
7785             gimplify_expr (&op, &pre, NULL, is_gimple_val, fb_rvalue);
7786           gimple_set_op (stmt, i - 1, op);
7787         }
7788
7789       lhs = gimple_get_lhs (stmt);
7790       /* If the LHS changed it in a way that requires a simple RHS,
7791          create temporary.  */
7792       if (lhs && !is_gimple_reg (lhs))
7793         {
7794           bool need_temp = false;
7795
7796           if (is_gimple_assign (stmt)
7797               && num_ops == 2
7798               && get_gimple_rhs_class (gimple_expr_code (stmt))
7799                  == GIMPLE_SINGLE_RHS)
7800             gimplify_expr (gimple_assign_rhs1_ptr (stmt), &pre, NULL,
7801                            rhs_predicate_for (gimple_assign_lhs (stmt)),
7802                            fb_rvalue);
7803           else if (is_gimple_reg (lhs))
7804             {
7805               if (is_gimple_reg_type (TREE_TYPE (lhs)))
7806                 {
7807                   if (is_gimple_call (stmt))
7808                     {
7809                       i = gimple_call_flags (stmt);
7810                       if ((i & ECF_LOOPING_CONST_OR_PURE)
7811                           || !(i & (ECF_CONST | ECF_PURE)))
7812                         need_temp = true;
7813                     }
7814                   if (stmt_can_throw_internal (stmt))
7815                     need_temp = true;
7816                 }
7817             }
7818           else
7819             {
7820               if (is_gimple_reg_type (TREE_TYPE (lhs)))
7821                 need_temp = true;
7822               else if (TYPE_MODE (TREE_TYPE (lhs)) != BLKmode)
7823                 {
7824                   if (is_gimple_call (stmt))
7825                     {
7826                       tree fndecl = gimple_call_fndecl (stmt);
7827
7828                       if (!aggregate_value_p (TREE_TYPE (lhs), fndecl)
7829                           && !(fndecl && DECL_RESULT (fndecl)
7830                                && DECL_BY_REFERENCE (DECL_RESULT (fndecl))))
7831                         need_temp = true;
7832                     }
7833                   else
7834                     need_temp = true;
7835                 }
7836             }
7837           if (need_temp)
7838             {
7839               tree temp = create_tmp_reg (TREE_TYPE (lhs), NULL);
7840
7841               if (TREE_CODE (orig_lhs) == SSA_NAME)
7842                 orig_lhs = SSA_NAME_VAR (orig_lhs);
7843
7844               if (gimple_in_ssa_p (cfun))
7845                 temp = make_ssa_name (temp, NULL);
7846               gimple_set_lhs (stmt, temp);
7847               post_stmt = gimple_build_assign (lhs, temp);
7848               if (TREE_CODE (lhs) == SSA_NAME)
7849                 SSA_NAME_DEF_STMT (lhs) = post_stmt;
7850             }
7851         }
7852       break;
7853     }
7854
7855   if (gimple_referenced_vars (cfun))
7856     for (t = gimplify_ctxp->temps; t ; t = TREE_CHAIN (t))
7857       add_referenced_var (t);
7858
7859   if (!gimple_seq_empty_p (pre))
7860     {
7861       if (gimple_in_ssa_p (cfun))
7862         {
7863           gimple_stmt_iterator i;
7864
7865           for (i = gsi_start (pre); !gsi_end_p (i); gsi_next (&i))
7866             mark_symbols_for_renaming (gsi_stmt (i));
7867         }
7868       gsi_insert_seq_before (gsi_p, pre, GSI_SAME_STMT);
7869     }
7870   if (post_stmt)
7871     gsi_insert_after (gsi_p, post_stmt, GSI_NEW_STMT);
7872
7873   pop_gimplify_context (NULL);
7874 }
7875
7876
7877 /* Expands EXPR to list of gimple statements STMTS.  If SIMPLE is true,
7878    force the result to be either ssa_name or an invariant, otherwise
7879    just force it to be a rhs expression.  If VAR is not NULL, make the
7880    base variable of the final destination be VAR if suitable.  */
7881
7882 tree
7883 force_gimple_operand (tree expr, gimple_seq *stmts, bool simple, tree var)
7884 {
7885   tree t;
7886   enum gimplify_status ret;
7887   gimple_predicate gimple_test_f;
7888   struct gimplify_ctx gctx;
7889
7890   *stmts = NULL;
7891
7892   if (is_gimple_val (expr))
7893     return expr;
7894
7895   gimple_test_f = simple ? is_gimple_val : is_gimple_reg_rhs;
7896
7897   push_gimplify_context (&gctx);
7898   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
7899   gimplify_ctxp->allow_rhs_cond_expr = true;
7900
7901   if (var)
7902     expr = build2 (MODIFY_EXPR, TREE_TYPE (var), var, expr);
7903
7904   if (TREE_CODE (expr) != MODIFY_EXPR
7905       && TREE_TYPE (expr) == void_type_node)
7906     {
7907       gimplify_and_add (expr, stmts);
7908       expr = NULL_TREE;
7909     }
7910   else
7911     {
7912       ret = gimplify_expr (&expr, stmts, NULL, gimple_test_f, fb_rvalue);
7913       gcc_assert (ret != GS_ERROR);
7914     }
7915
7916   if (gimple_referenced_vars (cfun))
7917     for (t = gimplify_ctxp->temps; t ; t = TREE_CHAIN (t))
7918       add_referenced_var (t);
7919
7920   pop_gimplify_context (NULL);
7921
7922   return expr;
7923 }
7924
7925 /* Invokes force_gimple_operand for EXPR with parameters SIMPLE_P and VAR.  If
7926    some statements are produced, emits them at GSI.  If BEFORE is true.
7927    the statements are appended before GSI, otherwise they are appended after
7928    it.  M specifies the way GSI moves after insertion (GSI_SAME_STMT or
7929    GSI_CONTINUE_LINKING are the usual values).  */
7930
7931 tree
7932 force_gimple_operand_gsi (gimple_stmt_iterator *gsi, tree expr,
7933                           bool simple_p, tree var, bool before,
7934                           enum gsi_iterator_update m)
7935 {
7936   gimple_seq stmts;
7937
7938   expr = force_gimple_operand (expr, &stmts, simple_p, var);
7939
7940   if (!gimple_seq_empty_p (stmts))
7941     {
7942       if (gimple_in_ssa_p (cfun))
7943         {
7944           gimple_stmt_iterator i;
7945
7946           for (i = gsi_start (stmts); !gsi_end_p (i); gsi_next (&i))
7947             mark_symbols_for_renaming (gsi_stmt (i));
7948         }
7949
7950       if (before)
7951         gsi_insert_seq_before (gsi, stmts, m);
7952       else
7953         gsi_insert_seq_after (gsi, stmts, m);
7954     }
7955
7956   return expr;
7957 }
7958
7959 #include "gt-gimplify.h"