OSDN Git Service

* tree.h (ALLOCA_FOR_VAR_P): Rename to CALL_ALLOCA_FOR_VAR_P.
[pf3gnuchains/gcc-fork.git] / gcc / gimplify.c
1 /* Tree lowering pass.  This pass converts the GENERIC functions-as-trees
2    tree representation into the GIMPLE form.
3    Copyright (C) 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, 2011
4    Free Software Foundation, Inc.
5    Major work done by Sebastian Pop <s.pop@laposte.net>,
6    Diego Novillo <dnovillo@redhat.com> and Jason Merrill <jason@redhat.com>.
7
8 This file is part of GCC.
9
10 GCC is free software; you can redistribute it and/or modify it under
11 the terms of the GNU General Public License as published by the Free
12 Software Foundation; either version 3, or (at your option) any later
13 version.
14
15 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
16 WARRANTY; without even the implied warranty of MERCHANTABILITY or
17 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
18 for more details.
19
20 You should have received a copy of the GNU General Public License
21 along with GCC; see the file COPYING3.  If not see
22 <http://www.gnu.org/licenses/>.  */
23
24 #include "config.h"
25 #include "system.h"
26 #include "coretypes.h"
27 #include "tm.h"
28 #include "tree.h"
29 #include "gimple.h"
30 #include "tree-iterator.h"
31 #include "tree-inline.h"
32 #include "tree-pretty-print.h"
33 #include "langhooks.h"
34 #include "tree-flow.h"
35 #include "cgraph.h"
36 #include "timevar.h"
37 #include "hashtab.h"
38 #include "flags.h"
39 #include "function.h"
40 #include "output.h"
41 #include "ggc.h"
42 #include "diagnostic-core.h"
43 #include "target.h"
44 #include "pointer-set.h"
45 #include "splay-tree.h"
46 #include "vec.h"
47 #include "gimple.h"
48 #include "tree-pass.h"
49
50 #include "langhooks-def.h"      /* FIXME: for lhd_set_decl_assembler_name.  */
51 #include "expr.h"               /* FIXME: for can_move_by_pieces
52                                    and STACK_CHECK_MAX_VAR_SIZE.  */
53
54 enum gimplify_omp_var_data
55 {
56   GOVD_SEEN = 1,
57   GOVD_EXPLICIT = 2,
58   GOVD_SHARED = 4,
59   GOVD_PRIVATE = 8,
60   GOVD_FIRSTPRIVATE = 16,
61   GOVD_LASTPRIVATE = 32,
62   GOVD_REDUCTION = 64,
63   GOVD_LOCAL = 128,
64   GOVD_DEBUG_PRIVATE = 256,
65   GOVD_PRIVATE_OUTER_REF = 512,
66   GOVD_DATA_SHARE_CLASS = (GOVD_SHARED | GOVD_PRIVATE | GOVD_FIRSTPRIVATE
67                            | GOVD_LASTPRIVATE | GOVD_REDUCTION | GOVD_LOCAL)
68 };
69
70
71 enum omp_region_type
72 {
73   ORT_WORKSHARE = 0,
74   ORT_PARALLEL = 2,
75   ORT_COMBINED_PARALLEL = 3,
76   ORT_TASK = 4,
77   ORT_UNTIED_TASK = 5
78 };
79
80 struct gimplify_omp_ctx
81 {
82   struct gimplify_omp_ctx *outer_context;
83   splay_tree variables;
84   struct pointer_set_t *privatized_types;
85   location_t location;
86   enum omp_clause_default_kind default_kind;
87   enum omp_region_type region_type;
88 };
89
90 static struct gimplify_ctx *gimplify_ctxp;
91 static struct gimplify_omp_ctx *gimplify_omp_ctxp;
92
93
94 /* Formal (expression) temporary table handling: multiple occurrences of
95    the same scalar expression are evaluated into the same temporary.  */
96
97 typedef struct gimple_temp_hash_elt
98 {
99   tree val;   /* Key */
100   tree temp;  /* Value */
101 } elt_t;
102
103 /* Forward declaration.  */
104 static enum gimplify_status gimplify_compound_expr (tree *, gimple_seq *, bool);
105
106 /* Mark X addressable.  Unlike the langhook we expect X to be in gimple
107    form and we don't do any syntax checking.  */
108
109 void
110 mark_addressable (tree x)
111 {
112   while (handled_component_p (x))
113     x = TREE_OPERAND (x, 0);
114   if (TREE_CODE (x) == MEM_REF
115       && TREE_CODE (TREE_OPERAND (x, 0)) == ADDR_EXPR)
116     x = TREE_OPERAND (TREE_OPERAND (x, 0), 0);
117   if (TREE_CODE (x) != VAR_DECL
118       && TREE_CODE (x) != PARM_DECL
119       && TREE_CODE (x) != RESULT_DECL)
120     return;
121   TREE_ADDRESSABLE (x) = 1;
122 }
123
124 /* Return a hash value for a formal temporary table entry.  */
125
126 static hashval_t
127 gimple_tree_hash (const void *p)
128 {
129   tree t = ((const elt_t *) p)->val;
130   return iterative_hash_expr (t, 0);
131 }
132
133 /* Compare two formal temporary table entries.  */
134
135 static int
136 gimple_tree_eq (const void *p1, const void *p2)
137 {
138   tree t1 = ((const elt_t *) p1)->val;
139   tree t2 = ((const elt_t *) p2)->val;
140   enum tree_code code = TREE_CODE (t1);
141
142   if (TREE_CODE (t2) != code
143       || TREE_TYPE (t1) != TREE_TYPE (t2))
144     return 0;
145
146   if (!operand_equal_p (t1, t2, 0))
147     return 0;
148
149 #ifdef ENABLE_CHECKING
150   /* Only allow them to compare equal if they also hash equal; otherwise
151      results are nondeterminate, and we fail bootstrap comparison.  */
152   gcc_assert (gimple_tree_hash (p1) == gimple_tree_hash (p2));
153 #endif
154
155   return 1;
156 }
157
158 /* Link gimple statement GS to the end of the sequence *SEQ_P.  If
159    *SEQ_P is NULL, a new sequence is allocated.  This function is
160    similar to gimple_seq_add_stmt, but does not scan the operands.
161    During gimplification, we need to manipulate statement sequences
162    before the def/use vectors have been constructed.  */
163
164 void
165 gimplify_seq_add_stmt (gimple_seq *seq_p, gimple gs)
166 {
167   gimple_stmt_iterator si;
168
169   if (gs == NULL)
170     return;
171
172   if (*seq_p == NULL)
173     *seq_p = gimple_seq_alloc ();
174
175   si = gsi_last (*seq_p);
176
177   gsi_insert_after_without_update (&si, gs, GSI_NEW_STMT);
178 }
179
180 /* Append sequence SRC to the end of sequence *DST_P.  If *DST_P is
181    NULL, a new sequence is allocated.   This function is
182    similar to gimple_seq_add_seq, but does not scan the operands.
183    During gimplification, we need to manipulate statement sequences
184    before the def/use vectors have been constructed.  */
185
186 static void
187 gimplify_seq_add_seq (gimple_seq *dst_p, gimple_seq src)
188 {
189   gimple_stmt_iterator si;
190
191   if (src == NULL)
192     return;
193
194   if (*dst_p == NULL)
195     *dst_p = gimple_seq_alloc ();
196
197   si = gsi_last (*dst_p);
198   gsi_insert_seq_after_without_update (&si, src, GSI_NEW_STMT);
199 }
200
201 /* Set up a context for the gimplifier.  */
202
203 void
204 push_gimplify_context (struct gimplify_ctx *c)
205 {
206   memset (c, '\0', sizeof (*c));
207   c->prev_context = gimplify_ctxp;
208   gimplify_ctxp = c;
209 }
210
211 /* Tear down a context for the gimplifier.  If BODY is non-null, then
212    put the temporaries into the outer BIND_EXPR.  Otherwise, put them
213    in the local_decls.
214
215    BODY is not a sequence, but the first tuple in a sequence.  */
216
217 void
218 pop_gimplify_context (gimple body)
219 {
220   struct gimplify_ctx *c = gimplify_ctxp;
221
222   gcc_assert (c && (c->bind_expr_stack == NULL
223                     || VEC_empty (gimple, c->bind_expr_stack)));
224   VEC_free (gimple, heap, c->bind_expr_stack);
225   gimplify_ctxp = c->prev_context;
226
227   if (body)
228     declare_vars (c->temps, body, false);
229   else
230     record_vars (c->temps);
231
232   if (c->temp_htab)
233     htab_delete (c->temp_htab);
234 }
235
236 /* Push a GIMPLE_BIND tuple onto the stack of bindings.  */
237
238 static void
239 gimple_push_bind_expr (gimple gimple_bind)
240 {
241   if (gimplify_ctxp->bind_expr_stack == NULL)
242     gimplify_ctxp->bind_expr_stack = VEC_alloc (gimple, heap, 8);
243   VEC_safe_push (gimple, heap, gimplify_ctxp->bind_expr_stack, gimple_bind);
244 }
245
246 /* Pop the first element off the stack of bindings.  */
247
248 static void
249 gimple_pop_bind_expr (void)
250 {
251   VEC_pop (gimple, gimplify_ctxp->bind_expr_stack);
252 }
253
254 /* Return the first element of the stack of bindings.  */
255
256 gimple
257 gimple_current_bind_expr (void)
258 {
259   return VEC_last (gimple, gimplify_ctxp->bind_expr_stack);
260 }
261
262 /* Return the stack of bindings created during gimplification.  */
263
264 VEC(gimple, heap) *
265 gimple_bind_expr_stack (void)
266 {
267   return gimplify_ctxp->bind_expr_stack;
268 }
269
270 /* Return true iff there is a COND_EXPR between us and the innermost
271    CLEANUP_POINT_EXPR.  This info is used by gimple_push_cleanup.  */
272
273 static bool
274 gimple_conditional_context (void)
275 {
276   return gimplify_ctxp->conditions > 0;
277 }
278
279 /* Note that we've entered a COND_EXPR.  */
280
281 static void
282 gimple_push_condition (void)
283 {
284 #ifdef ENABLE_GIMPLE_CHECKING
285   if (gimplify_ctxp->conditions == 0)
286     gcc_assert (gimple_seq_empty_p (gimplify_ctxp->conditional_cleanups));
287 #endif
288   ++(gimplify_ctxp->conditions);
289 }
290
291 /* Note that we've left a COND_EXPR.  If we're back at unconditional scope
292    now, add any conditional cleanups we've seen to the prequeue.  */
293
294 static void
295 gimple_pop_condition (gimple_seq *pre_p)
296 {
297   int conds = --(gimplify_ctxp->conditions);
298
299   gcc_assert (conds >= 0);
300   if (conds == 0)
301     {
302       gimplify_seq_add_seq (pre_p, gimplify_ctxp->conditional_cleanups);
303       gimplify_ctxp->conditional_cleanups = NULL;
304     }
305 }
306
307 /* A stable comparison routine for use with splay trees and DECLs.  */
308
309 static int
310 splay_tree_compare_decl_uid (splay_tree_key xa, splay_tree_key xb)
311 {
312   tree a = (tree) xa;
313   tree b = (tree) xb;
314
315   return DECL_UID (a) - DECL_UID (b);
316 }
317
318 /* Create a new omp construct that deals with variable remapping.  */
319
320 static struct gimplify_omp_ctx *
321 new_omp_context (enum omp_region_type region_type)
322 {
323   struct gimplify_omp_ctx *c;
324
325   c = XCNEW (struct gimplify_omp_ctx);
326   c->outer_context = gimplify_omp_ctxp;
327   c->variables = splay_tree_new (splay_tree_compare_decl_uid, 0, 0);
328   c->privatized_types = pointer_set_create ();
329   c->location = input_location;
330   c->region_type = region_type;
331   if ((region_type & ORT_TASK) == 0)
332     c->default_kind = OMP_CLAUSE_DEFAULT_SHARED;
333   else
334     c->default_kind = OMP_CLAUSE_DEFAULT_UNSPECIFIED;
335
336   return c;
337 }
338
339 /* Destroy an omp construct that deals with variable remapping.  */
340
341 static void
342 delete_omp_context (struct gimplify_omp_ctx *c)
343 {
344   splay_tree_delete (c->variables);
345   pointer_set_destroy (c->privatized_types);
346   XDELETE (c);
347 }
348
349 static void omp_add_variable (struct gimplify_omp_ctx *, tree, unsigned int);
350 static bool omp_notice_variable (struct gimplify_omp_ctx *, tree, bool);
351
352 /* Both gimplify the statement T and append it to *SEQ_P.  This function
353    behaves exactly as gimplify_stmt, but you don't have to pass T as a
354    reference.  */
355
356 void
357 gimplify_and_add (tree t, gimple_seq *seq_p)
358 {
359   gimplify_stmt (&t, seq_p);
360 }
361
362 /* Gimplify statement T into sequence *SEQ_P, and return the first
363    tuple in the sequence of generated tuples for this statement.
364    Return NULL if gimplifying T produced no tuples.  */
365
366 static gimple
367 gimplify_and_return_first (tree t, gimple_seq *seq_p)
368 {
369   gimple_stmt_iterator last = gsi_last (*seq_p);
370
371   gimplify_and_add (t, seq_p);
372
373   if (!gsi_end_p (last))
374     {
375       gsi_next (&last);
376       return gsi_stmt (last);
377     }
378   else
379     return gimple_seq_first_stmt (*seq_p);
380 }
381
382 /* Strip off a legitimate source ending from the input string NAME of
383    length LEN.  Rather than having to know the names used by all of
384    our front ends, we strip off an ending of a period followed by
385    up to five characters.  (Java uses ".class".)  */
386
387 static inline void
388 remove_suffix (char *name, int len)
389 {
390   int i;
391
392   for (i = 2;  i < 8 && len > i;  i++)
393     {
394       if (name[len - i] == '.')
395         {
396           name[len - i] = '\0';
397           break;
398         }
399     }
400 }
401
402 /* Create a new temporary name with PREFIX.  Return an identifier.  */
403
404 static GTY(()) unsigned int tmp_var_id_num;
405
406 tree
407 create_tmp_var_name (const char *prefix)
408 {
409   char *tmp_name;
410
411   if (prefix)
412     {
413       char *preftmp = ASTRDUP (prefix);
414
415       remove_suffix (preftmp, strlen (preftmp));
416       prefix = preftmp;
417     }
418
419   ASM_FORMAT_PRIVATE_NAME (tmp_name, prefix ? prefix : "T", tmp_var_id_num++);
420   return get_identifier (tmp_name);
421 }
422
423 /* Create a new temporary variable declaration of type TYPE.
424    Do NOT push it into the current binding.  */
425
426 tree
427 create_tmp_var_raw (tree type, const char *prefix)
428 {
429   tree tmp_var;
430   tree new_type;
431
432   /* Make the type of the variable writable.  */
433   new_type = build_type_variant (type, 0, 0);
434   TYPE_ATTRIBUTES (new_type) = TYPE_ATTRIBUTES (type);
435
436   tmp_var = build_decl (input_location,
437                         VAR_DECL, prefix ? create_tmp_var_name (prefix) : NULL,
438                         type);
439
440   /* The variable was declared by the compiler.  */
441   DECL_ARTIFICIAL (tmp_var) = 1;
442   /* And we don't want debug info for it.  */
443   DECL_IGNORED_P (tmp_var) = 1;
444
445   /* Make the variable writable.  */
446   TREE_READONLY (tmp_var) = 0;
447
448   DECL_EXTERNAL (tmp_var) = 0;
449   TREE_STATIC (tmp_var) = 0;
450   TREE_USED (tmp_var) = 1;
451
452   return tmp_var;
453 }
454
455 /* Create a new temporary variable declaration of type TYPE.  DO push the
456    variable into the current binding.  Further, assume that this is called
457    only from gimplification or optimization, at which point the creation of
458    certain types are bugs.  */
459
460 tree
461 create_tmp_var (tree type, const char *prefix)
462 {
463   tree tmp_var;
464
465   /* We don't allow types that are addressable (meaning we can't make copies),
466      or incomplete.  We also used to reject every variable size objects here,
467      but now support those for which a constant upper bound can be obtained.
468      The processing for variable sizes is performed in gimple_add_tmp_var,
469      point at which it really matters and possibly reached via paths not going
470      through this function, e.g. after direct calls to create_tmp_var_raw.  */
471   gcc_assert (!TREE_ADDRESSABLE (type) && COMPLETE_TYPE_P (type));
472
473   tmp_var = create_tmp_var_raw (type, prefix);
474   gimple_add_tmp_var (tmp_var);
475   return tmp_var;
476 }
477
478 /* Create a new temporary variable declaration of type TYPE by calling
479    create_tmp_var and if TYPE is a vector or a complex number, mark the new
480    temporary as gimple register.  */
481
482 tree
483 create_tmp_reg (tree type, const char *prefix)
484 {
485   tree tmp;
486
487   tmp = create_tmp_var (type, prefix);
488   if (TREE_CODE (type) == COMPLEX_TYPE
489       || TREE_CODE (type) == VECTOR_TYPE)
490     DECL_GIMPLE_REG_P (tmp) = 1;
491
492   return tmp;
493 }
494
495 /* Create a temporary with a name derived from VAL.  Subroutine of
496    lookup_tmp_var; nobody else should call this function.  */
497
498 static inline tree
499 create_tmp_from_val (tree val)
500 {
501   return create_tmp_var (TREE_TYPE (val), get_name (val));
502 }
503
504 /* Create a temporary to hold the value of VAL.  If IS_FORMAL, try to reuse
505    an existing expression temporary.  */
506
507 static tree
508 lookup_tmp_var (tree val, bool is_formal)
509 {
510   tree ret;
511
512   /* If not optimizing, never really reuse a temporary.  local-alloc
513      won't allocate any variable that is used in more than one basic
514      block, which means it will go into memory, causing much extra
515      work in reload and final and poorer code generation, outweighing
516      the extra memory allocation here.  */
517   if (!optimize || !is_formal || TREE_SIDE_EFFECTS (val))
518     ret = create_tmp_from_val (val);
519   else
520     {
521       elt_t elt, *elt_p;
522       void **slot;
523
524       elt.val = val;
525       if (gimplify_ctxp->temp_htab == NULL)
526         gimplify_ctxp->temp_htab
527           = htab_create (1000, gimple_tree_hash, gimple_tree_eq, free);
528       slot = htab_find_slot (gimplify_ctxp->temp_htab, (void *)&elt, INSERT);
529       if (*slot == NULL)
530         {
531           elt_p = XNEW (elt_t);
532           elt_p->val = val;
533           elt_p->temp = ret = create_tmp_from_val (val);
534           *slot = (void *) elt_p;
535         }
536       else
537         {
538           elt_p = (elt_t *) *slot;
539           ret = elt_p->temp;
540         }
541     }
542
543   return ret;
544 }
545
546 /* Return true if T is a CALL_EXPR or an expression that can be
547    assigned to a temporary.  Note that this predicate should only be
548    used during gimplification.  See the rationale for this in
549    gimplify_modify_expr.  */
550
551 static bool
552 is_gimple_reg_rhs_or_call (tree t)
553 {
554   return (get_gimple_rhs_class (TREE_CODE (t)) != GIMPLE_INVALID_RHS
555           || TREE_CODE (t) == CALL_EXPR);
556 }
557
558 /* Return true if T is a valid memory RHS or a CALL_EXPR.  Note that
559    this predicate should only be used during gimplification.  See the
560    rationale for this in gimplify_modify_expr.  */
561
562 static bool
563 is_gimple_mem_rhs_or_call (tree t)
564 {
565   /* If we're dealing with a renamable type, either source or dest must be
566      a renamed variable.  */
567   if (is_gimple_reg_type (TREE_TYPE (t)))
568     return is_gimple_val (t);
569   else
570     return (is_gimple_val (t) || is_gimple_lvalue (t)
571             || TREE_CODE (t) == CALL_EXPR);
572 }
573
574 /* Helper for get_formal_tmp_var and get_initialized_tmp_var.  */
575
576 static tree
577 internal_get_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p,
578                       bool is_formal)
579 {
580   tree t, mod;
581
582   /* Notice that we explicitly allow VAL to be a CALL_EXPR so that we
583      can create an INIT_EXPR and convert it into a GIMPLE_CALL below.  */
584   gimplify_expr (&val, pre_p, post_p, is_gimple_reg_rhs_or_call,
585                  fb_rvalue);
586
587   t = lookup_tmp_var (val, is_formal);
588
589   if (is_formal
590       && (TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
591           || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE))
592     DECL_GIMPLE_REG_P (t) = 1;
593
594   mod = build2 (INIT_EXPR, TREE_TYPE (t), t, unshare_expr (val));
595
596   SET_EXPR_LOCATION (mod, EXPR_LOC_OR_HERE (val));
597
598   /* gimplify_modify_expr might want to reduce this further.  */
599   gimplify_and_add (mod, pre_p);
600   ggc_free (mod);
601
602   /* If we're gimplifying into ssa, gimplify_modify_expr will have
603      given our temporary an SSA name.  Find and return it.  */
604   if (gimplify_ctxp->into_ssa)
605     {
606       gimple last = gimple_seq_last_stmt (*pre_p);
607       t = gimple_get_lhs (last);
608     }
609
610   return t;
611 }
612
613 /* Return a formal temporary variable initialized with VAL.  PRE_P is as
614    in gimplify_expr.  Only use this function if:
615
616    1) The value of the unfactored expression represented by VAL will not
617       change between the initialization and use of the temporary, and
618    2) The temporary will not be otherwise modified.
619
620    For instance, #1 means that this is inappropriate for SAVE_EXPR temps,
621    and #2 means it is inappropriate for && temps.
622
623    For other cases, use get_initialized_tmp_var instead.  */
624
625 tree
626 get_formal_tmp_var (tree val, gimple_seq *pre_p)
627 {
628   return internal_get_tmp_var (val, pre_p, NULL, true);
629 }
630
631 /* Return a temporary variable initialized with VAL.  PRE_P and POST_P
632    are as in gimplify_expr.  */
633
634 tree
635 get_initialized_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p)
636 {
637   return internal_get_tmp_var (val, pre_p, post_p, false);
638 }
639
640 /* Declare all the variables in VARS in SCOPE.  If DEBUG_INFO is true,
641    generate debug info for them; otherwise don't.  */
642
643 void
644 declare_vars (tree vars, gimple scope, bool debug_info)
645 {
646   tree last = vars;
647   if (last)
648     {
649       tree temps, block;
650
651       gcc_assert (gimple_code (scope) == GIMPLE_BIND);
652
653       temps = nreverse (last);
654
655       block = gimple_bind_block (scope);
656       gcc_assert (!block || TREE_CODE (block) == BLOCK);
657       if (!block || !debug_info)
658         {
659           DECL_CHAIN (last) = gimple_bind_vars (scope);
660           gimple_bind_set_vars (scope, temps);
661         }
662       else
663         {
664           /* We need to attach the nodes both to the BIND_EXPR and to its
665              associated BLOCK for debugging purposes.  The key point here
666              is that the BLOCK_VARS of the BIND_EXPR_BLOCK of a BIND_EXPR
667              is a subchain of the BIND_EXPR_VARS of the BIND_EXPR.  */
668           if (BLOCK_VARS (block))
669             BLOCK_VARS (block) = chainon (BLOCK_VARS (block), temps);
670           else
671             {
672               gimple_bind_set_vars (scope,
673                                     chainon (gimple_bind_vars (scope), temps));
674               BLOCK_VARS (block) = temps;
675             }
676         }
677     }
678 }
679
680 /* For VAR a VAR_DECL of variable size, try to find a constant upper bound
681    for the size and adjust DECL_SIZE/DECL_SIZE_UNIT accordingly.  Abort if
682    no such upper bound can be obtained.  */
683
684 static void
685 force_constant_size (tree var)
686 {
687   /* The only attempt we make is by querying the maximum size of objects
688      of the variable's type.  */
689
690   HOST_WIDE_INT max_size;
691
692   gcc_assert (TREE_CODE (var) == VAR_DECL);
693
694   max_size = max_int_size_in_bytes (TREE_TYPE (var));
695
696   gcc_assert (max_size >= 0);
697
698   DECL_SIZE_UNIT (var)
699     = build_int_cst (TREE_TYPE (DECL_SIZE_UNIT (var)), max_size);
700   DECL_SIZE (var)
701     = build_int_cst (TREE_TYPE (DECL_SIZE (var)), max_size * BITS_PER_UNIT);
702 }
703
704 /* Push the temporary variable TMP into the current binding.  */
705
706 void
707 gimple_add_tmp_var (tree tmp)
708 {
709   gcc_assert (!DECL_CHAIN (tmp) && !DECL_SEEN_IN_BIND_EXPR_P (tmp));
710
711   /* Later processing assumes that the object size is constant, which might
712      not be true at this point.  Force the use of a constant upper bound in
713      this case.  */
714   if (!host_integerp (DECL_SIZE_UNIT (tmp), 1))
715     force_constant_size (tmp);
716
717   DECL_CONTEXT (tmp) = current_function_decl;
718   DECL_SEEN_IN_BIND_EXPR_P (tmp) = 1;
719
720   if (gimplify_ctxp)
721     {
722       DECL_CHAIN (tmp) = gimplify_ctxp->temps;
723       gimplify_ctxp->temps = tmp;
724
725       /* Mark temporaries local within the nearest enclosing parallel.  */
726       if (gimplify_omp_ctxp)
727         {
728           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
729           while (ctx && ctx->region_type == ORT_WORKSHARE)
730             ctx = ctx->outer_context;
731           if (ctx)
732             omp_add_variable (ctx, tmp, GOVD_LOCAL | GOVD_SEEN);
733         }
734     }
735   else if (cfun)
736     record_vars (tmp);
737   else
738     {
739       gimple_seq body_seq;
740
741       /* This case is for nested functions.  We need to expose the locals
742          they create.  */
743       body_seq = gimple_body (current_function_decl);
744       declare_vars (tmp, gimple_seq_first_stmt (body_seq), false);
745     }
746 }
747
748 /* Determine whether to assign a location to the statement GS.  */
749
750 static bool
751 should_carry_location_p (gimple gs)
752 {
753   /* Don't emit a line note for a label.  We particularly don't want to
754      emit one for the break label, since it doesn't actually correspond
755      to the beginning of the loop/switch.  */
756   if (gimple_code (gs) == GIMPLE_LABEL)
757     return false;
758
759   return true;
760 }
761
762 /* Return true if a location should not be emitted for this statement
763    by annotate_one_with_location.  */
764
765 static inline bool
766 gimple_do_not_emit_location_p (gimple g)
767 {
768   return gimple_plf (g, GF_PLF_1);
769 }
770
771 /* Mark statement G so a location will not be emitted by
772    annotate_one_with_location.  */
773
774 static inline void
775 gimple_set_do_not_emit_location (gimple g)
776 {
777   /* The PLF flags are initialized to 0 when a new tuple is created,
778      so no need to initialize it anywhere.  */
779   gimple_set_plf (g, GF_PLF_1, true);
780 }
781
782 /* Set the location for gimple statement GS to LOCATION.  */
783
784 static void
785 annotate_one_with_location (gimple gs, location_t location)
786 {
787   if (!gimple_has_location (gs)
788       && !gimple_do_not_emit_location_p (gs)
789       && should_carry_location_p (gs))
790     gimple_set_location (gs, location);
791 }
792
793 /* Set LOCATION for all the statements after iterator GSI in sequence
794    SEQ.  If GSI is pointing to the end of the sequence, start with the
795    first statement in SEQ.  */
796
797 static void
798 annotate_all_with_location_after (gimple_seq seq, gimple_stmt_iterator gsi,
799                                   location_t location)
800 {
801   if (gsi_end_p (gsi))
802     gsi = gsi_start (seq);
803   else
804     gsi_next (&gsi);
805
806   for (; !gsi_end_p (gsi); gsi_next (&gsi))
807     annotate_one_with_location (gsi_stmt (gsi), location);
808 }
809
810 /* Set the location for all the statements in a sequence STMT_P to LOCATION.  */
811
812 void
813 annotate_all_with_location (gimple_seq stmt_p, location_t location)
814 {
815   gimple_stmt_iterator i;
816
817   if (gimple_seq_empty_p (stmt_p))
818     return;
819
820   for (i = gsi_start (stmt_p); !gsi_end_p (i); gsi_next (&i))
821     {
822       gimple gs = gsi_stmt (i);
823       annotate_one_with_location (gs, location);
824     }
825 }
826 \f
827 /* This page contains routines to unshare tree nodes, i.e. to duplicate tree
828    nodes that are referenced more than once in GENERIC functions.  This is
829    necessary because gimplification (translation into GIMPLE) is performed
830    by modifying tree nodes in-place, so gimplication of a shared node in a
831    first context could generate an invalid GIMPLE form in a second context.
832
833    This is achieved with a simple mark/copy/unmark algorithm that walks the
834    GENERIC representation top-down, marks nodes with TREE_VISITED the first
835    time it encounters them, duplicates them if they already have TREE_VISITED
836    set, and finally removes the TREE_VISITED marks it has set.
837
838    The algorithm works only at the function level, i.e. it generates a GENERIC
839    representation of a function with no nodes shared within the function when
840    passed a GENERIC function (except for nodes that are allowed to be shared).
841
842    At the global level, it is also necessary to unshare tree nodes that are
843    referenced in more than one function, for the same aforementioned reason.
844    This requires some cooperation from the front-end.  There are 2 strategies:
845
846      1. Manual unsharing.  The front-end needs to call unshare_expr on every
847         expression that might end up being shared across functions.
848
849      2. Deep unsharing.  This is an extension of regular unsharing.  Instead
850         of calling unshare_expr on expressions that might be shared across
851         functions, the front-end pre-marks them with TREE_VISITED.  This will
852         ensure that they are unshared on the first reference within functions
853         when the regular unsharing algorithm runs.  The counterpart is that
854         this algorithm must look deeper than for manual unsharing, which is
855         specified by LANG_HOOKS_DEEP_UNSHARING.
856
857   If there are only few specific cases of node sharing across functions, it is
858   probably easier for a front-end to unshare the expressions manually.  On the
859   contrary, if the expressions generated at the global level are as widespread
860   as expressions generated within functions, deep unsharing is very likely the
861   way to go.  */
862
863 /* Similar to copy_tree_r but do not copy SAVE_EXPR or TARGET_EXPR nodes.
864    These nodes model computations that should only be done once.  If we
865    were to unshare something like SAVE_EXPR(i++), the gimplification
866    process would create wrong code.  */
867
868 static tree
869 mostly_copy_tree_r (tree *tp, int *walk_subtrees, void *data)
870 {
871   tree t = *tp;
872   enum tree_code code = TREE_CODE (t);
873
874   /* Do not copy SAVE_EXPR, TARGET_EXPR or BIND_EXPR nodes themselves, but
875      copy their subtrees if we can make sure to do it only once.  */
876   if (code == SAVE_EXPR || code == TARGET_EXPR || code == BIND_EXPR)
877     {
878       if (data && !pointer_set_insert ((struct pointer_set_t *)data, t))
879         ;
880       else
881         *walk_subtrees = 0;
882     }
883
884   /* Stop at types, decls, constants like copy_tree_r.  */
885   else if (TREE_CODE_CLASS (code) == tcc_type
886            || TREE_CODE_CLASS (code) == tcc_declaration
887            || TREE_CODE_CLASS (code) == tcc_constant
888            /* We can't do anything sensible with a BLOCK used as an
889               expression, but we also can't just die when we see it
890               because of non-expression uses.  So we avert our eyes
891               and cross our fingers.  Silly Java.  */
892            || code == BLOCK)
893     *walk_subtrees = 0;
894
895   /* Cope with the statement expression extension.  */
896   else if (code == STATEMENT_LIST)
897     ;
898
899   /* Leave the bulk of the work to copy_tree_r itself.  */
900   else
901     copy_tree_r (tp, walk_subtrees, NULL);
902
903   return NULL_TREE;
904 }
905
906 /* Callback for walk_tree to unshare most of the shared trees rooted at
907    *TP.  If *TP has been visited already (i.e., TREE_VISITED (*TP) == 1),
908    then *TP is deep copied by calling mostly_copy_tree_r.  */
909
910 static tree
911 copy_if_shared_r (tree *tp, int *walk_subtrees, void *data)
912 {
913   tree t = *tp;
914   enum tree_code code = TREE_CODE (t);
915
916   /* Skip types, decls, and constants.  But we do want to look at their
917      types and the bounds of types.  Mark them as visited so we properly
918      unmark their subtrees on the unmark pass.  If we've already seen them,
919      don't look down further.  */
920   if (TREE_CODE_CLASS (code) == tcc_type
921       || TREE_CODE_CLASS (code) == tcc_declaration
922       || TREE_CODE_CLASS (code) == tcc_constant)
923     {
924       if (TREE_VISITED (t))
925         *walk_subtrees = 0;
926       else
927         TREE_VISITED (t) = 1;
928     }
929
930   /* If this node has been visited already, unshare it and don't look
931      any deeper.  */
932   else if (TREE_VISITED (t))
933     {
934       walk_tree (tp, mostly_copy_tree_r, data, NULL);
935       *walk_subtrees = 0;
936     }
937
938   /* Otherwise, mark the node as visited and keep looking.  */
939   else
940     TREE_VISITED (t) = 1;
941
942   return NULL_TREE;
943 }
944
945 /* Unshare most of the shared trees rooted at *TP. */
946
947 static inline void
948 copy_if_shared (tree *tp)
949 {
950   /* If the language requires deep unsharing, we need a pointer set to make
951      sure we don't repeatedly unshare subtrees of unshareable nodes.  */
952   struct pointer_set_t *visited
953     = lang_hooks.deep_unsharing ? pointer_set_create () : NULL;
954   walk_tree (tp, copy_if_shared_r, visited, NULL);
955   if (visited)
956     pointer_set_destroy (visited);
957 }
958
959 /* Unshare all the trees in BODY_P, a pointer into the body of FNDECL, and the
960    bodies of any nested functions if we are unsharing the entire body of
961    FNDECL.  */
962
963 static void
964 unshare_body (tree *body_p, tree fndecl)
965 {
966   struct cgraph_node *cgn = cgraph_get_node (fndecl);
967
968   copy_if_shared (body_p);
969
970   if (cgn && body_p == &DECL_SAVED_TREE (fndecl))
971     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
972       unshare_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
973 }
974
975 /* Callback for walk_tree to unmark the visited trees rooted at *TP.
976    Subtrees are walked until the first unvisited node is encountered.  */
977
978 static tree
979 unmark_visited_r (tree *tp, int *walk_subtrees, void *data ATTRIBUTE_UNUSED)
980 {
981   tree t = *tp;
982
983   /* If this node has been visited, unmark it and keep looking.  */
984   if (TREE_VISITED (t))
985     TREE_VISITED (t) = 0;
986
987   /* Otherwise, don't look any deeper.  */
988   else
989     *walk_subtrees = 0;
990
991   return NULL_TREE;
992 }
993
994 /* Unmark the visited trees rooted at *TP.  */
995
996 static inline void
997 unmark_visited (tree *tp)
998 {
999   walk_tree (tp, unmark_visited_r, NULL, NULL);
1000 }
1001
1002 /* Likewise, but mark all trees as not visited.  */
1003
1004 static void
1005 unvisit_body (tree *body_p, tree fndecl)
1006 {
1007   struct cgraph_node *cgn = cgraph_get_node (fndecl);
1008
1009   unmark_visited (body_p);
1010
1011   if (cgn && body_p == &DECL_SAVED_TREE (fndecl))
1012     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
1013       unvisit_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
1014 }
1015
1016 /* Unconditionally make an unshared copy of EXPR.  This is used when using
1017    stored expressions which span multiple functions, such as BINFO_VTABLE,
1018    as the normal unsharing process can't tell that they're shared.  */
1019
1020 tree
1021 unshare_expr (tree expr)
1022 {
1023   walk_tree (&expr, mostly_copy_tree_r, NULL, NULL);
1024   return expr;
1025 }
1026 \f
1027 /* WRAPPER is a code such as BIND_EXPR or CLEANUP_POINT_EXPR which can both
1028    contain statements and have a value.  Assign its value to a temporary
1029    and give it void_type_node.  Return the temporary, or NULL_TREE if
1030    WRAPPER was already void.  */
1031
1032 tree
1033 voidify_wrapper_expr (tree wrapper, tree temp)
1034 {
1035   tree type = TREE_TYPE (wrapper);
1036   if (type && !VOID_TYPE_P (type))
1037     {
1038       tree *p;
1039
1040       /* Set p to point to the body of the wrapper.  Loop until we find
1041          something that isn't a wrapper.  */
1042       for (p = &wrapper; p && *p; )
1043         {
1044           switch (TREE_CODE (*p))
1045             {
1046             case BIND_EXPR:
1047               TREE_SIDE_EFFECTS (*p) = 1;
1048               TREE_TYPE (*p) = void_type_node;
1049               /* For a BIND_EXPR, the body is operand 1.  */
1050               p = &BIND_EXPR_BODY (*p);
1051               break;
1052
1053             case CLEANUP_POINT_EXPR:
1054             case TRY_FINALLY_EXPR:
1055             case TRY_CATCH_EXPR:
1056               TREE_SIDE_EFFECTS (*p) = 1;
1057               TREE_TYPE (*p) = void_type_node;
1058               p = &TREE_OPERAND (*p, 0);
1059               break;
1060
1061             case STATEMENT_LIST:
1062               {
1063                 tree_stmt_iterator i = tsi_last (*p);
1064                 TREE_SIDE_EFFECTS (*p) = 1;
1065                 TREE_TYPE (*p) = void_type_node;
1066                 p = tsi_end_p (i) ? NULL : tsi_stmt_ptr (i);
1067               }
1068               break;
1069
1070             case COMPOUND_EXPR:
1071               /* Advance to the last statement.  Set all container types to
1072                  void.  */
1073               for (; TREE_CODE (*p) == COMPOUND_EXPR; p = &TREE_OPERAND (*p, 1))
1074                 {
1075                   TREE_SIDE_EFFECTS (*p) = 1;
1076                   TREE_TYPE (*p) = void_type_node;
1077                 }
1078               break;
1079
1080             default:
1081               goto out;
1082             }
1083         }
1084
1085     out:
1086       if (p == NULL || IS_EMPTY_STMT (*p))
1087         temp = NULL_TREE;
1088       else if (temp)
1089         {
1090           /* The wrapper is on the RHS of an assignment that we're pushing
1091              down.  */
1092           gcc_assert (TREE_CODE (temp) == INIT_EXPR
1093                       || TREE_CODE (temp) == MODIFY_EXPR);
1094           TREE_OPERAND (temp, 1) = *p;
1095           *p = temp;
1096         }
1097       else
1098         {
1099           temp = create_tmp_var (type, "retval");
1100           *p = build2 (INIT_EXPR, type, temp, *p);
1101         }
1102
1103       return temp;
1104     }
1105
1106   return NULL_TREE;
1107 }
1108
1109 /* Prepare calls to builtins to SAVE and RESTORE the stack as well as
1110    a temporary through which they communicate.  */
1111
1112 static void
1113 build_stack_save_restore (gimple *save, gimple *restore)
1114 {
1115   tree tmp_var;
1116
1117   *save = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_SAVE], 0);
1118   tmp_var = create_tmp_var (ptr_type_node, "saved_stack");
1119   gimple_call_set_lhs (*save, tmp_var);
1120
1121   *restore
1122     = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_RESTORE],
1123                          1, tmp_var);
1124 }
1125
1126 /* Gimplify a BIND_EXPR.  Just voidify and recurse.  */
1127
1128 static enum gimplify_status
1129 gimplify_bind_expr (tree *expr_p, gimple_seq *pre_p)
1130 {
1131   tree bind_expr = *expr_p;
1132   bool old_save_stack = gimplify_ctxp->save_stack;
1133   tree t;
1134   gimple gimple_bind;
1135   gimple_seq body;
1136
1137   tree temp = voidify_wrapper_expr (bind_expr, NULL);
1138
1139   /* Mark variables seen in this bind expr.  */
1140   for (t = BIND_EXPR_VARS (bind_expr); t ; t = DECL_CHAIN (t))
1141     {
1142       if (TREE_CODE (t) == VAR_DECL)
1143         {
1144           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1145
1146           /* Mark variable as local.  */
1147           if (ctx && !is_global_var (t)
1148               && (! DECL_SEEN_IN_BIND_EXPR_P (t)
1149                   || splay_tree_lookup (ctx->variables,
1150                                         (splay_tree_key) t) == NULL))
1151             omp_add_variable (gimplify_omp_ctxp, t, GOVD_LOCAL | GOVD_SEEN);
1152
1153           DECL_SEEN_IN_BIND_EXPR_P (t) = 1;
1154
1155           if (DECL_HARD_REGISTER (t) && !is_global_var (t) && cfun)
1156             cfun->has_local_explicit_reg_vars = true;
1157         }
1158
1159       /* Preliminarily mark non-addressed complex variables as eligible
1160          for promotion to gimple registers.  We'll transform their uses
1161          as we find them.  */
1162       if ((TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
1163            || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE)
1164           && !TREE_THIS_VOLATILE (t)
1165           && (TREE_CODE (t) == VAR_DECL && !DECL_HARD_REGISTER (t))
1166           && !needs_to_live_in_memory (t))
1167         DECL_GIMPLE_REG_P (t) = 1;
1168     }
1169
1170   gimple_bind = gimple_build_bind (BIND_EXPR_VARS (bind_expr), NULL,
1171                                    BIND_EXPR_BLOCK (bind_expr));
1172   gimple_push_bind_expr (gimple_bind);
1173
1174   gimplify_ctxp->save_stack = false;
1175
1176   /* Gimplify the body into the GIMPLE_BIND tuple's body.  */
1177   body = NULL;
1178   gimplify_stmt (&BIND_EXPR_BODY (bind_expr), &body);
1179   gimple_bind_set_body (gimple_bind, body);
1180
1181   if (gimplify_ctxp->save_stack)
1182     {
1183       gimple stack_save, stack_restore, gs;
1184       gimple_seq cleanup, new_body;
1185
1186       /* Save stack on entry and restore it on exit.  Add a try_finally
1187          block to achieve this.  Note that mudflap depends on the
1188          format of the emitted code: see mx_register_decls().  */
1189       build_stack_save_restore (&stack_save, &stack_restore);
1190
1191       cleanup = new_body = NULL;
1192       gimplify_seq_add_stmt (&cleanup, stack_restore);
1193       gs = gimple_build_try (gimple_bind_body (gimple_bind), cleanup,
1194                              GIMPLE_TRY_FINALLY);
1195
1196       gimplify_seq_add_stmt (&new_body, stack_save);
1197       gimplify_seq_add_stmt (&new_body, gs);
1198       gimple_bind_set_body (gimple_bind, new_body);
1199     }
1200
1201   gimplify_ctxp->save_stack = old_save_stack;
1202   gimple_pop_bind_expr ();
1203
1204   gimplify_seq_add_stmt (pre_p, gimple_bind);
1205
1206   if (temp)
1207     {
1208       *expr_p = temp;
1209       return GS_OK;
1210     }
1211
1212   *expr_p = NULL_TREE;
1213   return GS_ALL_DONE;
1214 }
1215
1216 /* Gimplify a RETURN_EXPR.  If the expression to be returned is not a
1217    GIMPLE value, it is assigned to a new temporary and the statement is
1218    re-written to return the temporary.
1219
1220    PRE_P points to the sequence where side effects that must happen before
1221    STMT should be stored.  */
1222
1223 static enum gimplify_status
1224 gimplify_return_expr (tree stmt, gimple_seq *pre_p)
1225 {
1226   gimple ret;
1227   tree ret_expr = TREE_OPERAND (stmt, 0);
1228   tree result_decl, result;
1229
1230   if (ret_expr == error_mark_node)
1231     return GS_ERROR;
1232
1233   if (!ret_expr
1234       || TREE_CODE (ret_expr) == RESULT_DECL
1235       || ret_expr == error_mark_node)
1236     {
1237       gimple ret = gimple_build_return (ret_expr);
1238       gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1239       gimplify_seq_add_stmt (pre_p, ret);
1240       return GS_ALL_DONE;
1241     }
1242
1243   if (VOID_TYPE_P (TREE_TYPE (TREE_TYPE (current_function_decl))))
1244     result_decl = NULL_TREE;
1245   else
1246     {
1247       result_decl = TREE_OPERAND (ret_expr, 0);
1248
1249       /* See through a return by reference.  */
1250       if (TREE_CODE (result_decl) == INDIRECT_REF)
1251         result_decl = TREE_OPERAND (result_decl, 0);
1252
1253       gcc_assert ((TREE_CODE (ret_expr) == MODIFY_EXPR
1254                    || TREE_CODE (ret_expr) == INIT_EXPR)
1255                   && TREE_CODE (result_decl) == RESULT_DECL);
1256     }
1257
1258   /* If aggregate_value_p is true, then we can return the bare RESULT_DECL.
1259      Recall that aggregate_value_p is FALSE for any aggregate type that is
1260      returned in registers.  If we're returning values in registers, then
1261      we don't want to extend the lifetime of the RESULT_DECL, particularly
1262      across another call.  In addition, for those aggregates for which
1263      hard_function_value generates a PARALLEL, we'll die during normal
1264      expansion of structure assignments; there's special code in expand_return
1265      to handle this case that does not exist in expand_expr.  */
1266   if (!result_decl)
1267     result = NULL_TREE;
1268   else if (aggregate_value_p (result_decl, TREE_TYPE (current_function_decl)))
1269     {
1270       if (TREE_CODE (DECL_SIZE (result_decl)) != INTEGER_CST)
1271         {
1272           if (!TYPE_SIZES_GIMPLIFIED (TREE_TYPE (result_decl)))
1273             gimplify_type_sizes (TREE_TYPE (result_decl), pre_p);
1274           /* Note that we don't use gimplify_vla_decl because the RESULT_DECL
1275              should be effectively allocated by the caller, i.e. all calls to
1276              this function must be subject to the Return Slot Optimization.  */
1277           gimplify_one_sizepos (&DECL_SIZE (result_decl), pre_p);
1278           gimplify_one_sizepos (&DECL_SIZE_UNIT (result_decl), pre_p);
1279         }
1280       result = result_decl;
1281     }
1282   else if (gimplify_ctxp->return_temp)
1283     result = gimplify_ctxp->return_temp;
1284   else
1285     {
1286       result = create_tmp_reg (TREE_TYPE (result_decl), NULL);
1287
1288       /* ??? With complex control flow (usually involving abnormal edges),
1289          we can wind up warning about an uninitialized value for this.  Due
1290          to how this variable is constructed and initialized, this is never
1291          true.  Give up and never warn.  */
1292       TREE_NO_WARNING (result) = 1;
1293
1294       gimplify_ctxp->return_temp = result;
1295     }
1296
1297   /* Smash the lhs of the MODIFY_EXPR to the temporary we plan to use.
1298      Then gimplify the whole thing.  */
1299   if (result != result_decl)
1300     TREE_OPERAND (ret_expr, 0) = result;
1301
1302   gimplify_and_add (TREE_OPERAND (stmt, 0), pre_p);
1303
1304   ret = gimple_build_return (result);
1305   gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1306   gimplify_seq_add_stmt (pre_p, ret);
1307
1308   return GS_ALL_DONE;
1309 }
1310
1311 /* Gimplify a variable-length array DECL.  */
1312
1313 static void
1314 gimplify_vla_decl (tree decl, gimple_seq *seq_p)
1315 {
1316   /* This is a variable-sized decl.  Simplify its size and mark it
1317      for deferred expansion.  Note that mudflap depends on the format
1318      of the emitted code: see mx_register_decls().  */
1319   tree t, addr, ptr_type;
1320
1321   gimplify_one_sizepos (&DECL_SIZE (decl), seq_p);
1322   gimplify_one_sizepos (&DECL_SIZE_UNIT (decl), seq_p);
1323
1324   /* All occurrences of this decl in final gimplified code will be
1325      replaced by indirection.  Setting DECL_VALUE_EXPR does two
1326      things: First, it lets the rest of the gimplifier know what
1327      replacement to use.  Second, it lets the debug info know
1328      where to find the value.  */
1329   ptr_type = build_pointer_type (TREE_TYPE (decl));
1330   addr = create_tmp_var (ptr_type, get_name (decl));
1331   DECL_IGNORED_P (addr) = 0;
1332   t = build_fold_indirect_ref (addr);
1333   TREE_THIS_NOTRAP (t) = 1;
1334   SET_DECL_VALUE_EXPR (decl, t);
1335   DECL_HAS_VALUE_EXPR_P (decl) = 1;
1336
1337   t = built_in_decls[BUILT_IN_ALLOCA];
1338   t = build_call_expr (t, 1, DECL_SIZE_UNIT (decl));
1339   /* The call has been built for a variable-sized object.  */
1340   CALL_ALLOCA_FOR_VAR_P (t) = 1;
1341   t = fold_convert (ptr_type, t);
1342   t = build2 (MODIFY_EXPR, TREE_TYPE (addr), addr, t);
1343
1344   gimplify_and_add (t, seq_p);
1345
1346   /* Indicate that we need to restore the stack level when the
1347      enclosing BIND_EXPR is exited.  */
1348   gimplify_ctxp->save_stack = true;
1349 }
1350
1351 /* Gimplify a DECL_EXPR node *STMT_P by making any necessary allocation
1352    and initialization explicit.  */
1353
1354 static enum gimplify_status
1355 gimplify_decl_expr (tree *stmt_p, gimple_seq *seq_p)
1356 {
1357   tree stmt = *stmt_p;
1358   tree decl = DECL_EXPR_DECL (stmt);
1359
1360   *stmt_p = NULL_TREE;
1361
1362   if (TREE_TYPE (decl) == error_mark_node)
1363     return GS_ERROR;
1364
1365   if ((TREE_CODE (decl) == TYPE_DECL
1366        || TREE_CODE (decl) == VAR_DECL)
1367       && !TYPE_SIZES_GIMPLIFIED (TREE_TYPE (decl)))
1368     gimplify_type_sizes (TREE_TYPE (decl), seq_p);
1369
1370   if (TREE_CODE (decl) == VAR_DECL && !DECL_EXTERNAL (decl))
1371     {
1372       tree init = DECL_INITIAL (decl);
1373
1374       if (TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1375           || (!TREE_STATIC (decl)
1376               && flag_stack_check == GENERIC_STACK_CHECK
1377               && compare_tree_int (DECL_SIZE_UNIT (decl),
1378                                    STACK_CHECK_MAX_VAR_SIZE) > 0))
1379         gimplify_vla_decl (decl, seq_p);
1380
1381       /* Some front ends do not explicitly declare all anonymous
1382          artificial variables.  We compensate here by declaring the
1383          variables, though it would be better if the front ends would
1384          explicitly declare them.  */
1385       if (!DECL_SEEN_IN_BIND_EXPR_P (decl)
1386           && DECL_ARTIFICIAL (decl) && DECL_NAME (decl) == NULL_TREE)
1387         gimple_add_tmp_var (decl);
1388
1389       if (init && init != error_mark_node)
1390         {
1391           if (!TREE_STATIC (decl))
1392             {
1393               DECL_INITIAL (decl) = NULL_TREE;
1394               init = build2 (INIT_EXPR, void_type_node, decl, init);
1395               gimplify_and_add (init, seq_p);
1396               ggc_free (init);
1397             }
1398           else
1399             /* We must still examine initializers for static variables
1400                as they may contain a label address.  */
1401             walk_tree (&init, force_labels_r, NULL, NULL);
1402         }
1403     }
1404
1405   return GS_ALL_DONE;
1406 }
1407
1408 /* Gimplify a LOOP_EXPR.  Normally this just involves gimplifying the body
1409    and replacing the LOOP_EXPR with goto, but if the loop contains an
1410    EXIT_EXPR, we need to append a label for it to jump to.  */
1411
1412 static enum gimplify_status
1413 gimplify_loop_expr (tree *expr_p, gimple_seq *pre_p)
1414 {
1415   tree saved_label = gimplify_ctxp->exit_label;
1416   tree start_label = create_artificial_label (UNKNOWN_LOCATION);
1417
1418   gimplify_seq_add_stmt (pre_p, gimple_build_label (start_label));
1419
1420   gimplify_ctxp->exit_label = NULL_TREE;
1421
1422   gimplify_and_add (LOOP_EXPR_BODY (*expr_p), pre_p);
1423
1424   gimplify_seq_add_stmt (pre_p, gimple_build_goto (start_label));
1425
1426   if (gimplify_ctxp->exit_label)
1427     gimplify_seq_add_stmt (pre_p,
1428                            gimple_build_label (gimplify_ctxp->exit_label));
1429
1430   gimplify_ctxp->exit_label = saved_label;
1431
1432   *expr_p = NULL;
1433   return GS_ALL_DONE;
1434 }
1435
1436 /* Gimplify a statement list onto a sequence.  These may be created either
1437    by an enlightened front-end, or by shortcut_cond_expr.  */
1438
1439 static enum gimplify_status
1440 gimplify_statement_list (tree *expr_p, gimple_seq *pre_p)
1441 {
1442   tree temp = voidify_wrapper_expr (*expr_p, NULL);
1443
1444   tree_stmt_iterator i = tsi_start (*expr_p);
1445
1446   while (!tsi_end_p (i))
1447     {
1448       gimplify_stmt (tsi_stmt_ptr (i), pre_p);
1449       tsi_delink (&i);
1450     }
1451
1452   if (temp)
1453     {
1454       *expr_p = temp;
1455       return GS_OK;
1456     }
1457
1458   return GS_ALL_DONE;
1459 }
1460
1461 /* Compare two case labels.  Because the front end should already have
1462    made sure that case ranges do not overlap, it is enough to only compare
1463    the CASE_LOW values of each case label.  */
1464
1465 static int
1466 compare_case_labels (const void *p1, const void *p2)
1467 {
1468   const_tree const case1 = *(const_tree const*)p1;
1469   const_tree const case2 = *(const_tree const*)p2;
1470
1471   /* The 'default' case label always goes first.  */
1472   if (!CASE_LOW (case1))
1473     return -1;
1474   else if (!CASE_LOW (case2))
1475     return 1;
1476   else
1477     return tree_int_cst_compare (CASE_LOW (case1), CASE_LOW (case2));
1478 }
1479
1480 /* Sort the case labels in LABEL_VEC in place in ascending order.  */
1481
1482 void
1483 sort_case_labels (VEC(tree,heap)* label_vec)
1484 {
1485   VEC_qsort (tree, label_vec, compare_case_labels);
1486 }
1487
1488 /* Gimplify a SWITCH_EXPR, and collect a TREE_VEC of the labels it can
1489    branch to.  */
1490
1491 static enum gimplify_status
1492 gimplify_switch_expr (tree *expr_p, gimple_seq *pre_p)
1493 {
1494   tree switch_expr = *expr_p;
1495   gimple_seq switch_body_seq = NULL;
1496   enum gimplify_status ret;
1497
1498   ret = gimplify_expr (&SWITCH_COND (switch_expr), pre_p, NULL, is_gimple_val,
1499                        fb_rvalue);
1500   if (ret == GS_ERROR || ret == GS_UNHANDLED)
1501     return ret;
1502
1503   if (SWITCH_BODY (switch_expr))
1504     {
1505       VEC (tree,heap) *labels;
1506       VEC (tree,heap) *saved_labels;
1507       tree default_case = NULL_TREE;
1508       size_t i, len;
1509       gimple gimple_switch;
1510
1511       /* If someone can be bothered to fill in the labels, they can
1512          be bothered to null out the body too.  */
1513       gcc_assert (!SWITCH_LABELS (switch_expr));
1514
1515       /* save old labels, get new ones from body, then restore the old
1516          labels.  Save all the things from the switch body to append after.  */
1517       saved_labels = gimplify_ctxp->case_labels;
1518       gimplify_ctxp->case_labels = VEC_alloc (tree, heap, 8);
1519
1520       gimplify_stmt (&SWITCH_BODY (switch_expr), &switch_body_seq);
1521       labels = gimplify_ctxp->case_labels;
1522       gimplify_ctxp->case_labels = saved_labels;
1523
1524       i = 0;
1525       while (i < VEC_length (tree, labels))
1526         {
1527           tree elt = VEC_index (tree, labels, i);
1528           tree low = CASE_LOW (elt);
1529           bool remove_element = FALSE;
1530
1531           if (low)
1532             {
1533               /* Discard empty ranges.  */
1534               tree high = CASE_HIGH (elt);
1535               if (high && tree_int_cst_lt (high, low))
1536                 remove_element = TRUE;
1537             }
1538           else
1539             {
1540               /* The default case must be the last label in the list.  */
1541               gcc_assert (!default_case);
1542               default_case = elt;
1543               remove_element = TRUE;
1544             }
1545
1546           if (remove_element)
1547             VEC_ordered_remove (tree, labels, i);
1548           else
1549             i++;
1550         }
1551       len = i;
1552
1553       if (!VEC_empty (tree, labels))
1554         sort_case_labels (labels);
1555
1556       if (!default_case)
1557         {
1558           tree type = TREE_TYPE (switch_expr);
1559
1560           /* If the switch has no default label, add one, so that we jump
1561              around the switch body.  If the labels already cover the whole
1562              range of type, add the default label pointing to one of the
1563              existing labels.  */
1564           if (type == void_type_node)
1565             type = TREE_TYPE (SWITCH_COND (switch_expr));
1566           if (len
1567               && INTEGRAL_TYPE_P (type)
1568               && TYPE_MIN_VALUE (type)
1569               && TYPE_MAX_VALUE (type)
1570               && tree_int_cst_equal (CASE_LOW (VEC_index (tree, labels, 0)),
1571                                      TYPE_MIN_VALUE (type)))
1572             {
1573               tree low, high = CASE_HIGH (VEC_index (tree, labels, len - 1));
1574               if (!high)
1575                 high = CASE_LOW (VEC_index (tree, labels, len - 1));
1576               if (tree_int_cst_equal (high, TYPE_MAX_VALUE (type)))
1577                 {
1578                   for (i = 1; i < len; i++)
1579                     {
1580                       high = CASE_LOW (VEC_index (tree, labels, i));
1581                       low = CASE_HIGH (VEC_index (tree, labels, i - 1));
1582                       if (!low)
1583                         low = CASE_LOW (VEC_index (tree, labels, i - 1));
1584                       if ((TREE_INT_CST_LOW (low) + 1
1585                            != TREE_INT_CST_LOW (high))
1586                           || (TREE_INT_CST_HIGH (low)
1587                               + (TREE_INT_CST_LOW (high) == 0)
1588                               != TREE_INT_CST_HIGH (high)))
1589                         break;
1590                     }
1591                   if (i == len)
1592                     default_case = build3 (CASE_LABEL_EXPR, void_type_node,
1593                                            NULL_TREE, NULL_TREE,
1594                                            CASE_LABEL (VEC_index (tree,
1595                                                                   labels, 0)));
1596                 }
1597             }
1598
1599           if (!default_case)
1600             {
1601               gimple new_default;
1602
1603               default_case
1604                 = build3 (CASE_LABEL_EXPR, void_type_node,
1605                           NULL_TREE, NULL_TREE,
1606                           create_artificial_label (UNKNOWN_LOCATION));
1607               new_default = gimple_build_label (CASE_LABEL (default_case));
1608               gimplify_seq_add_stmt (&switch_body_seq, new_default);
1609             }
1610         }
1611
1612       gimple_switch = gimple_build_switch_vec (SWITCH_COND (switch_expr),
1613                                                default_case, labels);
1614       gimplify_seq_add_stmt (pre_p, gimple_switch);
1615       gimplify_seq_add_seq (pre_p, switch_body_seq);
1616       VEC_free(tree, heap, labels);
1617     }
1618   else
1619     gcc_assert (SWITCH_LABELS (switch_expr));
1620
1621   return GS_ALL_DONE;
1622 }
1623
1624 /* Gimplify the CASE_LABEL_EXPR pointed to by EXPR_P.  */
1625
1626 static enum gimplify_status
1627 gimplify_case_label_expr (tree *expr_p, gimple_seq *pre_p)
1628 {
1629   struct gimplify_ctx *ctxp;
1630   gimple gimple_label;
1631
1632   /* Invalid OpenMP programs can play Duff's Device type games with
1633      #pragma omp parallel.  At least in the C front end, we don't
1634      detect such invalid branches until after gimplification.  */
1635   for (ctxp = gimplify_ctxp; ; ctxp = ctxp->prev_context)
1636     if (ctxp->case_labels)
1637       break;
1638
1639   gimple_label = gimple_build_label (CASE_LABEL (*expr_p));
1640   VEC_safe_push (tree, heap, ctxp->case_labels, *expr_p);
1641   gimplify_seq_add_stmt (pre_p, gimple_label);
1642
1643   return GS_ALL_DONE;
1644 }
1645
1646 /* Build a GOTO to the LABEL_DECL pointed to by LABEL_P, building it first
1647    if necessary.  */
1648
1649 tree
1650 build_and_jump (tree *label_p)
1651 {
1652   if (label_p == NULL)
1653     /* If there's nowhere to jump, just fall through.  */
1654     return NULL_TREE;
1655
1656   if (*label_p == NULL_TREE)
1657     {
1658       tree label = create_artificial_label (UNKNOWN_LOCATION);
1659       *label_p = label;
1660     }
1661
1662   return build1 (GOTO_EXPR, void_type_node, *label_p);
1663 }
1664
1665 /* Gimplify an EXIT_EXPR by converting to a GOTO_EXPR inside a COND_EXPR.
1666    This also involves building a label to jump to and communicating it to
1667    gimplify_loop_expr through gimplify_ctxp->exit_label.  */
1668
1669 static enum gimplify_status
1670 gimplify_exit_expr (tree *expr_p)
1671 {
1672   tree cond = TREE_OPERAND (*expr_p, 0);
1673   tree expr;
1674
1675   expr = build_and_jump (&gimplify_ctxp->exit_label);
1676   expr = build3 (COND_EXPR, void_type_node, cond, expr, NULL_TREE);
1677   *expr_p = expr;
1678
1679   return GS_OK;
1680 }
1681
1682 /* A helper function to be called via walk_tree.  Mark all labels under *TP
1683    as being forced.  To be called for DECL_INITIAL of static variables.  */
1684
1685 tree
1686 force_labels_r (tree *tp, int *walk_subtrees, void *data ATTRIBUTE_UNUSED)
1687 {
1688   if (TYPE_P (*tp))
1689     *walk_subtrees = 0;
1690   if (TREE_CODE (*tp) == LABEL_DECL)
1691     FORCED_LABEL (*tp) = 1;
1692
1693   return NULL_TREE;
1694 }
1695
1696 /* *EXPR_P is a COMPONENT_REF being used as an rvalue.  If its type is
1697    different from its canonical type, wrap the whole thing inside a
1698    NOP_EXPR and force the type of the COMPONENT_REF to be the canonical
1699    type.
1700
1701    The canonical type of a COMPONENT_REF is the type of the field being
1702    referenced--unless the field is a bit-field which can be read directly
1703    in a smaller mode, in which case the canonical type is the
1704    sign-appropriate type corresponding to that mode.  */
1705
1706 static void
1707 canonicalize_component_ref (tree *expr_p)
1708 {
1709   tree expr = *expr_p;
1710   tree type;
1711
1712   gcc_assert (TREE_CODE (expr) == COMPONENT_REF);
1713
1714   if (INTEGRAL_TYPE_P (TREE_TYPE (expr)))
1715     type = TREE_TYPE (get_unwidened (expr, NULL_TREE));
1716   else
1717     type = TREE_TYPE (TREE_OPERAND (expr, 1));
1718
1719   /* One could argue that all the stuff below is not necessary for
1720      the non-bitfield case and declare it a FE error if type
1721      adjustment would be needed.  */
1722   if (TREE_TYPE (expr) != type)
1723     {
1724 #ifdef ENABLE_TYPES_CHECKING
1725       tree old_type = TREE_TYPE (expr);
1726 #endif
1727       int type_quals;
1728
1729       /* We need to preserve qualifiers and propagate them from
1730          operand 0.  */
1731       type_quals = TYPE_QUALS (type)
1732         | TYPE_QUALS (TREE_TYPE (TREE_OPERAND (expr, 0)));
1733       if (TYPE_QUALS (type) != type_quals)
1734         type = build_qualified_type (TYPE_MAIN_VARIANT (type), type_quals);
1735
1736       /* Set the type of the COMPONENT_REF to the underlying type.  */
1737       TREE_TYPE (expr) = type;
1738
1739 #ifdef ENABLE_TYPES_CHECKING
1740       /* It is now a FE error, if the conversion from the canonical
1741          type to the original expression type is not useless.  */
1742       gcc_assert (useless_type_conversion_p (old_type, type));
1743 #endif
1744     }
1745 }
1746
1747 /* If a NOP conversion is changing a pointer to array of foo to a pointer
1748    to foo, embed that change in the ADDR_EXPR by converting
1749       T array[U];
1750       (T *)&array
1751    ==>
1752       &array[L]
1753    where L is the lower bound.  For simplicity, only do this for constant
1754    lower bound.
1755    The constraint is that the type of &array[L] is trivially convertible
1756    to T *.  */
1757
1758 static void
1759 canonicalize_addr_expr (tree *expr_p)
1760 {
1761   tree expr = *expr_p;
1762   tree addr_expr = TREE_OPERAND (expr, 0);
1763   tree datype, ddatype, pddatype;
1764
1765   /* We simplify only conversions from an ADDR_EXPR to a pointer type.  */
1766   if (!POINTER_TYPE_P (TREE_TYPE (expr))
1767       || TREE_CODE (addr_expr) != ADDR_EXPR)
1768     return;
1769
1770   /* The addr_expr type should be a pointer to an array.  */
1771   datype = TREE_TYPE (TREE_TYPE (addr_expr));
1772   if (TREE_CODE (datype) != ARRAY_TYPE)
1773     return;
1774
1775   /* The pointer to element type shall be trivially convertible to
1776      the expression pointer type.  */
1777   ddatype = TREE_TYPE (datype);
1778   pddatype = build_pointer_type (ddatype);
1779   if (!useless_type_conversion_p (TYPE_MAIN_VARIANT (TREE_TYPE (expr)),
1780                                   pddatype))
1781     return;
1782
1783   /* The lower bound and element sizes must be constant.  */
1784   if (!TYPE_SIZE_UNIT (ddatype)
1785       || TREE_CODE (TYPE_SIZE_UNIT (ddatype)) != INTEGER_CST
1786       || !TYPE_DOMAIN (datype) || !TYPE_MIN_VALUE (TYPE_DOMAIN (datype))
1787       || TREE_CODE (TYPE_MIN_VALUE (TYPE_DOMAIN (datype))) != INTEGER_CST)
1788     return;
1789
1790   /* All checks succeeded.  Build a new node to merge the cast.  */
1791   *expr_p = build4 (ARRAY_REF, ddatype, TREE_OPERAND (addr_expr, 0),
1792                     TYPE_MIN_VALUE (TYPE_DOMAIN (datype)),
1793                     NULL_TREE, NULL_TREE);
1794   *expr_p = build1 (ADDR_EXPR, pddatype, *expr_p);
1795
1796   /* We can have stripped a required restrict qualifier above.  */
1797   if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
1798     *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
1799 }
1800
1801 /* *EXPR_P is a NOP_EXPR or CONVERT_EXPR.  Remove it and/or other conversions
1802    underneath as appropriate.  */
1803
1804 static enum gimplify_status
1805 gimplify_conversion (tree *expr_p)
1806 {
1807   tree tem;
1808   location_t loc = EXPR_LOCATION (*expr_p);
1809   gcc_assert (CONVERT_EXPR_P (*expr_p));
1810
1811   /* Then strip away all but the outermost conversion.  */
1812   STRIP_SIGN_NOPS (TREE_OPERAND (*expr_p, 0));
1813
1814   /* And remove the outermost conversion if it's useless.  */
1815   if (tree_ssa_useless_type_conversion (*expr_p))
1816     *expr_p = TREE_OPERAND (*expr_p, 0);
1817
1818   /* Attempt to avoid NOP_EXPR by producing reference to a subtype.
1819      For example this fold (subclass *)&A into &A->subclass avoiding
1820      a need for statement.  */
1821   if (CONVERT_EXPR_P (*expr_p)
1822       && POINTER_TYPE_P (TREE_TYPE (*expr_p))
1823       && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (*expr_p, 0)))
1824       && (tem = maybe_fold_offset_to_address
1825           (EXPR_LOCATION (*expr_p), TREE_OPERAND (*expr_p, 0),
1826            integer_zero_node, TREE_TYPE (*expr_p))) != NULL_TREE)
1827     *expr_p = tem;
1828
1829   /* If we still have a conversion at the toplevel,
1830      then canonicalize some constructs.  */
1831   if (CONVERT_EXPR_P (*expr_p))
1832     {
1833       tree sub = TREE_OPERAND (*expr_p, 0);
1834
1835       /* If a NOP conversion is changing the type of a COMPONENT_REF
1836          expression, then canonicalize its type now in order to expose more
1837          redundant conversions.  */
1838       if (TREE_CODE (sub) == COMPONENT_REF)
1839         canonicalize_component_ref (&TREE_OPERAND (*expr_p, 0));
1840
1841       /* If a NOP conversion is changing a pointer to array of foo
1842          to a pointer to foo, embed that change in the ADDR_EXPR.  */
1843       else if (TREE_CODE (sub) == ADDR_EXPR)
1844         canonicalize_addr_expr (expr_p);
1845     }
1846
1847   /* If we have a conversion to a non-register type force the
1848      use of a VIEW_CONVERT_EXPR instead.  */
1849   if (CONVERT_EXPR_P (*expr_p) && !is_gimple_reg_type (TREE_TYPE (*expr_p)))
1850     *expr_p = fold_build1_loc (loc, VIEW_CONVERT_EXPR, TREE_TYPE (*expr_p),
1851                                TREE_OPERAND (*expr_p, 0));
1852
1853   return GS_OK;
1854 }
1855
1856 /* Nonlocal VLAs seen in the current function.  */
1857 static struct pointer_set_t *nonlocal_vlas;
1858
1859 /* Gimplify a VAR_DECL or PARM_DECL.  Return GS_OK if we expanded a
1860    DECL_VALUE_EXPR, and it's worth re-examining things.  */
1861
1862 static enum gimplify_status
1863 gimplify_var_or_parm_decl (tree *expr_p)
1864 {
1865   tree decl = *expr_p;
1866
1867   /* ??? If this is a local variable, and it has not been seen in any
1868      outer BIND_EXPR, then it's probably the result of a duplicate
1869      declaration, for which we've already issued an error.  It would
1870      be really nice if the front end wouldn't leak these at all.
1871      Currently the only known culprit is C++ destructors, as seen
1872      in g++.old-deja/g++.jason/binding.C.  */
1873   if (TREE_CODE (decl) == VAR_DECL
1874       && !DECL_SEEN_IN_BIND_EXPR_P (decl)
1875       && !TREE_STATIC (decl) && !DECL_EXTERNAL (decl)
1876       && decl_function_context (decl) == current_function_decl)
1877     {
1878       gcc_assert (seen_error ());
1879       return GS_ERROR;
1880     }
1881
1882   /* When within an OpenMP context, notice uses of variables.  */
1883   if (gimplify_omp_ctxp && omp_notice_variable (gimplify_omp_ctxp, decl, true))
1884     return GS_ALL_DONE;
1885
1886   /* If the decl is an alias for another expression, substitute it now.  */
1887   if (DECL_HAS_VALUE_EXPR_P (decl))
1888     {
1889       tree value_expr = DECL_VALUE_EXPR (decl);
1890
1891       /* For referenced nonlocal VLAs add a decl for debugging purposes
1892          to the current function.  */
1893       if (TREE_CODE (decl) == VAR_DECL
1894           && TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1895           && nonlocal_vlas != NULL
1896           && TREE_CODE (value_expr) == INDIRECT_REF
1897           && TREE_CODE (TREE_OPERAND (value_expr, 0)) == VAR_DECL
1898           && decl_function_context (decl) != current_function_decl)
1899         {
1900           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1901           while (ctx && ctx->region_type == ORT_WORKSHARE)
1902             ctx = ctx->outer_context;
1903           if (!ctx && !pointer_set_insert (nonlocal_vlas, decl))
1904             {
1905               tree copy = copy_node (decl), block;
1906
1907               lang_hooks.dup_lang_specific_decl (copy);
1908               SET_DECL_RTL (copy, 0);
1909               TREE_USED (copy) = 1;
1910               block = DECL_INITIAL (current_function_decl);
1911               DECL_CHAIN (copy) = BLOCK_VARS (block);
1912               BLOCK_VARS (block) = copy;
1913               SET_DECL_VALUE_EXPR (copy, unshare_expr (value_expr));
1914               DECL_HAS_VALUE_EXPR_P (copy) = 1;
1915             }
1916         }
1917
1918       *expr_p = unshare_expr (value_expr);
1919       return GS_OK;
1920     }
1921
1922   return GS_ALL_DONE;
1923 }
1924
1925 /* Gimplify the COMPONENT_REF, ARRAY_REF, REALPART_EXPR or IMAGPART_EXPR
1926    node *EXPR_P.
1927
1928       compound_lval
1929               : min_lval '[' val ']'
1930               | min_lval '.' ID
1931               | compound_lval '[' val ']'
1932               | compound_lval '.' ID
1933
1934    This is not part of the original SIMPLE definition, which separates
1935    array and member references, but it seems reasonable to handle them
1936    together.  Also, this way we don't run into problems with union
1937    aliasing; gcc requires that for accesses through a union to alias, the
1938    union reference must be explicit, which was not always the case when we
1939    were splitting up array and member refs.
1940
1941    PRE_P points to the sequence where side effects that must happen before
1942      *EXPR_P should be stored.
1943
1944    POST_P points to the sequence where side effects that must happen after
1945      *EXPR_P should be stored.  */
1946
1947 static enum gimplify_status
1948 gimplify_compound_lval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
1949                         fallback_t fallback)
1950 {
1951   tree *p;
1952   VEC(tree,heap) *stack;
1953   enum gimplify_status ret = GS_ALL_DONE, tret;
1954   int i;
1955   location_t loc = EXPR_LOCATION (*expr_p);
1956   tree expr = *expr_p;
1957
1958   /* Create a stack of the subexpressions so later we can walk them in
1959      order from inner to outer.  */
1960   stack = VEC_alloc (tree, heap, 10);
1961
1962   /* We can handle anything that get_inner_reference can deal with.  */
1963   for (p = expr_p; ; p = &TREE_OPERAND (*p, 0))
1964     {
1965     restart:
1966       /* Fold INDIRECT_REFs now to turn them into ARRAY_REFs.  */
1967       if (TREE_CODE (*p) == INDIRECT_REF)
1968         *p = fold_indirect_ref_loc (loc, *p);
1969
1970       if (handled_component_p (*p))
1971         ;
1972       /* Expand DECL_VALUE_EXPR now.  In some cases that may expose
1973          additional COMPONENT_REFs.  */
1974       else if ((TREE_CODE (*p) == VAR_DECL || TREE_CODE (*p) == PARM_DECL)
1975                && gimplify_var_or_parm_decl (p) == GS_OK)
1976         goto restart;
1977       else
1978         break;
1979
1980       VEC_safe_push (tree, heap, stack, *p);
1981     }
1982
1983   gcc_assert (VEC_length (tree, stack));
1984
1985   /* Now STACK is a stack of pointers to all the refs we've walked through
1986      and P points to the innermost expression.
1987
1988      Java requires that we elaborated nodes in source order.  That
1989      means we must gimplify the inner expression followed by each of
1990      the indices, in order.  But we can't gimplify the inner
1991      expression until we deal with any variable bounds, sizes, or
1992      positions in order to deal with PLACEHOLDER_EXPRs.
1993
1994      So we do this in three steps.  First we deal with the annotations
1995      for any variables in the components, then we gimplify the base,
1996      then we gimplify any indices, from left to right.  */
1997   for (i = VEC_length (tree, stack) - 1; i >= 0; i--)
1998     {
1999       tree t = VEC_index (tree, stack, i);
2000
2001       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
2002         {
2003           /* Gimplify the low bound and element type size and put them into
2004              the ARRAY_REF.  If these values are set, they have already been
2005              gimplified.  */
2006           if (TREE_OPERAND (t, 2) == NULL_TREE)
2007             {
2008               tree low = unshare_expr (array_ref_low_bound (t));
2009               if (!is_gimple_min_invariant (low))
2010                 {
2011                   TREE_OPERAND (t, 2) = low;
2012                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
2013                                         post_p, is_gimple_reg,
2014                                         fb_rvalue);
2015                   ret = MIN (ret, tret);
2016                 }
2017             }
2018
2019           if (!TREE_OPERAND (t, 3))
2020             {
2021               tree elmt_type = TREE_TYPE (TREE_TYPE (TREE_OPERAND (t, 0)));
2022               tree elmt_size = unshare_expr (array_ref_element_size (t));
2023               tree factor = size_int (TYPE_ALIGN_UNIT (elmt_type));
2024
2025               /* Divide the element size by the alignment of the element
2026                  type (above).  */
2027               elmt_size
2028                 = size_binop_loc (loc, EXACT_DIV_EXPR, elmt_size, factor);
2029
2030               if (!is_gimple_min_invariant (elmt_size))
2031                 {
2032                   TREE_OPERAND (t, 3) = elmt_size;
2033                   tret = gimplify_expr (&TREE_OPERAND (t, 3), pre_p,
2034                                         post_p, is_gimple_reg,
2035                                         fb_rvalue);
2036                   ret = MIN (ret, tret);
2037                 }
2038             }
2039         }
2040       else if (TREE_CODE (t) == COMPONENT_REF)
2041         {
2042           /* Set the field offset into T and gimplify it.  */
2043           if (!TREE_OPERAND (t, 2))
2044             {
2045               tree offset = unshare_expr (component_ref_field_offset (t));
2046               tree field = TREE_OPERAND (t, 1);
2047               tree factor
2048                 = size_int (DECL_OFFSET_ALIGN (field) / BITS_PER_UNIT);
2049
2050               /* Divide the offset by its alignment.  */
2051               offset = size_binop_loc (loc, EXACT_DIV_EXPR, offset, factor);
2052
2053               if (!is_gimple_min_invariant (offset))
2054                 {
2055                   TREE_OPERAND (t, 2) = offset;
2056                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
2057                                         post_p, is_gimple_reg,
2058                                         fb_rvalue);
2059                   ret = MIN (ret, tret);
2060                 }
2061             }
2062         }
2063     }
2064
2065   /* Step 2 is to gimplify the base expression.  Make sure lvalue is set
2066      so as to match the min_lval predicate.  Failure to do so may result
2067      in the creation of large aggregate temporaries.  */
2068   tret = gimplify_expr (p, pre_p, post_p, is_gimple_min_lval,
2069                         fallback | fb_lvalue);
2070   ret = MIN (ret, tret);
2071
2072   /* And finally, the indices and operands to BIT_FIELD_REF.  During this
2073      loop we also remove any useless conversions.  */
2074   for (; VEC_length (tree, stack) > 0; )
2075     {
2076       tree t = VEC_pop (tree, stack);
2077
2078       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
2079         {
2080           /* Gimplify the dimension.  */
2081           if (!is_gimple_min_invariant (TREE_OPERAND (t, 1)))
2082             {
2083               tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2084                                     is_gimple_val, fb_rvalue);
2085               ret = MIN (ret, tret);
2086             }
2087         }
2088       else if (TREE_CODE (t) == BIT_FIELD_REF)
2089         {
2090           tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2091                                 is_gimple_val, fb_rvalue);
2092           ret = MIN (ret, tret);
2093           tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p, post_p,
2094                                 is_gimple_val, fb_rvalue);
2095           ret = MIN (ret, tret);
2096         }
2097
2098       STRIP_USELESS_TYPE_CONVERSION (TREE_OPERAND (t, 0));
2099
2100       /* The innermost expression P may have originally had
2101          TREE_SIDE_EFFECTS set which would have caused all the outer
2102          expressions in *EXPR_P leading to P to also have had
2103          TREE_SIDE_EFFECTS set.  */
2104       recalculate_side_effects (t);
2105     }
2106
2107   /* If the outermost expression is a COMPONENT_REF, canonicalize its type.  */
2108   if ((fallback & fb_rvalue) && TREE_CODE (*expr_p) == COMPONENT_REF)
2109     {
2110       canonicalize_component_ref (expr_p);
2111     }
2112
2113   VEC_free (tree, heap, stack);
2114
2115   gcc_assert (*expr_p == expr || ret != GS_ALL_DONE);
2116
2117   return ret;
2118 }
2119
2120 /*  Gimplify the self modifying expression pointed to by EXPR_P
2121     (++, --, +=, -=).
2122
2123     PRE_P points to the list where side effects that must happen before
2124         *EXPR_P should be stored.
2125
2126     POST_P points to the list where side effects that must happen after
2127         *EXPR_P should be stored.
2128
2129     WANT_VALUE is nonzero iff we want to use the value of this expression
2130         in another expression.  */
2131
2132 static enum gimplify_status
2133 gimplify_self_mod_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
2134                         bool want_value)
2135 {
2136   enum tree_code code;
2137   tree lhs, lvalue, rhs, t1;
2138   gimple_seq post = NULL, *orig_post_p = post_p;
2139   bool postfix;
2140   enum tree_code arith_code;
2141   enum gimplify_status ret;
2142   location_t loc = EXPR_LOCATION (*expr_p);
2143
2144   code = TREE_CODE (*expr_p);
2145
2146   gcc_assert (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR
2147               || code == PREINCREMENT_EXPR || code == PREDECREMENT_EXPR);
2148
2149   /* Prefix or postfix?  */
2150   if (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR)
2151     /* Faster to treat as prefix if result is not used.  */
2152     postfix = want_value;
2153   else
2154     postfix = false;
2155
2156   /* For postfix, make sure the inner expression's post side effects
2157      are executed after side effects from this expression.  */
2158   if (postfix)
2159     post_p = &post;
2160
2161   /* Add or subtract?  */
2162   if (code == PREINCREMENT_EXPR || code == POSTINCREMENT_EXPR)
2163     arith_code = PLUS_EXPR;
2164   else
2165     arith_code = MINUS_EXPR;
2166
2167   /* Gimplify the LHS into a GIMPLE lvalue.  */
2168   lvalue = TREE_OPERAND (*expr_p, 0);
2169   ret = gimplify_expr (&lvalue, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
2170   if (ret == GS_ERROR)
2171     return ret;
2172
2173   /* Extract the operands to the arithmetic operation.  */
2174   lhs = lvalue;
2175   rhs = TREE_OPERAND (*expr_p, 1);
2176
2177   /* For postfix operator, we evaluate the LHS to an rvalue and then use
2178      that as the result value and in the postqueue operation.  We also
2179      make sure to make lvalue a minimal lval, see
2180      gcc.c-torture/execute/20040313-1.c for an example where this matters.  */
2181   if (postfix)
2182     {
2183       if (!is_gimple_min_lval (lvalue))
2184         {
2185           mark_addressable (lvalue);
2186           lvalue = build_fold_addr_expr_loc (input_location, lvalue);
2187           gimplify_expr (&lvalue, pre_p, post_p, is_gimple_val, fb_rvalue);
2188           lvalue = build_fold_indirect_ref_loc (input_location, lvalue);
2189         }
2190       ret = gimplify_expr (&lhs, pre_p, post_p, is_gimple_val, fb_rvalue);
2191       if (ret == GS_ERROR)
2192         return ret;
2193     }
2194
2195   /* For POINTERs increment, use POINTER_PLUS_EXPR.  */
2196   if (POINTER_TYPE_P (TREE_TYPE (lhs)))
2197     {
2198       rhs = fold_convert_loc (loc, sizetype, rhs);
2199       if (arith_code == MINUS_EXPR)
2200         rhs = fold_build1_loc (loc, NEGATE_EXPR, TREE_TYPE (rhs), rhs);
2201       arith_code = POINTER_PLUS_EXPR;
2202     }
2203
2204   t1 = build2 (arith_code, TREE_TYPE (*expr_p), lhs, rhs);
2205
2206   if (postfix)
2207     {
2208       gimplify_assign (lvalue, t1, orig_post_p);
2209       gimplify_seq_add_seq (orig_post_p, post);
2210       *expr_p = lhs;
2211       return GS_ALL_DONE;
2212     }
2213   else
2214     {
2215       *expr_p = build2 (MODIFY_EXPR, TREE_TYPE (lvalue), lvalue, t1);
2216       return GS_OK;
2217     }
2218 }
2219
2220 /* If *EXPR_P has a variable sized type, wrap it in a WITH_SIZE_EXPR.  */
2221
2222 static void
2223 maybe_with_size_expr (tree *expr_p)
2224 {
2225   tree expr = *expr_p;
2226   tree type = TREE_TYPE (expr);
2227   tree size;
2228
2229   /* If we've already wrapped this or the type is error_mark_node, we can't do
2230      anything.  */
2231   if (TREE_CODE (expr) == WITH_SIZE_EXPR
2232       || type == error_mark_node)
2233     return;
2234
2235   /* If the size isn't known or is a constant, we have nothing to do.  */
2236   size = TYPE_SIZE_UNIT (type);
2237   if (!size || TREE_CODE (size) == INTEGER_CST)
2238     return;
2239
2240   /* Otherwise, make a WITH_SIZE_EXPR.  */
2241   size = unshare_expr (size);
2242   size = SUBSTITUTE_PLACEHOLDER_IN_EXPR (size, expr);
2243   *expr_p = build2 (WITH_SIZE_EXPR, type, expr, size);
2244 }
2245
2246 /* Helper for gimplify_call_expr.  Gimplify a single argument *ARG_P
2247    Store any side-effects in PRE_P.  CALL_LOCATION is the location of
2248    the CALL_EXPR.  */
2249
2250 static enum gimplify_status
2251 gimplify_arg (tree *arg_p, gimple_seq *pre_p, location_t call_location)
2252 {
2253   bool (*test) (tree);
2254   fallback_t fb;
2255
2256   /* In general, we allow lvalues for function arguments to avoid
2257      extra overhead of copying large aggregates out of even larger
2258      aggregates into temporaries only to copy the temporaries to
2259      the argument list.  Make optimizers happy by pulling out to
2260      temporaries those types that fit in registers.  */
2261   if (is_gimple_reg_type (TREE_TYPE (*arg_p)))
2262     test = is_gimple_val, fb = fb_rvalue;
2263   else
2264     {
2265       test = is_gimple_lvalue, fb = fb_either;
2266       /* Also strip a TARGET_EXPR that would force an extra copy.  */
2267       if (TREE_CODE (*arg_p) == TARGET_EXPR)
2268         {
2269           tree init = TARGET_EXPR_INITIAL (*arg_p);
2270           if (init
2271               && !VOID_TYPE_P (TREE_TYPE (init)))
2272             *arg_p = init;
2273         }
2274     }
2275
2276   /* If this is a variable sized type, we must remember the size.  */
2277   maybe_with_size_expr (arg_p);
2278
2279   /* FIXME diagnostics: This will mess up gcc.dg/Warray-bounds.c.  */
2280   /* Make sure arguments have the same location as the function call
2281      itself.  */
2282   protected_set_expr_location (*arg_p, call_location);
2283
2284   /* There is a sequence point before a function call.  Side effects in
2285      the argument list must occur before the actual call. So, when
2286      gimplifying arguments, force gimplify_expr to use an internal
2287      post queue which is then appended to the end of PRE_P.  */
2288   return gimplify_expr (arg_p, pre_p, NULL, test, fb);
2289 }
2290
2291 /* Gimplify the CALL_EXPR node *EXPR_P into the GIMPLE sequence PRE_P.
2292    WANT_VALUE is true if the result of the call is desired.  */
2293
2294 static enum gimplify_status
2295 gimplify_call_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
2296 {
2297   tree fndecl, parms, p, fnptrtype;
2298   enum gimplify_status ret;
2299   int i, nargs;
2300   gimple call;
2301   bool builtin_va_start_p = FALSE;
2302   location_t loc = EXPR_LOCATION (*expr_p);
2303
2304   gcc_assert (TREE_CODE (*expr_p) == CALL_EXPR);
2305
2306   /* For reliable diagnostics during inlining, it is necessary that
2307      every call_expr be annotated with file and line.  */
2308   if (! EXPR_HAS_LOCATION (*expr_p))
2309     SET_EXPR_LOCATION (*expr_p, input_location);
2310
2311   /* This may be a call to a builtin function.
2312
2313      Builtin function calls may be transformed into different
2314      (and more efficient) builtin function calls under certain
2315      circumstances.  Unfortunately, gimplification can muck things
2316      up enough that the builtin expanders are not aware that certain
2317      transformations are still valid.
2318
2319      So we attempt transformation/gimplification of the call before
2320      we gimplify the CALL_EXPR.  At this time we do not manage to
2321      transform all calls in the same manner as the expanders do, but
2322      we do transform most of them.  */
2323   fndecl = get_callee_fndecl (*expr_p);
2324   if (fndecl && DECL_BUILT_IN (fndecl))
2325     {
2326       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2327
2328       if (new_tree && new_tree != *expr_p)
2329         {
2330           /* There was a transformation of this call which computes the
2331              same value, but in a more efficient way.  Return and try
2332              again.  */
2333           *expr_p = new_tree;
2334           return GS_OK;
2335         }
2336
2337       if (DECL_BUILT_IN_CLASS (fndecl) == BUILT_IN_NORMAL
2338           && DECL_FUNCTION_CODE (fndecl) == BUILT_IN_VA_START)
2339         {
2340           builtin_va_start_p = TRUE;
2341           if (call_expr_nargs (*expr_p) < 2)
2342             {
2343               error ("too few arguments to function %<va_start%>");
2344               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2345               return GS_OK;
2346             }
2347
2348           if (fold_builtin_next_arg (*expr_p, true))
2349             {
2350               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2351               return GS_OK;
2352             }
2353         }
2354     }
2355
2356   /* Remember the original function pointer type.  */
2357   fnptrtype = TREE_TYPE (CALL_EXPR_FN (*expr_p));
2358
2359   /* There is a sequence point before the call, so any side effects in
2360      the calling expression must occur before the actual call.  Force
2361      gimplify_expr to use an internal post queue.  */
2362   ret = gimplify_expr (&CALL_EXPR_FN (*expr_p), pre_p, NULL,
2363                        is_gimple_call_addr, fb_rvalue);
2364
2365   nargs = call_expr_nargs (*expr_p);
2366
2367   /* Get argument types for verification.  */
2368   fndecl = get_callee_fndecl (*expr_p);
2369   parms = NULL_TREE;
2370   if (fndecl)
2371     parms = TYPE_ARG_TYPES (TREE_TYPE (fndecl));
2372   else if (POINTER_TYPE_P (TREE_TYPE (CALL_EXPR_FN (*expr_p))))
2373     parms = TYPE_ARG_TYPES (TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (*expr_p))));
2374
2375   if (fndecl && DECL_ARGUMENTS (fndecl))
2376     p = DECL_ARGUMENTS (fndecl);
2377   else if (parms)
2378     p = parms;
2379   else
2380     p = NULL_TREE;
2381   for (i = 0; i < nargs && p; i++, p = TREE_CHAIN (p))
2382     ;
2383
2384   /* If the last argument is __builtin_va_arg_pack () and it is not
2385      passed as a named argument, decrease the number of CALL_EXPR
2386      arguments and set instead the CALL_EXPR_VA_ARG_PACK flag.  */
2387   if (!p
2388       && i < nargs
2389       && TREE_CODE (CALL_EXPR_ARG (*expr_p, nargs - 1)) == CALL_EXPR)
2390     {
2391       tree last_arg = CALL_EXPR_ARG (*expr_p, nargs - 1);
2392       tree last_arg_fndecl = get_callee_fndecl (last_arg);
2393
2394       if (last_arg_fndecl
2395           && TREE_CODE (last_arg_fndecl) == FUNCTION_DECL
2396           && DECL_BUILT_IN_CLASS (last_arg_fndecl) == BUILT_IN_NORMAL
2397           && DECL_FUNCTION_CODE (last_arg_fndecl) == BUILT_IN_VA_ARG_PACK)
2398         {
2399           tree call = *expr_p;
2400
2401           --nargs;
2402           *expr_p = build_call_array_loc (loc, TREE_TYPE (call),
2403                                           CALL_EXPR_FN (call),
2404                                           nargs, CALL_EXPR_ARGP (call));
2405
2406           /* Copy all CALL_EXPR flags, location and block, except
2407              CALL_EXPR_VA_ARG_PACK flag.  */
2408           CALL_EXPR_STATIC_CHAIN (*expr_p) = CALL_EXPR_STATIC_CHAIN (call);
2409           CALL_EXPR_TAILCALL (*expr_p) = CALL_EXPR_TAILCALL (call);
2410           CALL_EXPR_RETURN_SLOT_OPT (*expr_p)
2411             = CALL_EXPR_RETURN_SLOT_OPT (call);
2412           CALL_FROM_THUNK_P (*expr_p) = CALL_FROM_THUNK_P (call);
2413           CALL_CANNOT_INLINE_P (*expr_p) = CALL_CANNOT_INLINE_P (call);
2414           SET_EXPR_LOCATION (*expr_p, EXPR_LOCATION (call));
2415           TREE_BLOCK (*expr_p) = TREE_BLOCK (call);
2416
2417           /* Set CALL_EXPR_VA_ARG_PACK.  */
2418           CALL_EXPR_VA_ARG_PACK (*expr_p) = 1;
2419         }
2420     }
2421
2422   /* Finally, gimplify the function arguments.  */
2423   if (nargs > 0)
2424     {
2425       for (i = (PUSH_ARGS_REVERSED ? nargs - 1 : 0);
2426            PUSH_ARGS_REVERSED ? i >= 0 : i < nargs;
2427            PUSH_ARGS_REVERSED ? i-- : i++)
2428         {
2429           enum gimplify_status t;
2430
2431           /* Avoid gimplifying the second argument to va_start, which needs to
2432              be the plain PARM_DECL.  */
2433           if ((i != 1) || !builtin_va_start_p)
2434             {
2435               t = gimplify_arg (&CALL_EXPR_ARG (*expr_p, i), pre_p,
2436                                 EXPR_LOCATION (*expr_p));
2437
2438               if (t == GS_ERROR)
2439                 ret = GS_ERROR;
2440             }
2441         }
2442     }
2443
2444   /* Verify the function result.  */
2445   if (want_value && fndecl
2446       && VOID_TYPE_P (TREE_TYPE (TREE_TYPE (fnptrtype))))
2447     {
2448       error_at (loc, "using result of function returning %<void%>");
2449       ret = GS_ERROR;
2450     }
2451
2452   /* Try this again in case gimplification exposed something.  */
2453   if (ret != GS_ERROR)
2454     {
2455       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2456
2457       if (new_tree && new_tree != *expr_p)
2458         {
2459           /* There was a transformation of this call which computes the
2460              same value, but in a more efficient way.  Return and try
2461              again.  */
2462           *expr_p = new_tree;
2463           return GS_OK;
2464         }
2465     }
2466   else
2467     {
2468       *expr_p = error_mark_node;
2469       return GS_ERROR;
2470     }
2471
2472   /* If the function is "const" or "pure", then clear TREE_SIDE_EFFECTS on its
2473      decl.  This allows us to eliminate redundant or useless
2474      calls to "const" functions.  */
2475   if (TREE_CODE (*expr_p) == CALL_EXPR)
2476     {
2477       int flags = call_expr_flags (*expr_p);
2478       if (flags & (ECF_CONST | ECF_PURE)
2479           /* An infinite loop is considered a side effect.  */
2480           && !(flags & (ECF_LOOPING_CONST_OR_PURE)))
2481         TREE_SIDE_EFFECTS (*expr_p) = 0;
2482     }
2483
2484   /* If the value is not needed by the caller, emit a new GIMPLE_CALL
2485      and clear *EXPR_P.  Otherwise, leave *EXPR_P in its gimplified
2486      form and delegate the creation of a GIMPLE_CALL to
2487      gimplify_modify_expr.  This is always possible because when
2488      WANT_VALUE is true, the caller wants the result of this call into
2489      a temporary, which means that we will emit an INIT_EXPR in
2490      internal_get_tmp_var which will then be handled by
2491      gimplify_modify_expr.  */
2492   if (!want_value)
2493     {
2494       /* The CALL_EXPR in *EXPR_P is already in GIMPLE form, so all we
2495          have to do is replicate it as a GIMPLE_CALL tuple.  */
2496       gimple_stmt_iterator gsi;
2497       call = gimple_build_call_from_tree (*expr_p);
2498       gimple_call_set_fntype (call, TREE_TYPE (fnptrtype));
2499       gimplify_seq_add_stmt (pre_p, call);
2500       gsi = gsi_last (*pre_p);
2501       fold_stmt (&gsi);
2502       *expr_p = NULL_TREE;
2503     }
2504   else
2505     /* Remember the original function type.  */
2506     CALL_EXPR_FN (*expr_p) = build1 (NOP_EXPR, fnptrtype,
2507                                      CALL_EXPR_FN (*expr_p));
2508
2509   return ret;
2510 }
2511
2512 /* Handle shortcut semantics in the predicate operand of a COND_EXPR by
2513    rewriting it into multiple COND_EXPRs, and possibly GOTO_EXPRs.
2514
2515    TRUE_LABEL_P and FALSE_LABEL_P point to the labels to jump to if the
2516    condition is true or false, respectively.  If null, we should generate
2517    our own to skip over the evaluation of this specific expression.
2518
2519    LOCUS is the source location of the COND_EXPR.
2520
2521    This function is the tree equivalent of do_jump.
2522
2523    shortcut_cond_r should only be called by shortcut_cond_expr.  */
2524
2525 static tree
2526 shortcut_cond_r (tree pred, tree *true_label_p, tree *false_label_p,
2527                  location_t locus)
2528 {
2529   tree local_label = NULL_TREE;
2530   tree t, expr = NULL;
2531
2532   /* OK, it's not a simple case; we need to pull apart the COND_EXPR to
2533      retain the shortcut semantics.  Just insert the gotos here;
2534      shortcut_cond_expr will append the real blocks later.  */
2535   if (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2536     {
2537       location_t new_locus;
2538
2539       /* Turn if (a && b) into
2540
2541          if (a); else goto no;
2542          if (b) goto yes; else goto no;
2543          (no:) */
2544
2545       if (false_label_p == NULL)
2546         false_label_p = &local_label;
2547
2548       /* Keep the original source location on the first 'if'.  */
2549       t = shortcut_cond_r (TREE_OPERAND (pred, 0), NULL, false_label_p, locus);
2550       append_to_statement_list (t, &expr);
2551
2552       /* Set the source location of the && on the second 'if'.  */
2553       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2554       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2555                            new_locus);
2556       append_to_statement_list (t, &expr);
2557     }
2558   else if (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2559     {
2560       location_t new_locus;
2561
2562       /* Turn if (a || b) into
2563
2564          if (a) goto yes;
2565          if (b) goto yes; else goto no;
2566          (yes:) */
2567
2568       if (true_label_p == NULL)
2569         true_label_p = &local_label;
2570
2571       /* Keep the original source location on the first 'if'.  */
2572       t = shortcut_cond_r (TREE_OPERAND (pred, 0), true_label_p, NULL, locus);
2573       append_to_statement_list (t, &expr);
2574
2575       /* Set the source location of the || on the second 'if'.  */
2576       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2577       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2578                            new_locus);
2579       append_to_statement_list (t, &expr);
2580     }
2581   else if (TREE_CODE (pred) == COND_EXPR)
2582     {
2583       location_t new_locus;
2584
2585       /* As long as we're messing with gotos, turn if (a ? b : c) into
2586          if (a)
2587            if (b) goto yes; else goto no;
2588          else
2589            if (c) goto yes; else goto no;  */
2590
2591       /* Keep the original source location on the first 'if'.  Set the source
2592          location of the ? on the second 'if'.  */
2593       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2594       expr = build3 (COND_EXPR, void_type_node, TREE_OPERAND (pred, 0),
2595                      shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p,
2596                                       false_label_p, locus),
2597                      shortcut_cond_r (TREE_OPERAND (pred, 2), true_label_p,
2598                                       false_label_p, new_locus));
2599     }
2600   else
2601     {
2602       expr = build3 (COND_EXPR, void_type_node, pred,
2603                      build_and_jump (true_label_p),
2604                      build_and_jump (false_label_p));
2605       SET_EXPR_LOCATION (expr, locus);
2606     }
2607
2608   if (local_label)
2609     {
2610       t = build1 (LABEL_EXPR, void_type_node, local_label);
2611       append_to_statement_list (t, &expr);
2612     }
2613
2614   return expr;
2615 }
2616
2617 /* Given a conditional expression EXPR with short-circuit boolean
2618    predicates using TRUTH_ANDIF_EXPR or TRUTH_ORIF_EXPR, break the
2619    predicate appart into the equivalent sequence of conditionals.  */
2620
2621 static tree
2622 shortcut_cond_expr (tree expr)
2623 {
2624   tree pred = TREE_OPERAND (expr, 0);
2625   tree then_ = TREE_OPERAND (expr, 1);
2626   tree else_ = TREE_OPERAND (expr, 2);
2627   tree true_label, false_label, end_label, t;
2628   tree *true_label_p;
2629   tree *false_label_p;
2630   bool emit_end, emit_false, jump_over_else;
2631   bool then_se = then_ && TREE_SIDE_EFFECTS (then_);
2632   bool else_se = else_ && TREE_SIDE_EFFECTS (else_);
2633
2634   /* First do simple transformations.  */
2635   if (!else_se)
2636     {
2637       /* If there is no 'else', turn
2638            if (a && b) then c
2639          into
2640            if (a) if (b) then c.  */
2641       while (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2642         {
2643           /* Keep the original source location on the first 'if'.  */
2644           location_t locus = EXPR_LOC_OR_HERE (expr);
2645           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2646           /* Set the source location of the && on the second 'if'.  */
2647           if (EXPR_HAS_LOCATION (pred))
2648             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2649           then_ = shortcut_cond_expr (expr);
2650           then_se = then_ && TREE_SIDE_EFFECTS (then_);
2651           pred = TREE_OPERAND (pred, 0);
2652           expr = build3 (COND_EXPR, void_type_node, pred, then_, NULL_TREE);
2653           SET_EXPR_LOCATION (expr, locus);
2654         }
2655     }
2656
2657   if (!then_se)
2658     {
2659       /* If there is no 'then', turn
2660            if (a || b); else d
2661          into
2662            if (a); else if (b); else d.  */
2663       while (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2664         {
2665           /* Keep the original source location on the first 'if'.  */
2666           location_t locus = EXPR_LOC_OR_HERE (expr);
2667           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2668           /* Set the source location of the || on the second 'if'.  */
2669           if (EXPR_HAS_LOCATION (pred))
2670             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2671           else_ = shortcut_cond_expr (expr);
2672           else_se = else_ && TREE_SIDE_EFFECTS (else_);
2673           pred = TREE_OPERAND (pred, 0);
2674           expr = build3 (COND_EXPR, void_type_node, pred, NULL_TREE, else_);
2675           SET_EXPR_LOCATION (expr, locus);
2676         }
2677     }
2678
2679   /* If we're done, great.  */
2680   if (TREE_CODE (pred) != TRUTH_ANDIF_EXPR
2681       && TREE_CODE (pred) != TRUTH_ORIF_EXPR)
2682     return expr;
2683
2684   /* Otherwise we need to mess with gotos.  Change
2685        if (a) c; else d;
2686      to
2687        if (a); else goto no;
2688        c; goto end;
2689        no: d; end:
2690      and recursively gimplify the condition.  */
2691
2692   true_label = false_label = end_label = NULL_TREE;
2693
2694   /* If our arms just jump somewhere, hijack those labels so we don't
2695      generate jumps to jumps.  */
2696
2697   if (then_
2698       && TREE_CODE (then_) == GOTO_EXPR
2699       && TREE_CODE (GOTO_DESTINATION (then_)) == LABEL_DECL)
2700     {
2701       true_label = GOTO_DESTINATION (then_);
2702       then_ = NULL;
2703       then_se = false;
2704     }
2705
2706   if (else_
2707       && TREE_CODE (else_) == GOTO_EXPR
2708       && TREE_CODE (GOTO_DESTINATION (else_)) == LABEL_DECL)
2709     {
2710       false_label = GOTO_DESTINATION (else_);
2711       else_ = NULL;
2712       else_se = false;
2713     }
2714
2715   /* If we aren't hijacking a label for the 'then' branch, it falls through.  */
2716   if (true_label)
2717     true_label_p = &true_label;
2718   else
2719     true_label_p = NULL;
2720
2721   /* The 'else' branch also needs a label if it contains interesting code.  */
2722   if (false_label || else_se)
2723     false_label_p = &false_label;
2724   else
2725     false_label_p = NULL;
2726
2727   /* If there was nothing else in our arms, just forward the label(s).  */
2728   if (!then_se && !else_se)
2729     return shortcut_cond_r (pred, true_label_p, false_label_p,
2730                             EXPR_LOC_OR_HERE (expr));
2731
2732   /* If our last subexpression already has a terminal label, reuse it.  */
2733   if (else_se)
2734     t = expr_last (else_);
2735   else if (then_se)
2736     t = expr_last (then_);
2737   else
2738     t = NULL;
2739   if (t && TREE_CODE (t) == LABEL_EXPR)
2740     end_label = LABEL_EXPR_LABEL (t);
2741
2742   /* If we don't care about jumping to the 'else' branch, jump to the end
2743      if the condition is false.  */
2744   if (!false_label_p)
2745     false_label_p = &end_label;
2746
2747   /* We only want to emit these labels if we aren't hijacking them.  */
2748   emit_end = (end_label == NULL_TREE);
2749   emit_false = (false_label == NULL_TREE);
2750
2751   /* We only emit the jump over the else clause if we have to--if the
2752      then clause may fall through.  Otherwise we can wind up with a
2753      useless jump and a useless label at the end of gimplified code,
2754      which will cause us to think that this conditional as a whole
2755      falls through even if it doesn't.  If we then inline a function
2756      which ends with such a condition, that can cause us to issue an
2757      inappropriate warning about control reaching the end of a
2758      non-void function.  */
2759   jump_over_else = block_may_fallthru (then_);
2760
2761   pred = shortcut_cond_r (pred, true_label_p, false_label_p,
2762                           EXPR_LOC_OR_HERE (expr));
2763
2764   expr = NULL;
2765   append_to_statement_list (pred, &expr);
2766
2767   append_to_statement_list (then_, &expr);
2768   if (else_se)
2769     {
2770       if (jump_over_else)
2771         {
2772           tree last = expr_last (expr);
2773           t = build_and_jump (&end_label);
2774           if (EXPR_HAS_LOCATION (last))
2775             SET_EXPR_LOCATION (t, EXPR_LOCATION (last));
2776           append_to_statement_list (t, &expr);
2777         }
2778       if (emit_false)
2779         {
2780           t = build1 (LABEL_EXPR, void_type_node, false_label);
2781           append_to_statement_list (t, &expr);
2782         }
2783       append_to_statement_list (else_, &expr);
2784     }
2785   if (emit_end && end_label)
2786     {
2787       t = build1 (LABEL_EXPR, void_type_node, end_label);
2788       append_to_statement_list (t, &expr);
2789     }
2790
2791   return expr;
2792 }
2793
2794 /* EXPR is used in a boolean context; make sure it has BOOLEAN_TYPE.  */
2795
2796 tree
2797 gimple_boolify (tree expr)
2798 {
2799   tree type = TREE_TYPE (expr);
2800   location_t loc = EXPR_LOCATION (expr);
2801
2802   if (TREE_CODE (expr) == NE_EXPR
2803       && TREE_CODE (TREE_OPERAND (expr, 0)) == CALL_EXPR
2804       && integer_zerop (TREE_OPERAND (expr, 1)))
2805     {
2806       tree call = TREE_OPERAND (expr, 0);
2807       tree fn = get_callee_fndecl (call);
2808
2809       /* For __builtin_expect ((long) (x), y) recurse into x as well
2810          if x is truth_value_p.  */
2811       if (fn
2812           && DECL_BUILT_IN_CLASS (fn) == BUILT_IN_NORMAL
2813           && DECL_FUNCTION_CODE (fn) == BUILT_IN_EXPECT
2814           && call_expr_nargs (call) == 2)
2815         {
2816           tree arg = CALL_EXPR_ARG (call, 0);
2817           if (arg)
2818             {
2819               if (TREE_CODE (arg) == NOP_EXPR
2820                   && TREE_TYPE (arg) == TREE_TYPE (call))
2821                 arg = TREE_OPERAND (arg, 0);
2822               if (truth_value_p (TREE_CODE (arg)))
2823                 {
2824                   arg = gimple_boolify (arg);
2825                   CALL_EXPR_ARG (call, 0)
2826                     = fold_convert_loc (loc, TREE_TYPE (call), arg);
2827                 }
2828             }
2829         }
2830     }
2831
2832   if (TREE_CODE (type) == BOOLEAN_TYPE)
2833     return expr;
2834
2835   switch (TREE_CODE (expr))
2836     {
2837     case TRUTH_AND_EXPR:
2838     case TRUTH_OR_EXPR:
2839     case TRUTH_XOR_EXPR:
2840     case TRUTH_ANDIF_EXPR:
2841     case TRUTH_ORIF_EXPR:
2842       /* Also boolify the arguments of truth exprs.  */
2843       TREE_OPERAND (expr, 1) = gimple_boolify (TREE_OPERAND (expr, 1));
2844       /* FALLTHRU */
2845
2846     case TRUTH_NOT_EXPR:
2847       TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
2848       /* FALLTHRU */
2849
2850     case EQ_EXPR: case NE_EXPR:
2851     case LE_EXPR: case GE_EXPR: case LT_EXPR: case GT_EXPR:
2852       /* These expressions always produce boolean results.  */
2853       TREE_TYPE (expr) = boolean_type_node;
2854       return expr;
2855
2856     default:
2857       /* Other expressions that get here must have boolean values, but
2858          might need to be converted to the appropriate mode.  */
2859       return fold_convert_loc (loc, boolean_type_node, expr);
2860     }
2861 }
2862
2863 /* Given a conditional expression *EXPR_P without side effects, gimplify
2864    its operands.  New statements are inserted to PRE_P.  */
2865
2866 static enum gimplify_status
2867 gimplify_pure_cond_expr (tree *expr_p, gimple_seq *pre_p)
2868 {
2869   tree expr = *expr_p, cond;
2870   enum gimplify_status ret, tret;
2871   enum tree_code code;
2872
2873   cond = gimple_boolify (COND_EXPR_COND (expr));
2874
2875   /* We need to handle && and || specially, as their gimplification
2876      creates pure cond_expr, thus leading to an infinite cycle otherwise.  */
2877   code = TREE_CODE (cond);
2878   if (code == TRUTH_ANDIF_EXPR)
2879     TREE_SET_CODE (cond, TRUTH_AND_EXPR);
2880   else if (code == TRUTH_ORIF_EXPR)
2881     TREE_SET_CODE (cond, TRUTH_OR_EXPR);
2882   ret = gimplify_expr (&cond, pre_p, NULL, is_gimple_condexpr, fb_rvalue);
2883   COND_EXPR_COND (*expr_p) = cond;
2884
2885   tret = gimplify_expr (&COND_EXPR_THEN (expr), pre_p, NULL,
2886                                    is_gimple_val, fb_rvalue);
2887   ret = MIN (ret, tret);
2888   tret = gimplify_expr (&COND_EXPR_ELSE (expr), pre_p, NULL,
2889                                    is_gimple_val, fb_rvalue);
2890
2891   return MIN (ret, tret);
2892 }
2893
2894 /* Return true if evaluating EXPR could trap.
2895    EXPR is GENERIC, while tree_could_trap_p can be called
2896    only on GIMPLE.  */
2897
2898 static bool
2899 generic_expr_could_trap_p (tree expr)
2900 {
2901   unsigned i, n;
2902
2903   if (!expr || is_gimple_val (expr))
2904     return false;
2905
2906   if (!EXPR_P (expr) || tree_could_trap_p (expr))
2907     return true;
2908
2909   n = TREE_OPERAND_LENGTH (expr);
2910   for (i = 0; i < n; i++)
2911     if (generic_expr_could_trap_p (TREE_OPERAND (expr, i)))
2912       return true;
2913
2914   return false;
2915 }
2916
2917 /*  Convert the conditional expression pointed to by EXPR_P '(p) ? a : b;'
2918     into
2919
2920     if (p)                      if (p)
2921       t1 = a;                     a;
2922     else                or      else
2923       t1 = b;                     b;
2924     t1;
2925
2926     The second form is used when *EXPR_P is of type void.
2927
2928     PRE_P points to the list where side effects that must happen before
2929       *EXPR_P should be stored.  */
2930
2931 static enum gimplify_status
2932 gimplify_cond_expr (tree *expr_p, gimple_seq *pre_p, fallback_t fallback)
2933 {
2934   tree expr = *expr_p;
2935   tree type = TREE_TYPE (expr);
2936   location_t loc = EXPR_LOCATION (expr);
2937   tree tmp, arm1, arm2;
2938   enum gimplify_status ret;
2939   tree label_true, label_false, label_cont;
2940   bool have_then_clause_p, have_else_clause_p;
2941   gimple gimple_cond;
2942   enum tree_code pred_code;
2943   gimple_seq seq = NULL;
2944
2945   /* If this COND_EXPR has a value, copy the values into a temporary within
2946      the arms.  */
2947   if (!VOID_TYPE_P (type))
2948     {
2949       tree then_ = TREE_OPERAND (expr, 1), else_ = TREE_OPERAND (expr, 2);
2950       tree result;
2951
2952       /* If either an rvalue is ok or we do not require an lvalue, create the
2953          temporary.  But we cannot do that if the type is addressable.  */
2954       if (((fallback & fb_rvalue) || !(fallback & fb_lvalue))
2955           && !TREE_ADDRESSABLE (type))
2956         {
2957           if (gimplify_ctxp->allow_rhs_cond_expr
2958               /* If either branch has side effects or could trap, it can't be
2959                  evaluated unconditionally.  */
2960               && !TREE_SIDE_EFFECTS (then_)
2961               && !generic_expr_could_trap_p (then_)
2962               && !TREE_SIDE_EFFECTS (else_)
2963               && !generic_expr_could_trap_p (else_))
2964             return gimplify_pure_cond_expr (expr_p, pre_p);
2965
2966           tmp = create_tmp_var (type, "iftmp");
2967           result = tmp;
2968         }
2969
2970       /* Otherwise, only create and copy references to the values.  */
2971       else
2972         {
2973           type = build_pointer_type (type);
2974
2975           if (!VOID_TYPE_P (TREE_TYPE (then_)))
2976             then_ = build_fold_addr_expr_loc (loc, then_);
2977
2978           if (!VOID_TYPE_P (TREE_TYPE (else_)))
2979             else_ = build_fold_addr_expr_loc (loc, else_);
2980  
2981           expr
2982             = build3 (COND_EXPR, type, TREE_OPERAND (expr, 0), then_, else_);
2983
2984           tmp = create_tmp_var (type, "iftmp");
2985           result = build_simple_mem_ref_loc (loc, tmp);
2986         }
2987
2988       /* Build the new then clause, `tmp = then_;'.  But don't build the
2989          assignment if the value is void; in C++ it can be if it's a throw.  */
2990       if (!VOID_TYPE_P (TREE_TYPE (then_)))
2991         TREE_OPERAND (expr, 1) = build2 (MODIFY_EXPR, type, tmp, then_);
2992
2993       /* Similarly, build the new else clause, `tmp = else_;'.  */
2994       if (!VOID_TYPE_P (TREE_TYPE (else_)))
2995         TREE_OPERAND (expr, 2) = build2 (MODIFY_EXPR, type, tmp, else_);
2996
2997       TREE_TYPE (expr) = void_type_node;
2998       recalculate_side_effects (expr);
2999
3000       /* Move the COND_EXPR to the prequeue.  */
3001       gimplify_stmt (&expr, pre_p);
3002
3003       *expr_p = result;
3004       return GS_ALL_DONE;
3005     }
3006
3007   /* Remove any COMPOUND_EXPR so the following cases will be caught.  */
3008   STRIP_TYPE_NOPS (TREE_OPERAND (expr, 0));
3009   if (TREE_CODE (TREE_OPERAND (expr, 0)) == COMPOUND_EXPR)
3010     gimplify_compound_expr (&TREE_OPERAND (expr, 0), pre_p, true);
3011
3012   /* Make sure the condition has BOOLEAN_TYPE.  */
3013   TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
3014
3015   /* Break apart && and || conditions.  */
3016   if (TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ANDIF_EXPR
3017       || TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ORIF_EXPR)
3018     {
3019       expr = shortcut_cond_expr (expr);
3020
3021       if (expr != *expr_p)
3022         {
3023           *expr_p = expr;
3024
3025           /* We can't rely on gimplify_expr to re-gimplify the expanded
3026              form properly, as cleanups might cause the target labels to be
3027              wrapped in a TRY_FINALLY_EXPR.  To prevent that, we need to
3028              set up a conditional context.  */
3029           gimple_push_condition ();
3030           gimplify_stmt (expr_p, &seq);
3031           gimple_pop_condition (pre_p);
3032           gimple_seq_add_seq (pre_p, seq);
3033
3034           return GS_ALL_DONE;
3035         }
3036     }
3037
3038   /* Now do the normal gimplification.  */
3039
3040   /* Gimplify condition.  */
3041   ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, NULL, is_gimple_condexpr,
3042                        fb_rvalue);
3043   if (ret == GS_ERROR)
3044     return GS_ERROR;
3045   gcc_assert (TREE_OPERAND (expr, 0) != NULL_TREE);
3046
3047   gimple_push_condition ();
3048
3049   have_then_clause_p = have_else_clause_p = false;
3050   if (TREE_OPERAND (expr, 1) != NULL
3051       && TREE_CODE (TREE_OPERAND (expr, 1)) == GOTO_EXPR
3052       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 1))) == LABEL_DECL
3053       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 1)))
3054           == current_function_decl)
3055       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
3056          have different locations, otherwise we end up with incorrect
3057          location information on the branches.  */
3058       && (optimize
3059           || !EXPR_HAS_LOCATION (expr)
3060           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 1))
3061           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 1))))
3062     {
3063       label_true = GOTO_DESTINATION (TREE_OPERAND (expr, 1));
3064       have_then_clause_p = true;
3065     }
3066   else
3067     label_true = create_artificial_label (UNKNOWN_LOCATION);
3068   if (TREE_OPERAND (expr, 2) != NULL
3069       && TREE_CODE (TREE_OPERAND (expr, 2)) == GOTO_EXPR
3070       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 2))) == LABEL_DECL
3071       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 2)))
3072           == current_function_decl)
3073       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
3074          have different locations, otherwise we end up with incorrect
3075          location information on the branches.  */
3076       && (optimize
3077           || !EXPR_HAS_LOCATION (expr)
3078           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 2))
3079           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 2))))
3080     {
3081       label_false = GOTO_DESTINATION (TREE_OPERAND (expr, 2));
3082       have_else_clause_p = true;
3083     }
3084   else
3085     label_false = create_artificial_label (UNKNOWN_LOCATION);
3086
3087   gimple_cond_get_ops_from_tree (COND_EXPR_COND (expr), &pred_code, &arm1,
3088                                  &arm2);
3089
3090   gimple_cond = gimple_build_cond (pred_code, arm1, arm2, label_true,
3091                                    label_false);
3092
3093   gimplify_seq_add_stmt (&seq, gimple_cond);
3094   label_cont = NULL_TREE;
3095   if (!have_then_clause_p)
3096     {
3097       /* For if (...) {} else { code; } put label_true after
3098          the else block.  */
3099       if (TREE_OPERAND (expr, 1) == NULL_TREE
3100           && !have_else_clause_p
3101           && TREE_OPERAND (expr, 2) != NULL_TREE)
3102         label_cont = label_true;
3103       else
3104         {
3105           gimplify_seq_add_stmt (&seq, gimple_build_label (label_true));
3106           have_then_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 1), &seq);
3107           /* For if (...) { code; } else {} or
3108              if (...) { code; } else goto label; or
3109              if (...) { code; return; } else { ... }
3110              label_cont isn't needed.  */
3111           if (!have_else_clause_p
3112               && TREE_OPERAND (expr, 2) != NULL_TREE
3113               && gimple_seq_may_fallthru (seq))
3114             {
3115               gimple g;
3116               label_cont = create_artificial_label (UNKNOWN_LOCATION);
3117
3118               g = gimple_build_goto (label_cont);
3119
3120               /* GIMPLE_COND's are very low level; they have embedded
3121                  gotos.  This particular embedded goto should not be marked
3122                  with the location of the original COND_EXPR, as it would
3123                  correspond to the COND_EXPR's condition, not the ELSE or the
3124                  THEN arms.  To avoid marking it with the wrong location, flag
3125                  it as "no location".  */
3126               gimple_set_do_not_emit_location (g);
3127
3128               gimplify_seq_add_stmt (&seq, g);
3129             }
3130         }
3131     }
3132   if (!have_else_clause_p)
3133     {
3134       gimplify_seq_add_stmt (&seq, gimple_build_label (label_false));
3135       have_else_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 2), &seq);
3136     }
3137   if (label_cont)
3138     gimplify_seq_add_stmt (&seq, gimple_build_label (label_cont));
3139
3140   gimple_pop_condition (pre_p);
3141   gimple_seq_add_seq (pre_p, seq);
3142
3143   if (ret == GS_ERROR)
3144     ; /* Do nothing.  */
3145   else if (have_then_clause_p || have_else_clause_p)
3146     ret = GS_ALL_DONE;
3147   else
3148     {
3149       /* Both arms are empty; replace the COND_EXPR with its predicate.  */
3150       expr = TREE_OPERAND (expr, 0);
3151       gimplify_stmt (&expr, pre_p);
3152     }
3153
3154   *expr_p = NULL;
3155   return ret;
3156 }
3157
3158 /* Prepare the node pointed to by EXPR_P, an is_gimple_addressable expression,
3159    to be marked addressable.
3160
3161    We cannot rely on such an expression being directly markable if a temporary
3162    has been created by the gimplification.  In this case, we create another
3163    temporary and initialize it with a copy, which will become a store after we
3164    mark it addressable.  This can happen if the front-end passed us something
3165    that it could not mark addressable yet, like a Fortran pass-by-reference
3166    parameter (int) floatvar.  */
3167
3168 static void
3169 prepare_gimple_addressable (tree *expr_p, gimple_seq *seq_p)
3170 {
3171   while (handled_component_p (*expr_p))
3172     expr_p = &TREE_OPERAND (*expr_p, 0);
3173   if (is_gimple_reg (*expr_p))
3174     *expr_p = get_initialized_tmp_var (*expr_p, seq_p, NULL);
3175 }
3176
3177 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3178    a call to __builtin_memcpy.  */
3179
3180 static enum gimplify_status
3181 gimplify_modify_expr_to_memcpy (tree *expr_p, tree size, bool want_value,
3182                                 gimple_seq *seq_p)
3183 {
3184   tree t, to, to_ptr, from, from_ptr;
3185   gimple gs;
3186   location_t loc = EXPR_LOCATION (*expr_p);
3187
3188   to = TREE_OPERAND (*expr_p, 0);
3189   from = TREE_OPERAND (*expr_p, 1);
3190
3191   /* Mark the RHS addressable.  Beware that it may not be possible to do so
3192      directly if a temporary has been created by the gimplification.  */
3193   prepare_gimple_addressable (&from, seq_p);
3194
3195   mark_addressable (from);
3196   from_ptr = build_fold_addr_expr_loc (loc, from);
3197   gimplify_arg (&from_ptr, seq_p, loc);
3198
3199   mark_addressable (to);
3200   to_ptr = build_fold_addr_expr_loc (loc, to);
3201   gimplify_arg (&to_ptr, seq_p, loc);
3202
3203   t = implicit_built_in_decls[BUILT_IN_MEMCPY];
3204
3205   gs = gimple_build_call (t, 3, to_ptr, from_ptr, size);
3206
3207   if (want_value)
3208     {
3209       /* tmp = memcpy() */
3210       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3211       gimple_call_set_lhs (gs, t);
3212       gimplify_seq_add_stmt (seq_p, gs);
3213
3214       *expr_p = build_simple_mem_ref (t);
3215       return GS_ALL_DONE;
3216     }
3217
3218   gimplify_seq_add_stmt (seq_p, gs);
3219   *expr_p = NULL;
3220   return GS_ALL_DONE;
3221 }
3222
3223 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3224    a call to __builtin_memset.  In this case we know that the RHS is
3225    a CONSTRUCTOR with an empty element list.  */
3226
3227 static enum gimplify_status
3228 gimplify_modify_expr_to_memset (tree *expr_p, tree size, bool want_value,
3229                                 gimple_seq *seq_p)
3230 {
3231   tree t, from, to, to_ptr;
3232   gimple gs;
3233   location_t loc = EXPR_LOCATION (*expr_p);
3234
3235   /* Assert our assumptions, to abort instead of producing wrong code
3236      silently if they are not met.  Beware that the RHS CONSTRUCTOR might
3237      not be immediately exposed.  */
3238   from = TREE_OPERAND (*expr_p, 1);
3239   if (TREE_CODE (from) == WITH_SIZE_EXPR)
3240     from = TREE_OPERAND (from, 0);
3241
3242   gcc_assert (TREE_CODE (from) == CONSTRUCTOR
3243               && VEC_empty (constructor_elt, CONSTRUCTOR_ELTS (from)));
3244
3245   /* Now proceed.  */
3246   to = TREE_OPERAND (*expr_p, 0);
3247
3248   to_ptr = build_fold_addr_expr_loc (loc, to);
3249   gimplify_arg (&to_ptr, seq_p, loc);
3250   t = implicit_built_in_decls[BUILT_IN_MEMSET];
3251
3252   gs = gimple_build_call (t, 3, to_ptr, integer_zero_node, size);
3253
3254   if (want_value)
3255     {
3256       /* tmp = memset() */
3257       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3258       gimple_call_set_lhs (gs, t);
3259       gimplify_seq_add_stmt (seq_p, gs);
3260
3261       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (to), t);
3262       return GS_ALL_DONE;
3263     }
3264
3265   gimplify_seq_add_stmt (seq_p, gs);
3266   *expr_p = NULL;
3267   return GS_ALL_DONE;
3268 }
3269
3270 /* A subroutine of gimplify_init_ctor_preeval.  Called via walk_tree,
3271    determine, cautiously, if a CONSTRUCTOR overlaps the lhs of an
3272    assignment.  Return non-null if we detect a potential overlap.  */
3273
3274 struct gimplify_init_ctor_preeval_data
3275 {
3276   /* The base decl of the lhs object.  May be NULL, in which case we
3277      have to assume the lhs is indirect.  */
3278   tree lhs_base_decl;
3279
3280   /* The alias set of the lhs object.  */
3281   alias_set_type lhs_alias_set;
3282 };
3283
3284 static tree
3285 gimplify_init_ctor_preeval_1 (tree *tp, int *walk_subtrees, void *xdata)
3286 {
3287   struct gimplify_init_ctor_preeval_data *data
3288     = (struct gimplify_init_ctor_preeval_data *) xdata;
3289   tree t = *tp;
3290
3291   /* If we find the base object, obviously we have overlap.  */
3292   if (data->lhs_base_decl == t)
3293     return t;
3294
3295   /* If the constructor component is indirect, determine if we have a
3296      potential overlap with the lhs.  The only bits of information we
3297      have to go on at this point are addressability and alias sets.  */
3298   if ((INDIRECT_REF_P (t)
3299        || TREE_CODE (t) == MEM_REF)
3300       && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3301       && alias_sets_conflict_p (data->lhs_alias_set, get_alias_set (t)))
3302     return t;
3303
3304   /* If the constructor component is a call, determine if it can hide a
3305      potential overlap with the lhs through an INDIRECT_REF like above.
3306      ??? Ugh - this is completely broken.  In fact this whole analysis
3307      doesn't look conservative.  */
3308   if (TREE_CODE (t) == CALL_EXPR)
3309     {
3310       tree type, fntype = TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (t)));
3311
3312       for (type = TYPE_ARG_TYPES (fntype); type; type = TREE_CHAIN (type))
3313         if (POINTER_TYPE_P (TREE_VALUE (type))
3314             && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3315             && alias_sets_conflict_p (data->lhs_alias_set,
3316                                       get_alias_set
3317                                         (TREE_TYPE (TREE_VALUE (type)))))
3318           return t;
3319     }
3320
3321   if (IS_TYPE_OR_DECL_P (t))
3322     *walk_subtrees = 0;
3323   return NULL;
3324 }
3325
3326 /* A subroutine of gimplify_init_constructor.  Pre-evaluate EXPR,
3327    force values that overlap with the lhs (as described by *DATA)
3328    into temporaries.  */
3329
3330 static void
3331 gimplify_init_ctor_preeval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3332                             struct gimplify_init_ctor_preeval_data *data)
3333 {
3334   enum gimplify_status one;
3335
3336   /* If the value is constant, then there's nothing to pre-evaluate.  */
3337   if (TREE_CONSTANT (*expr_p))
3338     {
3339       /* Ensure it does not have side effects, it might contain a reference to
3340          the object we're initializing.  */
3341       gcc_assert (!TREE_SIDE_EFFECTS (*expr_p));
3342       return;
3343     }
3344
3345   /* If the type has non-trivial constructors, we can't pre-evaluate.  */
3346   if (TREE_ADDRESSABLE (TREE_TYPE (*expr_p)))
3347     return;
3348
3349   /* Recurse for nested constructors.  */
3350   if (TREE_CODE (*expr_p) == CONSTRUCTOR)
3351     {
3352       unsigned HOST_WIDE_INT ix;
3353       constructor_elt *ce;
3354       VEC(constructor_elt,gc) *v = CONSTRUCTOR_ELTS (*expr_p);
3355
3356       FOR_EACH_VEC_ELT (constructor_elt, v, ix, ce)
3357         gimplify_init_ctor_preeval (&ce->value, pre_p, post_p, data);
3358
3359       return;
3360     }
3361
3362   /* If this is a variable sized type, we must remember the size.  */
3363   maybe_with_size_expr (expr_p);
3364
3365   /* Gimplify the constructor element to something appropriate for the rhs
3366      of a MODIFY_EXPR.  Given that we know the LHS is an aggregate, we know
3367      the gimplifier will consider this a store to memory.  Doing this
3368      gimplification now means that we won't have to deal with complicated
3369      language-specific trees, nor trees like SAVE_EXPR that can induce
3370      exponential search behavior.  */
3371   one = gimplify_expr (expr_p, pre_p, post_p, is_gimple_mem_rhs, fb_rvalue);
3372   if (one == GS_ERROR)
3373     {
3374       *expr_p = NULL;
3375       return;
3376     }
3377
3378   /* If we gimplified to a bare decl, we can be sure that it doesn't overlap
3379      with the lhs, since "a = { .x=a }" doesn't make sense.  This will
3380      always be true for all scalars, since is_gimple_mem_rhs insists on a
3381      temporary variable for them.  */
3382   if (DECL_P (*expr_p))
3383     return;
3384
3385   /* If this is of variable size, we have no choice but to assume it doesn't
3386      overlap since we can't make a temporary for it.  */
3387   if (TREE_CODE (TYPE_SIZE (TREE_TYPE (*expr_p))) != INTEGER_CST)
3388     return;
3389
3390   /* Otherwise, we must search for overlap ...  */
3391   if (!walk_tree (expr_p, gimplify_init_ctor_preeval_1, data, NULL))
3392     return;
3393
3394   /* ... and if found, force the value into a temporary.  */
3395   *expr_p = get_formal_tmp_var (*expr_p, pre_p);
3396 }
3397
3398 /* A subroutine of gimplify_init_ctor_eval.  Create a loop for
3399    a RANGE_EXPR in a CONSTRUCTOR for an array.
3400
3401       var = lower;
3402     loop_entry:
3403       object[var] = value;
3404       if (var == upper)
3405         goto loop_exit;
3406       var = var + 1;
3407       goto loop_entry;
3408     loop_exit:
3409
3410    We increment var _after_ the loop exit check because we might otherwise
3411    fail if upper == TYPE_MAX_VALUE (type for upper).
3412
3413    Note that we never have to deal with SAVE_EXPRs here, because this has
3414    already been taken care of for us, in gimplify_init_ctor_preeval().  */
3415
3416 static void gimplify_init_ctor_eval (tree, VEC(constructor_elt,gc) *,
3417                                      gimple_seq *, bool);
3418
3419 static void
3420 gimplify_init_ctor_eval_range (tree object, tree lower, tree upper,
3421                                tree value, tree array_elt_type,
3422                                gimple_seq *pre_p, bool cleared)
3423 {
3424   tree loop_entry_label, loop_exit_label, fall_thru_label;
3425   tree var, var_type, cref, tmp;
3426
3427   loop_entry_label = create_artificial_label (UNKNOWN_LOCATION);
3428   loop_exit_label = create_artificial_label (UNKNOWN_LOCATION);
3429   fall_thru_label = create_artificial_label (UNKNOWN_LOCATION);
3430
3431   /* Create and initialize the index variable.  */
3432   var_type = TREE_TYPE (upper);
3433   var = create_tmp_var (var_type, NULL);
3434   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, lower));
3435
3436   /* Add the loop entry label.  */
3437   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_entry_label));
3438
3439   /* Build the reference.  */
3440   cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3441                  var, NULL_TREE, NULL_TREE);
3442
3443   /* If we are a constructor, just call gimplify_init_ctor_eval to do
3444      the store.  Otherwise just assign value to the reference.  */
3445
3446   if (TREE_CODE (value) == CONSTRUCTOR)
3447     /* NB we might have to call ourself recursively through
3448        gimplify_init_ctor_eval if the value is a constructor.  */
3449     gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3450                              pre_p, cleared);
3451   else
3452     gimplify_seq_add_stmt (pre_p, gimple_build_assign (cref, value));
3453
3454   /* We exit the loop when the index var is equal to the upper bound.  */
3455   gimplify_seq_add_stmt (pre_p,
3456                          gimple_build_cond (EQ_EXPR, var, upper,
3457                                             loop_exit_label, fall_thru_label));
3458
3459   gimplify_seq_add_stmt (pre_p, gimple_build_label (fall_thru_label));
3460
3461   /* Otherwise, increment the index var...  */
3462   tmp = build2 (PLUS_EXPR, var_type, var,
3463                 fold_convert (var_type, integer_one_node));
3464   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, tmp));
3465
3466   /* ...and jump back to the loop entry.  */
3467   gimplify_seq_add_stmt (pre_p, gimple_build_goto (loop_entry_label));
3468
3469   /* Add the loop exit label.  */
3470   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_exit_label));
3471 }
3472
3473 /* Return true if FDECL is accessing a field that is zero sized.  */
3474
3475 static bool
3476 zero_sized_field_decl (const_tree fdecl)
3477 {
3478   if (TREE_CODE (fdecl) == FIELD_DECL && DECL_SIZE (fdecl)
3479       && integer_zerop (DECL_SIZE (fdecl)))
3480     return true;
3481   return false;
3482 }
3483
3484 /* Return true if TYPE is zero sized.  */
3485
3486 static bool
3487 zero_sized_type (const_tree type)
3488 {
3489   if (AGGREGATE_TYPE_P (type) && TYPE_SIZE (type)
3490       && integer_zerop (TYPE_SIZE (type)))
3491     return true;
3492   return false;
3493 }
3494
3495 /* A subroutine of gimplify_init_constructor.  Generate individual
3496    MODIFY_EXPRs for a CONSTRUCTOR.  OBJECT is the LHS against which the
3497    assignments should happen.  ELTS is the CONSTRUCTOR_ELTS of the
3498    CONSTRUCTOR.  CLEARED is true if the entire LHS object has been
3499    zeroed first.  */
3500
3501 static void
3502 gimplify_init_ctor_eval (tree object, VEC(constructor_elt,gc) *elts,
3503                          gimple_seq *pre_p, bool cleared)
3504 {
3505   tree array_elt_type = NULL;
3506   unsigned HOST_WIDE_INT ix;
3507   tree purpose, value;
3508
3509   if (TREE_CODE (TREE_TYPE (object)) == ARRAY_TYPE)
3510     array_elt_type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (object)));
3511
3512   FOR_EACH_CONSTRUCTOR_ELT (elts, ix, purpose, value)
3513     {
3514       tree cref;
3515
3516       /* NULL values are created above for gimplification errors.  */
3517       if (value == NULL)
3518         continue;
3519
3520       if (cleared && initializer_zerop (value))
3521         continue;
3522
3523       /* ??? Here's to hoping the front end fills in all of the indices,
3524          so we don't have to figure out what's missing ourselves.  */
3525       gcc_assert (purpose);
3526
3527       /* Skip zero-sized fields, unless value has side-effects.  This can
3528          happen with calls to functions returning a zero-sized type, which
3529          we shouldn't discard.  As a number of downstream passes don't
3530          expect sets of zero-sized fields, we rely on the gimplification of
3531          the MODIFY_EXPR we make below to drop the assignment statement.  */
3532       if (! TREE_SIDE_EFFECTS (value) && zero_sized_field_decl (purpose))
3533         continue;
3534
3535       /* If we have a RANGE_EXPR, we have to build a loop to assign the
3536          whole range.  */
3537       if (TREE_CODE (purpose) == RANGE_EXPR)
3538         {
3539           tree lower = TREE_OPERAND (purpose, 0);
3540           tree upper = TREE_OPERAND (purpose, 1);
3541
3542           /* If the lower bound is equal to upper, just treat it as if
3543              upper was the index.  */
3544           if (simple_cst_equal (lower, upper))
3545             purpose = upper;
3546           else
3547             {
3548               gimplify_init_ctor_eval_range (object, lower, upper, value,
3549                                              array_elt_type, pre_p, cleared);
3550               continue;
3551             }
3552         }
3553
3554       if (array_elt_type)
3555         {
3556           /* Do not use bitsizetype for ARRAY_REF indices.  */
3557           if (TYPE_DOMAIN (TREE_TYPE (object)))
3558             purpose
3559               = fold_convert (TREE_TYPE (TYPE_DOMAIN (TREE_TYPE (object))),
3560                               purpose);
3561           cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3562                          purpose, NULL_TREE, NULL_TREE);
3563         }
3564       else
3565         {
3566           gcc_assert (TREE_CODE (purpose) == FIELD_DECL);
3567           cref = build3 (COMPONENT_REF, TREE_TYPE (purpose),
3568                          unshare_expr (object), purpose, NULL_TREE);
3569         }
3570
3571       if (TREE_CODE (value) == CONSTRUCTOR
3572           && TREE_CODE (TREE_TYPE (value)) != VECTOR_TYPE)
3573         gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3574                                  pre_p, cleared);
3575       else
3576         {
3577           tree init = build2 (INIT_EXPR, TREE_TYPE (cref), cref, value);
3578           gimplify_and_add (init, pre_p);
3579           ggc_free (init);
3580         }
3581     }
3582 }
3583
3584 /* Return the appropriate RHS predicate for this LHS.  */
3585
3586 gimple_predicate
3587 rhs_predicate_for (tree lhs)
3588 {
3589   if (is_gimple_reg (lhs))
3590     return is_gimple_reg_rhs_or_call;
3591   else
3592     return is_gimple_mem_rhs_or_call;
3593 }
3594
3595 /* Gimplify a C99 compound literal expression.  This just means adding
3596    the DECL_EXPR before the current statement and using its anonymous
3597    decl instead.  */
3598
3599 static enum gimplify_status
3600 gimplify_compound_literal_expr (tree *expr_p, gimple_seq *pre_p)
3601 {
3602   tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (*expr_p);
3603   tree decl = DECL_EXPR_DECL (decl_s);
3604   /* Mark the decl as addressable if the compound literal
3605      expression is addressable now, otherwise it is marked too late
3606      after we gimplify the initialization expression.  */
3607   if (TREE_ADDRESSABLE (*expr_p))
3608     TREE_ADDRESSABLE (decl) = 1;
3609
3610   /* Preliminarily mark non-addressed complex variables as eligible
3611      for promotion to gimple registers.  We'll transform their uses
3612      as we find them.  */
3613   if ((TREE_CODE (TREE_TYPE (decl)) == COMPLEX_TYPE
3614        || TREE_CODE (TREE_TYPE (decl)) == VECTOR_TYPE)
3615       && !TREE_THIS_VOLATILE (decl)
3616       && !needs_to_live_in_memory (decl))
3617     DECL_GIMPLE_REG_P (decl) = 1;
3618
3619   /* This decl isn't mentioned in the enclosing block, so add it to the
3620      list of temps.  FIXME it seems a bit of a kludge to say that
3621      anonymous artificial vars aren't pushed, but everything else is.  */
3622   if (DECL_NAME (decl) == NULL_TREE && !DECL_SEEN_IN_BIND_EXPR_P (decl))
3623     gimple_add_tmp_var (decl);
3624
3625   gimplify_and_add (decl_s, pre_p);
3626   *expr_p = decl;
3627   return GS_OK;
3628 }
3629
3630 /* Optimize embedded COMPOUND_LITERAL_EXPRs within a CONSTRUCTOR,
3631    return a new CONSTRUCTOR if something changed.  */
3632
3633 static tree
3634 optimize_compound_literals_in_ctor (tree orig_ctor)
3635 {
3636   tree ctor = orig_ctor;
3637   VEC(constructor_elt,gc) *elts = CONSTRUCTOR_ELTS (ctor);
3638   unsigned int idx, num = VEC_length (constructor_elt, elts);
3639
3640   for (idx = 0; idx < num; idx++)
3641     {
3642       tree value = VEC_index (constructor_elt, elts, idx)->value;
3643       tree newval = value;
3644       if (TREE_CODE (value) == CONSTRUCTOR)
3645         newval = optimize_compound_literals_in_ctor (value);
3646       else if (TREE_CODE (value) == COMPOUND_LITERAL_EXPR)
3647         {
3648           tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (value);
3649           tree decl = DECL_EXPR_DECL (decl_s);
3650           tree init = DECL_INITIAL (decl);
3651
3652           if (!TREE_ADDRESSABLE (value)
3653               && !TREE_ADDRESSABLE (decl)
3654               && init)
3655             newval = optimize_compound_literals_in_ctor (init);
3656         }
3657       if (newval == value)
3658         continue;
3659
3660       if (ctor == orig_ctor)
3661         {
3662           ctor = copy_node (orig_ctor);
3663           CONSTRUCTOR_ELTS (ctor) = VEC_copy (constructor_elt, gc, elts);
3664           elts = CONSTRUCTOR_ELTS (ctor);
3665         }
3666       VEC_index (constructor_elt, elts, idx)->value = newval;
3667     }
3668   return ctor;
3669 }
3670
3671 /* A subroutine of gimplify_modify_expr.  Break out elements of a
3672    CONSTRUCTOR used as an initializer into separate MODIFY_EXPRs.
3673
3674    Note that we still need to clear any elements that don't have explicit
3675    initializers, so if not all elements are initialized we keep the
3676    original MODIFY_EXPR, we just remove all of the constructor elements.
3677
3678    If NOTIFY_TEMP_CREATION is true, do not gimplify, just return
3679    GS_ERROR if we would have to create a temporary when gimplifying
3680    this constructor.  Otherwise, return GS_OK.
3681
3682    If NOTIFY_TEMP_CREATION is false, just do the gimplification.  */
3683
3684 static enum gimplify_status
3685 gimplify_init_constructor (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3686                            bool want_value, bool notify_temp_creation)
3687 {
3688   tree object, ctor, type;
3689   enum gimplify_status ret;
3690   VEC(constructor_elt,gc) *elts;
3691
3692   gcc_assert (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == CONSTRUCTOR);
3693
3694   if (!notify_temp_creation)
3695     {
3696       ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
3697                            is_gimple_lvalue, fb_lvalue);
3698       if (ret == GS_ERROR)
3699         return ret;
3700     }
3701
3702   object = TREE_OPERAND (*expr_p, 0);
3703   ctor = TREE_OPERAND (*expr_p, 1) =
3704     optimize_compound_literals_in_ctor (TREE_OPERAND (*expr_p, 1));
3705   type = TREE_TYPE (ctor);
3706   elts = CONSTRUCTOR_ELTS (ctor);
3707   ret = GS_ALL_DONE;
3708
3709   switch (TREE_CODE (type))
3710     {
3711     case RECORD_TYPE:
3712     case UNION_TYPE:
3713     case QUAL_UNION_TYPE:
3714     case ARRAY_TYPE:
3715       {
3716         struct gimplify_init_ctor_preeval_data preeval_data;
3717         HOST_WIDE_INT num_type_elements, num_ctor_elements;
3718         HOST_WIDE_INT num_nonzero_elements;
3719         bool cleared, valid_const_initializer;
3720
3721         /* Aggregate types must lower constructors to initialization of
3722            individual elements.  The exception is that a CONSTRUCTOR node
3723            with no elements indicates zero-initialization of the whole.  */
3724         if (VEC_empty (constructor_elt, elts))
3725           {
3726             if (notify_temp_creation)
3727               return GS_OK;
3728             break;
3729           }
3730
3731         /* Fetch information about the constructor to direct later processing.
3732            We might want to make static versions of it in various cases, and
3733            can only do so if it known to be a valid constant initializer.  */
3734         valid_const_initializer
3735           = categorize_ctor_elements (ctor, &num_nonzero_elements,
3736                                       &num_ctor_elements, &cleared);
3737
3738         /* If a const aggregate variable is being initialized, then it
3739            should never be a lose to promote the variable to be static.  */
3740         if (valid_const_initializer
3741             && num_nonzero_elements > 1
3742             && TREE_READONLY (object)
3743             && TREE_CODE (object) == VAR_DECL
3744             && (flag_merge_constants >= 2 || !TREE_ADDRESSABLE (object)))
3745           {
3746             if (notify_temp_creation)
3747               return GS_ERROR;
3748             DECL_INITIAL (object) = ctor;
3749             TREE_STATIC (object) = 1;
3750             if (!DECL_NAME (object))
3751               DECL_NAME (object) = create_tmp_var_name ("C");
3752             walk_tree (&DECL_INITIAL (object), force_labels_r, NULL, NULL);
3753
3754             /* ??? C++ doesn't automatically append a .<number> to the
3755                assembler name, and even when it does, it looks a FE private
3756                data structures to figure out what that number should be,
3757                which are not set for this variable.  I suppose this is
3758                important for local statics for inline functions, which aren't
3759                "local" in the object file sense.  So in order to get a unique
3760                TU-local symbol, we must invoke the lhd version now.  */
3761             lhd_set_decl_assembler_name (object);
3762
3763             *expr_p = NULL_TREE;
3764             break;
3765           }
3766
3767         /* If there are "lots" of initialized elements, even discounting
3768            those that are not address constants (and thus *must* be
3769            computed at runtime), then partition the constructor into
3770            constant and non-constant parts.  Block copy the constant
3771            parts in, then generate code for the non-constant parts.  */
3772         /* TODO.  There's code in cp/typeck.c to do this.  */
3773
3774         num_type_elements = count_type_elements (type, true);
3775
3776         /* If count_type_elements could not determine number of type elements
3777            for a constant-sized object, assume clearing is needed.
3778            Don't do this for variable-sized objects, as store_constructor
3779            will ignore the clearing of variable-sized objects.  */
3780         if (num_type_elements < 0 && int_size_in_bytes (type) >= 0)
3781           cleared = true;
3782         /* If there are "lots" of zeros, then block clear the object first.  */
3783         else if (num_type_elements - num_nonzero_elements
3784                  > CLEAR_RATIO (optimize_function_for_speed_p (cfun))
3785                  && num_nonzero_elements < num_type_elements/4)
3786           cleared = true;
3787         /* ??? This bit ought not be needed.  For any element not present
3788            in the initializer, we should simply set them to zero.  Except
3789            we'd need to *find* the elements that are not present, and that
3790            requires trickery to avoid quadratic compile-time behavior in
3791            large cases or excessive memory use in small cases.  */
3792         else if (num_ctor_elements < num_type_elements)
3793           cleared = true;
3794
3795         /* If there are "lots" of initialized elements, and all of them
3796            are valid address constants, then the entire initializer can
3797            be dropped to memory, and then memcpy'd out.  Don't do this
3798            for sparse arrays, though, as it's more efficient to follow
3799            the standard CONSTRUCTOR behavior of memset followed by
3800            individual element initialization.  Also don't do this for small
3801            all-zero initializers (which aren't big enough to merit
3802            clearing), and don't try to make bitwise copies of
3803            TREE_ADDRESSABLE types.  */
3804         if (valid_const_initializer
3805             && !(cleared || num_nonzero_elements == 0)
3806             && !TREE_ADDRESSABLE (type))
3807           {
3808             HOST_WIDE_INT size = int_size_in_bytes (type);
3809             unsigned int align;
3810
3811             /* ??? We can still get unbounded array types, at least
3812                from the C++ front end.  This seems wrong, but attempt
3813                to work around it for now.  */
3814             if (size < 0)
3815               {
3816                 size = int_size_in_bytes (TREE_TYPE (object));
3817                 if (size >= 0)
3818                   TREE_TYPE (ctor) = type = TREE_TYPE (object);
3819               }
3820
3821             /* Find the maximum alignment we can assume for the object.  */
3822             /* ??? Make use of DECL_OFFSET_ALIGN.  */
3823             if (DECL_P (object))
3824               align = DECL_ALIGN (object);
3825             else
3826               align = TYPE_ALIGN (type);
3827
3828             if (size > 0
3829                 && num_nonzero_elements > 1
3830                 && !can_move_by_pieces (size, align))
3831               {
3832                 if (notify_temp_creation)
3833                   return GS_ERROR;
3834
3835                 walk_tree (&ctor, force_labels_r, NULL, NULL);
3836                 ctor = tree_output_constant_def (ctor);
3837                 if (!useless_type_conversion_p (type, TREE_TYPE (ctor)))
3838                   ctor = build1 (VIEW_CONVERT_EXPR, type, ctor);
3839                 TREE_OPERAND (*expr_p, 1) = ctor;
3840
3841                 /* This is no longer an assignment of a CONSTRUCTOR, but
3842                    we still may have processing to do on the LHS.  So
3843                    pretend we didn't do anything here to let that happen.  */
3844                 return GS_UNHANDLED;
3845               }
3846           }
3847
3848         /* If the target is volatile, we have non-zero elements and more than
3849            one field to assign, initialize the target from a temporary.  */
3850         if (TREE_THIS_VOLATILE (object)
3851             && !TREE_ADDRESSABLE (type)
3852             && num_nonzero_elements > 0
3853             && VEC_length (constructor_elt, elts) > 1)
3854           {
3855             tree temp = create_tmp_var (TYPE_MAIN_VARIANT (type), NULL);
3856             TREE_OPERAND (*expr_p, 0) = temp;
3857             *expr_p = build2 (COMPOUND_EXPR, TREE_TYPE (*expr_p),
3858                               *expr_p,
3859                               build2 (MODIFY_EXPR, void_type_node,
3860                                       object, temp));
3861             return GS_OK;
3862           }
3863
3864         if (notify_temp_creation)
3865           return GS_OK;
3866
3867         /* If there are nonzero elements and if needed, pre-evaluate to capture
3868            elements overlapping with the lhs into temporaries.  We must do this
3869            before clearing to fetch the values before they are zeroed-out.  */
3870         if (num_nonzero_elements > 0 && TREE_CODE (*expr_p) != INIT_EXPR)
3871           {
3872             preeval_data.lhs_base_decl = get_base_address (object);
3873             if (!DECL_P (preeval_data.lhs_base_decl))
3874               preeval_data.lhs_base_decl = NULL;
3875             preeval_data.lhs_alias_set = get_alias_set (object);
3876
3877             gimplify_init_ctor_preeval (&TREE_OPERAND (*expr_p, 1),
3878                                         pre_p, post_p, &preeval_data);
3879           }
3880
3881         if (cleared)
3882           {
3883             /* Zap the CONSTRUCTOR element list, which simplifies this case.
3884                Note that we still have to gimplify, in order to handle the
3885                case of variable sized types.  Avoid shared tree structures.  */
3886             CONSTRUCTOR_ELTS (ctor) = NULL;
3887             TREE_SIDE_EFFECTS (ctor) = 0;
3888             object = unshare_expr (object);
3889             gimplify_stmt (expr_p, pre_p);
3890           }
3891
3892         /* If we have not block cleared the object, or if there are nonzero
3893            elements in the constructor, add assignments to the individual
3894            scalar fields of the object.  */
3895         if (!cleared || num_nonzero_elements > 0)
3896           gimplify_init_ctor_eval (object, elts, pre_p, cleared);
3897
3898         *expr_p = NULL_TREE;
3899       }
3900       break;
3901
3902     case COMPLEX_TYPE:
3903       {
3904         tree r, i;
3905
3906         if (notify_temp_creation)
3907           return GS_OK;
3908
3909         /* Extract the real and imaginary parts out of the ctor.  */
3910         gcc_assert (VEC_length (constructor_elt, elts) == 2);
3911         r = VEC_index (constructor_elt, elts, 0)->value;
3912         i = VEC_index (constructor_elt, elts, 1)->value;
3913         if (r == NULL || i == NULL)
3914           {
3915             tree zero = build_zero_cst (TREE_TYPE (type));
3916             if (r == NULL)
3917               r = zero;
3918             if (i == NULL)
3919               i = zero;
3920           }
3921
3922         /* Complex types have either COMPLEX_CST or COMPLEX_EXPR to
3923            represent creation of a complex value.  */
3924         if (TREE_CONSTANT (r) && TREE_CONSTANT (i))
3925           {
3926             ctor = build_complex (type, r, i);
3927             TREE_OPERAND (*expr_p, 1) = ctor;
3928           }
3929         else
3930           {
3931             ctor = build2 (COMPLEX_EXPR, type, r, i);
3932             TREE_OPERAND (*expr_p, 1) = ctor;
3933             ret = gimplify_expr (&TREE_OPERAND (*expr_p, 1),
3934                                  pre_p,
3935                                  post_p,
3936                                  rhs_predicate_for (TREE_OPERAND (*expr_p, 0)),
3937                                  fb_rvalue);
3938           }
3939       }
3940       break;
3941
3942     case VECTOR_TYPE:
3943       {
3944         unsigned HOST_WIDE_INT ix;
3945         constructor_elt *ce;
3946
3947         if (notify_temp_creation)
3948           return GS_OK;
3949
3950         /* Go ahead and simplify constant constructors to VECTOR_CST.  */
3951         if (TREE_CONSTANT (ctor))
3952           {
3953             bool constant_p = true;
3954             tree value;
3955
3956             /* Even when ctor is constant, it might contain non-*_CST
3957                elements, such as addresses or trapping values like
3958                1.0/0.0 - 1.0/0.0.  Such expressions don't belong
3959                in VECTOR_CST nodes.  */
3960             FOR_EACH_CONSTRUCTOR_VALUE (elts, ix, value)
3961               if (!CONSTANT_CLASS_P (value))
3962                 {
3963                   constant_p = false;
3964                   break;
3965                 }
3966
3967             if (constant_p)
3968               {
3969                 TREE_OPERAND (*expr_p, 1) = build_vector_from_ctor (type, elts);
3970                 break;
3971               }
3972
3973             /* Don't reduce an initializer constant even if we can't
3974                make a VECTOR_CST.  It won't do anything for us, and it'll
3975                prevent us from representing it as a single constant.  */
3976             if (initializer_constant_valid_p (ctor, type))
3977               break;
3978
3979             TREE_CONSTANT (ctor) = 0;
3980           }
3981
3982         /* Vector types use CONSTRUCTOR all the way through gimple
3983           compilation as a general initializer.  */
3984         FOR_EACH_VEC_ELT (constructor_elt, elts, ix, ce)
3985           {
3986             enum gimplify_status tret;
3987             tret = gimplify_expr (&ce->value, pre_p, post_p, is_gimple_val,
3988                                   fb_rvalue);
3989             if (tret == GS_ERROR)
3990               ret = GS_ERROR;
3991           }
3992         if (!is_gimple_reg (TREE_OPERAND (*expr_p, 0)))
3993           TREE_OPERAND (*expr_p, 1) = get_formal_tmp_var (ctor, pre_p);
3994       }
3995       break;
3996
3997     default:
3998       /* So how did we get a CONSTRUCTOR for a scalar type?  */
3999       gcc_unreachable ();
4000     }
4001
4002   if (ret == GS_ERROR)
4003     return GS_ERROR;
4004   else if (want_value)
4005     {
4006       *expr_p = object;
4007       return GS_OK;
4008     }
4009   else
4010     {
4011       /* If we have gimplified both sides of the initializer but have
4012          not emitted an assignment, do so now.  */
4013       if (*expr_p)
4014         {
4015           tree lhs = TREE_OPERAND (*expr_p, 0);
4016           tree rhs = TREE_OPERAND (*expr_p, 1);
4017           gimple init = gimple_build_assign (lhs, rhs);
4018           gimplify_seq_add_stmt (pre_p, init);
4019           *expr_p = NULL;
4020         }
4021
4022       return GS_ALL_DONE;
4023     }
4024 }
4025
4026 /* Given a pointer value OP0, return a simplified version of an
4027    indirection through OP0, or NULL_TREE if no simplification is
4028    possible.  Note that the resulting type may be different from
4029    the type pointed to in the sense that it is still compatible
4030    from the langhooks point of view. */
4031
4032 tree
4033 gimple_fold_indirect_ref (tree t)
4034 {
4035   tree ptype = TREE_TYPE (t), type = TREE_TYPE (ptype);
4036   tree sub = t;
4037   tree subtype;
4038
4039   STRIP_NOPS (sub);
4040   subtype = TREE_TYPE (sub);
4041   if (!POINTER_TYPE_P (subtype))
4042     return NULL_TREE;
4043
4044   if (TREE_CODE (sub) == ADDR_EXPR)
4045     {
4046       tree op = TREE_OPERAND (sub, 0);
4047       tree optype = TREE_TYPE (op);
4048       /* *&p => p */
4049       if (useless_type_conversion_p (type, optype))
4050         return op;
4051
4052       /* *(foo *)&fooarray => fooarray[0] */
4053       if (TREE_CODE (optype) == ARRAY_TYPE
4054           && TREE_CODE (TYPE_SIZE (TREE_TYPE (optype))) == INTEGER_CST
4055           && useless_type_conversion_p (type, TREE_TYPE (optype)))
4056        {
4057          tree type_domain = TYPE_DOMAIN (optype);
4058          tree min_val = size_zero_node;
4059          if (type_domain && TYPE_MIN_VALUE (type_domain))
4060            min_val = TYPE_MIN_VALUE (type_domain);
4061          if (TREE_CODE (min_val) == INTEGER_CST)
4062            return build4 (ARRAY_REF, type, op, min_val, NULL_TREE, NULL_TREE);
4063        }
4064       /* *(foo *)&complexfoo => __real__ complexfoo */
4065       else if (TREE_CODE (optype) == COMPLEX_TYPE
4066                && useless_type_conversion_p (type, TREE_TYPE (optype)))
4067         return fold_build1 (REALPART_EXPR, type, op);
4068       /* *(foo *)&vectorfoo => BIT_FIELD_REF<vectorfoo,...> */
4069       else if (TREE_CODE (optype) == VECTOR_TYPE
4070                && useless_type_conversion_p (type, TREE_TYPE (optype)))
4071         {
4072           tree part_width = TYPE_SIZE (type);
4073           tree index = bitsize_int (0);
4074           return fold_build3 (BIT_FIELD_REF, type, op, part_width, index);
4075         }
4076     }
4077
4078   /* *(p + CST) -> ...  */
4079   if (TREE_CODE (sub) == POINTER_PLUS_EXPR
4080       && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
4081     {
4082       tree addr = TREE_OPERAND (sub, 0);
4083       tree off = TREE_OPERAND (sub, 1);
4084       tree addrtype;
4085
4086       STRIP_NOPS (addr);
4087       addrtype = TREE_TYPE (addr);
4088
4089       /* ((foo*)&vectorfoo)[1] -> BIT_FIELD_REF<vectorfoo,...> */
4090       if (TREE_CODE (addr) == ADDR_EXPR
4091           && TREE_CODE (TREE_TYPE (addrtype)) == VECTOR_TYPE
4092           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (addrtype)))
4093           && host_integerp (off, 1))
4094         {
4095           unsigned HOST_WIDE_INT offset = tree_low_cst (off, 1);
4096           tree part_width = TYPE_SIZE (type);
4097           unsigned HOST_WIDE_INT part_widthi
4098             = tree_low_cst (part_width, 0) / BITS_PER_UNIT;
4099           unsigned HOST_WIDE_INT indexi = offset * BITS_PER_UNIT;
4100           tree index = bitsize_int (indexi);
4101           if (offset / part_widthi
4102               <= TYPE_VECTOR_SUBPARTS (TREE_TYPE (addrtype)))
4103             return fold_build3 (BIT_FIELD_REF, type, TREE_OPERAND (addr, 0),
4104                                 part_width, index);
4105         }
4106
4107       /* ((foo*)&complexfoo)[1] -> __imag__ complexfoo */
4108       if (TREE_CODE (addr) == ADDR_EXPR
4109           && TREE_CODE (TREE_TYPE (addrtype)) == COMPLEX_TYPE
4110           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (addrtype))))
4111         {
4112           tree size = TYPE_SIZE_UNIT (type);
4113           if (tree_int_cst_equal (size, off))
4114             return fold_build1 (IMAGPART_EXPR, type, TREE_OPERAND (addr, 0));
4115         }
4116
4117       /* *(p + CST) -> MEM_REF <p, CST>.  */
4118       if (TREE_CODE (addr) != ADDR_EXPR
4119           || DECL_P (TREE_OPERAND (addr, 0)))
4120         return fold_build2 (MEM_REF, type,
4121                             addr,
4122                             build_int_cst_wide (ptype,
4123                                                 TREE_INT_CST_LOW (off),
4124                                                 TREE_INT_CST_HIGH (off)));
4125     }
4126
4127   /* *(foo *)fooarrptr => (*fooarrptr)[0] */
4128   if (TREE_CODE (TREE_TYPE (subtype)) == ARRAY_TYPE
4129       && TREE_CODE (TYPE_SIZE (TREE_TYPE (TREE_TYPE (subtype)))) == INTEGER_CST
4130       && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (subtype))))
4131     {
4132       tree type_domain;
4133       tree min_val = size_zero_node;
4134       tree osub = sub;
4135       sub = gimple_fold_indirect_ref (sub);
4136       if (! sub)
4137         sub = build1 (INDIRECT_REF, TREE_TYPE (subtype), osub);
4138       type_domain = TYPE_DOMAIN (TREE_TYPE (sub));
4139       if (type_domain && TYPE_MIN_VALUE (type_domain))
4140         min_val = TYPE_MIN_VALUE (type_domain);
4141       if (TREE_CODE (min_val) == INTEGER_CST)
4142         return build4 (ARRAY_REF, type, sub, min_val, NULL_TREE, NULL_TREE);
4143     }
4144
4145   return NULL_TREE;
4146 }
4147
4148 /* Given a pointer value OP0, return a simplified version of an
4149    indirection through OP0, or NULL_TREE if no simplification is
4150    possible.  This may only be applied to a rhs of an expression.
4151    Note that the resulting type may be different from the type pointed
4152    to in the sense that it is still compatible from the langhooks
4153    point of view. */
4154
4155 static tree
4156 gimple_fold_indirect_ref_rhs (tree t)
4157 {
4158   return gimple_fold_indirect_ref (t);
4159 }
4160
4161 /* Subroutine of gimplify_modify_expr to do simplifications of
4162    MODIFY_EXPRs based on the code of the RHS.  We loop for as long as
4163    something changes.  */
4164
4165 static enum gimplify_status
4166 gimplify_modify_expr_rhs (tree *expr_p, tree *from_p, tree *to_p,
4167                           gimple_seq *pre_p, gimple_seq *post_p,
4168                           bool want_value)
4169 {
4170   enum gimplify_status ret = GS_UNHANDLED;
4171   bool changed;
4172
4173   do
4174     {
4175       changed = false;
4176       switch (TREE_CODE (*from_p))
4177         {
4178         case VAR_DECL:
4179           /* If we're assigning from a read-only variable initialized with
4180              a constructor, do the direct assignment from the constructor,
4181              but only if neither source nor target are volatile since this
4182              latter assignment might end up being done on a per-field basis.  */
4183           if (DECL_INITIAL (*from_p)
4184               && TREE_READONLY (*from_p)
4185               && !TREE_THIS_VOLATILE (*from_p)
4186               && !TREE_THIS_VOLATILE (*to_p)
4187               && TREE_CODE (DECL_INITIAL (*from_p)) == CONSTRUCTOR)
4188             {
4189               tree old_from = *from_p;
4190               enum gimplify_status subret;
4191
4192               /* Move the constructor into the RHS.  */
4193               *from_p = unshare_expr (DECL_INITIAL (*from_p));
4194
4195               /* Let's see if gimplify_init_constructor will need to put
4196                  it in memory.  */
4197               subret = gimplify_init_constructor (expr_p, NULL, NULL,
4198                                                   false, true);
4199               if (subret == GS_ERROR)
4200                 {
4201                   /* If so, revert the change.  */
4202                   *from_p = old_from;
4203                 }
4204               else
4205                 {
4206                   ret = GS_OK;
4207                   changed = true;
4208                 }
4209             }
4210           break;
4211         case INDIRECT_REF:
4212           {
4213             /* If we have code like
4214
4215              *(const A*)(A*)&x
4216
4217              where the type of "x" is a (possibly cv-qualified variant
4218              of "A"), treat the entire expression as identical to "x".
4219              This kind of code arises in C++ when an object is bound
4220              to a const reference, and if "x" is a TARGET_EXPR we want
4221              to take advantage of the optimization below.  */
4222             bool volatile_p = TREE_THIS_VOLATILE (*from_p);
4223             tree t = gimple_fold_indirect_ref_rhs (TREE_OPERAND (*from_p, 0));
4224             if (t)
4225               {
4226                 if (TREE_THIS_VOLATILE (t) != volatile_p)
4227                   {
4228                     if (TREE_CODE_CLASS (TREE_CODE (t)) == tcc_declaration)
4229                       t = build_simple_mem_ref_loc (EXPR_LOCATION (*from_p),
4230                                                     build_fold_addr_expr (t));
4231                     if (REFERENCE_CLASS_P (t))
4232                       TREE_THIS_VOLATILE (t) = volatile_p;
4233                   }
4234                 *from_p = t;
4235                 ret = GS_OK;
4236                 changed = true;
4237               }
4238             break;
4239           }
4240
4241         case TARGET_EXPR:
4242           {
4243             /* If we are initializing something from a TARGET_EXPR, strip the
4244                TARGET_EXPR and initialize it directly, if possible.  This can't
4245                be done if the initializer is void, since that implies that the
4246                temporary is set in some non-trivial way.
4247
4248                ??? What about code that pulls out the temp and uses it
4249                elsewhere? I think that such code never uses the TARGET_EXPR as
4250                an initializer.  If I'm wrong, we'll die because the temp won't
4251                have any RTL.  In that case, I guess we'll need to replace
4252                references somehow.  */
4253             tree init = TARGET_EXPR_INITIAL (*from_p);
4254
4255             if (init
4256                 && !VOID_TYPE_P (TREE_TYPE (init)))
4257               {
4258                 *from_p = init;
4259                 ret = GS_OK;
4260                 changed = true;
4261               }
4262           }
4263           break;
4264
4265         case COMPOUND_EXPR:
4266           /* Remove any COMPOUND_EXPR in the RHS so the following cases will be
4267              caught.  */
4268           gimplify_compound_expr (from_p, pre_p, true);
4269           ret = GS_OK;
4270           changed = true;
4271           break;
4272
4273         case CONSTRUCTOR:
4274           /* If we already made some changes, let the front end have a
4275              crack at this before we break it down.  */
4276           if (ret != GS_UNHANDLED)
4277             break;
4278           /* If we're initializing from a CONSTRUCTOR, break this into
4279              individual MODIFY_EXPRs.  */
4280           return gimplify_init_constructor (expr_p, pre_p, post_p, want_value,
4281                                             false);
4282
4283         case COND_EXPR:
4284           /* If we're assigning to a non-register type, push the assignment
4285              down into the branches.  This is mandatory for ADDRESSABLE types,
4286              since we cannot generate temporaries for such, but it saves a
4287              copy in other cases as well.  */
4288           if (!is_gimple_reg_type (TREE_TYPE (*from_p)))
4289             {
4290               /* This code should mirror the code in gimplify_cond_expr. */
4291               enum tree_code code = TREE_CODE (*expr_p);
4292               tree cond = *from_p;
4293               tree result = *to_p;
4294
4295               ret = gimplify_expr (&result, pre_p, post_p,
4296                                    is_gimple_lvalue, fb_lvalue);
4297               if (ret != GS_ERROR)
4298                 ret = GS_OK;
4299
4300               if (TREE_TYPE (TREE_OPERAND (cond, 1)) != void_type_node)
4301                 TREE_OPERAND (cond, 1)
4302                   = build2 (code, void_type_node, result,
4303                             TREE_OPERAND (cond, 1));
4304               if (TREE_TYPE (TREE_OPERAND (cond, 2)) != void_type_node)
4305                 TREE_OPERAND (cond, 2)
4306                   = build2 (code, void_type_node, unshare_expr (result),
4307                             TREE_OPERAND (cond, 2));
4308
4309               TREE_TYPE (cond) = void_type_node;
4310               recalculate_side_effects (cond);
4311
4312               if (want_value)
4313                 {
4314                   gimplify_and_add (cond, pre_p);
4315                   *expr_p = unshare_expr (result);
4316                 }
4317               else
4318                 *expr_p = cond;
4319               return ret;
4320             }
4321           break;
4322
4323         case CALL_EXPR:
4324           /* For calls that return in memory, give *to_p as the CALL_EXPR's
4325              return slot so that we don't generate a temporary.  */
4326           if (!CALL_EXPR_RETURN_SLOT_OPT (*from_p)
4327               && aggregate_value_p (*from_p, *from_p))
4328             {
4329               bool use_target;
4330
4331               if (!(rhs_predicate_for (*to_p))(*from_p))
4332                 /* If we need a temporary, *to_p isn't accurate.  */
4333                 use_target = false;
4334               /* It's OK to use the return slot directly unless it's an NRV. */
4335               else if (TREE_CODE (*to_p) == RESULT_DECL
4336                        && DECL_NAME (*to_p) == NULL_TREE
4337                        && needs_to_live_in_memory (*to_p))
4338                 use_target = true;
4339               else if (is_gimple_reg_type (TREE_TYPE (*to_p))
4340                        || (DECL_P (*to_p) && DECL_REGISTER (*to_p)))
4341                 /* Don't force regs into memory.  */
4342                 use_target = false;
4343               else if (TREE_CODE (*expr_p) == INIT_EXPR)
4344                 /* It's OK to use the target directly if it's being
4345                    initialized. */
4346                 use_target = true;
4347               else if (!is_gimple_non_addressable (*to_p))
4348                 /* Don't use the original target if it's already addressable;
4349                    if its address escapes, and the called function uses the
4350                    NRV optimization, a conforming program could see *to_p
4351                    change before the called function returns; see c++/19317.
4352                    When optimizing, the return_slot pass marks more functions
4353                    as safe after we have escape info.  */
4354                 use_target = false;
4355               else
4356                 use_target = true;
4357
4358               if (use_target)
4359                 {
4360                   CALL_EXPR_RETURN_SLOT_OPT (*from_p) = 1;
4361                   mark_addressable (*to_p);
4362                 }
4363             }
4364           break;
4365
4366         case WITH_SIZE_EXPR:
4367           /* Likewise for calls that return an aggregate of non-constant size,
4368              since we would not be able to generate a temporary at all.  */
4369           if (TREE_CODE (TREE_OPERAND (*from_p, 0)) == CALL_EXPR)
4370             {
4371               *from_p = TREE_OPERAND (*from_p, 0);
4372               /* We don't change ret in this case because the
4373                  WITH_SIZE_EXPR might have been added in
4374                  gimplify_modify_expr, so returning GS_OK would lead to an
4375                  infinite loop.  */
4376               changed = true;
4377             }
4378           break;
4379
4380           /* If we're initializing from a container, push the initialization
4381              inside it.  */
4382         case CLEANUP_POINT_EXPR:
4383         case BIND_EXPR:
4384         case STATEMENT_LIST:
4385           {
4386             tree wrap = *from_p;
4387             tree t;
4388
4389             ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_min_lval,
4390                                  fb_lvalue);
4391             if (ret != GS_ERROR)
4392               ret = GS_OK;
4393
4394             t = voidify_wrapper_expr (wrap, *expr_p);
4395             gcc_assert (t == *expr_p);
4396
4397             if (want_value)
4398               {
4399                 gimplify_and_add (wrap, pre_p);
4400                 *expr_p = unshare_expr (*to_p);
4401               }
4402             else
4403               *expr_p = wrap;
4404             return GS_OK;
4405           }
4406
4407         case COMPOUND_LITERAL_EXPR:
4408           {
4409             tree complit = TREE_OPERAND (*expr_p, 1);
4410             tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (complit);
4411             tree decl = DECL_EXPR_DECL (decl_s);
4412             tree init = DECL_INITIAL (decl);
4413
4414             /* struct T x = (struct T) { 0, 1, 2 } can be optimized
4415                into struct T x = { 0, 1, 2 } if the address of the
4416                compound literal has never been taken.  */
4417             if (!TREE_ADDRESSABLE (complit)
4418                 && !TREE_ADDRESSABLE (decl)
4419                 && init)
4420               {
4421                 *expr_p = copy_node (*expr_p);
4422                 TREE_OPERAND (*expr_p, 1) = init;
4423                 return GS_OK;
4424               }
4425           }
4426
4427         default:
4428           break;
4429         }
4430     }
4431   while (changed);
4432
4433   return ret;
4434 }
4435
4436 /* Promote partial stores to COMPLEX variables to total stores.  *EXPR_P is
4437    a MODIFY_EXPR with a lhs of a REAL/IMAGPART_EXPR of a variable with
4438    DECL_GIMPLE_REG_P set.
4439
4440    IMPORTANT NOTE: This promotion is performed by introducing a load of the
4441    other, unmodified part of the complex object just before the total store.
4442    As a consequence, if the object is still uninitialized, an undefined value
4443    will be loaded into a register, which may result in a spurious exception
4444    if the register is floating-point and the value happens to be a signaling
4445    NaN for example.  Then the fully-fledged complex operations lowering pass
4446    followed by a DCE pass are necessary in order to fix things up.  */
4447
4448 static enum gimplify_status
4449 gimplify_modify_expr_complex_part (tree *expr_p, gimple_seq *pre_p,
4450                                    bool want_value)
4451 {
4452   enum tree_code code, ocode;
4453   tree lhs, rhs, new_rhs, other, realpart, imagpart;
4454
4455   lhs = TREE_OPERAND (*expr_p, 0);
4456   rhs = TREE_OPERAND (*expr_p, 1);
4457   code = TREE_CODE (lhs);
4458   lhs = TREE_OPERAND (lhs, 0);
4459
4460   ocode = code == REALPART_EXPR ? IMAGPART_EXPR : REALPART_EXPR;
4461   other = build1 (ocode, TREE_TYPE (rhs), lhs);
4462   other = get_formal_tmp_var (other, pre_p);
4463
4464   realpart = code == REALPART_EXPR ? rhs : other;
4465   imagpart = code == REALPART_EXPR ? other : rhs;
4466
4467   if (TREE_CONSTANT (realpart) && TREE_CONSTANT (imagpart))
4468     new_rhs = build_complex (TREE_TYPE (lhs), realpart, imagpart);
4469   else
4470     new_rhs = build2 (COMPLEX_EXPR, TREE_TYPE (lhs), realpart, imagpart);
4471
4472   gimplify_seq_add_stmt (pre_p, gimple_build_assign (lhs, new_rhs));
4473   *expr_p = (want_value) ? rhs : NULL_TREE;
4474
4475   return GS_ALL_DONE;
4476 }
4477
4478 /* Gimplify the MODIFY_EXPR node pointed to by EXPR_P.
4479
4480       modify_expr
4481               : varname '=' rhs
4482               | '*' ID '=' rhs
4483
4484     PRE_P points to the list where side effects that must happen before
4485         *EXPR_P should be stored.
4486
4487     POST_P points to the list where side effects that must happen after
4488         *EXPR_P should be stored.
4489
4490     WANT_VALUE is nonzero iff we want to use the value of this expression
4491         in another expression.  */
4492
4493 static enum gimplify_status
4494 gimplify_modify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
4495                       bool want_value)
4496 {
4497   tree *from_p = &TREE_OPERAND (*expr_p, 1);
4498   tree *to_p = &TREE_OPERAND (*expr_p, 0);
4499   enum gimplify_status ret = GS_UNHANDLED;
4500   gimple assign;
4501   location_t loc = EXPR_LOCATION (*expr_p);
4502
4503   gcc_assert (TREE_CODE (*expr_p) == MODIFY_EXPR
4504               || TREE_CODE (*expr_p) == INIT_EXPR);
4505
4506   /* Insert pointer conversions required by the middle-end that are not
4507      required by the frontend.  This fixes middle-end type checking for
4508      for example gcc.dg/redecl-6.c.  */
4509   if (POINTER_TYPE_P (TREE_TYPE (*to_p)))
4510     {
4511       STRIP_USELESS_TYPE_CONVERSION (*from_p);
4512       if (!useless_type_conversion_p (TREE_TYPE (*to_p), TREE_TYPE (*from_p)))
4513         *from_p = fold_convert_loc (loc, TREE_TYPE (*to_p), *from_p);
4514     }
4515
4516   /* See if any simplifications can be done based on what the RHS is.  */
4517   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4518                                   want_value);
4519   if (ret != GS_UNHANDLED)
4520     return ret;
4521
4522   /* For zero sized types only gimplify the left hand side and right hand
4523      side as statements and throw away the assignment.  Do this after
4524      gimplify_modify_expr_rhs so we handle TARGET_EXPRs of addressable
4525      types properly.  */
4526   if (zero_sized_type (TREE_TYPE (*from_p)) && !want_value)
4527     {
4528       gimplify_stmt (from_p, pre_p);
4529       gimplify_stmt (to_p, pre_p);
4530       *expr_p = NULL_TREE;
4531       return GS_ALL_DONE;
4532     }
4533
4534   /* If the value being copied is of variable width, compute the length
4535      of the copy into a WITH_SIZE_EXPR.   Note that we need to do this
4536      before gimplifying any of the operands so that we can resolve any
4537      PLACEHOLDER_EXPRs in the size.  Also note that the RTL expander uses
4538      the size of the expression to be copied, not of the destination, so
4539      that is what we must do here.  */
4540   maybe_with_size_expr (from_p);
4541
4542   ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
4543   if (ret == GS_ERROR)
4544     return ret;
4545
4546   /* As a special case, we have to temporarily allow for assignments
4547      with a CALL_EXPR on the RHS.  Since in GIMPLE a function call is
4548      a toplevel statement, when gimplifying the GENERIC expression
4549      MODIFY_EXPR <a, CALL_EXPR <foo>>, we cannot create the tuple
4550      GIMPLE_ASSIGN <a, GIMPLE_CALL <foo>>.
4551
4552      Instead, we need to create the tuple GIMPLE_CALL <a, foo>.  To
4553      prevent gimplify_expr from trying to create a new temporary for
4554      foo's LHS, we tell it that it should only gimplify until it
4555      reaches the CALL_EXPR.  On return from gimplify_expr, the newly
4556      created GIMPLE_CALL <foo> will be the last statement in *PRE_P
4557      and all we need to do here is set 'a' to be its LHS.  */
4558   ret = gimplify_expr (from_p, pre_p, post_p, rhs_predicate_for (*to_p),
4559                        fb_rvalue);
4560   if (ret == GS_ERROR)
4561     return ret;
4562
4563   /* Now see if the above changed *from_p to something we handle specially.  */
4564   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4565                                   want_value);
4566   if (ret != GS_UNHANDLED)
4567     return ret;
4568
4569   /* If we've got a variable sized assignment between two lvalues (i.e. does
4570      not involve a call), then we can make things a bit more straightforward
4571      by converting the assignment to memcpy or memset.  */
4572   if (TREE_CODE (*from_p) == WITH_SIZE_EXPR)
4573     {
4574       tree from = TREE_OPERAND (*from_p, 0);
4575       tree size = TREE_OPERAND (*from_p, 1);
4576
4577       if (TREE_CODE (from) == CONSTRUCTOR)
4578         return gimplify_modify_expr_to_memset (expr_p, size, want_value, pre_p);
4579
4580       if (is_gimple_addressable (from))
4581         {
4582           *from_p = from;
4583           return gimplify_modify_expr_to_memcpy (expr_p, size, want_value,
4584                                                  pre_p);
4585         }
4586     }
4587
4588   /* Transform partial stores to non-addressable complex variables into
4589      total stores.  This allows us to use real instead of virtual operands
4590      for these variables, which improves optimization.  */
4591   if ((TREE_CODE (*to_p) == REALPART_EXPR
4592        || TREE_CODE (*to_p) == IMAGPART_EXPR)
4593       && is_gimple_reg (TREE_OPERAND (*to_p, 0)))
4594     return gimplify_modify_expr_complex_part (expr_p, pre_p, want_value);
4595
4596   /* Try to alleviate the effects of the gimplification creating artificial
4597      temporaries (see for example is_gimple_reg_rhs) on the debug info.  */
4598   if (!gimplify_ctxp->into_ssa
4599       && TREE_CODE (*from_p) == VAR_DECL
4600       && DECL_IGNORED_P (*from_p)
4601       && DECL_P (*to_p)
4602       && !DECL_IGNORED_P (*to_p))
4603     {
4604       if (!DECL_NAME (*from_p) && DECL_NAME (*to_p))
4605         DECL_NAME (*from_p)
4606           = create_tmp_var_name (IDENTIFIER_POINTER (DECL_NAME (*to_p)));
4607       DECL_DEBUG_EXPR_IS_FROM (*from_p) = 1;
4608       SET_DECL_DEBUG_EXPR (*from_p, *to_p);
4609    }
4610
4611   if (want_value && TREE_THIS_VOLATILE (*to_p))
4612     *from_p = get_initialized_tmp_var (*from_p, pre_p, post_p);
4613
4614   if (TREE_CODE (*from_p) == CALL_EXPR)
4615     {
4616       /* Since the RHS is a CALL_EXPR, we need to create a GIMPLE_CALL
4617          instead of a GIMPLE_ASSIGN.  */
4618       tree fnptrtype = TREE_TYPE (CALL_EXPR_FN (*from_p));
4619       CALL_EXPR_FN (*from_p) = TREE_OPERAND (CALL_EXPR_FN (*from_p), 0);
4620       STRIP_USELESS_TYPE_CONVERSION (CALL_EXPR_FN (*from_p));
4621       assign = gimple_build_call_from_tree (*from_p);
4622       gimple_call_set_fntype (assign, TREE_TYPE (fnptrtype));
4623       if (!gimple_call_noreturn_p (assign))
4624         gimple_call_set_lhs (assign, *to_p);
4625     }
4626   else
4627     {
4628       assign = gimple_build_assign (*to_p, *from_p);
4629       gimple_set_location (assign, EXPR_LOCATION (*expr_p));
4630     }
4631
4632   gimplify_seq_add_stmt (pre_p, assign);
4633
4634   if (gimplify_ctxp->into_ssa && is_gimple_reg (*to_p))
4635     {
4636       /* If we've somehow already got an SSA_NAME on the LHS, then
4637          we've probably modified it twice.  Not good.  */
4638       gcc_assert (TREE_CODE (*to_p) != SSA_NAME);
4639       *to_p = make_ssa_name (*to_p, assign);
4640       gimple_set_lhs (assign, *to_p);
4641     }
4642
4643   if (want_value)
4644     {
4645       *expr_p = TREE_THIS_VOLATILE (*to_p) ? *from_p : unshare_expr (*to_p);
4646       return GS_OK;
4647     }
4648   else
4649     *expr_p = NULL;
4650
4651   return GS_ALL_DONE;
4652 }
4653
4654 /* Gimplify a comparison between two variable-sized objects.  Do this
4655    with a call to BUILT_IN_MEMCMP.  */
4656
4657 static enum gimplify_status
4658 gimplify_variable_sized_compare (tree *expr_p)
4659 {
4660   location_t loc = EXPR_LOCATION (*expr_p);
4661   tree op0 = TREE_OPERAND (*expr_p, 0);
4662   tree op1 = TREE_OPERAND (*expr_p, 1);
4663   tree t, arg, dest, src, expr;
4664
4665   arg = TYPE_SIZE_UNIT (TREE_TYPE (op0));
4666   arg = unshare_expr (arg);
4667   arg = SUBSTITUTE_PLACEHOLDER_IN_EXPR (arg, op0);
4668   src = build_fold_addr_expr_loc (loc, op1);
4669   dest = build_fold_addr_expr_loc (loc, op0);
4670   t = implicit_built_in_decls[BUILT_IN_MEMCMP];
4671   t = build_call_expr_loc (loc, t, 3, dest, src, arg);
4672
4673   expr
4674     = build2 (TREE_CODE (*expr_p), TREE_TYPE (*expr_p), t, integer_zero_node);
4675   SET_EXPR_LOCATION (expr, loc);
4676   *expr_p = expr;
4677
4678   return GS_OK;
4679 }
4680
4681 /* Gimplify a comparison between two aggregate objects of integral scalar
4682    mode as a comparison between the bitwise equivalent scalar values.  */
4683
4684 static enum gimplify_status
4685 gimplify_scalar_mode_aggregate_compare (tree *expr_p)
4686 {
4687   location_t loc = EXPR_LOCATION (*expr_p);
4688   tree op0 = TREE_OPERAND (*expr_p, 0);
4689   tree op1 = TREE_OPERAND (*expr_p, 1);
4690
4691   tree type = TREE_TYPE (op0);
4692   tree scalar_type = lang_hooks.types.type_for_mode (TYPE_MODE (type), 1);
4693
4694   op0 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op0);
4695   op1 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op1);
4696
4697   *expr_p
4698     = fold_build2_loc (loc, TREE_CODE (*expr_p), TREE_TYPE (*expr_p), op0, op1);
4699
4700   return GS_OK;
4701 }
4702
4703 /* Gimplify TRUTH_ANDIF_EXPR and TRUTH_ORIF_EXPR expressions.  EXPR_P
4704    points to the expression to gimplify.
4705
4706    Expressions of the form 'a && b' are gimplified to:
4707
4708         a && b ? true : false
4709
4710    LOCUS is the source location to be put on the generated COND_EXPR.
4711    gimplify_cond_expr will do the rest.  */
4712
4713 static enum gimplify_status
4714 gimplify_boolean_expr (tree *expr_p, location_t locus)
4715 {
4716   /* Preserve the original type of the expression.  */
4717   tree type = TREE_TYPE (*expr_p);
4718
4719   *expr_p = build3 (COND_EXPR, type, *expr_p,
4720                     fold_convert_loc (locus, type, boolean_true_node),
4721                     fold_convert_loc (locus, type, boolean_false_node));
4722
4723   SET_EXPR_LOCATION (*expr_p, locus);
4724
4725   return GS_OK;
4726 }
4727
4728 /* Gimplify an expression sequence.  This function gimplifies each
4729    expression and rewrites the original expression with the last
4730    expression of the sequence in GIMPLE form.
4731
4732    PRE_P points to the list where the side effects for all the
4733        expressions in the sequence will be emitted.
4734
4735    WANT_VALUE is true when the result of the last COMPOUND_EXPR is used.  */
4736
4737 static enum gimplify_status
4738 gimplify_compound_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
4739 {
4740   tree t = *expr_p;
4741
4742   do
4743     {
4744       tree *sub_p = &TREE_OPERAND (t, 0);
4745
4746       if (TREE_CODE (*sub_p) == COMPOUND_EXPR)
4747         gimplify_compound_expr (sub_p, pre_p, false);
4748       else
4749         gimplify_stmt (sub_p, pre_p);
4750
4751       t = TREE_OPERAND (t, 1);
4752     }
4753   while (TREE_CODE (t) == COMPOUND_EXPR);
4754
4755   *expr_p = t;
4756   if (want_value)
4757     return GS_OK;
4758   else
4759     {
4760       gimplify_stmt (expr_p, pre_p);
4761       return GS_ALL_DONE;
4762     }
4763 }
4764
4765 /* Gimplify a SAVE_EXPR node.  EXPR_P points to the expression to
4766    gimplify.  After gimplification, EXPR_P will point to a new temporary
4767    that holds the original value of the SAVE_EXPR node.
4768
4769    PRE_P points to the list where side effects that must happen before
4770    *EXPR_P should be stored.  */
4771
4772 static enum gimplify_status
4773 gimplify_save_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4774 {
4775   enum gimplify_status ret = GS_ALL_DONE;
4776   tree val;
4777
4778   gcc_assert (TREE_CODE (*expr_p) == SAVE_EXPR);
4779   val = TREE_OPERAND (*expr_p, 0);
4780
4781   /* If the SAVE_EXPR has not been resolved, then evaluate it once.  */
4782   if (!SAVE_EXPR_RESOLVED_P (*expr_p))
4783     {
4784       /* The operand may be a void-valued expression such as SAVE_EXPRs
4785          generated by the Java frontend for class initialization.  It is
4786          being executed only for its side-effects.  */
4787       if (TREE_TYPE (val) == void_type_node)
4788         {
4789           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
4790                                is_gimple_stmt, fb_none);
4791           val = NULL;
4792         }
4793       else
4794         val = get_initialized_tmp_var (val, pre_p, post_p);
4795
4796       TREE_OPERAND (*expr_p, 0) = val;
4797       SAVE_EXPR_RESOLVED_P (*expr_p) = 1;
4798     }
4799
4800   *expr_p = val;
4801
4802   return ret;
4803 }
4804
4805 /* Rewrite the ADDR_EXPR node pointed to by EXPR_P
4806
4807       unary_expr
4808               : ...
4809               | '&' varname
4810               ...
4811
4812     PRE_P points to the list where side effects that must happen before
4813         *EXPR_P should be stored.
4814
4815     POST_P points to the list where side effects that must happen after
4816         *EXPR_P should be stored.  */
4817
4818 static enum gimplify_status
4819 gimplify_addr_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4820 {
4821   tree expr = *expr_p;
4822   tree op0 = TREE_OPERAND (expr, 0);
4823   enum gimplify_status ret;
4824   location_t loc = EXPR_LOCATION (*expr_p);
4825
4826   switch (TREE_CODE (op0))
4827     {
4828     case INDIRECT_REF:
4829     do_indirect_ref:
4830       /* Check if we are dealing with an expression of the form '&*ptr'.
4831          While the front end folds away '&*ptr' into 'ptr', these
4832          expressions may be generated internally by the compiler (e.g.,
4833          builtins like __builtin_va_end).  */
4834       /* Caution: the silent array decomposition semantics we allow for
4835          ADDR_EXPR means we can't always discard the pair.  */
4836       /* Gimplification of the ADDR_EXPR operand may drop
4837          cv-qualification conversions, so make sure we add them if
4838          needed.  */
4839       {
4840         tree op00 = TREE_OPERAND (op0, 0);
4841         tree t_expr = TREE_TYPE (expr);
4842         tree t_op00 = TREE_TYPE (op00);
4843
4844         if (!useless_type_conversion_p (t_expr, t_op00))
4845           op00 = fold_convert_loc (loc, TREE_TYPE (expr), op00);
4846         *expr_p = op00;
4847         ret = GS_OK;
4848       }
4849       break;
4850
4851     case VIEW_CONVERT_EXPR:
4852       /* Take the address of our operand and then convert it to the type of
4853          this ADDR_EXPR.
4854
4855          ??? The interactions of VIEW_CONVERT_EXPR and aliasing is not at
4856          all clear.  The impact of this transformation is even less clear.  */
4857
4858       /* If the operand is a useless conversion, look through it.  Doing so
4859          guarantees that the ADDR_EXPR and its operand will remain of the
4860          same type.  */
4861       if (tree_ssa_useless_type_conversion (TREE_OPERAND (op0, 0)))
4862         op0 = TREE_OPERAND (op0, 0);
4863
4864       *expr_p = fold_convert_loc (loc, TREE_TYPE (expr),
4865                                   build_fold_addr_expr_loc (loc,
4866                                                         TREE_OPERAND (op0, 0)));
4867       ret = GS_OK;
4868       break;
4869
4870     default:
4871       /* We use fb_either here because the C frontend sometimes takes
4872          the address of a call that returns a struct; see
4873          gcc.dg/c99-array-lval-1.c.  The gimplifier will correctly make
4874          the implied temporary explicit.  */
4875
4876       /* Make the operand addressable.  */
4877       ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, post_p,
4878                            is_gimple_addressable, fb_either);
4879       if (ret == GS_ERROR)
4880         break;
4881
4882       /* Then mark it.  Beware that it may not be possible to do so directly
4883          if a temporary has been created by the gimplification.  */
4884       prepare_gimple_addressable (&TREE_OPERAND (expr, 0), pre_p);
4885
4886       op0 = TREE_OPERAND (expr, 0);
4887
4888       /* For various reasons, the gimplification of the expression
4889          may have made a new INDIRECT_REF.  */
4890       if (TREE_CODE (op0) == INDIRECT_REF)
4891         goto do_indirect_ref;
4892
4893       mark_addressable (TREE_OPERAND (expr, 0));
4894
4895       /* The FEs may end up building ADDR_EXPRs early on a decl with
4896          an incomplete type.  Re-build ADDR_EXPRs in canonical form
4897          here.  */
4898       if (!types_compatible_p (TREE_TYPE (op0), TREE_TYPE (TREE_TYPE (expr))))
4899         *expr_p = build_fold_addr_expr (op0);
4900
4901       /* Make sure TREE_CONSTANT and TREE_SIDE_EFFECTS are set properly.  */
4902       recompute_tree_invariant_for_addr_expr (*expr_p);
4903
4904       /* If we re-built the ADDR_EXPR add a conversion to the original type
4905          if required.  */
4906       if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
4907         *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
4908
4909       break;
4910     }
4911
4912   return ret;
4913 }
4914
4915 /* Gimplify the operands of an ASM_EXPR.  Input operands should be a gimple
4916    value; output operands should be a gimple lvalue.  */
4917
4918 static enum gimplify_status
4919 gimplify_asm_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4920 {
4921   tree expr;
4922   int noutputs;
4923   const char **oconstraints;
4924   int i;
4925   tree link;
4926   const char *constraint;
4927   bool allows_mem, allows_reg, is_inout;
4928   enum gimplify_status ret, tret;
4929   gimple stmt;
4930   VEC(tree, gc) *inputs;
4931   VEC(tree, gc) *outputs;
4932   VEC(tree, gc) *clobbers;
4933   VEC(tree, gc) *labels;
4934   tree link_next;
4935
4936   expr = *expr_p;
4937   noutputs = list_length (ASM_OUTPUTS (expr));
4938   oconstraints = (const char **) alloca ((noutputs) * sizeof (const char *));
4939
4940   inputs = outputs = clobbers = labels = NULL;
4941
4942   ret = GS_ALL_DONE;
4943   link_next = NULL_TREE;
4944   for (i = 0, link = ASM_OUTPUTS (expr); link; ++i, link = link_next)
4945     {
4946       bool ok;
4947       size_t constraint_len;
4948
4949       link_next = TREE_CHAIN (link);
4950
4951       oconstraints[i]
4952         = constraint
4953         = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4954       constraint_len = strlen (constraint);
4955       if (constraint_len == 0)
4956         continue;
4957
4958       ok = parse_output_constraint (&constraint, i, 0, 0,
4959                                     &allows_mem, &allows_reg, &is_inout);
4960       if (!ok)
4961         {
4962           ret = GS_ERROR;
4963           is_inout = false;
4964         }
4965
4966       if (!allows_reg && allows_mem)
4967         mark_addressable (TREE_VALUE (link));
4968
4969       tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
4970                             is_inout ? is_gimple_min_lval : is_gimple_lvalue,
4971                             fb_lvalue | fb_mayfail);
4972       if (tret == GS_ERROR)
4973         {
4974           error ("invalid lvalue in asm output %d", i);
4975           ret = tret;
4976         }
4977
4978       VEC_safe_push (tree, gc, outputs, link);
4979       TREE_CHAIN (link) = NULL_TREE;
4980
4981       if (is_inout)
4982         {
4983           /* An input/output operand.  To give the optimizers more
4984              flexibility, split it into separate input and output
4985              operands.  */
4986           tree input;
4987           char buf[10];
4988
4989           /* Turn the in/out constraint into an output constraint.  */
4990           char *p = xstrdup (constraint);
4991           p[0] = '=';
4992           TREE_VALUE (TREE_PURPOSE (link)) = build_string (constraint_len, p);
4993
4994           /* And add a matching input constraint.  */
4995           if (allows_reg)
4996             {
4997               sprintf (buf, "%d", i);
4998
4999               /* If there are multiple alternatives in the constraint,
5000                  handle each of them individually.  Those that allow register
5001                  will be replaced with operand number, the others will stay
5002                  unchanged.  */
5003               if (strchr (p, ',') != NULL)
5004                 {
5005                   size_t len = 0, buflen = strlen (buf);
5006                   char *beg, *end, *str, *dst;
5007
5008                   for (beg = p + 1;;)
5009                     {
5010                       end = strchr (beg, ',');
5011                       if (end == NULL)
5012                         end = strchr (beg, '\0');
5013                       if ((size_t) (end - beg) < buflen)
5014                         len += buflen + 1;
5015                       else
5016                         len += end - beg + 1;
5017                       if (*end)
5018                         beg = end + 1;
5019                       else
5020                         break;
5021                     }
5022
5023                   str = (char *) alloca (len);
5024                   for (beg = p + 1, dst = str;;)
5025                     {
5026                       const char *tem;
5027                       bool mem_p, reg_p, inout_p;
5028
5029                       end = strchr (beg, ',');
5030                       if (end)
5031                         *end = '\0';
5032                       beg[-1] = '=';
5033                       tem = beg - 1;
5034                       parse_output_constraint (&tem, i, 0, 0,
5035                                                &mem_p, &reg_p, &inout_p);
5036                       if (dst != str)
5037                         *dst++ = ',';
5038                       if (reg_p)
5039                         {
5040                           memcpy (dst, buf, buflen);
5041                           dst += buflen;
5042                         }
5043                       else
5044                         {
5045                           if (end)
5046                             len = end - beg;
5047                           else
5048                             len = strlen (beg);
5049                           memcpy (dst, beg, len);
5050                           dst += len;
5051                         }
5052                       if (end)
5053                         beg = end + 1;
5054                       else
5055                         break;
5056                     }
5057                   *dst = '\0';
5058                   input = build_string (dst - str, str);
5059                 }
5060               else
5061                 input = build_string (strlen (buf), buf);
5062             }
5063           else
5064             input = build_string (constraint_len - 1, constraint + 1);
5065
5066           free (p);
5067
5068           input = build_tree_list (build_tree_list (NULL_TREE, input),
5069                                    unshare_expr (TREE_VALUE (link)));
5070           ASM_INPUTS (expr) = chainon (ASM_INPUTS (expr), input);
5071         }
5072     }
5073
5074   link_next = NULL_TREE;
5075   for (link = ASM_INPUTS (expr); link; ++i, link = link_next)
5076     {
5077       link_next = TREE_CHAIN (link);
5078       constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
5079       parse_input_constraint (&constraint, 0, 0, noutputs, 0,
5080                               oconstraints, &allows_mem, &allows_reg);
5081
5082       /* If we can't make copies, we can only accept memory.  */
5083       if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (link))))
5084         {
5085           if (allows_mem)
5086             allows_reg = 0;
5087           else
5088             {
5089               error ("impossible constraint in %<asm%>");
5090               error ("non-memory input %d must stay in memory", i);
5091               return GS_ERROR;
5092             }
5093         }
5094
5095       /* If the operand is a memory input, it should be an lvalue.  */
5096       if (!allows_reg && allows_mem)
5097         {
5098           tree inputv = TREE_VALUE (link);
5099           STRIP_NOPS (inputv);
5100           if (TREE_CODE (inputv) == PREDECREMENT_EXPR
5101               || TREE_CODE (inputv) == PREINCREMENT_EXPR
5102               || TREE_CODE (inputv) == POSTDECREMENT_EXPR
5103               || TREE_CODE (inputv) == POSTINCREMENT_EXPR)
5104             TREE_VALUE (link) = error_mark_node;
5105           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
5106                                 is_gimple_lvalue, fb_lvalue | fb_mayfail);
5107           mark_addressable (TREE_VALUE (link));
5108           if (tret == GS_ERROR)
5109             {
5110               if (EXPR_HAS_LOCATION (TREE_VALUE (link)))
5111                 input_location = EXPR_LOCATION (TREE_VALUE (link));
5112               error ("memory input %d is not directly addressable", i);
5113               ret = tret;
5114             }
5115         }
5116       else
5117         {
5118           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
5119                                 is_gimple_asm_val, fb_rvalue);
5120           if (tret == GS_ERROR)
5121             ret = tret;
5122         }
5123
5124       TREE_CHAIN (link) = NULL_TREE;
5125       VEC_safe_push (tree, gc, inputs, link);
5126     }
5127
5128   for (link = ASM_CLOBBERS (expr); link; ++i, link = TREE_CHAIN (link))
5129     VEC_safe_push (tree, gc, clobbers, link);
5130
5131   for (link = ASM_LABELS (expr); link; ++i, link = TREE_CHAIN (link))
5132     VEC_safe_push (tree, gc, labels, link);
5133
5134   /* Do not add ASMs with errors to the gimple IL stream.  */
5135   if (ret != GS_ERROR)
5136     {
5137       stmt = gimple_build_asm_vec (TREE_STRING_POINTER (ASM_STRING (expr)),
5138                                    inputs, outputs, clobbers, labels);
5139
5140       gimple_asm_set_volatile (stmt, ASM_VOLATILE_P (expr));
5141       gimple_asm_set_input (stmt, ASM_INPUT_P (expr));
5142
5143       gimplify_seq_add_stmt (pre_p, stmt);
5144     }
5145
5146   return ret;
5147 }
5148
5149 /* Gimplify a CLEANUP_POINT_EXPR.  Currently this works by adding
5150    GIMPLE_WITH_CLEANUP_EXPRs to the prequeue as we encounter cleanups while
5151    gimplifying the body, and converting them to TRY_FINALLY_EXPRs when we
5152    return to this function.
5153
5154    FIXME should we complexify the prequeue handling instead?  Or use flags
5155    for all the cleanups and let the optimizer tighten them up?  The current
5156    code seems pretty fragile; it will break on a cleanup within any
5157    non-conditional nesting.  But any such nesting would be broken, anyway;
5158    we can't write a TRY_FINALLY_EXPR that starts inside a nesting construct
5159    and continues out of it.  We can do that at the RTL level, though, so
5160    having an optimizer to tighten up try/finally regions would be a Good
5161    Thing.  */
5162
5163 static enum gimplify_status
5164 gimplify_cleanup_point_expr (tree *expr_p, gimple_seq *pre_p)
5165 {
5166   gimple_stmt_iterator iter;
5167   gimple_seq body_sequence = NULL;
5168
5169   tree temp = voidify_wrapper_expr (*expr_p, NULL);
5170
5171   /* We only care about the number of conditions between the innermost
5172      CLEANUP_POINT_EXPR and the cleanup.  So save and reset the count and
5173      any cleanups collected outside the CLEANUP_POINT_EXPR.  */
5174   int old_conds = gimplify_ctxp->conditions;
5175   gimple_seq old_cleanups = gimplify_ctxp->conditional_cleanups;
5176   gimplify_ctxp->conditions = 0;
5177   gimplify_ctxp->conditional_cleanups = NULL;
5178
5179   gimplify_stmt (&TREE_OPERAND (*expr_p, 0), &body_sequence);
5180
5181   gimplify_ctxp->conditions = old_conds;
5182   gimplify_ctxp->conditional_cleanups = old_cleanups;
5183
5184   for (iter = gsi_start (body_sequence); !gsi_end_p (iter); )
5185     {
5186       gimple wce = gsi_stmt (iter);
5187
5188       if (gimple_code (wce) == GIMPLE_WITH_CLEANUP_EXPR)
5189         {
5190           if (gsi_one_before_end_p (iter))
5191             {
5192               /* Note that gsi_insert_seq_before and gsi_remove do not
5193                  scan operands, unlike some other sequence mutators.  */
5194               if (!gimple_wce_cleanup_eh_only (wce))
5195                 gsi_insert_seq_before_without_update (&iter,
5196                                                       gimple_wce_cleanup (wce),
5197                                                       GSI_SAME_STMT);
5198               gsi_remove (&iter, true);
5199               break;
5200             }
5201           else
5202             {
5203               gimple gtry;
5204               gimple_seq seq;
5205               enum gimple_try_flags kind;
5206
5207               if (gimple_wce_cleanup_eh_only (wce))
5208                 kind = GIMPLE_TRY_CATCH;
5209               else
5210                 kind = GIMPLE_TRY_FINALLY;
5211               seq = gsi_split_seq_after (iter);
5212
5213               gtry = gimple_build_try (seq, gimple_wce_cleanup (wce), kind);
5214               /* Do not use gsi_replace here, as it may scan operands.
5215                  We want to do a simple structural modification only.  */
5216               *gsi_stmt_ptr (&iter) = gtry;
5217               iter = gsi_start (seq);
5218             }
5219         }
5220       else
5221         gsi_next (&iter);
5222     }
5223
5224   gimplify_seq_add_seq (pre_p, body_sequence);
5225   if (temp)
5226     {
5227       *expr_p = temp;
5228       return GS_OK;
5229     }
5230   else
5231     {
5232       *expr_p = NULL;
5233       return GS_ALL_DONE;
5234     }
5235 }
5236
5237 /* Insert a cleanup marker for gimplify_cleanup_point_expr.  CLEANUP
5238    is the cleanup action required.  EH_ONLY is true if the cleanup should
5239    only be executed if an exception is thrown, not on normal exit.  */
5240
5241 static void
5242 gimple_push_cleanup (tree var, tree cleanup, bool eh_only, gimple_seq *pre_p)
5243 {
5244   gimple wce;
5245   gimple_seq cleanup_stmts = NULL;
5246
5247   /* Errors can result in improperly nested cleanups.  Which results in
5248      confusion when trying to resolve the GIMPLE_WITH_CLEANUP_EXPR.  */
5249   if (seen_error ())
5250     return;
5251
5252   if (gimple_conditional_context ())
5253     {
5254       /* If we're in a conditional context, this is more complex.  We only
5255          want to run the cleanup if we actually ran the initialization that
5256          necessitates it, but we want to run it after the end of the
5257          conditional context.  So we wrap the try/finally around the
5258          condition and use a flag to determine whether or not to actually
5259          run the destructor.  Thus
5260
5261            test ? f(A()) : 0
5262
5263          becomes (approximately)
5264
5265            flag = 0;
5266            try {
5267              if (test) { A::A(temp); flag = 1; val = f(temp); }
5268              else { val = 0; }
5269            } finally {
5270              if (flag) A::~A(temp);
5271            }
5272            val
5273       */
5274       tree flag = create_tmp_var (boolean_type_node, "cleanup");
5275       gimple ffalse = gimple_build_assign (flag, boolean_false_node);
5276       gimple ftrue = gimple_build_assign (flag, boolean_true_node);
5277
5278       cleanup = build3 (COND_EXPR, void_type_node, flag, cleanup, NULL);
5279       gimplify_stmt (&cleanup, &cleanup_stmts);
5280       wce = gimple_build_wce (cleanup_stmts);
5281
5282       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, ffalse);
5283       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, wce);
5284       gimplify_seq_add_stmt (pre_p, ftrue);
5285
5286       /* Because of this manipulation, and the EH edges that jump
5287          threading cannot redirect, the temporary (VAR) will appear
5288          to be used uninitialized.  Don't warn.  */
5289       TREE_NO_WARNING (var) = 1;
5290     }
5291   else
5292     {
5293       gimplify_stmt (&cleanup, &cleanup_stmts);
5294       wce = gimple_build_wce (cleanup_stmts);
5295       gimple_wce_set_cleanup_eh_only (wce, eh_only);
5296       gimplify_seq_add_stmt (pre_p, wce);
5297     }
5298 }
5299
5300 /* Gimplify a TARGET_EXPR which doesn't appear on the rhs of an INIT_EXPR.  */
5301
5302 static enum gimplify_status
5303 gimplify_target_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
5304 {
5305   tree targ = *expr_p;
5306   tree temp = TARGET_EXPR_SLOT (targ);
5307   tree init = TARGET_EXPR_INITIAL (targ);
5308   enum gimplify_status ret;
5309
5310   if (init)
5311     {
5312       /* TARGET_EXPR temps aren't part of the enclosing block, so add it
5313          to the temps list.  Handle also variable length TARGET_EXPRs.  */
5314       if (TREE_CODE (DECL_SIZE (temp)) != INTEGER_CST)
5315         {
5316           if (!TYPE_SIZES_GIMPLIFIED (TREE_TYPE (temp)))
5317             gimplify_type_sizes (TREE_TYPE (temp), pre_p);
5318           gimplify_vla_decl (temp, pre_p);
5319         }
5320       else
5321         gimple_add_tmp_var (temp);
5322
5323       /* If TARGET_EXPR_INITIAL is void, then the mere evaluation of the
5324          expression is supposed to initialize the slot.  */
5325       if (VOID_TYPE_P (TREE_TYPE (init)))
5326         ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5327       else
5328         {
5329           tree init_expr = build2 (INIT_EXPR, void_type_node, temp, init);
5330           init = init_expr;
5331           ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5332           init = NULL;
5333           ggc_free (init_expr);
5334         }
5335       if (ret == GS_ERROR)
5336         {
5337           /* PR c++/28266 Make sure this is expanded only once. */
5338           TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5339           return GS_ERROR;
5340         }
5341       if (init)
5342         gimplify_and_add (init, pre_p);
5343
5344       /* If needed, push the cleanup for the temp.  */
5345       if (TARGET_EXPR_CLEANUP (targ))
5346         gimple_push_cleanup (temp, TARGET_EXPR_CLEANUP (targ),
5347                              CLEANUP_EH_ONLY (targ), pre_p);
5348
5349       /* Only expand this once.  */
5350       TREE_OPERAND (targ, 3) = init;
5351       TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5352     }
5353   else
5354     /* We should have expanded this before.  */
5355     gcc_assert (DECL_SEEN_IN_BIND_EXPR_P (temp));
5356
5357   *expr_p = temp;
5358   return GS_OK;
5359 }
5360
5361 /* Gimplification of expression trees.  */
5362
5363 /* Gimplify an expression which appears at statement context.  The
5364    corresponding GIMPLE statements are added to *SEQ_P.  If *SEQ_P is
5365    NULL, a new sequence is allocated.
5366
5367    Return true if we actually added a statement to the queue.  */
5368
5369 bool
5370 gimplify_stmt (tree *stmt_p, gimple_seq *seq_p)
5371 {
5372   gimple_seq_node last;
5373
5374   if (!*seq_p)
5375     *seq_p = gimple_seq_alloc ();
5376
5377   last = gimple_seq_last (*seq_p);
5378   gimplify_expr (stmt_p, seq_p, NULL, is_gimple_stmt, fb_none);
5379   return last != gimple_seq_last (*seq_p);
5380 }
5381
5382 /* Add FIRSTPRIVATE entries for DECL in the OpenMP the surrounding parallels
5383    to CTX.  If entries already exist, force them to be some flavor of private.
5384    If there is no enclosing parallel, do nothing.  */
5385
5386 void
5387 omp_firstprivatize_variable (struct gimplify_omp_ctx *ctx, tree decl)
5388 {
5389   splay_tree_node n;
5390
5391   if (decl == NULL || !DECL_P (decl))
5392     return;
5393
5394   do
5395     {
5396       n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5397       if (n != NULL)
5398         {
5399           if (n->value & GOVD_SHARED)
5400             n->value = GOVD_FIRSTPRIVATE | (n->value & GOVD_SEEN);
5401           else
5402             return;
5403         }
5404       else if (ctx->region_type != ORT_WORKSHARE)
5405         omp_add_variable (ctx, decl, GOVD_FIRSTPRIVATE);
5406
5407       ctx = ctx->outer_context;
5408     }
5409   while (ctx);
5410 }
5411
5412 /* Similarly for each of the type sizes of TYPE.  */
5413
5414 static void
5415 omp_firstprivatize_type_sizes (struct gimplify_omp_ctx *ctx, tree type)
5416 {
5417   if (type == NULL || type == error_mark_node)
5418     return;
5419   type = TYPE_MAIN_VARIANT (type);
5420
5421   if (pointer_set_insert (ctx->privatized_types, type))
5422     return;
5423
5424   switch (TREE_CODE (type))
5425     {
5426     case INTEGER_TYPE:
5427     case ENUMERAL_TYPE:
5428     case BOOLEAN_TYPE:
5429     case REAL_TYPE:
5430     case FIXED_POINT_TYPE:
5431       omp_firstprivatize_variable (ctx, TYPE_MIN_VALUE (type));
5432       omp_firstprivatize_variable (ctx, TYPE_MAX_VALUE (type));
5433       break;
5434
5435     case ARRAY_TYPE:
5436       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5437       omp_firstprivatize_type_sizes (ctx, TYPE_DOMAIN (type));
5438       break;
5439
5440     case RECORD_TYPE:
5441     case UNION_TYPE:
5442     case QUAL_UNION_TYPE:
5443       {
5444         tree field;
5445         for (field = TYPE_FIELDS (type); field; field = DECL_CHAIN (field))
5446           if (TREE_CODE (field) == FIELD_DECL)
5447             {
5448               omp_firstprivatize_variable (ctx, DECL_FIELD_OFFSET (field));
5449               omp_firstprivatize_type_sizes (ctx, TREE_TYPE (field));
5450             }
5451       }
5452       break;
5453
5454     case POINTER_TYPE:
5455     case REFERENCE_TYPE:
5456       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5457       break;
5458
5459     default:
5460       break;
5461     }
5462
5463   omp_firstprivatize_variable (ctx, TYPE_SIZE (type));
5464   omp_firstprivatize_variable (ctx, TYPE_SIZE_UNIT (type));
5465   lang_hooks.types.omp_firstprivatize_type_sizes (ctx, type);
5466 }
5467
5468 /* Add an entry for DECL in the OpenMP context CTX with FLAGS.  */
5469
5470 static void
5471 omp_add_variable (struct gimplify_omp_ctx *ctx, tree decl, unsigned int flags)
5472 {
5473   splay_tree_node n;
5474   unsigned int nflags;
5475   tree t;
5476
5477   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5478     return;
5479
5480   /* Never elide decls whose type has TREE_ADDRESSABLE set.  This means
5481      there are constructors involved somewhere.  */
5482   if (TREE_ADDRESSABLE (TREE_TYPE (decl))
5483       || TYPE_NEEDS_CONSTRUCTING (TREE_TYPE (decl)))
5484     flags |= GOVD_SEEN;
5485
5486   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5487   if (n != NULL)
5488     {
5489       /* We shouldn't be re-adding the decl with the same data
5490          sharing class.  */
5491       gcc_assert ((n->value & GOVD_DATA_SHARE_CLASS & flags) == 0);
5492       /* The only combination of data sharing classes we should see is
5493          FIRSTPRIVATE and LASTPRIVATE.  */
5494       nflags = n->value | flags;
5495       gcc_assert ((nflags & GOVD_DATA_SHARE_CLASS)
5496                   == (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE));
5497       n->value = nflags;
5498       return;
5499     }
5500
5501   /* When adding a variable-sized variable, we have to handle all sorts
5502      of additional bits of data: the pointer replacement variable, and
5503      the parameters of the type.  */
5504   if (DECL_SIZE (decl) && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5505     {
5506       /* Add the pointer replacement variable as PRIVATE if the variable
5507          replacement is private, else FIRSTPRIVATE since we'll need the
5508          address of the original variable either for SHARED, or for the
5509          copy into or out of the context.  */
5510       if (!(flags & GOVD_LOCAL))
5511         {
5512           nflags = flags & GOVD_PRIVATE ? GOVD_PRIVATE : GOVD_FIRSTPRIVATE;
5513           nflags |= flags & GOVD_SEEN;
5514           t = DECL_VALUE_EXPR (decl);
5515           gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5516           t = TREE_OPERAND (t, 0);
5517           gcc_assert (DECL_P (t));
5518           omp_add_variable (ctx, t, nflags);
5519         }
5520
5521       /* Add all of the variable and type parameters (which should have
5522          been gimplified to a formal temporary) as FIRSTPRIVATE.  */
5523       omp_firstprivatize_variable (ctx, DECL_SIZE_UNIT (decl));
5524       omp_firstprivatize_variable (ctx, DECL_SIZE (decl));
5525       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5526
5527       /* The variable-sized variable itself is never SHARED, only some form
5528          of PRIVATE.  The sharing would take place via the pointer variable
5529          which we remapped above.  */
5530       if (flags & GOVD_SHARED)
5531         flags = GOVD_PRIVATE | GOVD_DEBUG_PRIVATE
5532                 | (flags & (GOVD_SEEN | GOVD_EXPLICIT));
5533
5534       /* We're going to make use of the TYPE_SIZE_UNIT at least in the
5535          alloca statement we generate for the variable, so make sure it
5536          is available.  This isn't automatically needed for the SHARED
5537          case, since we won't be allocating local storage then.
5538          For local variables TYPE_SIZE_UNIT might not be gimplified yet,
5539          in this case omp_notice_variable will be called later
5540          on when it is gimplified.  */
5541       else if (! (flags & GOVD_LOCAL)
5542                && DECL_P (TYPE_SIZE_UNIT (TREE_TYPE (decl))))
5543         omp_notice_variable (ctx, TYPE_SIZE_UNIT (TREE_TYPE (decl)), true);
5544     }
5545   else if (lang_hooks.decls.omp_privatize_by_reference (decl))
5546     {
5547       gcc_assert ((flags & GOVD_LOCAL) == 0);
5548       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5549
5550       /* Similar to the direct variable sized case above, we'll need the
5551          size of references being privatized.  */
5552       if ((flags & GOVD_SHARED) == 0)
5553         {
5554           t = TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (decl)));
5555           if (TREE_CODE (t) != INTEGER_CST)
5556             omp_notice_variable (ctx, t, true);
5557         }
5558     }
5559
5560   splay_tree_insert (ctx->variables, (splay_tree_key)decl, flags);
5561 }
5562
5563 /* Notice a threadprivate variable DECL used in OpenMP context CTX.
5564    This just prints out diagnostics about threadprivate variable uses
5565    in untied tasks.  If DECL2 is non-NULL, prevent this warning
5566    on that variable.  */
5567
5568 static bool
5569 omp_notice_threadprivate_variable (struct gimplify_omp_ctx *ctx, tree decl,
5570                                    tree decl2)
5571 {
5572   splay_tree_node n;
5573
5574   if (ctx->region_type != ORT_UNTIED_TASK)
5575     return false;
5576   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5577   if (n == NULL)
5578     {
5579       error ("threadprivate variable %qE used in untied task",
5580              DECL_NAME (decl));
5581       error_at (ctx->location, "enclosing task");
5582       splay_tree_insert (ctx->variables, (splay_tree_key)decl, 0);
5583     }
5584   if (decl2)
5585     splay_tree_insert (ctx->variables, (splay_tree_key)decl2, 0);
5586   return false;
5587 }
5588
5589 /* Record the fact that DECL was used within the OpenMP context CTX.
5590    IN_CODE is true when real code uses DECL, and false when we should
5591    merely emit default(none) errors.  Return true if DECL is going to
5592    be remapped and thus DECL shouldn't be gimplified into its
5593    DECL_VALUE_EXPR (if any).  */
5594
5595 static bool
5596 omp_notice_variable (struct gimplify_omp_ctx *ctx, tree decl, bool in_code)
5597 {
5598   splay_tree_node n;
5599   unsigned flags = in_code ? GOVD_SEEN : 0;
5600   bool ret = false, shared;
5601
5602   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5603     return false;
5604
5605   /* Threadprivate variables are predetermined.  */
5606   if (is_global_var (decl))
5607     {
5608       if (DECL_THREAD_LOCAL_P (decl))
5609         return omp_notice_threadprivate_variable (ctx, decl, NULL_TREE);
5610
5611       if (DECL_HAS_VALUE_EXPR_P (decl))
5612         {
5613           tree value = get_base_address (DECL_VALUE_EXPR (decl));
5614
5615           if (value && DECL_P (value) && DECL_THREAD_LOCAL_P (value))
5616             return omp_notice_threadprivate_variable (ctx, decl, value);
5617         }
5618     }
5619
5620   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5621   if (n == NULL)
5622     {
5623       enum omp_clause_default_kind default_kind, kind;
5624       struct gimplify_omp_ctx *octx;
5625
5626       if (ctx->region_type == ORT_WORKSHARE)
5627         goto do_outer;
5628
5629       /* ??? Some compiler-generated variables (like SAVE_EXPRs) could be
5630          remapped firstprivate instead of shared.  To some extent this is
5631          addressed in omp_firstprivatize_type_sizes, but not effectively.  */
5632       default_kind = ctx->default_kind;
5633       kind = lang_hooks.decls.omp_predetermined_sharing (decl);
5634       if (kind != OMP_CLAUSE_DEFAULT_UNSPECIFIED)
5635         default_kind = kind;
5636
5637       switch (default_kind)
5638         {
5639         case OMP_CLAUSE_DEFAULT_NONE:
5640           error ("%qE not specified in enclosing parallel",
5641                  DECL_NAME (lang_hooks.decls.omp_report_decl (decl)));
5642           if ((ctx->region_type & ORT_TASK) != 0)
5643             error_at (ctx->location, "enclosing task");
5644           else
5645             error_at (ctx->location, "enclosing parallel");
5646           /* FALLTHRU */
5647         case OMP_CLAUSE_DEFAULT_SHARED:
5648           flags |= GOVD_SHARED;
5649           break;
5650         case OMP_CLAUSE_DEFAULT_PRIVATE:
5651           flags |= GOVD_PRIVATE;
5652           break;
5653         case OMP_CLAUSE_DEFAULT_FIRSTPRIVATE:
5654           flags |= GOVD_FIRSTPRIVATE;
5655           break;
5656         case OMP_CLAUSE_DEFAULT_UNSPECIFIED:
5657           /* decl will be either GOVD_FIRSTPRIVATE or GOVD_SHARED.  */
5658           gcc_assert ((ctx->region_type & ORT_TASK) != 0);
5659           if (ctx->outer_context)
5660             omp_notice_variable (ctx->outer_context, decl, in_code);
5661           for (octx = ctx->outer_context; octx; octx = octx->outer_context)
5662             {
5663               splay_tree_node n2;
5664
5665               n2 = splay_tree_lookup (octx->variables, (splay_tree_key) decl);
5666               if (n2 && (n2->value & GOVD_DATA_SHARE_CLASS) != GOVD_SHARED)
5667                 {
5668                   flags |= GOVD_FIRSTPRIVATE;
5669                   break;
5670                 }
5671               if ((octx->region_type & ORT_PARALLEL) != 0)
5672                 break;
5673             }
5674           if (flags & GOVD_FIRSTPRIVATE)
5675             break;
5676           if (octx == NULL
5677               && (TREE_CODE (decl) == PARM_DECL
5678                   || (!is_global_var (decl)
5679                       && DECL_CONTEXT (decl) == current_function_decl)))
5680             {
5681               flags |= GOVD_FIRSTPRIVATE;
5682               break;
5683             }
5684           flags |= GOVD_SHARED;
5685           break;
5686         default:
5687           gcc_unreachable ();
5688         }
5689
5690       if ((flags & GOVD_PRIVATE)
5691           && lang_hooks.decls.omp_private_outer_ref (decl))
5692         flags |= GOVD_PRIVATE_OUTER_REF;
5693
5694       omp_add_variable (ctx, decl, flags);
5695
5696       shared = (flags & GOVD_SHARED) != 0;
5697       ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5698       goto do_outer;
5699     }
5700
5701   if ((n->value & (GOVD_SEEN | GOVD_LOCAL)) == 0
5702       && (flags & (GOVD_SEEN | GOVD_LOCAL)) == GOVD_SEEN
5703       && DECL_SIZE (decl)
5704       && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5705     {
5706       splay_tree_node n2;
5707       tree t = DECL_VALUE_EXPR (decl);
5708       gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5709       t = TREE_OPERAND (t, 0);
5710       gcc_assert (DECL_P (t));
5711       n2 = splay_tree_lookup (ctx->variables, (splay_tree_key) t);
5712       n2->value |= GOVD_SEEN;
5713     }
5714
5715   shared = ((flags | n->value) & GOVD_SHARED) != 0;
5716   ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5717
5718   /* If nothing changed, there's nothing left to do.  */
5719   if ((n->value & flags) == flags)
5720     return ret;
5721   flags |= n->value;
5722   n->value = flags;
5723
5724  do_outer:
5725   /* If the variable is private in the current context, then we don't
5726      need to propagate anything to an outer context.  */
5727   if ((flags & GOVD_PRIVATE) && !(flags & GOVD_PRIVATE_OUTER_REF))
5728     return ret;
5729   if (ctx->outer_context
5730       && omp_notice_variable (ctx->outer_context, decl, in_code))
5731     return true;
5732   return ret;
5733 }
5734
5735 /* Verify that DECL is private within CTX.  If there's specific information
5736    to the contrary in the innermost scope, generate an error.  */
5737
5738 static bool
5739 omp_is_private (struct gimplify_omp_ctx *ctx, tree decl)
5740 {
5741   splay_tree_node n;
5742
5743   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5744   if (n != NULL)
5745     {
5746       if (n->value & GOVD_SHARED)
5747         {
5748           if (ctx == gimplify_omp_ctxp)
5749             {
5750               error ("iteration variable %qE should be private",
5751                      DECL_NAME (decl));
5752               n->value = GOVD_PRIVATE;
5753               return true;
5754             }
5755           else
5756             return false;
5757         }
5758       else if ((n->value & GOVD_EXPLICIT) != 0
5759                && (ctx == gimplify_omp_ctxp
5760                    || (ctx->region_type == ORT_COMBINED_PARALLEL
5761                        && gimplify_omp_ctxp->outer_context == ctx)))
5762         {
5763           if ((n->value & GOVD_FIRSTPRIVATE) != 0)
5764             error ("iteration variable %qE should not be firstprivate",
5765                    DECL_NAME (decl));
5766           else if ((n->value & GOVD_REDUCTION) != 0)
5767             error ("iteration variable %qE should not be reduction",
5768                    DECL_NAME (decl));
5769         }
5770       return (ctx == gimplify_omp_ctxp
5771               || (ctx->region_type == ORT_COMBINED_PARALLEL
5772                   && gimplify_omp_ctxp->outer_context == ctx));
5773     }
5774
5775   if (ctx->region_type != ORT_WORKSHARE)
5776     return false;
5777   else if (ctx->outer_context)
5778     return omp_is_private (ctx->outer_context, decl);
5779   return false;
5780 }
5781
5782 /* Return true if DECL is private within a parallel region
5783    that binds to the current construct's context or in parallel
5784    region's REDUCTION clause.  */
5785
5786 static bool
5787 omp_check_private (struct gimplify_omp_ctx *ctx, tree decl)
5788 {
5789   splay_tree_node n;
5790
5791   do
5792     {
5793       ctx = ctx->outer_context;
5794       if (ctx == NULL)
5795         return !(is_global_var (decl)
5796                  /* References might be private, but might be shared too.  */
5797                  || lang_hooks.decls.omp_privatize_by_reference (decl));
5798
5799       n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5800       if (n != NULL)
5801         return (n->value & GOVD_SHARED) == 0;
5802     }
5803   while (ctx->region_type == ORT_WORKSHARE);
5804   return false;
5805 }
5806
5807 /* Scan the OpenMP clauses in *LIST_P, installing mappings into a new
5808    and previous omp contexts.  */
5809
5810 static void
5811 gimplify_scan_omp_clauses (tree *list_p, gimple_seq *pre_p,
5812                            enum omp_region_type region_type)
5813 {
5814   struct gimplify_omp_ctx *ctx, *outer_ctx;
5815   struct gimplify_ctx gctx;
5816   tree c;
5817
5818   ctx = new_omp_context (region_type);
5819   outer_ctx = ctx->outer_context;
5820
5821   while ((c = *list_p) != NULL)
5822     {
5823       bool remove = false;
5824       bool notice_outer = true;
5825       const char *check_non_private = NULL;
5826       unsigned int flags;
5827       tree decl;
5828
5829       switch (OMP_CLAUSE_CODE (c))
5830         {
5831         case OMP_CLAUSE_PRIVATE:
5832           flags = GOVD_PRIVATE | GOVD_EXPLICIT;
5833           if (lang_hooks.decls.omp_private_outer_ref (OMP_CLAUSE_DECL (c)))
5834             {
5835               flags |= GOVD_PRIVATE_OUTER_REF;
5836               OMP_CLAUSE_PRIVATE_OUTER_REF (c) = 1;
5837             }
5838           else
5839             notice_outer = false;
5840           goto do_add;
5841         case OMP_CLAUSE_SHARED:
5842           flags = GOVD_SHARED | GOVD_EXPLICIT;
5843           goto do_add;
5844         case OMP_CLAUSE_FIRSTPRIVATE:
5845           flags = GOVD_FIRSTPRIVATE | GOVD_EXPLICIT;
5846           check_non_private = "firstprivate";
5847           goto do_add;
5848         case OMP_CLAUSE_LASTPRIVATE:
5849           flags = GOVD_LASTPRIVATE | GOVD_SEEN | GOVD_EXPLICIT;
5850           check_non_private = "lastprivate";
5851           goto do_add;
5852         case OMP_CLAUSE_REDUCTION:
5853           flags = GOVD_REDUCTION | GOVD_SEEN | GOVD_EXPLICIT;
5854           check_non_private = "reduction";
5855           goto do_add;
5856
5857         do_add:
5858           decl = OMP_CLAUSE_DECL (c);
5859           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5860             {
5861               remove = true;
5862               break;
5863             }
5864           omp_add_variable (ctx, decl, flags);
5865           if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_REDUCTION
5866               && OMP_CLAUSE_REDUCTION_PLACEHOLDER (c))
5867             {
5868               omp_add_variable (ctx, OMP_CLAUSE_REDUCTION_PLACEHOLDER (c),
5869                                 GOVD_LOCAL | GOVD_SEEN);
5870               gimplify_omp_ctxp = ctx;
5871               push_gimplify_context (&gctx);
5872
5873               OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c) = gimple_seq_alloc ();
5874               OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c) = gimple_seq_alloc ();
5875
5876               gimplify_and_add (OMP_CLAUSE_REDUCTION_INIT (c),
5877                                 &OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c));
5878               pop_gimplify_context
5879                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c)));
5880               push_gimplify_context (&gctx);
5881               gimplify_and_add (OMP_CLAUSE_REDUCTION_MERGE (c),
5882                                 &OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c));
5883               pop_gimplify_context
5884                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c)));
5885               OMP_CLAUSE_REDUCTION_INIT (c) = NULL_TREE;
5886               OMP_CLAUSE_REDUCTION_MERGE (c) = NULL_TREE;
5887
5888               gimplify_omp_ctxp = outer_ctx;
5889             }
5890           else if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
5891                    && OMP_CLAUSE_LASTPRIVATE_STMT (c))
5892             {
5893               gimplify_omp_ctxp = ctx;
5894               push_gimplify_context (&gctx);
5895               if (TREE_CODE (OMP_CLAUSE_LASTPRIVATE_STMT (c)) != BIND_EXPR)
5896                 {
5897                   tree bind = build3 (BIND_EXPR, void_type_node, NULL,
5898                                       NULL, NULL);
5899                   TREE_SIDE_EFFECTS (bind) = 1;
5900                   BIND_EXPR_BODY (bind) = OMP_CLAUSE_LASTPRIVATE_STMT (c);
5901                   OMP_CLAUSE_LASTPRIVATE_STMT (c) = bind;
5902                 }
5903               gimplify_and_add (OMP_CLAUSE_LASTPRIVATE_STMT (c),
5904                                 &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
5905               pop_gimplify_context
5906                 (gimple_seq_first_stmt (OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c)));
5907               OMP_CLAUSE_LASTPRIVATE_STMT (c) = NULL_TREE;
5908
5909               gimplify_omp_ctxp = outer_ctx;
5910             }
5911           if (notice_outer)
5912             goto do_notice;
5913           break;
5914
5915         case OMP_CLAUSE_COPYIN:
5916         case OMP_CLAUSE_COPYPRIVATE:
5917           decl = OMP_CLAUSE_DECL (c);
5918           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5919             {
5920               remove = true;
5921               break;
5922             }
5923         do_notice:
5924           if (outer_ctx)
5925             omp_notice_variable (outer_ctx, decl, true);
5926           if (check_non_private
5927               && region_type == ORT_WORKSHARE
5928               && omp_check_private (ctx, decl))
5929             {
5930               error ("%s variable %qE is private in outer context",
5931                      check_non_private, DECL_NAME (decl));
5932               remove = true;
5933             }
5934           break;
5935
5936         case OMP_CLAUSE_IF:
5937           OMP_CLAUSE_OPERAND (c, 0)
5938             = gimple_boolify (OMP_CLAUSE_OPERAND (c, 0));
5939           /* Fall through.  */
5940
5941         case OMP_CLAUSE_SCHEDULE:
5942         case OMP_CLAUSE_NUM_THREADS:
5943           if (gimplify_expr (&OMP_CLAUSE_OPERAND (c, 0), pre_p, NULL,
5944                              is_gimple_val, fb_rvalue) == GS_ERROR)
5945               remove = true;
5946           break;
5947
5948         case OMP_CLAUSE_NOWAIT:
5949         case OMP_CLAUSE_ORDERED:
5950         case OMP_CLAUSE_UNTIED:
5951         case OMP_CLAUSE_COLLAPSE:
5952           break;
5953
5954         case OMP_CLAUSE_DEFAULT:
5955           ctx->default_kind = OMP_CLAUSE_DEFAULT_KIND (c);
5956           break;
5957
5958         default:
5959           gcc_unreachable ();
5960         }
5961
5962       if (remove)
5963         *list_p = OMP_CLAUSE_CHAIN (c);
5964       else
5965         list_p = &OMP_CLAUSE_CHAIN (c);
5966     }
5967
5968   gimplify_omp_ctxp = ctx;
5969 }
5970
5971 /* For all variables that were not actually used within the context,
5972    remove PRIVATE, SHARED, and FIRSTPRIVATE clauses.  */
5973
5974 static int
5975 gimplify_adjust_omp_clauses_1 (splay_tree_node n, void *data)
5976 {
5977   tree *list_p = (tree *) data;
5978   tree decl = (tree) n->key;
5979   unsigned flags = n->value;
5980   enum omp_clause_code code;
5981   tree clause;
5982   bool private_debug;
5983
5984   if (flags & (GOVD_EXPLICIT | GOVD_LOCAL))
5985     return 0;
5986   if ((flags & GOVD_SEEN) == 0)
5987     return 0;
5988   if (flags & GOVD_DEBUG_PRIVATE)
5989     {
5990       gcc_assert ((flags & GOVD_DATA_SHARE_CLASS) == GOVD_PRIVATE);
5991       private_debug = true;
5992     }
5993   else
5994     private_debug
5995       = lang_hooks.decls.omp_private_debug_clause (decl,
5996                                                    !!(flags & GOVD_SHARED));
5997   if (private_debug)
5998     code = OMP_CLAUSE_PRIVATE;
5999   else if (flags & GOVD_SHARED)
6000     {
6001       if (is_global_var (decl))
6002         {
6003           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp->outer_context;
6004           while (ctx != NULL)
6005             {
6006               splay_tree_node on
6007                 = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
6008               if (on && (on->value & (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE
6009                                       | GOVD_PRIVATE | GOVD_REDUCTION)) != 0)
6010                 break;
6011               ctx = ctx->outer_context;
6012             }
6013           if (ctx == NULL)
6014             return 0;
6015         }
6016       code = OMP_CLAUSE_SHARED;
6017     }
6018   else if (flags & GOVD_PRIVATE)
6019     code = OMP_CLAUSE_PRIVATE;
6020   else if (flags & GOVD_FIRSTPRIVATE)
6021     code = OMP_CLAUSE_FIRSTPRIVATE;
6022   else
6023     gcc_unreachable ();
6024
6025   clause = build_omp_clause (input_location, code);
6026   OMP_CLAUSE_DECL (clause) = decl;
6027   OMP_CLAUSE_CHAIN (clause) = *list_p;
6028   if (private_debug)
6029     OMP_CLAUSE_PRIVATE_DEBUG (clause) = 1;
6030   else if (code == OMP_CLAUSE_PRIVATE && (flags & GOVD_PRIVATE_OUTER_REF))
6031     OMP_CLAUSE_PRIVATE_OUTER_REF (clause) = 1;
6032   *list_p = clause;
6033   lang_hooks.decls.omp_finish_clause (clause);
6034
6035   return 0;
6036 }
6037
6038 static void
6039 gimplify_adjust_omp_clauses (tree *list_p)
6040 {
6041   struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
6042   tree c, decl;
6043
6044   while ((c = *list_p) != NULL)
6045     {
6046       splay_tree_node n;
6047       bool remove = false;
6048
6049       switch (OMP_CLAUSE_CODE (c))
6050         {
6051         case OMP_CLAUSE_PRIVATE:
6052         case OMP_CLAUSE_SHARED:
6053         case OMP_CLAUSE_FIRSTPRIVATE:
6054           decl = OMP_CLAUSE_DECL (c);
6055           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
6056           remove = !(n->value & GOVD_SEEN);
6057           if (! remove)
6058             {
6059               bool shared = OMP_CLAUSE_CODE (c) == OMP_CLAUSE_SHARED;
6060               if ((n->value & GOVD_DEBUG_PRIVATE)
6061                   || lang_hooks.decls.omp_private_debug_clause (decl, shared))
6062                 {
6063                   gcc_assert ((n->value & GOVD_DEBUG_PRIVATE) == 0
6064                               || ((n->value & GOVD_DATA_SHARE_CLASS)
6065                                   == GOVD_PRIVATE));
6066                   OMP_CLAUSE_SET_CODE (c, OMP_CLAUSE_PRIVATE);
6067                   OMP_CLAUSE_PRIVATE_DEBUG (c) = 1;
6068                 }
6069             }
6070           break;
6071
6072         case OMP_CLAUSE_LASTPRIVATE:
6073           /* Make sure OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE is set to
6074              accurately reflect the presence of a FIRSTPRIVATE clause.  */
6075           decl = OMP_CLAUSE_DECL (c);
6076           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
6077           OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE (c)
6078             = (n->value & GOVD_FIRSTPRIVATE) != 0;
6079           break;
6080
6081         case OMP_CLAUSE_REDUCTION:
6082         case OMP_CLAUSE_COPYIN:
6083         case OMP_CLAUSE_COPYPRIVATE:
6084         case OMP_CLAUSE_IF:
6085         case OMP_CLAUSE_NUM_THREADS:
6086         case OMP_CLAUSE_SCHEDULE:
6087         case OMP_CLAUSE_NOWAIT:
6088         case OMP_CLAUSE_ORDERED:
6089         case OMP_CLAUSE_DEFAULT:
6090         case OMP_CLAUSE_UNTIED:
6091         case OMP_CLAUSE_COLLAPSE:
6092           break;
6093
6094         default:
6095           gcc_unreachable ();
6096         }
6097
6098       if (remove)
6099         *list_p = OMP_CLAUSE_CHAIN (c);
6100       else
6101         list_p = &OMP_CLAUSE_CHAIN (c);
6102     }
6103
6104   /* Add in any implicit data sharing.  */
6105   splay_tree_foreach (ctx->variables, gimplify_adjust_omp_clauses_1, list_p);
6106
6107   gimplify_omp_ctxp = ctx->outer_context;
6108   delete_omp_context (ctx);
6109 }
6110
6111 /* Gimplify the contents of an OMP_PARALLEL statement.  This involves
6112    gimplification of the body, as well as scanning the body for used
6113    variables.  We need to do this scan now, because variable-sized
6114    decls will be decomposed during gimplification.  */
6115
6116 static void
6117 gimplify_omp_parallel (tree *expr_p, gimple_seq *pre_p)
6118 {
6119   tree expr = *expr_p;
6120   gimple g;
6121   gimple_seq body = NULL;
6122   struct gimplify_ctx gctx;
6123
6124   gimplify_scan_omp_clauses (&OMP_PARALLEL_CLAUSES (expr), pre_p,
6125                              OMP_PARALLEL_COMBINED (expr)
6126                              ? ORT_COMBINED_PARALLEL
6127                              : ORT_PARALLEL);
6128
6129   push_gimplify_context (&gctx);
6130
6131   g = gimplify_and_return_first (OMP_PARALLEL_BODY (expr), &body);
6132   if (gimple_code (g) == GIMPLE_BIND)
6133     pop_gimplify_context (g);
6134   else
6135     pop_gimplify_context (NULL);
6136
6137   gimplify_adjust_omp_clauses (&OMP_PARALLEL_CLAUSES (expr));
6138
6139   g = gimple_build_omp_parallel (body,
6140                                  OMP_PARALLEL_CLAUSES (expr),
6141                                  NULL_TREE, NULL_TREE);
6142   if (OMP_PARALLEL_COMBINED (expr))
6143     gimple_omp_set_subcode (g, GF_OMP_PARALLEL_COMBINED);
6144   gimplify_seq_add_stmt (pre_p, g);
6145   *expr_p = NULL_TREE;
6146 }
6147
6148 /* Gimplify the contents of an OMP_TASK statement.  This involves
6149    gimplification of the body, as well as scanning the body for used
6150    variables.  We need to do this scan now, because variable-sized
6151    decls will be decomposed during gimplification.  */
6152
6153 static void
6154 gimplify_omp_task (tree *expr_p, gimple_seq *pre_p)
6155 {
6156   tree expr = *expr_p;
6157   gimple g;
6158   gimple_seq body = NULL;
6159   struct gimplify_ctx gctx;
6160
6161   gimplify_scan_omp_clauses (&OMP_TASK_CLAUSES (expr), pre_p,
6162                              find_omp_clause (OMP_TASK_CLAUSES (expr),
6163                                               OMP_CLAUSE_UNTIED)
6164                              ? ORT_UNTIED_TASK : ORT_TASK);
6165
6166   push_gimplify_context (&gctx);
6167
6168   g = gimplify_and_return_first (OMP_TASK_BODY (expr), &body);
6169   if (gimple_code (g) == GIMPLE_BIND)
6170     pop_gimplify_context (g);
6171   else
6172     pop_gimplify_context (NULL);
6173
6174   gimplify_adjust_omp_clauses (&OMP_TASK_CLAUSES (expr));
6175
6176   g = gimple_build_omp_task (body,
6177                              OMP_TASK_CLAUSES (expr),
6178                              NULL_TREE, NULL_TREE,
6179                              NULL_TREE, NULL_TREE, NULL_TREE);
6180   gimplify_seq_add_stmt (pre_p, g);
6181   *expr_p = NULL_TREE;
6182 }
6183
6184 /* Gimplify the gross structure of an OMP_FOR statement.  */
6185
6186 static enum gimplify_status
6187 gimplify_omp_for (tree *expr_p, gimple_seq *pre_p)
6188 {
6189   tree for_stmt, decl, var, t;
6190   enum gimplify_status ret = GS_ALL_DONE;
6191   enum gimplify_status tret;
6192   gimple gfor;
6193   gimple_seq for_body, for_pre_body;
6194   int i;
6195
6196   for_stmt = *expr_p;
6197
6198   gimplify_scan_omp_clauses (&OMP_FOR_CLAUSES (for_stmt), pre_p,
6199                              ORT_WORKSHARE);
6200
6201   /* Handle OMP_FOR_INIT.  */
6202   for_pre_body = NULL;
6203   gimplify_and_add (OMP_FOR_PRE_BODY (for_stmt), &for_pre_body);
6204   OMP_FOR_PRE_BODY (for_stmt) = NULL_TREE;
6205
6206   for_body = gimple_seq_alloc ();
6207   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6208               == TREE_VEC_LENGTH (OMP_FOR_COND (for_stmt)));
6209   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6210               == TREE_VEC_LENGTH (OMP_FOR_INCR (for_stmt)));
6211   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6212     {
6213       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6214       gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6215       decl = TREE_OPERAND (t, 0);
6216       gcc_assert (DECL_P (decl));
6217       gcc_assert (INTEGRAL_TYPE_P (TREE_TYPE (decl))
6218                   || POINTER_TYPE_P (TREE_TYPE (decl)));
6219
6220       /* Make sure the iteration variable is private.  */
6221       if (omp_is_private (gimplify_omp_ctxp, decl))
6222         omp_notice_variable (gimplify_omp_ctxp, decl, true);
6223       else
6224         omp_add_variable (gimplify_omp_ctxp, decl, GOVD_PRIVATE | GOVD_SEEN);
6225
6226       /* If DECL is not a gimple register, create a temporary variable to act
6227          as an iteration counter.  This is valid, since DECL cannot be
6228          modified in the body of the loop.  */
6229       if (!is_gimple_reg (decl))
6230         {
6231           var = create_tmp_var (TREE_TYPE (decl), get_name (decl));
6232           TREE_OPERAND (t, 0) = var;
6233
6234           gimplify_seq_add_stmt (&for_body, gimple_build_assign (decl, var));
6235
6236           omp_add_variable (gimplify_omp_ctxp, var, GOVD_PRIVATE | GOVD_SEEN);
6237         }
6238       else
6239         var = decl;
6240
6241       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6242                             is_gimple_val, fb_rvalue);
6243       ret = MIN (ret, tret);
6244       if (ret == GS_ERROR)
6245         return ret;
6246
6247       /* Handle OMP_FOR_COND.  */
6248       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6249       gcc_assert (COMPARISON_CLASS_P (t));
6250       gcc_assert (TREE_OPERAND (t, 0) == decl);
6251
6252       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6253                             is_gimple_val, fb_rvalue);
6254       ret = MIN (ret, tret);
6255
6256       /* Handle OMP_FOR_INCR.  */
6257       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6258       switch (TREE_CODE (t))
6259         {
6260         case PREINCREMENT_EXPR:
6261         case POSTINCREMENT_EXPR:
6262           t = build_int_cst (TREE_TYPE (decl), 1);
6263           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6264           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6265           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6266           break;
6267
6268         case PREDECREMENT_EXPR:
6269         case POSTDECREMENT_EXPR:
6270           t = build_int_cst (TREE_TYPE (decl), -1);
6271           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6272           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6273           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6274           break;
6275
6276         case MODIFY_EXPR:
6277           gcc_assert (TREE_OPERAND (t, 0) == decl);
6278           TREE_OPERAND (t, 0) = var;
6279
6280           t = TREE_OPERAND (t, 1);
6281           switch (TREE_CODE (t))
6282             {
6283             case PLUS_EXPR:
6284               if (TREE_OPERAND (t, 1) == decl)
6285                 {
6286                   TREE_OPERAND (t, 1) = TREE_OPERAND (t, 0);
6287                   TREE_OPERAND (t, 0) = var;
6288                   break;
6289                 }
6290
6291               /* Fallthru.  */
6292             case MINUS_EXPR:
6293             case POINTER_PLUS_EXPR:
6294               gcc_assert (TREE_OPERAND (t, 0) == decl);
6295               TREE_OPERAND (t, 0) = var;
6296               break;
6297             default:
6298               gcc_unreachable ();
6299             }
6300
6301           tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6302                                 is_gimple_val, fb_rvalue);
6303           ret = MIN (ret, tret);
6304           break;
6305
6306         default:
6307           gcc_unreachable ();
6308         }
6309
6310       if (var != decl || TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)) > 1)
6311         {
6312           tree c;
6313           for (c = OMP_FOR_CLAUSES (for_stmt); c ; c = OMP_CLAUSE_CHAIN (c))
6314             if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
6315                 && OMP_CLAUSE_DECL (c) == decl
6316                 && OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c) == NULL)
6317               {
6318                 t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6319                 gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6320                 gcc_assert (TREE_OPERAND (t, 0) == var);
6321                 t = TREE_OPERAND (t, 1);
6322                 gcc_assert (TREE_CODE (t) == PLUS_EXPR
6323                             || TREE_CODE (t) == MINUS_EXPR
6324                             || TREE_CODE (t) == POINTER_PLUS_EXPR);
6325                 gcc_assert (TREE_OPERAND (t, 0) == var);
6326                 t = build2 (TREE_CODE (t), TREE_TYPE (decl), decl,
6327                             TREE_OPERAND (t, 1));
6328                 gimplify_assign (decl, t,
6329                                  &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
6330             }
6331         }
6332     }
6333
6334   gimplify_and_add (OMP_FOR_BODY (for_stmt), &for_body);
6335
6336   gimplify_adjust_omp_clauses (&OMP_FOR_CLAUSES (for_stmt));
6337
6338   gfor = gimple_build_omp_for (for_body, OMP_FOR_CLAUSES (for_stmt),
6339                                TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)),
6340                                for_pre_body);
6341
6342   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6343     {
6344       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6345       gimple_omp_for_set_index (gfor, i, TREE_OPERAND (t, 0));
6346       gimple_omp_for_set_initial (gfor, i, TREE_OPERAND (t, 1));
6347       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6348       gimple_omp_for_set_cond (gfor, i, TREE_CODE (t));
6349       gimple_omp_for_set_final (gfor, i, TREE_OPERAND (t, 1));
6350       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6351       gimple_omp_for_set_incr (gfor, i, TREE_OPERAND (t, 1));
6352     }
6353
6354   gimplify_seq_add_stmt (pre_p, gfor);
6355   return ret == GS_ALL_DONE ? GS_ALL_DONE : GS_ERROR;
6356 }
6357
6358 /* Gimplify the gross structure of other OpenMP worksharing constructs.
6359    In particular, OMP_SECTIONS and OMP_SINGLE.  */
6360
6361 static void
6362 gimplify_omp_workshare (tree *expr_p, gimple_seq *pre_p)
6363 {
6364   tree expr = *expr_p;
6365   gimple stmt;
6366   gimple_seq body = NULL;
6367
6368   gimplify_scan_omp_clauses (&OMP_CLAUSES (expr), pre_p, ORT_WORKSHARE);
6369   gimplify_and_add (OMP_BODY (expr), &body);
6370   gimplify_adjust_omp_clauses (&OMP_CLAUSES (expr));
6371
6372   if (TREE_CODE (expr) == OMP_SECTIONS)
6373     stmt = gimple_build_omp_sections (body, OMP_CLAUSES (expr));
6374   else if (TREE_CODE (expr) == OMP_SINGLE)
6375     stmt = gimple_build_omp_single (body, OMP_CLAUSES (expr));
6376   else
6377     gcc_unreachable ();
6378
6379   gimplify_seq_add_stmt (pre_p, stmt);
6380 }
6381
6382 /* A subroutine of gimplify_omp_atomic.  The front end is supposed to have
6383    stabilized the lhs of the atomic operation as *ADDR.  Return true if
6384    EXPR is this stabilized form.  */
6385
6386 static bool
6387 goa_lhs_expr_p (tree expr, tree addr)
6388 {
6389   /* Also include casts to other type variants.  The C front end is fond
6390      of adding these for e.g. volatile variables.  This is like
6391      STRIP_TYPE_NOPS but includes the main variant lookup.  */
6392   STRIP_USELESS_TYPE_CONVERSION (expr);
6393
6394   if (TREE_CODE (expr) == INDIRECT_REF)
6395     {
6396       expr = TREE_OPERAND (expr, 0);
6397       while (expr != addr
6398              && (CONVERT_EXPR_P (expr)
6399                  || TREE_CODE (expr) == NON_LVALUE_EXPR)
6400              && TREE_CODE (expr) == TREE_CODE (addr)
6401              && types_compatible_p (TREE_TYPE (expr), TREE_TYPE (addr)))
6402         {
6403           expr = TREE_OPERAND (expr, 0);
6404           addr = TREE_OPERAND (addr, 0);
6405         }
6406       if (expr == addr)
6407         return true;
6408       return (TREE_CODE (addr) == ADDR_EXPR
6409               && TREE_CODE (expr) == ADDR_EXPR
6410               && TREE_OPERAND (addr, 0) == TREE_OPERAND (expr, 0));
6411     }
6412   if (TREE_CODE (addr) == ADDR_EXPR && expr == TREE_OPERAND (addr, 0))
6413     return true;
6414   return false;
6415 }
6416
6417 /* Walk *EXPR_P and replace appearances of *LHS_ADDR with LHS_VAR.  If an
6418    expression does not involve the lhs, evaluate it into a temporary.
6419    Return 1 if the lhs appeared as a subexpression, 0 if it did not,
6420    or -1 if an error was encountered.  */
6421
6422 static int
6423 goa_stabilize_expr (tree *expr_p, gimple_seq *pre_p, tree lhs_addr,
6424                     tree lhs_var)
6425 {
6426   tree expr = *expr_p;
6427   int saw_lhs;
6428
6429   if (goa_lhs_expr_p (expr, lhs_addr))
6430     {
6431       *expr_p = lhs_var;
6432       return 1;
6433     }
6434   if (is_gimple_val (expr))
6435     return 0;
6436
6437   saw_lhs = 0;
6438   switch (TREE_CODE_CLASS (TREE_CODE (expr)))
6439     {
6440     case tcc_binary:
6441     case tcc_comparison:
6442       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p, lhs_addr,
6443                                      lhs_var);
6444     case tcc_unary:
6445       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p, lhs_addr,
6446                                      lhs_var);
6447       break;
6448     case tcc_expression:
6449       switch (TREE_CODE (expr))
6450         {
6451         case TRUTH_ANDIF_EXPR:
6452         case TRUTH_ORIF_EXPR:
6453         case TRUTH_AND_EXPR:
6454         case TRUTH_OR_EXPR:
6455         case TRUTH_XOR_EXPR:
6456           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p,
6457                                          lhs_addr, lhs_var);
6458         case TRUTH_NOT_EXPR:
6459           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p,
6460                                          lhs_addr, lhs_var);
6461           break;
6462         default:
6463           break;
6464         }
6465       break;
6466     default:
6467       break;
6468     }
6469
6470   if (saw_lhs == 0)
6471     {
6472       enum gimplify_status gs;
6473       gs = gimplify_expr (expr_p, pre_p, NULL, is_gimple_val, fb_rvalue);
6474       if (gs != GS_ALL_DONE)
6475         saw_lhs = -1;
6476     }
6477
6478   return saw_lhs;
6479 }
6480
6481 /* Gimplify an OMP_ATOMIC statement.  */
6482
6483 static enum gimplify_status
6484 gimplify_omp_atomic (tree *expr_p, gimple_seq *pre_p)
6485 {
6486   tree addr = TREE_OPERAND (*expr_p, 0);
6487   tree rhs = TREE_OPERAND (*expr_p, 1);
6488   tree type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (addr)));
6489   tree tmp_load;
6490
6491    tmp_load = create_tmp_reg (type, NULL);
6492    if (goa_stabilize_expr (&rhs, pre_p, addr, tmp_load) < 0)
6493      return GS_ERROR;
6494
6495    if (gimplify_expr (&addr, pre_p, NULL, is_gimple_val, fb_rvalue)
6496        != GS_ALL_DONE)
6497      return GS_ERROR;
6498
6499    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_load (tmp_load, addr));
6500    if (gimplify_expr (&rhs, pre_p, NULL, is_gimple_val, fb_rvalue)
6501        != GS_ALL_DONE)
6502      return GS_ERROR;
6503    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_store (rhs));
6504    *expr_p = NULL;
6505
6506    return GS_ALL_DONE;
6507 }
6508
6509 /* Convert the GENERIC expression tree *EXPR_P to GIMPLE.  If the
6510    expression produces a value to be used as an operand inside a GIMPLE
6511    statement, the value will be stored back in *EXPR_P.  This value will
6512    be a tree of class tcc_declaration, tcc_constant, tcc_reference or
6513    an SSA_NAME.  The corresponding sequence of GIMPLE statements is
6514    emitted in PRE_P and POST_P.
6515
6516    Additionally, this process may overwrite parts of the input
6517    expression during gimplification.  Ideally, it should be
6518    possible to do non-destructive gimplification.
6519
6520    EXPR_P points to the GENERIC expression to convert to GIMPLE.  If
6521       the expression needs to evaluate to a value to be used as
6522       an operand in a GIMPLE statement, this value will be stored in
6523       *EXPR_P on exit.  This happens when the caller specifies one
6524       of fb_lvalue or fb_rvalue fallback flags.
6525
6526    PRE_P will contain the sequence of GIMPLE statements corresponding
6527        to the evaluation of EXPR and all the side-effects that must
6528        be executed before the main expression.  On exit, the last
6529        statement of PRE_P is the core statement being gimplified.  For
6530        instance, when gimplifying 'if (++a)' the last statement in
6531        PRE_P will be 'if (t.1)' where t.1 is the result of
6532        pre-incrementing 'a'.
6533
6534    POST_P will contain the sequence of GIMPLE statements corresponding
6535        to the evaluation of all the side-effects that must be executed
6536        after the main expression.  If this is NULL, the post
6537        side-effects are stored at the end of PRE_P.
6538
6539        The reason why the output is split in two is to handle post
6540        side-effects explicitly.  In some cases, an expression may have
6541        inner and outer post side-effects which need to be emitted in
6542        an order different from the one given by the recursive
6543        traversal.  For instance, for the expression (*p--)++ the post
6544        side-effects of '--' must actually occur *after* the post
6545        side-effects of '++'.  However, gimplification will first visit
6546        the inner expression, so if a separate POST sequence was not
6547        used, the resulting sequence would be:
6548
6549             1   t.1 = *p
6550             2   p = p - 1
6551             3   t.2 = t.1 + 1
6552             4   *p = t.2
6553
6554        However, the post-decrement operation in line #2 must not be
6555        evaluated until after the store to *p at line #4, so the
6556        correct sequence should be:
6557
6558             1   t.1 = *p
6559             2   t.2 = t.1 + 1
6560             3   *p = t.2
6561             4   p = p - 1
6562
6563        So, by specifying a separate post queue, it is possible
6564        to emit the post side-effects in the correct order.
6565        If POST_P is NULL, an internal queue will be used.  Before
6566        returning to the caller, the sequence POST_P is appended to
6567        the main output sequence PRE_P.
6568
6569    GIMPLE_TEST_F points to a function that takes a tree T and
6570        returns nonzero if T is in the GIMPLE form requested by the
6571        caller.  The GIMPLE predicates are in gimple.c.
6572
6573    FALLBACK tells the function what sort of a temporary we want if
6574        gimplification cannot produce an expression that complies with
6575        GIMPLE_TEST_F.
6576
6577        fb_none means that no temporary should be generated
6578        fb_rvalue means that an rvalue is OK to generate
6579        fb_lvalue means that an lvalue is OK to generate
6580        fb_either means that either is OK, but an lvalue is preferable.
6581        fb_mayfail means that gimplification may fail (in which case
6582        GS_ERROR will be returned)
6583
6584    The return value is either GS_ERROR or GS_ALL_DONE, since this
6585    function iterates until EXPR is completely gimplified or an error
6586    occurs.  */
6587
6588 enum gimplify_status
6589 gimplify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
6590                bool (*gimple_test_f) (tree), fallback_t fallback)
6591 {
6592   tree tmp;
6593   gimple_seq internal_pre = NULL;
6594   gimple_seq internal_post = NULL;
6595   tree save_expr;
6596   bool is_statement;
6597   location_t saved_location;
6598   enum gimplify_status ret;
6599   gimple_stmt_iterator pre_last_gsi, post_last_gsi;
6600
6601   save_expr = *expr_p;
6602   if (save_expr == NULL_TREE)
6603     return GS_ALL_DONE;
6604
6605   /* If we are gimplifying a top-level statement, PRE_P must be valid.  */
6606   is_statement = gimple_test_f == is_gimple_stmt;
6607   if (is_statement)
6608     gcc_assert (pre_p);
6609
6610   /* Consistency checks.  */
6611   if (gimple_test_f == is_gimple_reg)
6612     gcc_assert (fallback & (fb_rvalue | fb_lvalue));
6613   else if (gimple_test_f == is_gimple_val
6614            || gimple_test_f == is_gimple_call_addr
6615            || gimple_test_f == is_gimple_condexpr
6616            || gimple_test_f == is_gimple_mem_rhs
6617            || gimple_test_f == is_gimple_mem_rhs_or_call
6618            || gimple_test_f == is_gimple_reg_rhs
6619            || gimple_test_f == is_gimple_reg_rhs_or_call
6620            || gimple_test_f == is_gimple_asm_val
6621            || gimple_test_f == is_gimple_mem_ref_addr)
6622     gcc_assert (fallback & fb_rvalue);
6623   else if (gimple_test_f == is_gimple_min_lval
6624            || gimple_test_f == is_gimple_lvalue)
6625     gcc_assert (fallback & fb_lvalue);
6626   else if (gimple_test_f == is_gimple_addressable)
6627     gcc_assert (fallback & fb_either);
6628   else if (gimple_test_f == is_gimple_stmt)
6629     gcc_assert (fallback == fb_none);
6630   else
6631     {
6632       /* We should have recognized the GIMPLE_TEST_F predicate to
6633          know what kind of fallback to use in case a temporary is
6634          needed to hold the value or address of *EXPR_P.  */
6635       gcc_unreachable ();
6636     }
6637
6638   /* We used to check the predicate here and return immediately if it
6639      succeeds.  This is wrong; the design is for gimplification to be
6640      idempotent, and for the predicates to only test for valid forms, not
6641      whether they are fully simplified.  */
6642   if (pre_p == NULL)
6643     pre_p = &internal_pre;
6644
6645   if (post_p == NULL)
6646     post_p = &internal_post;
6647
6648   /* Remember the last statements added to PRE_P and POST_P.  Every
6649      new statement added by the gimplification helpers needs to be
6650      annotated with location information.  To centralize the
6651      responsibility, we remember the last statement that had been
6652      added to both queues before gimplifying *EXPR_P.  If
6653      gimplification produces new statements in PRE_P and POST_P, those
6654      statements will be annotated with the same location information
6655      as *EXPR_P.  */
6656   pre_last_gsi = gsi_last (*pre_p);
6657   post_last_gsi = gsi_last (*post_p);
6658
6659   saved_location = input_location;
6660   if (save_expr != error_mark_node
6661       && EXPR_HAS_LOCATION (*expr_p))
6662     input_location = EXPR_LOCATION (*expr_p);
6663
6664   /* Loop over the specific gimplifiers until the toplevel node
6665      remains the same.  */
6666   do
6667     {
6668       /* Strip away as many useless type conversions as possible
6669          at the toplevel.  */
6670       STRIP_USELESS_TYPE_CONVERSION (*expr_p);
6671
6672       /* Remember the expr.  */
6673       save_expr = *expr_p;
6674
6675       /* Die, die, die, my darling.  */
6676       if (save_expr == error_mark_node
6677           || (TREE_TYPE (save_expr)
6678               && TREE_TYPE (save_expr) == error_mark_node))
6679         {
6680           ret = GS_ERROR;
6681           break;
6682         }
6683
6684       /* Do any language-specific gimplification.  */
6685       ret = ((enum gimplify_status)
6686              lang_hooks.gimplify_expr (expr_p, pre_p, post_p));
6687       if (ret == GS_OK)
6688         {
6689           if (*expr_p == NULL_TREE)
6690             break;
6691           if (*expr_p != save_expr)
6692             continue;
6693         }
6694       else if (ret != GS_UNHANDLED)
6695         break;
6696
6697       /* Make sure that all the cases set 'ret' appropriately.  */
6698       ret = GS_UNHANDLED;
6699       switch (TREE_CODE (*expr_p))
6700         {
6701           /* First deal with the special cases.  */
6702
6703         case POSTINCREMENT_EXPR:
6704         case POSTDECREMENT_EXPR:
6705         case PREINCREMENT_EXPR:
6706         case PREDECREMENT_EXPR:
6707           ret = gimplify_self_mod_expr (expr_p, pre_p, post_p,
6708                                         fallback != fb_none);
6709           break;
6710
6711         case ARRAY_REF:
6712         case ARRAY_RANGE_REF:
6713         case REALPART_EXPR:
6714         case IMAGPART_EXPR:
6715         case COMPONENT_REF:
6716         case VIEW_CONVERT_EXPR:
6717           ret = gimplify_compound_lval (expr_p, pre_p, post_p,
6718                                         fallback ? fallback : fb_rvalue);
6719           break;
6720
6721         case COND_EXPR:
6722           ret = gimplify_cond_expr (expr_p, pre_p, fallback);
6723
6724           /* C99 code may assign to an array in a structure value of a
6725              conditional expression, and this has undefined behavior
6726              only on execution, so create a temporary if an lvalue is
6727              required.  */
6728           if (fallback == fb_lvalue)
6729             {
6730               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6731               mark_addressable (*expr_p);
6732               ret = GS_OK;
6733             }
6734           break;
6735
6736         case CALL_EXPR:
6737           ret = gimplify_call_expr (expr_p, pre_p, fallback != fb_none);
6738
6739           /* C99 code may assign to an array in a structure returned
6740              from a function, and this has undefined behavior only on
6741              execution, so create a temporary if an lvalue is
6742              required.  */
6743           if (fallback == fb_lvalue)
6744             {
6745               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6746               mark_addressable (*expr_p);
6747               ret = GS_OK;
6748             }
6749           break;
6750
6751         case TREE_LIST:
6752           gcc_unreachable ();
6753
6754         case COMPOUND_EXPR:
6755           ret = gimplify_compound_expr (expr_p, pre_p, fallback != fb_none);
6756           break;
6757
6758         case COMPOUND_LITERAL_EXPR:
6759           ret = gimplify_compound_literal_expr (expr_p, pre_p);
6760           break;
6761
6762         case MODIFY_EXPR:
6763         case INIT_EXPR:
6764           ret = gimplify_modify_expr (expr_p, pre_p, post_p,
6765                                       fallback != fb_none);
6766           break;
6767
6768         case TRUTH_ANDIF_EXPR:
6769         case TRUTH_ORIF_EXPR:
6770           /* Pass the source location of the outer expression.  */
6771           ret = gimplify_boolean_expr (expr_p, saved_location);
6772           break;
6773
6774         case TRUTH_NOT_EXPR:
6775           if (TREE_CODE (TREE_TYPE (*expr_p)) != BOOLEAN_TYPE)
6776             {
6777               tree type = TREE_TYPE (*expr_p);
6778               *expr_p = fold_convert (type, gimple_boolify (*expr_p));
6779               ret = GS_OK;
6780               break;
6781             }
6782
6783           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6784                                is_gimple_val, fb_rvalue);
6785           recalculate_side_effects (*expr_p);
6786           break;
6787
6788         case ADDR_EXPR:
6789           ret = gimplify_addr_expr (expr_p, pre_p, post_p);
6790           break;
6791
6792         case VA_ARG_EXPR:
6793           ret = gimplify_va_arg_expr (expr_p, pre_p, post_p);
6794           break;
6795
6796         CASE_CONVERT:
6797           if (IS_EMPTY_STMT (*expr_p))
6798             {
6799               ret = GS_ALL_DONE;
6800               break;
6801             }
6802
6803           if (VOID_TYPE_P (TREE_TYPE (*expr_p))
6804               || fallback == fb_none)
6805             {
6806               /* Just strip a conversion to void (or in void context) and
6807                  try again.  */
6808               *expr_p = TREE_OPERAND (*expr_p, 0);
6809               ret = GS_OK;
6810               break;
6811             }
6812
6813           ret = gimplify_conversion (expr_p);
6814           if (ret == GS_ERROR)
6815             break;
6816           if (*expr_p != save_expr)
6817             break;
6818           /* FALLTHRU */
6819
6820         case FIX_TRUNC_EXPR:
6821           /* unary_expr: ... | '(' cast ')' val | ...  */
6822           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6823                                is_gimple_val, fb_rvalue);
6824           recalculate_side_effects (*expr_p);
6825           break;
6826
6827         case INDIRECT_REF:
6828           {
6829             bool volatilep = TREE_THIS_VOLATILE (*expr_p);
6830             bool notrap = TREE_THIS_NOTRAP (*expr_p);
6831             tree saved_ptr_type = TREE_TYPE (TREE_OPERAND (*expr_p, 0));
6832
6833             *expr_p = fold_indirect_ref_loc (input_location, *expr_p);
6834             if (*expr_p != save_expr)
6835               {
6836                 ret = GS_OK;
6837                 break;
6838               }
6839
6840             ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6841                                  is_gimple_reg, fb_rvalue);
6842             if (ret == GS_ERROR)
6843               break;
6844
6845             recalculate_side_effects (*expr_p);
6846             *expr_p = fold_build2_loc (input_location, MEM_REF,
6847                                        TREE_TYPE (*expr_p),
6848                                        TREE_OPERAND (*expr_p, 0),
6849                                        build_int_cst (saved_ptr_type, 0));
6850             TREE_THIS_VOLATILE (*expr_p) = volatilep;
6851             TREE_THIS_NOTRAP (*expr_p) = notrap;
6852             ret = GS_OK;
6853             break;
6854           }
6855
6856         /* We arrive here through the various re-gimplifcation paths.  */
6857         case MEM_REF:
6858           /* First try re-folding the whole thing.  */
6859           tmp = fold_binary (MEM_REF, TREE_TYPE (*expr_p),
6860                              TREE_OPERAND (*expr_p, 0),
6861                              TREE_OPERAND (*expr_p, 1));
6862           if (tmp)
6863             {
6864               *expr_p = tmp;
6865               recalculate_side_effects (*expr_p);
6866               ret = GS_OK;
6867               break;
6868             }
6869           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6870                                is_gimple_mem_ref_addr, fb_rvalue);
6871           if (ret == GS_ERROR)
6872             break;
6873           recalculate_side_effects (*expr_p);
6874           ret = GS_ALL_DONE;
6875           break;
6876
6877           /* Constants need not be gimplified.  */
6878         case INTEGER_CST:
6879         case REAL_CST:
6880         case FIXED_CST:
6881         case STRING_CST:
6882         case COMPLEX_CST:
6883         case VECTOR_CST:
6884           ret = GS_ALL_DONE;
6885           break;
6886
6887         case CONST_DECL:
6888           /* If we require an lvalue, such as for ADDR_EXPR, retain the
6889              CONST_DECL node.  Otherwise the decl is replaceable by its
6890              value.  */
6891           /* ??? Should be == fb_lvalue, but ADDR_EXPR passes fb_either.  */
6892           if (fallback & fb_lvalue)
6893             ret = GS_ALL_DONE;
6894           else
6895             {
6896               *expr_p = DECL_INITIAL (*expr_p);
6897               ret = GS_OK;
6898             }
6899           break;
6900
6901         case DECL_EXPR:
6902           ret = gimplify_decl_expr (expr_p, pre_p);
6903           break;
6904
6905         case BIND_EXPR:
6906           ret = gimplify_bind_expr (expr_p, pre_p);
6907           break;
6908
6909         case LOOP_EXPR:
6910           ret = gimplify_loop_expr (expr_p, pre_p);
6911           break;
6912
6913         case SWITCH_EXPR:
6914           ret = gimplify_switch_expr (expr_p, pre_p);
6915           break;
6916
6917         case EXIT_EXPR:
6918           ret = gimplify_exit_expr (expr_p);
6919           break;
6920
6921         case GOTO_EXPR:
6922           /* If the target is not LABEL, then it is a computed jump
6923              and the target needs to be gimplified.  */
6924           if (TREE_CODE (GOTO_DESTINATION (*expr_p)) != LABEL_DECL)
6925             {
6926               ret = gimplify_expr (&GOTO_DESTINATION (*expr_p), pre_p,
6927                                    NULL, is_gimple_val, fb_rvalue);
6928               if (ret == GS_ERROR)
6929                 break;
6930             }
6931           gimplify_seq_add_stmt (pre_p,
6932                           gimple_build_goto (GOTO_DESTINATION (*expr_p)));
6933           ret = GS_ALL_DONE;
6934           break;
6935
6936         case PREDICT_EXPR:
6937           gimplify_seq_add_stmt (pre_p,
6938                         gimple_build_predict (PREDICT_EXPR_PREDICTOR (*expr_p),
6939                                               PREDICT_EXPR_OUTCOME (*expr_p)));
6940           ret = GS_ALL_DONE;
6941           break;
6942
6943         case LABEL_EXPR:
6944           ret = GS_ALL_DONE;
6945           gcc_assert (decl_function_context (LABEL_EXPR_LABEL (*expr_p))
6946                       == current_function_decl);
6947           gimplify_seq_add_stmt (pre_p,
6948                           gimple_build_label (LABEL_EXPR_LABEL (*expr_p)));
6949           break;
6950
6951         case CASE_LABEL_EXPR:
6952           ret = gimplify_case_label_expr (expr_p, pre_p);
6953           break;
6954
6955         case RETURN_EXPR:
6956           ret = gimplify_return_expr (*expr_p, pre_p);
6957           break;
6958
6959         case CONSTRUCTOR:
6960           /* Don't reduce this in place; let gimplify_init_constructor work its
6961              magic.  Buf if we're just elaborating this for side effects, just
6962              gimplify any element that has side-effects.  */
6963           if (fallback == fb_none)
6964             {
6965               unsigned HOST_WIDE_INT ix;
6966               tree val;
6967               tree temp = NULL_TREE;
6968               FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (*expr_p), ix, val)
6969                 if (TREE_SIDE_EFFECTS (val))
6970                   append_to_statement_list (val, &temp);
6971
6972               *expr_p = temp;
6973               ret = temp ? GS_OK : GS_ALL_DONE;
6974             }
6975           /* C99 code may assign to an array in a constructed
6976              structure or union, and this has undefined behavior only
6977              on execution, so create a temporary if an lvalue is
6978              required.  */
6979           else if (fallback == fb_lvalue)
6980             {
6981               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6982               mark_addressable (*expr_p);
6983               ret = GS_OK;
6984             }
6985           else
6986             ret = GS_ALL_DONE;
6987           break;
6988
6989           /* The following are special cases that are not handled by the
6990              original GIMPLE grammar.  */
6991
6992           /* SAVE_EXPR nodes are converted into a GIMPLE identifier and
6993              eliminated.  */
6994         case SAVE_EXPR:
6995           ret = gimplify_save_expr (expr_p, pre_p, post_p);
6996           break;
6997
6998         case BIT_FIELD_REF:
6999           {
7000             enum gimplify_status r0, r1, r2;
7001
7002             r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7003                                 post_p, is_gimple_lvalue, fb_either);
7004             r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
7005                                 post_p, is_gimple_val, fb_rvalue);
7006             r2 = gimplify_expr (&TREE_OPERAND (*expr_p, 2), pre_p,
7007                                 post_p, is_gimple_val, fb_rvalue);
7008             recalculate_side_effects (*expr_p);
7009
7010             ret = MIN (r0, MIN (r1, r2));
7011           }
7012           break;
7013
7014         case TARGET_MEM_REF:
7015           {
7016             enum gimplify_status r0 = GS_ALL_DONE, r1 = GS_ALL_DONE;
7017
7018             if (TMR_BASE (*expr_p))
7019               r0 = gimplify_expr (&TMR_BASE (*expr_p), pre_p,
7020                                   post_p, is_gimple_mem_ref_addr, fb_either);
7021             if (TMR_INDEX (*expr_p))
7022               r1 = gimplify_expr (&TMR_INDEX (*expr_p), pre_p,
7023                                   post_p, is_gimple_val, fb_rvalue);
7024             if (TMR_INDEX2 (*expr_p))
7025               r1 = gimplify_expr (&TMR_INDEX2 (*expr_p), pre_p,
7026                                   post_p, is_gimple_val, fb_rvalue);
7027             /* TMR_STEP and TMR_OFFSET are always integer constants.  */
7028             ret = MIN (r0, r1);
7029           }
7030           break;
7031
7032         case NON_LVALUE_EXPR:
7033           /* This should have been stripped above.  */
7034           gcc_unreachable ();
7035
7036         case ASM_EXPR:
7037           ret = gimplify_asm_expr (expr_p, pre_p, post_p);
7038           break;
7039
7040         case TRY_FINALLY_EXPR:
7041         case TRY_CATCH_EXPR:
7042           {
7043             gimple_seq eval, cleanup;
7044             gimple try_;
7045
7046             eval = cleanup = NULL;
7047             gimplify_and_add (TREE_OPERAND (*expr_p, 0), &eval);
7048             gimplify_and_add (TREE_OPERAND (*expr_p, 1), &cleanup);
7049             /* Don't create bogus GIMPLE_TRY with empty cleanup.  */
7050             if (gimple_seq_empty_p (cleanup))
7051               {
7052                 gimple_seq_add_seq (pre_p, eval);
7053                 ret = GS_ALL_DONE;
7054                 break;
7055               }
7056             try_ = gimple_build_try (eval, cleanup,
7057                                      TREE_CODE (*expr_p) == TRY_FINALLY_EXPR
7058                                      ? GIMPLE_TRY_FINALLY
7059                                      : GIMPLE_TRY_CATCH);
7060             if (TREE_CODE (*expr_p) == TRY_CATCH_EXPR)
7061               gimple_try_set_catch_is_cleanup (try_,
7062                                                TRY_CATCH_IS_CLEANUP (*expr_p));
7063             gimplify_seq_add_stmt (pre_p, try_);
7064             ret = GS_ALL_DONE;
7065             break;
7066           }
7067
7068         case CLEANUP_POINT_EXPR:
7069           ret = gimplify_cleanup_point_expr (expr_p, pre_p);
7070           break;
7071
7072         case TARGET_EXPR:
7073           ret = gimplify_target_expr (expr_p, pre_p, post_p);
7074           break;
7075
7076         case CATCH_EXPR:
7077           {
7078             gimple c;
7079             gimple_seq handler = NULL;
7080             gimplify_and_add (CATCH_BODY (*expr_p), &handler);
7081             c = gimple_build_catch (CATCH_TYPES (*expr_p), handler);
7082             gimplify_seq_add_stmt (pre_p, c);
7083             ret = GS_ALL_DONE;
7084             break;
7085           }
7086
7087         case EH_FILTER_EXPR:
7088           {
7089             gimple ehf;
7090             gimple_seq failure = NULL;
7091
7092             gimplify_and_add (EH_FILTER_FAILURE (*expr_p), &failure);
7093             ehf = gimple_build_eh_filter (EH_FILTER_TYPES (*expr_p), failure);
7094             gimple_set_no_warning (ehf, TREE_NO_WARNING (*expr_p));
7095             gimplify_seq_add_stmt (pre_p, ehf);
7096             ret = GS_ALL_DONE;
7097             break;
7098           }
7099
7100         case OBJ_TYPE_REF:
7101           {
7102             enum gimplify_status r0, r1;
7103             r0 = gimplify_expr (&OBJ_TYPE_REF_OBJECT (*expr_p), pre_p,
7104                                 post_p, is_gimple_val, fb_rvalue);
7105             r1 = gimplify_expr (&OBJ_TYPE_REF_EXPR (*expr_p), pre_p,
7106                                 post_p, is_gimple_val, fb_rvalue);
7107             TREE_SIDE_EFFECTS (*expr_p) = 0;
7108             ret = MIN (r0, r1);
7109           }
7110           break;
7111
7112         case LABEL_DECL:
7113           /* We get here when taking the address of a label.  We mark
7114              the label as "forced"; meaning it can never be removed and
7115              it is a potential target for any computed goto.  */
7116           FORCED_LABEL (*expr_p) = 1;
7117           ret = GS_ALL_DONE;
7118           break;
7119
7120         case STATEMENT_LIST:
7121           ret = gimplify_statement_list (expr_p, pre_p);
7122           break;
7123
7124         case WITH_SIZE_EXPR:
7125           {
7126             gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7127                            post_p == &internal_post ? NULL : post_p,
7128                            gimple_test_f, fallback);
7129             gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
7130                            is_gimple_val, fb_rvalue);
7131             ret = GS_ALL_DONE;
7132           }
7133           break;
7134
7135         case VAR_DECL:
7136         case PARM_DECL:
7137           ret = gimplify_var_or_parm_decl (expr_p);
7138           break;
7139
7140         case RESULT_DECL:
7141           /* When within an OpenMP context, notice uses of variables.  */
7142           if (gimplify_omp_ctxp)
7143             omp_notice_variable (gimplify_omp_ctxp, *expr_p, true);
7144           ret = GS_ALL_DONE;
7145           break;
7146
7147         case SSA_NAME:
7148           /* Allow callbacks into the gimplifier during optimization.  */
7149           ret = GS_ALL_DONE;
7150           break;
7151
7152         case OMP_PARALLEL:
7153           gimplify_omp_parallel (expr_p, pre_p);
7154           ret = GS_ALL_DONE;
7155           break;
7156
7157         case OMP_TASK:
7158           gimplify_omp_task (expr_p, pre_p);
7159           ret = GS_ALL_DONE;
7160           break;
7161
7162         case OMP_FOR:
7163           ret = gimplify_omp_for (expr_p, pre_p);
7164           break;
7165
7166         case OMP_SECTIONS:
7167         case OMP_SINGLE:
7168           gimplify_omp_workshare (expr_p, pre_p);
7169           ret = GS_ALL_DONE;
7170           break;
7171
7172         case OMP_SECTION:
7173         case OMP_MASTER:
7174         case OMP_ORDERED:
7175         case OMP_CRITICAL:
7176           {
7177             gimple_seq body = NULL;
7178             gimple g;
7179
7180             gimplify_and_add (OMP_BODY (*expr_p), &body);
7181             switch (TREE_CODE (*expr_p))
7182               {
7183               case OMP_SECTION:
7184                 g = gimple_build_omp_section (body);
7185                 break;
7186               case OMP_MASTER:
7187                 g = gimple_build_omp_master (body);
7188                 break;
7189               case OMP_ORDERED:
7190                 g = gimple_build_omp_ordered (body);
7191                 break;
7192               case OMP_CRITICAL:
7193                 g = gimple_build_omp_critical (body,
7194                                                OMP_CRITICAL_NAME (*expr_p));
7195                 break;
7196               default:
7197                 gcc_unreachable ();
7198               }
7199             gimplify_seq_add_stmt (pre_p, g);
7200             ret = GS_ALL_DONE;
7201             break;
7202           }
7203
7204         case OMP_ATOMIC:
7205           ret = gimplify_omp_atomic (expr_p, pre_p);
7206           break;
7207
7208         case TRUTH_AND_EXPR:
7209         case TRUTH_OR_EXPR:
7210         case TRUTH_XOR_EXPR:
7211           /* Classified as tcc_expression.  */
7212           goto expr_2;
7213
7214         case FMA_EXPR:
7215           /* Classified as tcc_expression.  */
7216           goto expr_3;
7217
7218         case POINTER_PLUS_EXPR:
7219           /* Convert ((type *)A)+offset into &A->field_of_type_and_offset.
7220              The second is gimple immediate saving a need for extra statement.
7221            */
7222           if (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7223               && (tmp = maybe_fold_offset_to_address
7224                   (EXPR_LOCATION (*expr_p),
7225                    TREE_OPERAND (*expr_p, 0), TREE_OPERAND (*expr_p, 1),
7226                    TREE_TYPE (*expr_p))))
7227             {
7228               *expr_p = tmp;
7229               ret = GS_OK;
7230               break;
7231             }
7232           /* Convert (void *)&a + 4 into (void *)&a[1].  */
7233           if (TREE_CODE (TREE_OPERAND (*expr_p, 0)) == NOP_EXPR
7234               && TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7235               && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p,
7236                                                                         0),0)))
7237               && (tmp = maybe_fold_offset_to_address
7238                   (EXPR_LOCATION (*expr_p),
7239                    TREE_OPERAND (TREE_OPERAND (*expr_p, 0), 0),
7240                    TREE_OPERAND (*expr_p, 1),
7241                    TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p, 0),
7242                                             0)))))
7243              {
7244                *expr_p = fold_convert (TREE_TYPE (*expr_p), tmp);
7245                ret = GS_OK;
7246                break;
7247              }
7248           /* FALLTHRU */
7249
7250         default:
7251           switch (TREE_CODE_CLASS (TREE_CODE (*expr_p)))
7252             {
7253             case tcc_comparison:
7254               /* Handle comparison of objects of non scalar mode aggregates
7255                  with a call to memcmp.  It would be nice to only have to do
7256                  this for variable-sized objects, but then we'd have to allow
7257                  the same nest of reference nodes we allow for MODIFY_EXPR and
7258                  that's too complex.
7259
7260                  Compare scalar mode aggregates as scalar mode values.  Using
7261                  memcmp for them would be very inefficient at best, and is
7262                  plain wrong if bitfields are involved.  */
7263                 {
7264                   tree type = TREE_TYPE (TREE_OPERAND (*expr_p, 1));
7265
7266                   if (!AGGREGATE_TYPE_P (type))
7267                     goto expr_2;
7268                   else if (TYPE_MODE (type) != BLKmode)
7269                     ret = gimplify_scalar_mode_aggregate_compare (expr_p);
7270                   else
7271                     ret = gimplify_variable_sized_compare (expr_p);
7272
7273                   break;
7274                 }
7275
7276             /* If *EXPR_P does not need to be special-cased, handle it
7277                according to its class.  */
7278             case tcc_unary:
7279               ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7280                                    post_p, is_gimple_val, fb_rvalue);
7281               break;
7282
7283             case tcc_binary:
7284             expr_2:
7285               {
7286                 enum gimplify_status r0, r1;
7287
7288                 r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7289                                     post_p, is_gimple_val, fb_rvalue);
7290                 r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
7291                                     post_p, is_gimple_val, fb_rvalue);
7292
7293                 ret = MIN (r0, r1);
7294                 break;
7295               }
7296
7297             expr_3:
7298               {
7299                 enum gimplify_status r0, r1, r2;
7300
7301                 r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7302                                     post_p, is_gimple_val, fb_rvalue);
7303                 r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
7304                                     post_p, is_gimple_val, fb_rvalue);
7305                 r2 = gimplify_expr (&TREE_OPERAND (*expr_p, 2), pre_p,
7306                                     post_p, is_gimple_val, fb_rvalue);
7307
7308                 ret = MIN (MIN (r0, r1), r2);
7309                 break;
7310               }
7311
7312             case tcc_declaration:
7313             case tcc_constant:
7314               ret = GS_ALL_DONE;
7315               goto dont_recalculate;
7316
7317             default:
7318               gcc_unreachable ();
7319             }
7320
7321           recalculate_side_effects (*expr_p);
7322
7323         dont_recalculate:
7324           break;
7325         }
7326
7327       gcc_assert (*expr_p || ret != GS_OK);
7328     }
7329   while (ret == GS_OK);
7330
7331   /* If we encountered an error_mark somewhere nested inside, either
7332      stub out the statement or propagate the error back out.  */
7333   if (ret == GS_ERROR)
7334     {
7335       if (is_statement)
7336         *expr_p = NULL;
7337       goto out;
7338     }
7339
7340   /* This was only valid as a return value from the langhook, which
7341      we handled.  Make sure it doesn't escape from any other context.  */
7342   gcc_assert (ret != GS_UNHANDLED);
7343
7344   if (fallback == fb_none && *expr_p && !is_gimple_stmt (*expr_p))
7345     {
7346       /* We aren't looking for a value, and we don't have a valid
7347          statement.  If it doesn't have side-effects, throw it away.  */
7348       if (!TREE_SIDE_EFFECTS (*expr_p))
7349         *expr_p = NULL;
7350       else if (!TREE_THIS_VOLATILE (*expr_p))
7351         {
7352           /* This is probably a _REF that contains something nested that
7353              has side effects.  Recurse through the operands to find it.  */
7354           enum tree_code code = TREE_CODE (*expr_p);
7355
7356           switch (code)
7357             {
7358             case COMPONENT_REF:
7359             case REALPART_EXPR:
7360             case IMAGPART_EXPR:
7361             case VIEW_CONVERT_EXPR:
7362               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7363                              gimple_test_f, fallback);
7364               break;
7365
7366             case ARRAY_REF:
7367             case ARRAY_RANGE_REF:
7368               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7369                              gimple_test_f, fallback);
7370               gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
7371                              gimple_test_f, fallback);
7372               break;
7373
7374             default:
7375                /* Anything else with side-effects must be converted to
7376                   a valid statement before we get here.  */
7377               gcc_unreachable ();
7378             }
7379
7380           *expr_p = NULL;
7381         }
7382       else if (COMPLETE_TYPE_P (TREE_TYPE (*expr_p))
7383                && TYPE_MODE (TREE_TYPE (*expr_p)) != BLKmode)
7384         {
7385           /* Historically, the compiler has treated a bare reference
7386              to a non-BLKmode volatile lvalue as forcing a load.  */
7387           tree type = TYPE_MAIN_VARIANT (TREE_TYPE (*expr_p));
7388
7389           /* Normally, we do not want to create a temporary for a
7390              TREE_ADDRESSABLE type because such a type should not be
7391              copied by bitwise-assignment.  However, we make an
7392              exception here, as all we are doing here is ensuring that
7393              we read the bytes that make up the type.  We use
7394              create_tmp_var_raw because create_tmp_var will abort when
7395              given a TREE_ADDRESSABLE type.  */
7396           tree tmp = create_tmp_var_raw (type, "vol");
7397           gimple_add_tmp_var (tmp);
7398           gimplify_assign (tmp, *expr_p, pre_p);
7399           *expr_p = NULL;
7400         }
7401       else
7402         /* We can't do anything useful with a volatile reference to
7403            an incomplete type, so just throw it away.  Likewise for
7404            a BLKmode type, since any implicit inner load should
7405            already have been turned into an explicit one by the
7406            gimplification process.  */
7407         *expr_p = NULL;
7408     }
7409
7410   /* If we are gimplifying at the statement level, we're done.  Tack
7411      everything together and return.  */
7412   if (fallback == fb_none || is_statement)
7413     {
7414       /* Since *EXPR_P has been converted into a GIMPLE tuple, clear
7415          it out for GC to reclaim it.  */
7416       *expr_p = NULL_TREE;
7417
7418       if (!gimple_seq_empty_p (internal_pre)
7419           || !gimple_seq_empty_p (internal_post))
7420         {
7421           gimplify_seq_add_seq (&internal_pre, internal_post);
7422           gimplify_seq_add_seq (pre_p, internal_pre);
7423         }
7424
7425       /* The result of gimplifying *EXPR_P is going to be the last few
7426          statements in *PRE_P and *POST_P.  Add location information
7427          to all the statements that were added by the gimplification
7428          helpers.  */
7429       if (!gimple_seq_empty_p (*pre_p))
7430         annotate_all_with_location_after (*pre_p, pre_last_gsi, input_location);
7431
7432       if (!gimple_seq_empty_p (*post_p))
7433         annotate_all_with_location_after (*post_p, post_last_gsi,
7434                                           input_location);
7435
7436       goto out;
7437     }
7438
7439 #ifdef ENABLE_GIMPLE_CHECKING
7440   if (*expr_p)
7441     {
7442       enum tree_code code = TREE_CODE (*expr_p);
7443       /* These expressions should already be in gimple IR form.  */
7444       gcc_assert (code != MODIFY_EXPR
7445                   && code != ASM_EXPR
7446                   && code != BIND_EXPR
7447                   && code != CATCH_EXPR
7448                   && (code != COND_EXPR || gimplify_ctxp->allow_rhs_cond_expr)
7449                   && code != EH_FILTER_EXPR
7450                   && code != GOTO_EXPR
7451                   && code != LABEL_EXPR
7452                   && code != LOOP_EXPR
7453                   && code != SWITCH_EXPR
7454                   && code != TRY_FINALLY_EXPR
7455                   && code != OMP_CRITICAL
7456                   && code != OMP_FOR
7457                   && code != OMP_MASTER
7458                   && code != OMP_ORDERED
7459                   && code != OMP_PARALLEL
7460                   && code != OMP_SECTIONS
7461                   && code != OMP_SECTION
7462                   && code != OMP_SINGLE);
7463     }
7464 #endif
7465
7466   /* Otherwise we're gimplifying a subexpression, so the resulting
7467      value is interesting.  If it's a valid operand that matches
7468      GIMPLE_TEST_F, we're done. Unless we are handling some
7469      post-effects internally; if that's the case, we need to copy into
7470      a temporary before adding the post-effects to POST_P.  */
7471   if (gimple_seq_empty_p (internal_post) && (*gimple_test_f) (*expr_p))
7472     goto out;
7473
7474   /* Otherwise, we need to create a new temporary for the gimplified
7475      expression.  */
7476
7477   /* We can't return an lvalue if we have an internal postqueue.  The
7478      object the lvalue refers to would (probably) be modified by the
7479      postqueue; we need to copy the value out first, which means an
7480      rvalue.  */
7481   if ((fallback & fb_lvalue)
7482       && gimple_seq_empty_p (internal_post)
7483       && is_gimple_addressable (*expr_p))
7484     {
7485       /* An lvalue will do.  Take the address of the expression, store it
7486          in a temporary, and replace the expression with an INDIRECT_REF of
7487          that temporary.  */
7488       tmp = build_fold_addr_expr_loc (input_location, *expr_p);
7489       gimplify_expr (&tmp, pre_p, post_p, is_gimple_reg, fb_rvalue);
7490       *expr_p = build_simple_mem_ref (tmp);
7491     }
7492   else if ((fallback & fb_rvalue) && is_gimple_reg_rhs_or_call (*expr_p))
7493     {
7494       /* An rvalue will do.  Assign the gimplified expression into a
7495          new temporary TMP and replace the original expression with
7496          TMP.  First, make sure that the expression has a type so that
7497          it can be assigned into a temporary.  */
7498       gcc_assert (!VOID_TYPE_P (TREE_TYPE (*expr_p)));
7499
7500       if (!gimple_seq_empty_p (internal_post) || (fallback & fb_lvalue))
7501         /* The postqueue might change the value of the expression between
7502            the initialization and use of the temporary, so we can't use a
7503            formal temp.  FIXME do we care?  */
7504         {
7505           *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
7506           if (TREE_CODE (TREE_TYPE (*expr_p)) == COMPLEX_TYPE
7507               || TREE_CODE (TREE_TYPE (*expr_p)) == VECTOR_TYPE)
7508             DECL_GIMPLE_REG_P (*expr_p) = 1;
7509         }
7510       else
7511         *expr_p = get_formal_tmp_var (*expr_p, pre_p);
7512     }
7513   else
7514     {
7515 #ifdef ENABLE_GIMPLE_CHECKING
7516       if (!(fallback & fb_mayfail))
7517         {
7518           fprintf (stderr, "gimplification failed:\n");
7519           print_generic_expr (stderr, *expr_p, 0);
7520           debug_tree (*expr_p);
7521           internal_error ("gimplification failed");
7522         }
7523 #endif
7524       gcc_assert (fallback & fb_mayfail);
7525
7526       /* If this is an asm statement, and the user asked for the
7527          impossible, don't die.  Fail and let gimplify_asm_expr
7528          issue an error.  */
7529       ret = GS_ERROR;
7530       goto out;
7531     }
7532
7533   /* Make sure the temporary matches our predicate.  */
7534   gcc_assert ((*gimple_test_f) (*expr_p));
7535
7536   if (!gimple_seq_empty_p (internal_post))
7537     {
7538       annotate_all_with_location (internal_post, input_location);
7539       gimplify_seq_add_seq (pre_p, internal_post);
7540     }
7541
7542  out:
7543   input_location = saved_location;
7544   return ret;
7545 }
7546
7547 /* Look through TYPE for variable-sized objects and gimplify each such
7548    size that we find.  Add to LIST_P any statements generated.  */
7549
7550 void
7551 gimplify_type_sizes (tree type, gimple_seq *list_p)
7552 {
7553   tree field, t;
7554
7555   if (type == NULL || type == error_mark_node)
7556     return;
7557
7558   /* We first do the main variant, then copy into any other variants.  */
7559   type = TYPE_MAIN_VARIANT (type);
7560
7561   /* Avoid infinite recursion.  */
7562   if (TYPE_SIZES_GIMPLIFIED (type))
7563     return;
7564
7565   TYPE_SIZES_GIMPLIFIED (type) = 1;
7566
7567   switch (TREE_CODE (type))
7568     {
7569     case INTEGER_TYPE:
7570     case ENUMERAL_TYPE:
7571     case BOOLEAN_TYPE:
7572     case REAL_TYPE:
7573     case FIXED_POINT_TYPE:
7574       gimplify_one_sizepos (&TYPE_MIN_VALUE (type), list_p);
7575       gimplify_one_sizepos (&TYPE_MAX_VALUE (type), list_p);
7576
7577       for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7578         {
7579           TYPE_MIN_VALUE (t) = TYPE_MIN_VALUE (type);
7580           TYPE_MAX_VALUE (t) = TYPE_MAX_VALUE (type);
7581         }
7582       break;
7583
7584     case ARRAY_TYPE:
7585       /* These types may not have declarations, so handle them here.  */
7586       gimplify_type_sizes (TREE_TYPE (type), list_p);
7587       gimplify_type_sizes (TYPE_DOMAIN (type), list_p);
7588       /* Ensure VLA bounds aren't removed, for -O0 they should be variables
7589          with assigned stack slots, for -O1+ -g they should be tracked
7590          by VTA.  */
7591       if (!(TYPE_NAME (type)
7592             && TREE_CODE (TYPE_NAME (type)) == TYPE_DECL
7593             && DECL_IGNORED_P (TYPE_NAME (type)))
7594           && TYPE_DOMAIN (type)
7595           && INTEGRAL_TYPE_P (TYPE_DOMAIN (type)))
7596         {
7597           t = TYPE_MIN_VALUE (TYPE_DOMAIN (type));
7598           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7599             DECL_IGNORED_P (t) = 0;
7600           t = TYPE_MAX_VALUE (TYPE_DOMAIN (type));
7601           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7602             DECL_IGNORED_P (t) = 0;
7603         }
7604       break;
7605
7606     case RECORD_TYPE:
7607     case UNION_TYPE:
7608     case QUAL_UNION_TYPE:
7609       for (field = TYPE_FIELDS (type); field; field = DECL_CHAIN (field))
7610         if (TREE_CODE (field) == FIELD_DECL)
7611           {
7612             gimplify_one_sizepos (&DECL_FIELD_OFFSET (field), list_p);
7613             gimplify_one_sizepos (&DECL_SIZE (field), list_p);
7614             gimplify_one_sizepos (&DECL_SIZE_UNIT (field), list_p);
7615             gimplify_type_sizes (TREE_TYPE (field), list_p);
7616           }
7617       break;
7618
7619     case POINTER_TYPE:
7620     case REFERENCE_TYPE:
7621         /* We used to recurse on the pointed-to type here, which turned out to
7622            be incorrect because its definition might refer to variables not
7623            yet initialized at this point if a forward declaration is involved.
7624
7625            It was actually useful for anonymous pointed-to types to ensure
7626            that the sizes evaluation dominates every possible later use of the
7627            values.  Restricting to such types here would be safe since there
7628            is no possible forward declaration around, but would introduce an
7629            undesirable middle-end semantic to anonymity.  We then defer to
7630            front-ends the responsibility of ensuring that the sizes are
7631            evaluated both early and late enough, e.g. by attaching artificial
7632            type declarations to the tree.  */
7633       break;
7634
7635     default:
7636       break;
7637     }
7638
7639   gimplify_one_sizepos (&TYPE_SIZE (type), list_p);
7640   gimplify_one_sizepos (&TYPE_SIZE_UNIT (type), list_p);
7641
7642   for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7643     {
7644       TYPE_SIZE (t) = TYPE_SIZE (type);
7645       TYPE_SIZE_UNIT (t) = TYPE_SIZE_UNIT (type);
7646       TYPE_SIZES_GIMPLIFIED (t) = 1;
7647     }
7648 }
7649
7650 /* A subroutine of gimplify_type_sizes to make sure that *EXPR_P,
7651    a size or position, has had all of its SAVE_EXPRs evaluated.
7652    We add any required statements to *STMT_P.  */
7653
7654 void
7655 gimplify_one_sizepos (tree *expr_p, gimple_seq *stmt_p)
7656 {
7657   tree type, expr = *expr_p;
7658
7659   /* We don't do anything if the value isn't there, is constant, or contains
7660      A PLACEHOLDER_EXPR.  We also don't want to do anything if it's already
7661      a VAR_DECL.  If it's a VAR_DECL from another function, the gimplifier
7662      will want to replace it with a new variable, but that will cause problems
7663      if this type is from outside the function.  It's OK to have that here.  */
7664   if (expr == NULL_TREE || TREE_CONSTANT (expr)
7665       || TREE_CODE (expr) == VAR_DECL
7666       || CONTAINS_PLACEHOLDER_P (expr))
7667     return;
7668
7669   type = TREE_TYPE (expr);
7670   *expr_p = unshare_expr (expr);
7671
7672   gimplify_expr (expr_p, stmt_p, NULL, is_gimple_val, fb_rvalue);
7673   expr = *expr_p;
7674
7675   /* Verify that we've an exact type match with the original expression.
7676      In particular, we do not wish to drop a "sizetype" in favour of a
7677      type of similar dimensions.  We don't want to pollute the generic
7678      type-stripping code with this knowledge because it doesn't matter
7679      for the bulk of GENERIC/GIMPLE.  It only matters that TYPE_SIZE_UNIT
7680      and friends retain their "sizetype-ness".  */
7681   if (TREE_TYPE (expr) != type
7682       && TREE_CODE (type) == INTEGER_TYPE
7683       && TYPE_IS_SIZETYPE (type))
7684     {
7685       tree tmp;
7686       gimple stmt;
7687
7688       *expr_p = create_tmp_var (type, NULL);
7689       tmp = build1 (NOP_EXPR, type, expr);
7690       stmt = gimplify_assign (*expr_p, tmp, stmt_p);
7691       gimple_set_location (stmt, EXPR_LOC_OR_HERE (expr));
7692     }
7693 }
7694
7695 /* Gimplify the body of statements pointed to by BODY_P and return a
7696    GIMPLE_BIND containing the sequence of GIMPLE statements
7697    corresponding to BODY_P.  FNDECL is the function decl containing
7698    *BODY_P.  */
7699
7700 gimple
7701 gimplify_body (tree *body_p, tree fndecl, bool do_parms)
7702 {
7703   location_t saved_location = input_location;
7704   gimple_seq parm_stmts, seq;
7705   gimple outer_bind;
7706   struct gimplify_ctx gctx;
7707   struct cgraph_node *cgn;
7708
7709   timevar_push (TV_TREE_GIMPLIFY);
7710
7711   /* Initialize for optimize_insn_for_s{ize,peed}_p possibly called during
7712      gimplification.  */
7713   default_rtl_profile ();
7714
7715   gcc_assert (gimplify_ctxp == NULL);
7716   push_gimplify_context (&gctx);
7717
7718   /* Unshare most shared trees in the body and in that of any nested functions.
7719      It would seem we don't have to do this for nested functions because
7720      they are supposed to be output and then the outer function gimplified
7721      first, but the g++ front end doesn't always do it that way.  */
7722   unshare_body (body_p, fndecl);
7723   unvisit_body (body_p, fndecl);
7724
7725   cgn = cgraph_get_node (fndecl);
7726   if (cgn && cgn->origin)
7727     nonlocal_vlas = pointer_set_create ();
7728
7729   /* Make sure input_location isn't set to something weird.  */
7730   input_location = DECL_SOURCE_LOCATION (fndecl);
7731
7732   /* Resolve callee-copies.  This has to be done before processing
7733      the body so that DECL_VALUE_EXPR gets processed correctly.  */
7734   parm_stmts = (do_parms) ? gimplify_parameters () : NULL;
7735
7736   /* Gimplify the function's body.  */
7737   seq = NULL;
7738   gimplify_stmt (body_p, &seq);
7739   outer_bind = gimple_seq_first_stmt (seq);
7740   if (!outer_bind)
7741     {
7742       outer_bind = gimple_build_nop ();
7743       gimplify_seq_add_stmt (&seq, outer_bind);
7744     }
7745
7746   /* The body must contain exactly one statement, a GIMPLE_BIND.  If this is
7747      not the case, wrap everything in a GIMPLE_BIND to make it so.  */
7748   if (gimple_code (outer_bind) == GIMPLE_BIND
7749       && gimple_seq_first (seq) == gimple_seq_last (seq))
7750     ;
7751   else
7752     outer_bind = gimple_build_bind (NULL_TREE, seq, NULL);
7753
7754   *body_p = NULL_TREE;
7755
7756   /* If we had callee-copies statements, insert them at the beginning
7757      of the function and clear DECL_VALUE_EXPR_P on the parameters.  */
7758   if (!gimple_seq_empty_p (parm_stmts))
7759     {
7760       tree parm;
7761
7762       gimplify_seq_add_seq (&parm_stmts, gimple_bind_body (outer_bind));
7763       gimple_bind_set_body (outer_bind, parm_stmts);
7764
7765       for (parm = DECL_ARGUMENTS (current_function_decl);
7766            parm; parm = DECL_CHAIN (parm))
7767         if (DECL_HAS_VALUE_EXPR_P (parm))
7768           {
7769             DECL_HAS_VALUE_EXPR_P (parm) = 0;
7770             DECL_IGNORED_P (parm) = 0;
7771           }
7772     }
7773
7774   if (nonlocal_vlas)
7775     {
7776       pointer_set_destroy (nonlocal_vlas);
7777       nonlocal_vlas = NULL;
7778     }
7779
7780   pop_gimplify_context (outer_bind);
7781   gcc_assert (gimplify_ctxp == NULL);
7782
7783   if (!seen_error ())
7784     verify_gimple_in_seq (gimple_bind_body (outer_bind));
7785
7786   timevar_pop (TV_TREE_GIMPLIFY);
7787   input_location = saved_location;
7788
7789   return outer_bind;
7790 }
7791
7792 typedef char *char_p; /* For DEF_VEC_P.  */
7793 DEF_VEC_P(char_p);
7794 DEF_VEC_ALLOC_P(char_p,heap);
7795
7796 /* Return whether we should exclude FNDECL from instrumentation.  */
7797
7798 static bool
7799 flag_instrument_functions_exclude_p (tree fndecl)
7800 {
7801   VEC(char_p,heap) *vec;
7802
7803   vec = (VEC(char_p,heap) *) flag_instrument_functions_exclude_functions;
7804   if (VEC_length (char_p, vec) > 0)
7805     {
7806       const char *name;
7807       int i;
7808       char *s;
7809
7810       name = lang_hooks.decl_printable_name (fndecl, 0);
7811       FOR_EACH_VEC_ELT (char_p, vec, i, s)
7812         if (strstr (name, s) != NULL)
7813           return true;
7814     }
7815
7816   vec = (VEC(char_p,heap) *) flag_instrument_functions_exclude_files;
7817   if (VEC_length (char_p, vec) > 0)
7818     {
7819       const char *name;
7820       int i;
7821       char *s;
7822
7823       name = DECL_SOURCE_FILE (fndecl);
7824       FOR_EACH_VEC_ELT (char_p, vec, i, s)
7825         if (strstr (name, s) != NULL)
7826           return true;
7827     }
7828
7829   return false;
7830 }
7831
7832 /* Entry point to the gimplification pass.  FNDECL is the FUNCTION_DECL
7833    node for the function we want to gimplify.
7834
7835    Return the sequence of GIMPLE statements corresponding to the body
7836    of FNDECL.  */
7837
7838 void
7839 gimplify_function_tree (tree fndecl)
7840 {
7841   tree oldfn, parm, ret;
7842   gimple_seq seq;
7843   gimple bind;
7844
7845   gcc_assert (!gimple_body (fndecl));
7846
7847   oldfn = current_function_decl;
7848   current_function_decl = fndecl;
7849   if (DECL_STRUCT_FUNCTION (fndecl))
7850     push_cfun (DECL_STRUCT_FUNCTION (fndecl));
7851   else
7852     push_struct_function (fndecl);
7853
7854   for (parm = DECL_ARGUMENTS (fndecl); parm ; parm = DECL_CHAIN (parm))
7855     {
7856       /* Preliminarily mark non-addressed complex variables as eligible
7857          for promotion to gimple registers.  We'll transform their uses
7858          as we find them.  */
7859       if ((TREE_CODE (TREE_TYPE (parm)) == COMPLEX_TYPE
7860            || TREE_CODE (TREE_TYPE (parm)) == VECTOR_TYPE)
7861           && !TREE_THIS_VOLATILE (parm)
7862           && !needs_to_live_in_memory (parm))
7863         DECL_GIMPLE_REG_P (parm) = 1;
7864     }
7865
7866   ret = DECL_RESULT (fndecl);
7867   if ((TREE_CODE (TREE_TYPE (ret)) == COMPLEX_TYPE
7868        || TREE_CODE (TREE_TYPE (ret)) == VECTOR_TYPE)
7869       && !needs_to_live_in_memory (ret))
7870     DECL_GIMPLE_REG_P (ret) = 1;
7871
7872   bind = gimplify_body (&DECL_SAVED_TREE (fndecl), fndecl, true);
7873
7874   /* The tree body of the function is no longer needed, replace it
7875      with the new GIMPLE body.  */
7876   seq = gimple_seq_alloc ();
7877   gimple_seq_add_stmt (&seq, bind);
7878   gimple_set_body (fndecl, seq);
7879
7880   /* If we're instrumenting function entry/exit, then prepend the call to
7881      the entry hook and wrap the whole function in a TRY_FINALLY_EXPR to
7882      catch the exit hook.  */
7883   /* ??? Add some way to ignore exceptions for this TFE.  */
7884   if (flag_instrument_function_entry_exit
7885       && !DECL_NO_INSTRUMENT_FUNCTION_ENTRY_EXIT (fndecl)
7886       && !flag_instrument_functions_exclude_p (fndecl))
7887     {
7888       tree x;
7889       gimple new_bind;
7890       gimple tf;
7891       gimple_seq cleanup = NULL, body = NULL;
7892       tree tmp_var;
7893       gimple call;
7894
7895       x = implicit_built_in_decls[BUILT_IN_RETURN_ADDRESS];
7896       call = gimple_build_call (x, 1, integer_zero_node);
7897       tmp_var = create_tmp_var (ptr_type_node, "return_addr");
7898       gimple_call_set_lhs (call, tmp_var);
7899       gimplify_seq_add_stmt (&cleanup, call);
7900       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_EXIT];
7901       call = gimple_build_call (x, 2,
7902                                 build_fold_addr_expr (current_function_decl),
7903                                 tmp_var);
7904       gimplify_seq_add_stmt (&cleanup, call);
7905       tf = gimple_build_try (seq, cleanup, GIMPLE_TRY_FINALLY);
7906
7907       x = implicit_built_in_decls[BUILT_IN_RETURN_ADDRESS];
7908       call = gimple_build_call (x, 1, integer_zero_node);
7909       tmp_var = create_tmp_var (ptr_type_node, "return_addr");
7910       gimple_call_set_lhs (call, tmp_var);
7911       gimplify_seq_add_stmt (&body, call);
7912       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_ENTER];
7913       call = gimple_build_call (x, 2,
7914                                 build_fold_addr_expr (current_function_decl),
7915                                 tmp_var);
7916       gimplify_seq_add_stmt (&body, call);
7917       gimplify_seq_add_stmt (&body, tf);
7918       new_bind = gimple_build_bind (NULL, body, gimple_bind_block (bind));
7919       /* Clear the block for BIND, since it is no longer directly inside
7920          the function, but within a try block.  */
7921       gimple_bind_set_block (bind, NULL);
7922
7923       /* Replace the current function body with the body
7924          wrapped in the try/finally TF.  */
7925       seq = gimple_seq_alloc ();
7926       gimple_seq_add_stmt (&seq, new_bind);
7927       gimple_set_body (fndecl, seq);
7928     }
7929
7930   DECL_SAVED_TREE (fndecl) = NULL_TREE;
7931   cfun->curr_properties = PROP_gimple_any;
7932
7933   current_function_decl = oldfn;
7934   pop_cfun ();
7935 }
7936
7937 /* Some transformations like inlining may invalidate the GIMPLE form
7938    for operands.  This function traverses all the operands in STMT and
7939    gimplifies anything that is not a valid gimple operand.  Any new
7940    GIMPLE statements are inserted before *GSI_P.  */
7941
7942 void
7943 gimple_regimplify_operands (gimple stmt, gimple_stmt_iterator *gsi_p)
7944 {
7945   size_t i, num_ops;
7946   tree orig_lhs = NULL_TREE, lhs, t;
7947   gimple_seq pre = NULL;
7948   gimple post_stmt = NULL;
7949   struct gimplify_ctx gctx;
7950
7951   push_gimplify_context (&gctx);
7952   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
7953
7954   switch (gimple_code (stmt))
7955     {
7956     case GIMPLE_COND:
7957       gimplify_expr (gimple_cond_lhs_ptr (stmt), &pre, NULL,
7958                      is_gimple_val, fb_rvalue);
7959       gimplify_expr (gimple_cond_rhs_ptr (stmt), &pre, NULL,
7960                      is_gimple_val, fb_rvalue);
7961       break;
7962     case GIMPLE_SWITCH:
7963       gimplify_expr (gimple_switch_index_ptr (stmt), &pre, NULL,
7964                      is_gimple_val, fb_rvalue);
7965       break;
7966     case GIMPLE_OMP_ATOMIC_LOAD:
7967       gimplify_expr (gimple_omp_atomic_load_rhs_ptr (stmt), &pre, NULL,
7968                      is_gimple_val, fb_rvalue);
7969       break;
7970     case GIMPLE_ASM:
7971       {
7972         size_t i, noutputs = gimple_asm_noutputs (stmt);
7973         const char *constraint, **oconstraints;
7974         bool allows_mem, allows_reg, is_inout;
7975
7976         oconstraints
7977           = (const char **) alloca ((noutputs) * sizeof (const char *));
7978         for (i = 0; i < noutputs; i++)
7979           {
7980             tree op = gimple_asm_output_op (stmt, i);
7981             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7982             oconstraints[i] = constraint;
7983             parse_output_constraint (&constraint, i, 0, 0, &allows_mem,
7984                                      &allows_reg, &is_inout);
7985             gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7986                            is_inout ? is_gimple_min_lval : is_gimple_lvalue,
7987                            fb_lvalue | fb_mayfail);
7988           }
7989         for (i = 0; i < gimple_asm_ninputs (stmt); i++)
7990           {
7991             tree op = gimple_asm_input_op (stmt, i);
7992             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7993             parse_input_constraint (&constraint, 0, 0, noutputs, 0,
7994                                     oconstraints, &allows_mem, &allows_reg);
7995             if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (op))) && allows_mem)
7996               allows_reg = 0;
7997             if (!allows_reg && allows_mem)
7998               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7999                              is_gimple_lvalue, fb_lvalue | fb_mayfail);
8000             else
8001               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
8002                              is_gimple_asm_val, fb_rvalue);
8003           }
8004       }
8005       break;
8006     default:
8007       /* NOTE: We start gimplifying operands from last to first to
8008          make sure that side-effects on the RHS of calls, assignments
8009          and ASMs are executed before the LHS.  The ordering is not
8010          important for other statements.  */
8011       num_ops = gimple_num_ops (stmt);
8012       orig_lhs = gimple_get_lhs (stmt);
8013       for (i = num_ops; i > 0; i--)
8014         {
8015           tree op = gimple_op (stmt, i - 1);
8016           if (op == NULL_TREE)
8017             continue;
8018           if (i == 1 && (is_gimple_call (stmt) || is_gimple_assign (stmt)))
8019             gimplify_expr (&op, &pre, NULL, is_gimple_lvalue, fb_lvalue);
8020           else if (i == 2
8021                    && is_gimple_assign (stmt)
8022                    && num_ops == 2
8023                    && get_gimple_rhs_class (gimple_expr_code (stmt))
8024                       == GIMPLE_SINGLE_RHS)
8025             gimplify_expr (&op, &pre, NULL,
8026                            rhs_predicate_for (gimple_assign_lhs (stmt)),
8027                            fb_rvalue);
8028           else if (i == 2 && is_gimple_call (stmt))
8029             {
8030               if (TREE_CODE (op) == FUNCTION_DECL)
8031                 continue;
8032               gimplify_expr (&op, &pre, NULL, is_gimple_call_addr, fb_rvalue);
8033             }
8034           else
8035             gimplify_expr (&op, &pre, NULL, is_gimple_val, fb_rvalue);
8036           gimple_set_op (stmt, i - 1, op);
8037         }
8038
8039       lhs = gimple_get_lhs (stmt);
8040       /* If the LHS changed it in a way that requires a simple RHS,
8041          create temporary.  */
8042       if (lhs && !is_gimple_reg (lhs))
8043         {
8044           bool need_temp = false;
8045
8046           if (is_gimple_assign (stmt)
8047               && num_ops == 2
8048               && get_gimple_rhs_class (gimple_expr_code (stmt))
8049                  == GIMPLE_SINGLE_RHS)
8050             gimplify_expr (gimple_assign_rhs1_ptr (stmt), &pre, NULL,
8051                            rhs_predicate_for (gimple_assign_lhs (stmt)),
8052                            fb_rvalue);
8053           else if (is_gimple_reg (lhs))
8054             {
8055               if (is_gimple_reg_type (TREE_TYPE (lhs)))
8056                 {
8057                   if (is_gimple_call (stmt))
8058                     {
8059                       i = gimple_call_flags (stmt);
8060                       if ((i & ECF_LOOPING_CONST_OR_PURE)
8061                           || !(i & (ECF_CONST | ECF_PURE)))
8062                         need_temp = true;
8063                     }
8064                   if (stmt_can_throw_internal (stmt))
8065                     need_temp = true;
8066                 }
8067             }
8068           else
8069             {
8070               if (is_gimple_reg_type (TREE_TYPE (lhs)))
8071                 need_temp = true;
8072               else if (TYPE_MODE (TREE_TYPE (lhs)) != BLKmode)
8073                 {
8074                   if (is_gimple_call (stmt))
8075                     {
8076                       tree fndecl = gimple_call_fndecl (stmt);
8077
8078                       if (!aggregate_value_p (TREE_TYPE (lhs), fndecl)
8079                           && !(fndecl && DECL_RESULT (fndecl)
8080                                && DECL_BY_REFERENCE (DECL_RESULT (fndecl))))
8081                         need_temp = true;
8082                     }
8083                   else
8084                     need_temp = true;
8085                 }
8086             }
8087           if (need_temp)
8088             {
8089               tree temp = create_tmp_reg (TREE_TYPE (lhs), NULL);
8090
8091               if (TREE_CODE (orig_lhs) == SSA_NAME)
8092                 orig_lhs = SSA_NAME_VAR (orig_lhs);
8093
8094               if (gimple_in_ssa_p (cfun))
8095                 temp = make_ssa_name (temp, NULL);
8096               gimple_set_lhs (stmt, temp);
8097               post_stmt = gimple_build_assign (lhs, temp);
8098               if (TREE_CODE (lhs) == SSA_NAME)
8099                 SSA_NAME_DEF_STMT (lhs) = post_stmt;
8100             }
8101         }
8102       break;
8103     }
8104
8105   if (gimple_referenced_vars (cfun))
8106     for (t = gimplify_ctxp->temps; t ; t = TREE_CHAIN (t))
8107       add_referenced_var (t);
8108
8109   if (!gimple_seq_empty_p (pre))
8110     {
8111       if (gimple_in_ssa_p (cfun))
8112         {
8113           gimple_stmt_iterator i;
8114
8115           for (i = gsi_start (pre); !gsi_end_p (i); gsi_next (&i))
8116             mark_symbols_for_renaming (gsi_stmt (i));
8117         }
8118       gsi_insert_seq_before (gsi_p, pre, GSI_SAME_STMT);
8119     }
8120   if (post_stmt)
8121     gsi_insert_after (gsi_p, post_stmt, GSI_NEW_STMT);
8122
8123   pop_gimplify_context (NULL);
8124 }
8125
8126 /* Expand EXPR to list of gimple statements STMTS.  GIMPLE_TEST_F specifies
8127    the predicate that will hold for the result.  If VAR is not NULL, make the
8128    base variable of the final destination be VAR if suitable.  */
8129
8130 tree
8131 force_gimple_operand_1 (tree expr, gimple_seq *stmts,
8132                         gimple_predicate gimple_test_f, tree var)
8133 {
8134   tree t;
8135   enum gimplify_status ret;
8136   struct gimplify_ctx gctx;
8137
8138   *stmts = NULL;
8139
8140   /* gimple_test_f might be more strict than is_gimple_val, make
8141      sure we pass both.  Just checking gimple_test_f doesn't work
8142      because most gimple predicates do not work recursively.  */
8143   if (is_gimple_val (expr)
8144       && (*gimple_test_f) (expr))
8145     return expr;
8146
8147   push_gimplify_context (&gctx);
8148   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
8149   gimplify_ctxp->allow_rhs_cond_expr = true;
8150
8151   if (var)
8152     expr = build2 (MODIFY_EXPR, TREE_TYPE (var), var, expr);
8153
8154   if (TREE_CODE (expr) != MODIFY_EXPR
8155       && TREE_TYPE (expr) == void_type_node)
8156     {
8157       gimplify_and_add (expr, stmts);
8158       expr = NULL_TREE;
8159     }
8160   else
8161     {
8162       ret = gimplify_expr (&expr, stmts, NULL, gimple_test_f, fb_rvalue);
8163       gcc_assert (ret != GS_ERROR);
8164     }
8165
8166   if (gimple_referenced_vars (cfun))
8167     for (t = gimplify_ctxp->temps; t ; t = DECL_CHAIN (t))
8168       add_referenced_var (t);
8169
8170   pop_gimplify_context (NULL);
8171
8172   return expr;
8173 }
8174
8175 /* Expand EXPR to list of gimple statements STMTS.  If SIMPLE is true,
8176    force the result to be either ssa_name or an invariant, otherwise
8177    just force it to be a rhs expression.  If VAR is not NULL, make the
8178    base variable of the final destination be VAR if suitable.  */
8179
8180 tree
8181 force_gimple_operand (tree expr, gimple_seq *stmts, bool simple, tree var)
8182 {
8183   return force_gimple_operand_1 (expr, stmts,
8184                                  simple ? is_gimple_val : is_gimple_reg_rhs,
8185                                  var);
8186 }
8187
8188 /* Invoke force_gimple_operand_1 for EXPR with parameters GIMPLE_TEST_F
8189    and VAR.  If some statements are produced, emits them at GSI.
8190    If BEFORE is true.  the statements are appended before GSI, otherwise
8191    they are appended after it.  M specifies the way GSI moves after
8192    insertion (GSI_SAME_STMT or GSI_CONTINUE_LINKING are the usual values).  */
8193
8194 tree
8195 force_gimple_operand_gsi_1 (gimple_stmt_iterator *gsi, tree expr,
8196                             gimple_predicate gimple_test_f,
8197                             tree var, bool before,
8198                             enum gsi_iterator_update m)
8199 {
8200   gimple_seq stmts;
8201
8202   expr = force_gimple_operand_1 (expr, &stmts, gimple_test_f, var);
8203
8204   if (!gimple_seq_empty_p (stmts))
8205     {
8206       if (gimple_in_ssa_p (cfun))
8207         {
8208           gimple_stmt_iterator i;
8209
8210           for (i = gsi_start (stmts); !gsi_end_p (i); gsi_next (&i))
8211             mark_symbols_for_renaming (gsi_stmt (i));
8212         }
8213
8214       if (before)
8215         gsi_insert_seq_before (gsi, stmts, m);
8216       else
8217         gsi_insert_seq_after (gsi, stmts, m);
8218     }
8219
8220   return expr;
8221 }
8222
8223 /* Invoke force_gimple_operand_1 for EXPR with parameter VAR.
8224    If SIMPLE is true, force the result to be either ssa_name or an invariant,
8225    otherwise just force it to be a rhs expression.  If some statements are
8226    produced, emits them at GSI.  If BEFORE is true, the statements are
8227    appended before GSI, otherwise they are appended after it.  M specifies
8228    the way GSI moves after insertion (GSI_SAME_STMT or GSI_CONTINUE_LINKING
8229    are the usual values).  */
8230
8231 tree
8232 force_gimple_operand_gsi (gimple_stmt_iterator *gsi, tree expr,
8233                           bool simple_p, tree var, bool before,
8234                           enum gsi_iterator_update m)
8235 {
8236   return force_gimple_operand_gsi_1 (gsi, expr,
8237                                      simple_p
8238                                      ? is_gimple_val : is_gimple_reg_rhs,
8239                                      var, before, m);
8240 }
8241
8242
8243 #include "gt-gimplify.h"