OSDN Git Service

2010-02-21 Manuel López-Ibáñez <manu@gcc.gnu.org>
[pf3gnuchains/gcc-fork.git] / gcc / gimplify.c
1 /* Tree lowering pass.  This pass converts the GENERIC functions-as-trees
2    tree representation into the GIMPLE form.
3    Copyright (C) 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010
4    Free Software Foundation, Inc.
5    Major work done by Sebastian Pop <s.pop@laposte.net>,
6    Diego Novillo <dnovillo@redhat.com> and Jason Merrill <jason@redhat.com>.
7
8 This file is part of GCC.
9
10 GCC is free software; you can redistribute it and/or modify it under
11 the terms of the GNU General Public License as published by the Free
12 Software Foundation; either version 3, or (at your option) any later
13 version.
14
15 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
16 WARRANTY; without even the implied warranty of MERCHANTABILITY or
17 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
18 for more details.
19
20 You should have received a copy of the GNU General Public License
21 along with GCC; see the file COPYING3.  If not see
22 <http://www.gnu.org/licenses/>.  */
23
24 #include "config.h"
25 #include "system.h"
26 #include "coretypes.h"
27 #include "tm.h"
28 #include "tree.h"
29 #include "rtl.h"
30 #include "varray.h"
31 #include "gimple.h"
32 #include "tree-iterator.h"
33 #include "tree-inline.h"
34 #include "diagnostic.h"
35 #include "langhooks.h"
36 #include "langhooks-def.h"
37 #include "tree-flow.h"
38 #include "cgraph.h"
39 #include "timevar.h"
40 #include "except.h"
41 #include "hashtab.h"
42 #include "flags.h"
43 #include "real.h"
44 #include "function.h"
45 #include "output.h"
46 #include "expr.h"
47 #include "ggc.h"
48 #include "toplev.h"
49 #include "target.h"
50 #include "optabs.h"
51 #include "pointer-set.h"
52 #include "splay-tree.h"
53 #include "vec.h"
54 #include "gimple.h"
55 #include "tree-pass.h"
56
57
58 enum gimplify_omp_var_data
59 {
60   GOVD_SEEN = 1,
61   GOVD_EXPLICIT = 2,
62   GOVD_SHARED = 4,
63   GOVD_PRIVATE = 8,
64   GOVD_FIRSTPRIVATE = 16,
65   GOVD_LASTPRIVATE = 32,
66   GOVD_REDUCTION = 64,
67   GOVD_LOCAL = 128,
68   GOVD_DEBUG_PRIVATE = 256,
69   GOVD_PRIVATE_OUTER_REF = 512,
70   GOVD_DATA_SHARE_CLASS = (GOVD_SHARED | GOVD_PRIVATE | GOVD_FIRSTPRIVATE
71                            | GOVD_LASTPRIVATE | GOVD_REDUCTION | GOVD_LOCAL)
72 };
73
74
75 enum omp_region_type
76 {
77   ORT_WORKSHARE = 0,
78   ORT_TASK = 1,
79   ORT_PARALLEL = 2,
80   ORT_COMBINED_PARALLEL = 3
81 };
82
83 struct gimplify_omp_ctx
84 {
85   struct gimplify_omp_ctx *outer_context;
86   splay_tree variables;
87   struct pointer_set_t *privatized_types;
88   location_t location;
89   enum omp_clause_default_kind default_kind;
90   enum omp_region_type region_type;
91 };
92
93 static struct gimplify_ctx *gimplify_ctxp;
94 static struct gimplify_omp_ctx *gimplify_omp_ctxp;
95
96
97 /* Formal (expression) temporary table handling: Multiple occurrences of
98    the same scalar expression are evaluated into the same temporary.  */
99
100 typedef struct gimple_temp_hash_elt
101 {
102   tree val;   /* Key */
103   tree temp;  /* Value */
104 } elt_t;
105
106 /* Forward declarations.  */
107 static enum gimplify_status gimplify_compound_expr (tree *, gimple_seq *, bool);
108
109 /* Mark X addressable.  Unlike the langhook we expect X to be in gimple
110    form and we don't do any syntax checking.  */
111 void
112 mark_addressable (tree x)
113 {
114   while (handled_component_p (x))
115     x = TREE_OPERAND (x, 0);
116   if (TREE_CODE (x) != VAR_DECL
117       && TREE_CODE (x) != PARM_DECL
118       && TREE_CODE (x) != RESULT_DECL)
119     return ;
120   TREE_ADDRESSABLE (x) = 1;
121 }
122
123 /* Return a hash value for a formal temporary table entry.  */
124
125 static hashval_t
126 gimple_tree_hash (const void *p)
127 {
128   tree t = ((const elt_t *) p)->val;
129   return iterative_hash_expr (t, 0);
130 }
131
132 /* Compare two formal temporary table entries.  */
133
134 static int
135 gimple_tree_eq (const void *p1, const void *p2)
136 {
137   tree t1 = ((const elt_t *) p1)->val;
138   tree t2 = ((const elt_t *) p2)->val;
139   enum tree_code code = TREE_CODE (t1);
140
141   if (TREE_CODE (t2) != code
142       || TREE_TYPE (t1) != TREE_TYPE (t2))
143     return 0;
144
145   if (!operand_equal_p (t1, t2, 0))
146     return 0;
147
148   /* Only allow them to compare equal if they also hash equal; otherwise
149      results are nondeterminate, and we fail bootstrap comparison.  */
150   gcc_assert (gimple_tree_hash (p1) == gimple_tree_hash (p2));
151
152   return 1;
153 }
154
155 /* Link gimple statement GS to the end of the sequence *SEQ_P.  If
156    *SEQ_P is NULL, a new sequence is allocated.  This function is
157    similar to gimple_seq_add_stmt, but does not scan the operands.
158    During gimplification, we need to manipulate statement sequences
159    before the def/use vectors have been constructed.  */
160
161 static void
162 gimplify_seq_add_stmt (gimple_seq *seq_p, gimple gs)
163 {
164   gimple_stmt_iterator si;
165
166   if (gs == NULL)
167     return;
168
169   if (*seq_p == NULL)
170     *seq_p = gimple_seq_alloc ();
171
172   si = gsi_last (*seq_p);
173
174   gsi_insert_after_without_update (&si, gs, GSI_NEW_STMT);
175 }
176
177 /* Append sequence SRC to the end of sequence *DST_P.  If *DST_P is
178    NULL, a new sequence is allocated.   This function is
179    similar to gimple_seq_add_seq, but does not scan the operands.
180    During gimplification, we need to manipulate statement sequences
181    before the def/use vectors have been constructed.  */
182
183 static void
184 gimplify_seq_add_seq (gimple_seq *dst_p, gimple_seq src)
185 {
186   gimple_stmt_iterator si;
187
188   if (src == NULL)
189     return;
190
191   if (*dst_p == NULL)
192     *dst_p = gimple_seq_alloc ();
193
194   si = gsi_last (*dst_p);
195   gsi_insert_seq_after_without_update (&si, src, GSI_NEW_STMT);
196 }
197
198 /* Set up a context for the gimplifier.  */
199
200 void
201 push_gimplify_context (struct gimplify_ctx *c)
202 {
203   memset (c, '\0', sizeof (*c));
204   c->prev_context = gimplify_ctxp;
205   gimplify_ctxp = c;
206 }
207
208 /* Tear down a context for the gimplifier.  If BODY is non-null, then
209    put the temporaries into the outer BIND_EXPR.  Otherwise, put them
210    in the local_decls.
211
212    BODY is not a sequence, but the first tuple in a sequence.  */
213
214 void
215 pop_gimplify_context (gimple body)
216 {
217   struct gimplify_ctx *c = gimplify_ctxp;
218
219   gcc_assert (c && (c->bind_expr_stack == NULL
220                     || VEC_empty (gimple, c->bind_expr_stack)));
221   VEC_free (gimple, heap, c->bind_expr_stack);
222   gimplify_ctxp = c->prev_context;
223
224   if (body)
225     declare_vars (c->temps, body, false);
226   else
227     record_vars (c->temps);
228
229   if (c->temp_htab)
230     htab_delete (c->temp_htab);
231 }
232
233 static void
234 gimple_push_bind_expr (gimple gimple_bind)
235 {
236   if (gimplify_ctxp->bind_expr_stack == NULL)
237     gimplify_ctxp->bind_expr_stack = VEC_alloc (gimple, heap, 8);
238   VEC_safe_push (gimple, heap, gimplify_ctxp->bind_expr_stack, gimple_bind);
239 }
240
241 static void
242 gimple_pop_bind_expr (void)
243 {
244   VEC_pop (gimple, gimplify_ctxp->bind_expr_stack);
245 }
246
247 gimple
248 gimple_current_bind_expr (void)
249 {
250   return VEC_last (gimple, gimplify_ctxp->bind_expr_stack);
251 }
252
253 /* Return the stack GIMPLE_BINDs created during gimplification.  */
254
255 VEC(gimple, heap) *
256 gimple_bind_expr_stack (void)
257 {
258   return gimplify_ctxp->bind_expr_stack;
259 }
260
261 /* Returns true iff there is a COND_EXPR between us and the innermost
262    CLEANUP_POINT_EXPR.  This info is used by gimple_push_cleanup.  */
263
264 static bool
265 gimple_conditional_context (void)
266 {
267   return gimplify_ctxp->conditions > 0;
268 }
269
270 /* Note that we've entered a COND_EXPR.  */
271
272 static void
273 gimple_push_condition (void)
274 {
275 #ifdef ENABLE_GIMPLE_CHECKING
276   if (gimplify_ctxp->conditions == 0)
277     gcc_assert (gimple_seq_empty_p (gimplify_ctxp->conditional_cleanups));
278 #endif
279   ++(gimplify_ctxp->conditions);
280 }
281
282 /* Note that we've left a COND_EXPR.  If we're back at unconditional scope
283    now, add any conditional cleanups we've seen to the prequeue.  */
284
285 static void
286 gimple_pop_condition (gimple_seq *pre_p)
287 {
288   int conds = --(gimplify_ctxp->conditions);
289
290   gcc_assert (conds >= 0);
291   if (conds == 0)
292     {
293       gimplify_seq_add_seq (pre_p, gimplify_ctxp->conditional_cleanups);
294       gimplify_ctxp->conditional_cleanups = NULL;
295     }
296 }
297
298 /* A stable comparison routine for use with splay trees and DECLs.  */
299
300 static int
301 splay_tree_compare_decl_uid (splay_tree_key xa, splay_tree_key xb)
302 {
303   tree a = (tree) xa;
304   tree b = (tree) xb;
305
306   return DECL_UID (a) - DECL_UID (b);
307 }
308
309 /* Create a new omp construct that deals with variable remapping.  */
310
311 static struct gimplify_omp_ctx *
312 new_omp_context (enum omp_region_type region_type)
313 {
314   struct gimplify_omp_ctx *c;
315
316   c = XCNEW (struct gimplify_omp_ctx);
317   c->outer_context = gimplify_omp_ctxp;
318   c->variables = splay_tree_new (splay_tree_compare_decl_uid, 0, 0);
319   c->privatized_types = pointer_set_create ();
320   c->location = input_location;
321   c->region_type = region_type;
322   if (region_type != ORT_TASK)
323     c->default_kind = OMP_CLAUSE_DEFAULT_SHARED;
324   else
325     c->default_kind = OMP_CLAUSE_DEFAULT_UNSPECIFIED;
326
327   return c;
328 }
329
330 /* Destroy an omp construct that deals with variable remapping.  */
331
332 static void
333 delete_omp_context (struct gimplify_omp_ctx *c)
334 {
335   splay_tree_delete (c->variables);
336   pointer_set_destroy (c->privatized_types);
337   XDELETE (c);
338 }
339
340 static void omp_add_variable (struct gimplify_omp_ctx *, tree, unsigned int);
341 static bool omp_notice_variable (struct gimplify_omp_ctx *, tree, bool);
342
343 /* A subroutine of append_to_statement_list{,_force}.  T is not NULL.  */
344
345 static void
346 append_to_statement_list_1 (tree t, tree *list_p)
347 {
348   tree list = *list_p;
349   tree_stmt_iterator i;
350
351   if (!list)
352     {
353       if (t && TREE_CODE (t) == STATEMENT_LIST)
354         {
355           *list_p = t;
356           return;
357         }
358       *list_p = list = alloc_stmt_list ();
359     }
360
361   i = tsi_last (list);
362   tsi_link_after (&i, t, TSI_CONTINUE_LINKING);
363 }
364
365 /* Add T to the end of the list container pointed to by LIST_P.
366    If T is an expression with no effects, it is ignored.  */
367
368 void
369 append_to_statement_list (tree t, tree *list_p)
370 {
371   if (t && TREE_SIDE_EFFECTS (t))
372     append_to_statement_list_1 (t, list_p);
373 }
374
375 /* Similar, but the statement is always added, regardless of side effects.  */
376
377 void
378 append_to_statement_list_force (tree t, tree *list_p)
379 {
380   if (t != NULL_TREE)
381     append_to_statement_list_1 (t, list_p);
382 }
383
384 /* Both gimplify the statement T and append it to *SEQ_P.  This function
385    behaves exactly as gimplify_stmt, but you don't have to pass T as a
386    reference.  */
387
388 void
389 gimplify_and_add (tree t, gimple_seq *seq_p)
390 {
391   gimplify_stmt (&t, seq_p);
392 }
393
394 /* Gimplify statement T into sequence *SEQ_P, and return the first
395    tuple in the sequence of generated tuples for this statement.
396    Return NULL if gimplifying T produced no tuples.  */
397
398 static gimple
399 gimplify_and_return_first (tree t, gimple_seq *seq_p)
400 {
401   gimple_stmt_iterator last = gsi_last (*seq_p);
402
403   gimplify_and_add (t, seq_p);
404
405   if (!gsi_end_p (last))
406     {
407       gsi_next (&last);
408       return gsi_stmt (last);
409     }
410   else
411     return gimple_seq_first_stmt (*seq_p);
412 }
413
414 /* Strip off a legitimate source ending from the input string NAME of
415    length LEN.  Rather than having to know the names used by all of
416    our front ends, we strip off an ending of a period followed by
417    up to five characters.  (Java uses ".class".)  */
418
419 static inline void
420 remove_suffix (char *name, int len)
421 {
422   int i;
423
424   for (i = 2;  i < 8 && len > i;  i++)
425     {
426       if (name[len - i] == '.')
427         {
428           name[len - i] = '\0';
429           break;
430         }
431     }
432 }
433
434 /* Create a new temporary name with PREFIX.  Returns an identifier.  */
435
436 static GTY(()) unsigned int tmp_var_id_num;
437
438 tree
439 create_tmp_var_name (const char *prefix)
440 {
441   char *tmp_name;
442
443   if (prefix)
444     {
445       char *preftmp = ASTRDUP (prefix);
446
447       remove_suffix (preftmp, strlen (preftmp));
448       prefix = preftmp;
449     }
450
451   ASM_FORMAT_PRIVATE_NAME (tmp_name, prefix ? prefix : "T", tmp_var_id_num++);
452   return get_identifier (tmp_name);
453 }
454
455
456 /* Create a new temporary variable declaration of type TYPE.
457    Does NOT push it into the current binding.  */
458
459 tree
460 create_tmp_var_raw (tree type, const char *prefix)
461 {
462   tree tmp_var;
463   tree new_type;
464
465   /* Make the type of the variable writable.  */
466   new_type = build_type_variant (type, 0, 0);
467   TYPE_ATTRIBUTES (new_type) = TYPE_ATTRIBUTES (type);
468
469   tmp_var = build_decl (input_location,
470                         VAR_DECL, prefix ? create_tmp_var_name (prefix) : NULL,
471                         type);
472
473   /* The variable was declared by the compiler.  */
474   DECL_ARTIFICIAL (tmp_var) = 1;
475   /* And we don't want debug info for it.  */
476   DECL_IGNORED_P (tmp_var) = 1;
477
478   /* Make the variable writable.  */
479   TREE_READONLY (tmp_var) = 0;
480
481   DECL_EXTERNAL (tmp_var) = 0;
482   TREE_STATIC (tmp_var) = 0;
483   TREE_USED (tmp_var) = 1;
484
485   return tmp_var;
486 }
487
488 /* Create a new temporary variable declaration of type TYPE.  DOES push the
489    variable into the current binding.  Further, assume that this is called
490    only from gimplification or optimization, at which point the creation of
491    certain types are bugs.  */
492
493 tree
494 create_tmp_var (tree type, const char *prefix)
495 {
496   tree tmp_var;
497
498   /* We don't allow types that are addressable (meaning we can't make copies),
499      or incomplete.  We also used to reject every variable size objects here,
500      but now support those for which a constant upper bound can be obtained.
501      The processing for variable sizes is performed in gimple_add_tmp_var,
502      point at which it really matters and possibly reached via paths not going
503      through this function, e.g. after direct calls to create_tmp_var_raw.  */
504   gcc_assert (!TREE_ADDRESSABLE (type) && COMPLETE_TYPE_P (type));
505
506   tmp_var = create_tmp_var_raw (type, prefix);
507   gimple_add_tmp_var (tmp_var);
508   return tmp_var;
509 }
510
511 /* Create a temporary with a name derived from VAL.  Subroutine of
512    lookup_tmp_var; nobody else should call this function.  */
513
514 static inline tree
515 create_tmp_from_val (tree val)
516 {
517   return create_tmp_var (TREE_TYPE (val), get_name (val));
518 }
519
520 /* Create a temporary to hold the value of VAL.  If IS_FORMAL, try to reuse
521    an existing expression temporary.  */
522
523 static tree
524 lookup_tmp_var (tree val, bool is_formal)
525 {
526   tree ret;
527
528   /* If not optimizing, never really reuse a temporary.  local-alloc
529      won't allocate any variable that is used in more than one basic
530      block, which means it will go into memory, causing much extra
531      work in reload and final and poorer code generation, outweighing
532      the extra memory allocation here.  */
533   if (!optimize || !is_formal || TREE_SIDE_EFFECTS (val))
534     ret = create_tmp_from_val (val);
535   else
536     {
537       elt_t elt, *elt_p;
538       void **slot;
539
540       elt.val = val;
541       if (gimplify_ctxp->temp_htab == NULL)
542         gimplify_ctxp->temp_htab
543           = htab_create (1000, gimple_tree_hash, gimple_tree_eq, free);
544       slot = htab_find_slot (gimplify_ctxp->temp_htab, (void *)&elt, INSERT);
545       if (*slot == NULL)
546         {
547           elt_p = XNEW (elt_t);
548           elt_p->val = val;
549           elt_p->temp = ret = create_tmp_from_val (val);
550           *slot = (void *) elt_p;
551         }
552       else
553         {
554           elt_p = (elt_t *) *slot;
555           ret = elt_p->temp;
556         }
557     }
558
559   return ret;
560 }
561
562
563 /* Return true if T is a CALL_EXPR or an expression that can be
564    assignmed to a temporary.  Note that this predicate should only be
565    used during gimplification.  See the rationale for this in
566    gimplify_modify_expr.  */
567
568 static bool
569 is_gimple_reg_rhs_or_call (tree t)
570 {
571   return (get_gimple_rhs_class (TREE_CODE (t)) != GIMPLE_INVALID_RHS
572           || TREE_CODE (t) == CALL_EXPR);
573 }
574
575 /* Return true if T is a valid memory RHS or a CALL_EXPR.  Note that
576    this predicate should only be used during gimplification.  See the
577    rationale for this in gimplify_modify_expr.  */
578
579 static bool
580 is_gimple_mem_rhs_or_call (tree t)
581 {
582   /* If we're dealing with a renamable type, either source or dest must be
583      a renamed variable.  */
584   if (is_gimple_reg_type (TREE_TYPE (t)))
585     return is_gimple_val (t);
586   else
587     return (is_gimple_val (t) || is_gimple_lvalue (t)
588             || TREE_CODE (t) == CALL_EXPR);
589 }
590
591 /* Helper for get_formal_tmp_var and get_initialized_tmp_var.  */
592
593 static tree
594 internal_get_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p,
595                       bool is_formal)
596 {
597   tree t, mod;
598
599   /* Notice that we explicitly allow VAL to be a CALL_EXPR so that we
600      can create an INIT_EXPR and convert it into a GIMPLE_CALL below.  */
601   gimplify_expr (&val, pre_p, post_p, is_gimple_reg_rhs_or_call,
602                  fb_rvalue);
603
604   t = lookup_tmp_var (val, is_formal);
605
606   if (is_formal
607       && (TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
608           || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE))
609     DECL_GIMPLE_REG_P (t) = 1;
610
611   mod = build2 (INIT_EXPR, TREE_TYPE (t), t, unshare_expr (val));
612
613   if (EXPR_HAS_LOCATION (val))
614     SET_EXPR_LOCATION (mod, EXPR_LOCATION (val));
615   else
616     SET_EXPR_LOCATION (mod, input_location);
617
618   /* gimplify_modify_expr might want to reduce this further.  */
619   gimplify_and_add (mod, pre_p);
620   ggc_free (mod);
621
622   /* If we're gimplifying into ssa, gimplify_modify_expr will have
623      given our temporary an SSA name.  Find and return it.  */
624   if (gimplify_ctxp->into_ssa)
625     {
626       gimple last = gimple_seq_last_stmt (*pre_p);
627       t = gimple_get_lhs (last);
628     }
629
630   return t;
631 }
632
633 /* Returns a formal temporary variable initialized with VAL.  PRE_P is as
634    in gimplify_expr.  Only use this function if:
635
636    1) The value of the unfactored expression represented by VAL will not
637       change between the initialization and use of the temporary, and
638    2) The temporary will not be otherwise modified.
639
640    For instance, #1 means that this is inappropriate for SAVE_EXPR temps,
641    and #2 means it is inappropriate for && temps.
642
643    For other cases, use get_initialized_tmp_var instead.  */
644
645 tree
646 get_formal_tmp_var (tree val, gimple_seq *pre_p)
647 {
648   return internal_get_tmp_var (val, pre_p, NULL, true);
649 }
650
651 /* Returns a temporary variable initialized with VAL.  PRE_P and POST_P
652    are as in gimplify_expr.  */
653
654 tree
655 get_initialized_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p)
656 {
657   return internal_get_tmp_var (val, pre_p, post_p, false);
658 }
659
660 /* Declares all the variables in VARS in SCOPE.  If DEBUG_INFO is
661    true, generate debug info for them; otherwise don't.  */
662
663 void
664 declare_vars (tree vars, gimple scope, bool debug_info)
665 {
666   tree last = vars;
667   if (last)
668     {
669       tree temps, block;
670
671       gcc_assert (gimple_code (scope) == GIMPLE_BIND);
672
673       temps = nreverse (last);
674
675       block = gimple_bind_block (scope);
676       gcc_assert (!block || TREE_CODE (block) == BLOCK);
677       if (!block || !debug_info)
678         {
679           TREE_CHAIN (last) = gimple_bind_vars (scope);
680           gimple_bind_set_vars (scope, temps);
681         }
682       else
683         {
684           /* We need to attach the nodes both to the BIND_EXPR and to its
685              associated BLOCK for debugging purposes.  The key point here
686              is that the BLOCK_VARS of the BIND_EXPR_BLOCK of a BIND_EXPR
687              is a subchain of the BIND_EXPR_VARS of the BIND_EXPR.  */
688           if (BLOCK_VARS (block))
689             BLOCK_VARS (block) = chainon (BLOCK_VARS (block), temps);
690           else
691             {
692               gimple_bind_set_vars (scope,
693                                     chainon (gimple_bind_vars (scope), temps));
694               BLOCK_VARS (block) = temps;
695             }
696         }
697     }
698 }
699
700 /* For VAR a VAR_DECL of variable size, try to find a constant upper bound
701    for the size and adjust DECL_SIZE/DECL_SIZE_UNIT accordingly.  Abort if
702    no such upper bound can be obtained.  */
703
704 static void
705 force_constant_size (tree var)
706 {
707   /* The only attempt we make is by querying the maximum size of objects
708      of the variable's type.  */
709
710   HOST_WIDE_INT max_size;
711
712   gcc_assert (TREE_CODE (var) == VAR_DECL);
713
714   max_size = max_int_size_in_bytes (TREE_TYPE (var));
715
716   gcc_assert (max_size >= 0);
717
718   DECL_SIZE_UNIT (var)
719     = build_int_cst (TREE_TYPE (DECL_SIZE_UNIT (var)), max_size);
720   DECL_SIZE (var)
721     = build_int_cst (TREE_TYPE (DECL_SIZE (var)), max_size * BITS_PER_UNIT);
722 }
723
724 void
725 gimple_add_tmp_var (tree tmp)
726 {
727   gcc_assert (!TREE_CHAIN (tmp) && !DECL_SEEN_IN_BIND_EXPR_P (tmp));
728
729   /* Later processing assumes that the object size is constant, which might
730      not be true at this point.  Force the use of a constant upper bound in
731      this case.  */
732   if (!host_integerp (DECL_SIZE_UNIT (tmp), 1))
733     force_constant_size (tmp);
734
735   DECL_CONTEXT (tmp) = current_function_decl;
736   DECL_SEEN_IN_BIND_EXPR_P (tmp) = 1;
737
738   if (gimplify_ctxp)
739     {
740       TREE_CHAIN (tmp) = gimplify_ctxp->temps;
741       gimplify_ctxp->temps = tmp;
742
743       /* Mark temporaries local within the nearest enclosing parallel.  */
744       if (gimplify_omp_ctxp)
745         {
746           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
747           while (ctx && ctx->region_type == ORT_WORKSHARE)
748             ctx = ctx->outer_context;
749           if (ctx)
750             omp_add_variable (ctx, tmp, GOVD_LOCAL | GOVD_SEEN);
751         }
752     }
753   else if (cfun)
754     record_vars (tmp);
755   else
756     {
757       gimple_seq body_seq;
758
759       /* This case is for nested functions.  We need to expose the locals
760          they create.  */
761       body_seq = gimple_body (current_function_decl);
762       declare_vars (tmp, gimple_seq_first_stmt (body_seq), false);
763     }
764 }
765
766 /* Determines whether to assign a location to the statement GS.  */
767
768 static bool
769 should_carry_location_p (gimple gs)
770 {
771   /* Don't emit a line note for a label.  We particularly don't want to
772      emit one for the break label, since it doesn't actually correspond
773      to the beginning of the loop/switch.  */
774   if (gimple_code (gs) == GIMPLE_LABEL)
775     return false;
776
777   return true;
778 }
779
780
781 /* Return true if a location should not be emitted for this statement
782    by annotate_one_with_location.  */
783
784 static inline bool
785 gimple_do_not_emit_location_p (gimple g)
786 {
787   return gimple_plf (g, GF_PLF_1);
788 }
789
790 /* Mark statement G so a location will not be emitted by
791    annotate_one_with_location.  */
792
793 static inline void
794 gimple_set_do_not_emit_location (gimple g)
795 {
796   /* The PLF flags are initialized to 0 when a new tuple is created,
797      so no need to initialize it anywhere.  */
798   gimple_set_plf (g, GF_PLF_1, true);
799 }
800
801 /* Set the location for gimple statement GS to LOCATION.  */
802
803 static void
804 annotate_one_with_location (gimple gs, location_t location)
805 {
806   if (!gimple_has_location (gs)
807       && !gimple_do_not_emit_location_p (gs)
808       && should_carry_location_p (gs))
809     gimple_set_location (gs, location);
810 }
811
812
813 /* Set LOCATION for all the statements after iterator GSI in sequence
814    SEQ.  If GSI is pointing to the end of the sequence, start with the
815    first statement in SEQ.  */
816
817 static void
818 annotate_all_with_location_after (gimple_seq seq, gimple_stmt_iterator gsi,
819                                   location_t location)
820 {
821   if (gsi_end_p (gsi))
822     gsi = gsi_start (seq);
823   else
824     gsi_next (&gsi);
825
826   for (; !gsi_end_p (gsi); gsi_next (&gsi))
827     annotate_one_with_location (gsi_stmt (gsi), location);
828 }
829
830
831 /* Set the location for all the statements in a sequence STMT_P to LOCATION.  */
832
833 void
834 annotate_all_with_location (gimple_seq stmt_p, location_t location)
835 {
836   gimple_stmt_iterator i;
837
838   if (gimple_seq_empty_p (stmt_p))
839     return;
840
841   for (i = gsi_start (stmt_p); !gsi_end_p (i); gsi_next (&i))
842     {
843       gimple gs = gsi_stmt (i);
844       annotate_one_with_location (gs, location);
845     }
846 }
847
848
849 /* Similar to copy_tree_r() but do not copy SAVE_EXPR or TARGET_EXPR nodes.
850    These nodes model computations that should only be done once.  If we
851    were to unshare something like SAVE_EXPR(i++), the gimplification
852    process would create wrong code.  */
853
854 static tree
855 mostly_copy_tree_r (tree *tp, int *walk_subtrees, void *data)
856 {
857   enum tree_code code = TREE_CODE (*tp);
858   /* Don't unshare types, decls, constants and SAVE_EXPR nodes.  */
859   if (TREE_CODE_CLASS (code) == tcc_type
860       || TREE_CODE_CLASS (code) == tcc_declaration
861       || TREE_CODE_CLASS (code) == tcc_constant
862       || code == SAVE_EXPR || code == TARGET_EXPR
863       /* We can't do anything sensible with a BLOCK used as an expression,
864          but we also can't just die when we see it because of non-expression
865          uses.  So just avert our eyes and cross our fingers.  Silly Java.  */
866       || code == BLOCK)
867     *walk_subtrees = 0;
868   else
869     {
870       gcc_assert (code != BIND_EXPR);
871       copy_tree_r (tp, walk_subtrees, data);
872     }
873
874   return NULL_TREE;
875 }
876
877 /* Callback for walk_tree to unshare most of the shared trees rooted at
878    *TP.  If *TP has been visited already (i.e., TREE_VISITED (*TP) == 1),
879    then *TP is deep copied by calling copy_tree_r.
880
881    This unshares the same trees as copy_tree_r with the exception of
882    SAVE_EXPR nodes.  These nodes model computations that should only be
883    done once.  If we were to unshare something like SAVE_EXPR(i++), the
884    gimplification process would create wrong code.  */
885
886 static tree
887 copy_if_shared_r (tree *tp, int *walk_subtrees ATTRIBUTE_UNUSED,
888                   void *data ATTRIBUTE_UNUSED)
889 {
890   tree t = *tp;
891   enum tree_code code = TREE_CODE (t);
892
893   /* Skip types, decls, and constants.  But we do want to look at their
894      types and the bounds of types.  Mark them as visited so we properly
895      unmark their subtrees on the unmark pass.  If we've already seen them,
896      don't look down further.  */
897   if (TREE_CODE_CLASS (code) == tcc_type
898       || TREE_CODE_CLASS (code) == tcc_declaration
899       || TREE_CODE_CLASS (code) == tcc_constant)
900     {
901       if (TREE_VISITED (t))
902         *walk_subtrees = 0;
903       else
904         TREE_VISITED (t) = 1;
905     }
906
907   /* If this node has been visited already, unshare it and don't look
908      any deeper.  */
909   else if (TREE_VISITED (t))
910     {
911       walk_tree (tp, mostly_copy_tree_r, NULL, NULL);
912       *walk_subtrees = 0;
913     }
914
915   /* Otherwise, mark the tree as visited and keep looking.  */
916   else
917     TREE_VISITED (t) = 1;
918
919   return NULL_TREE;
920 }
921
922 static tree
923 unmark_visited_r (tree *tp, int *walk_subtrees ATTRIBUTE_UNUSED,
924                   void *data ATTRIBUTE_UNUSED)
925 {
926   if (TREE_VISITED (*tp))
927     TREE_VISITED (*tp) = 0;
928   else
929     *walk_subtrees = 0;
930
931   return NULL_TREE;
932 }
933
934 /* Unshare all the trees in BODY_P, a pointer into the body of FNDECL, and the
935    bodies of any nested functions if we are unsharing the entire body of
936    FNDECL.  */
937
938 static void
939 unshare_body (tree *body_p, tree fndecl)
940 {
941   struct cgraph_node *cgn = cgraph_node (fndecl);
942
943   walk_tree (body_p, copy_if_shared_r, NULL, NULL);
944   if (body_p == &DECL_SAVED_TREE (fndecl))
945     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
946       unshare_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
947 }
948
949 /* Likewise, but mark all trees as not visited.  */
950
951 static void
952 unvisit_body (tree *body_p, tree fndecl)
953 {
954   struct cgraph_node *cgn = cgraph_node (fndecl);
955
956   walk_tree (body_p, unmark_visited_r, NULL, NULL);
957   if (body_p == &DECL_SAVED_TREE (fndecl))
958     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
959       unvisit_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
960 }
961
962 /* Unconditionally make an unshared copy of EXPR.  This is used when using
963    stored expressions which span multiple functions, such as BINFO_VTABLE,
964    as the normal unsharing process can't tell that they're shared.  */
965
966 tree
967 unshare_expr (tree expr)
968 {
969   walk_tree (&expr, mostly_copy_tree_r, NULL, NULL);
970   return expr;
971 }
972 \f
973 /* WRAPPER is a code such as BIND_EXPR or CLEANUP_POINT_EXPR which can both
974    contain statements and have a value.  Assign its value to a temporary
975    and give it void_type_node.  Returns the temporary, or NULL_TREE if
976    WRAPPER was already void.  */
977
978 tree
979 voidify_wrapper_expr (tree wrapper, tree temp)
980 {
981   tree type = TREE_TYPE (wrapper);
982   if (type && !VOID_TYPE_P (type))
983     {
984       tree *p;
985
986       /* Set p to point to the body of the wrapper.  Loop until we find
987          something that isn't a wrapper.  */
988       for (p = &wrapper; p && *p; )
989         {
990           switch (TREE_CODE (*p))
991             {
992             case BIND_EXPR:
993               TREE_SIDE_EFFECTS (*p) = 1;
994               TREE_TYPE (*p) = void_type_node;
995               /* For a BIND_EXPR, the body is operand 1.  */
996               p = &BIND_EXPR_BODY (*p);
997               break;
998
999             case CLEANUP_POINT_EXPR:
1000             case TRY_FINALLY_EXPR:
1001             case TRY_CATCH_EXPR:
1002               TREE_SIDE_EFFECTS (*p) = 1;
1003               TREE_TYPE (*p) = void_type_node;
1004               p = &TREE_OPERAND (*p, 0);
1005               break;
1006
1007             case STATEMENT_LIST:
1008               {
1009                 tree_stmt_iterator i = tsi_last (*p);
1010                 TREE_SIDE_EFFECTS (*p) = 1;
1011                 TREE_TYPE (*p) = void_type_node;
1012                 p = tsi_end_p (i) ? NULL : tsi_stmt_ptr (i);
1013               }
1014               break;
1015
1016             case COMPOUND_EXPR:
1017               /* Advance to the last statement.  Set all container types to void.  */
1018               for (; TREE_CODE (*p) == COMPOUND_EXPR; p = &TREE_OPERAND (*p, 1))
1019                 {
1020                   TREE_SIDE_EFFECTS (*p) = 1;
1021                   TREE_TYPE (*p) = void_type_node;
1022                 }
1023               break;
1024
1025             default:
1026               goto out;
1027             }
1028         }
1029
1030     out:
1031       if (p == NULL || IS_EMPTY_STMT (*p))
1032         temp = NULL_TREE;
1033       else if (temp)
1034         {
1035           /* The wrapper is on the RHS of an assignment that we're pushing
1036              down.  */
1037           gcc_assert (TREE_CODE (temp) == INIT_EXPR
1038                       || TREE_CODE (temp) == MODIFY_EXPR);
1039           TREE_OPERAND (temp, 1) = *p;
1040           *p = temp;
1041         }
1042       else
1043         {
1044           temp = create_tmp_var (type, "retval");
1045           *p = build2 (INIT_EXPR, type, temp, *p);
1046         }
1047
1048       return temp;
1049     }
1050
1051   return NULL_TREE;
1052 }
1053
1054 /* Prepare calls to builtins to SAVE and RESTORE the stack as well as
1055    a temporary through which they communicate.  */
1056
1057 static void
1058 build_stack_save_restore (gimple *save, gimple *restore)
1059 {
1060   tree tmp_var;
1061
1062   *save = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_SAVE], 0);
1063   tmp_var = create_tmp_var (ptr_type_node, "saved_stack");
1064   gimple_call_set_lhs (*save, tmp_var);
1065
1066   *restore = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_RESTORE],
1067                             1, tmp_var);
1068 }
1069
1070 /* Gimplify a BIND_EXPR.  Just voidify and recurse.  */
1071
1072 static enum gimplify_status
1073 gimplify_bind_expr (tree *expr_p, gimple_seq *pre_p)
1074 {
1075   tree bind_expr = *expr_p;
1076   bool old_save_stack = gimplify_ctxp->save_stack;
1077   tree t;
1078   gimple gimple_bind;
1079   gimple_seq body;
1080
1081   tree temp = voidify_wrapper_expr (bind_expr, NULL);
1082
1083   /* Mark variables seen in this bind expr.  */
1084   for (t = BIND_EXPR_VARS (bind_expr); t ; t = TREE_CHAIN (t))
1085     {
1086       if (TREE_CODE (t) == VAR_DECL)
1087         {
1088           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1089
1090           /* Mark variable as local.  */
1091           if (ctx && !is_global_var (t)
1092               && (! DECL_SEEN_IN_BIND_EXPR_P (t)
1093                   || splay_tree_lookup (ctx->variables,
1094                                         (splay_tree_key) t) == NULL))
1095             omp_add_variable (gimplify_omp_ctxp, t, GOVD_LOCAL | GOVD_SEEN);
1096
1097           DECL_SEEN_IN_BIND_EXPR_P (t) = 1;
1098
1099           if (DECL_HARD_REGISTER (t) && !is_global_var (t) && cfun)
1100             cfun->has_local_explicit_reg_vars = true;
1101         }
1102
1103       /* Preliminarily mark non-addressed complex variables as eligible
1104          for promotion to gimple registers.  We'll transform their uses
1105          as we find them.
1106          We exclude complex types if not optimizing because they can be
1107          subject to partial stores in GNU C by means of the __real__ and
1108          __imag__ operators and we cannot promote them to total stores
1109          (see gimplify_modify_expr_complex_part).  */
1110       if (optimize
1111           && (TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
1112               || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE)
1113           && !TREE_THIS_VOLATILE (t)
1114           && (TREE_CODE (t) == VAR_DECL && !DECL_HARD_REGISTER (t))
1115           && !needs_to_live_in_memory (t))
1116         DECL_GIMPLE_REG_P (t) = 1;
1117     }
1118
1119   gimple_bind = gimple_build_bind (BIND_EXPR_VARS (bind_expr), NULL,
1120                                    BIND_EXPR_BLOCK (bind_expr));
1121   gimple_push_bind_expr (gimple_bind);
1122
1123   gimplify_ctxp->save_stack = false;
1124
1125   /* Gimplify the body into the GIMPLE_BIND tuple's body.  */
1126   body = NULL;
1127   gimplify_stmt (&BIND_EXPR_BODY (bind_expr), &body);
1128   gimple_bind_set_body (gimple_bind, body);
1129
1130   if (gimplify_ctxp->save_stack)
1131     {
1132       gimple stack_save, stack_restore, gs;
1133       gimple_seq cleanup, new_body;
1134
1135       /* Save stack on entry and restore it on exit.  Add a try_finally
1136          block to achieve this.  Note that mudflap depends on the
1137          format of the emitted code: see mx_register_decls().  */
1138       build_stack_save_restore (&stack_save, &stack_restore);
1139
1140       cleanup = new_body = NULL;
1141       gimplify_seq_add_stmt (&cleanup, stack_restore);
1142       gs = gimple_build_try (gimple_bind_body (gimple_bind), cleanup,
1143                              GIMPLE_TRY_FINALLY);
1144
1145       gimplify_seq_add_stmt (&new_body, stack_save);
1146       gimplify_seq_add_stmt (&new_body, gs);
1147       gimple_bind_set_body (gimple_bind, new_body);
1148     }
1149
1150   gimplify_ctxp->save_stack = old_save_stack;
1151   gimple_pop_bind_expr ();
1152
1153   gimplify_seq_add_stmt (pre_p, gimple_bind);
1154
1155   if (temp)
1156     {
1157       *expr_p = temp;
1158       return GS_OK;
1159     }
1160
1161   *expr_p = NULL_TREE;
1162   return GS_ALL_DONE;
1163 }
1164
1165 /* Gimplify a RETURN_EXPR.  If the expression to be returned is not a
1166    GIMPLE value, it is assigned to a new temporary and the statement is
1167    re-written to return the temporary.
1168
1169    PRE_P points to the sequence where side effects that must happen before
1170    STMT should be stored.  */
1171
1172 static enum gimplify_status
1173 gimplify_return_expr (tree stmt, gimple_seq *pre_p)
1174 {
1175   gimple ret;
1176   tree ret_expr = TREE_OPERAND (stmt, 0);
1177   tree result_decl, result;
1178
1179   if (ret_expr == error_mark_node)
1180     return GS_ERROR;
1181
1182   if (!ret_expr
1183       || TREE_CODE (ret_expr) == RESULT_DECL
1184       || ret_expr == error_mark_node)
1185     {
1186       gimple ret = gimple_build_return (ret_expr);
1187       gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1188       gimplify_seq_add_stmt (pre_p, ret);
1189       return GS_ALL_DONE;
1190     }
1191
1192   if (VOID_TYPE_P (TREE_TYPE (TREE_TYPE (current_function_decl))))
1193     result_decl = NULL_TREE;
1194   else
1195     {
1196       result_decl = TREE_OPERAND (ret_expr, 0);
1197
1198       /* See through a return by reference.  */
1199       if (TREE_CODE (result_decl) == INDIRECT_REF)
1200         result_decl = TREE_OPERAND (result_decl, 0);
1201
1202       gcc_assert ((TREE_CODE (ret_expr) == MODIFY_EXPR
1203                    || TREE_CODE (ret_expr) == INIT_EXPR)
1204                   && TREE_CODE (result_decl) == RESULT_DECL);
1205     }
1206
1207   /* If aggregate_value_p is true, then we can return the bare RESULT_DECL.
1208      Recall that aggregate_value_p is FALSE for any aggregate type that is
1209      returned in registers.  If we're returning values in registers, then
1210      we don't want to extend the lifetime of the RESULT_DECL, particularly
1211      across another call.  In addition, for those aggregates for which
1212      hard_function_value generates a PARALLEL, we'll die during normal
1213      expansion of structure assignments; there's special code in expand_return
1214      to handle this case that does not exist in expand_expr.  */
1215   if (!result_decl
1216       || aggregate_value_p (result_decl, TREE_TYPE (current_function_decl)))
1217     result = result_decl;
1218   else if (gimplify_ctxp->return_temp)
1219     result = gimplify_ctxp->return_temp;
1220   else
1221     {
1222       result = create_tmp_var (TREE_TYPE (result_decl), NULL);
1223       if (TREE_CODE (TREE_TYPE (result)) == COMPLEX_TYPE
1224           || TREE_CODE (TREE_TYPE (result)) == VECTOR_TYPE)
1225         DECL_GIMPLE_REG_P (result) = 1;
1226
1227       /* ??? With complex control flow (usually involving abnormal edges),
1228          we can wind up warning about an uninitialized value for this.  Due
1229          to how this variable is constructed and initialized, this is never
1230          true.  Give up and never warn.  */
1231       TREE_NO_WARNING (result) = 1;
1232
1233       gimplify_ctxp->return_temp = result;
1234     }
1235
1236   /* Smash the lhs of the MODIFY_EXPR to the temporary we plan to use.
1237      Then gimplify the whole thing.  */
1238   if (result != result_decl)
1239     TREE_OPERAND (ret_expr, 0) = result;
1240
1241   gimplify_and_add (TREE_OPERAND (stmt, 0), pre_p);
1242
1243   ret = gimple_build_return (result);
1244   gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1245   gimplify_seq_add_stmt (pre_p, ret);
1246
1247   return GS_ALL_DONE;
1248 }
1249
1250 static void
1251 gimplify_vla_decl (tree decl, gimple_seq *seq_p)
1252 {
1253   /* This is a variable-sized decl.  Simplify its size and mark it
1254      for deferred expansion.  Note that mudflap depends on the format
1255      of the emitted code: see mx_register_decls().  */
1256   tree t, addr, ptr_type;
1257
1258   gimplify_one_sizepos (&DECL_SIZE (decl), seq_p);
1259   gimplify_one_sizepos (&DECL_SIZE_UNIT (decl), seq_p);
1260
1261   /* All occurrences of this decl in final gimplified code will be
1262      replaced by indirection.  Setting DECL_VALUE_EXPR does two
1263      things: First, it lets the rest of the gimplifier know what
1264      replacement to use.  Second, it lets the debug info know
1265      where to find the value.  */
1266   ptr_type = build_pointer_type (TREE_TYPE (decl));
1267   addr = create_tmp_var (ptr_type, get_name (decl));
1268   DECL_IGNORED_P (addr) = 0;
1269   t = build_fold_indirect_ref (addr);
1270   SET_DECL_VALUE_EXPR (decl, t);
1271   DECL_HAS_VALUE_EXPR_P (decl) = 1;
1272
1273   t = built_in_decls[BUILT_IN_ALLOCA];
1274   t = build_call_expr (t, 1, DECL_SIZE_UNIT (decl));
1275   t = fold_convert (ptr_type, t);
1276   t = build2 (MODIFY_EXPR, TREE_TYPE (addr), addr, t);
1277
1278   gimplify_and_add (t, seq_p);
1279
1280   /* Indicate that we need to restore the stack level when the
1281      enclosing BIND_EXPR is exited.  */
1282   gimplify_ctxp->save_stack = true;
1283 }
1284
1285
1286 /* Gimplifies a DECL_EXPR node *STMT_P by making any necessary allocation
1287    and initialization explicit.  */
1288
1289 static enum gimplify_status
1290 gimplify_decl_expr (tree *stmt_p, gimple_seq *seq_p)
1291 {
1292   tree stmt = *stmt_p;
1293   tree decl = DECL_EXPR_DECL (stmt);
1294
1295   *stmt_p = NULL_TREE;
1296
1297   if (TREE_TYPE (decl) == error_mark_node)
1298     return GS_ERROR;
1299
1300   if ((TREE_CODE (decl) == TYPE_DECL
1301        || TREE_CODE (decl) == VAR_DECL)
1302       && !TYPE_SIZES_GIMPLIFIED (TREE_TYPE (decl)))
1303     gimplify_type_sizes (TREE_TYPE (decl), seq_p);
1304
1305   if (TREE_CODE (decl) == VAR_DECL && !DECL_EXTERNAL (decl))
1306     {
1307       tree init = DECL_INITIAL (decl);
1308
1309       if (TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1310           || (!TREE_STATIC (decl)
1311               && flag_stack_check == GENERIC_STACK_CHECK
1312               && compare_tree_int (DECL_SIZE_UNIT (decl),
1313                                    STACK_CHECK_MAX_VAR_SIZE) > 0))
1314         gimplify_vla_decl (decl, seq_p);
1315
1316       if (init && init != error_mark_node)
1317         {
1318           if (!TREE_STATIC (decl))
1319             {
1320               DECL_INITIAL (decl) = NULL_TREE;
1321               init = build2 (INIT_EXPR, void_type_node, decl, init);
1322               gimplify_and_add (init, seq_p);
1323               ggc_free (init);
1324             }
1325           else
1326             /* We must still examine initializers for static variables
1327                as they may contain a label address.  */
1328             walk_tree (&init, force_labels_r, NULL, NULL);
1329         }
1330
1331       /* Some front ends do not explicitly declare all anonymous
1332          artificial variables.  We compensate here by declaring the
1333          variables, though it would be better if the front ends would
1334          explicitly declare them.  */
1335       if (!DECL_SEEN_IN_BIND_EXPR_P (decl)
1336           && DECL_ARTIFICIAL (decl) && DECL_NAME (decl) == NULL_TREE)
1337         gimple_add_tmp_var (decl);
1338     }
1339
1340   return GS_ALL_DONE;
1341 }
1342
1343 /* Gimplify a LOOP_EXPR.  Normally this just involves gimplifying the body
1344    and replacing the LOOP_EXPR with goto, but if the loop contains an
1345    EXIT_EXPR, we need to append a label for it to jump to.  */
1346
1347 static enum gimplify_status
1348 gimplify_loop_expr (tree *expr_p, gimple_seq *pre_p)
1349 {
1350   tree saved_label = gimplify_ctxp->exit_label;
1351   tree start_label = create_artificial_label (UNKNOWN_LOCATION);
1352
1353   gimplify_seq_add_stmt (pre_p, gimple_build_label (start_label));
1354
1355   gimplify_ctxp->exit_label = NULL_TREE;
1356
1357   gimplify_and_add (LOOP_EXPR_BODY (*expr_p), pre_p);
1358
1359   gimplify_seq_add_stmt (pre_p, gimple_build_goto (start_label));
1360
1361   if (gimplify_ctxp->exit_label)
1362     gimplify_seq_add_stmt (pre_p, gimple_build_label (gimplify_ctxp->exit_label));
1363
1364   gimplify_ctxp->exit_label = saved_label;
1365
1366   *expr_p = NULL;
1367   return GS_ALL_DONE;
1368 }
1369
1370 /* Gimplifies a statement list onto a sequence.  These may be created either
1371    by an enlightened front-end, or by shortcut_cond_expr.  */
1372
1373 static enum gimplify_status
1374 gimplify_statement_list (tree *expr_p, gimple_seq *pre_p)
1375 {
1376   tree temp = voidify_wrapper_expr (*expr_p, NULL);
1377
1378   tree_stmt_iterator i = tsi_start (*expr_p);
1379
1380   while (!tsi_end_p (i))
1381     {
1382       gimplify_stmt (tsi_stmt_ptr (i), pre_p);
1383       tsi_delink (&i);
1384     }
1385
1386   if (temp)
1387     {
1388       *expr_p = temp;
1389       return GS_OK;
1390     }
1391
1392   return GS_ALL_DONE;
1393 }
1394
1395 /* Compare two case labels.  Because the front end should already have
1396    made sure that case ranges do not overlap, it is enough to only compare
1397    the CASE_LOW values of each case label.  */
1398
1399 static int
1400 compare_case_labels (const void *p1, const void *p2)
1401 {
1402   const_tree const case1 = *(const_tree const*)p1;
1403   const_tree const case2 = *(const_tree const*)p2;
1404
1405   /* The 'default' case label always goes first.  */
1406   if (!CASE_LOW (case1))
1407     return -1;
1408   else if (!CASE_LOW (case2))
1409     return 1;
1410   else
1411     return tree_int_cst_compare (CASE_LOW (case1), CASE_LOW (case2));
1412 }
1413
1414
1415 /* Sort the case labels in LABEL_VEC in place in ascending order.  */
1416
1417 void
1418 sort_case_labels (VEC(tree,heap)* label_vec)
1419 {
1420   size_t len = VEC_length (tree, label_vec);
1421   qsort (VEC_address (tree, label_vec), len, sizeof (tree),
1422          compare_case_labels);
1423 }
1424
1425
1426 /* Gimplify a SWITCH_EXPR, and collect a TREE_VEC of the labels it can
1427    branch to.  */
1428
1429 static enum gimplify_status
1430 gimplify_switch_expr (tree *expr_p, gimple_seq *pre_p)
1431 {
1432   tree switch_expr = *expr_p;
1433   gimple_seq switch_body_seq = NULL;
1434   enum gimplify_status ret;
1435
1436   ret = gimplify_expr (&SWITCH_COND (switch_expr), pre_p, NULL, is_gimple_val,
1437                        fb_rvalue);
1438   if (ret == GS_ERROR || ret == GS_UNHANDLED)
1439     return ret;
1440
1441   if (SWITCH_BODY (switch_expr))
1442     {
1443       VEC (tree,heap) *labels;
1444       VEC (tree,heap) *saved_labels;
1445       tree default_case = NULL_TREE;
1446       size_t i, len;
1447       gimple gimple_switch;
1448
1449       /* If someone can be bothered to fill in the labels, they can
1450          be bothered to null out the body too.  */
1451       gcc_assert (!SWITCH_LABELS (switch_expr));
1452
1453       /* save old labels, get new ones from body, then restore the old
1454          labels.  Save all the things from the switch body to append after.  */
1455       saved_labels = gimplify_ctxp->case_labels;
1456       gimplify_ctxp->case_labels = VEC_alloc (tree, heap, 8);
1457
1458       gimplify_stmt (&SWITCH_BODY (switch_expr), &switch_body_seq);
1459       labels = gimplify_ctxp->case_labels;
1460       gimplify_ctxp->case_labels = saved_labels;
1461
1462       i = 0;
1463       while (i < VEC_length (tree, labels))
1464         {
1465           tree elt = VEC_index (tree, labels, i);
1466           tree low = CASE_LOW (elt);
1467           bool remove_element = FALSE;
1468
1469           if (low)
1470             {
1471               /* Discard empty ranges.  */
1472               tree high = CASE_HIGH (elt);
1473               if (high && tree_int_cst_lt (high, low))
1474                 remove_element = TRUE;
1475             }
1476           else
1477             {
1478               /* The default case must be the last label in the list.  */
1479               gcc_assert (!default_case);
1480               default_case = elt;
1481               remove_element = TRUE;
1482             }
1483
1484           if (remove_element)
1485             VEC_ordered_remove (tree, labels, i);
1486           else
1487             i++;
1488         }
1489       len = i;
1490
1491       if (!VEC_empty (tree, labels))
1492         sort_case_labels (labels);
1493
1494       if (!default_case)
1495         {
1496           tree type = TREE_TYPE (switch_expr);
1497
1498           /* If the switch has no default label, add one, so that we jump
1499              around the switch body.  If the labels already cover the whole
1500              range of type, add the default label pointing to one of the
1501              existing labels.  */
1502           if (type == void_type_node)
1503             type = TREE_TYPE (SWITCH_COND (switch_expr));
1504           if (len
1505               && INTEGRAL_TYPE_P (type)
1506               && TYPE_MIN_VALUE (type)
1507               && TYPE_MAX_VALUE (type)
1508               && tree_int_cst_equal (CASE_LOW (VEC_index (tree, labels, 0)),
1509                                      TYPE_MIN_VALUE (type)))
1510             {
1511               tree low, high = CASE_HIGH (VEC_index (tree, labels, len - 1));
1512               if (!high)
1513                 high = CASE_LOW (VEC_index (tree, labels, len - 1));
1514               if (tree_int_cst_equal (high, TYPE_MAX_VALUE (type)))
1515                 {
1516                   for (i = 1; i < len; i++)
1517                     {
1518                       high = CASE_LOW (VEC_index (tree, labels, i));
1519                       low = CASE_HIGH (VEC_index (tree, labels, i - 1));
1520                       if (!low)
1521                         low = CASE_LOW (VEC_index (tree, labels, i - 1));
1522                       if ((TREE_INT_CST_LOW (low) + 1
1523                            != TREE_INT_CST_LOW (high))
1524                           || (TREE_INT_CST_HIGH (low)
1525                               + (TREE_INT_CST_LOW (high) == 0)
1526                               != TREE_INT_CST_HIGH (high)))
1527                         break;
1528                     }
1529                   if (i == len)
1530                     default_case = build3 (CASE_LABEL_EXPR, void_type_node,
1531                                            NULL_TREE, NULL_TREE,
1532                                            CASE_LABEL (VEC_index (tree,
1533                                                                   labels, 0)));
1534                 }
1535             }
1536
1537           if (!default_case)
1538             {
1539               gimple new_default;
1540
1541               default_case
1542                 = build3 (CASE_LABEL_EXPR, void_type_node,
1543                           NULL_TREE, NULL_TREE,
1544                           create_artificial_label (UNKNOWN_LOCATION));
1545               new_default = gimple_build_label (CASE_LABEL (default_case));
1546               gimplify_seq_add_stmt (&switch_body_seq, new_default);
1547             }
1548         }
1549
1550       gimple_switch = gimple_build_switch_vec (SWITCH_COND (switch_expr),
1551                                                default_case, labels);
1552       gimplify_seq_add_stmt (pre_p, gimple_switch);
1553       gimplify_seq_add_seq (pre_p, switch_body_seq);
1554       VEC_free(tree, heap, labels);
1555     }
1556   else
1557     gcc_assert (SWITCH_LABELS (switch_expr));
1558
1559   return GS_ALL_DONE;
1560 }
1561
1562
1563 static enum gimplify_status
1564 gimplify_case_label_expr (tree *expr_p, gimple_seq *pre_p)
1565 {
1566   struct gimplify_ctx *ctxp;
1567   gimple gimple_label;
1568
1569   /* Invalid OpenMP programs can play Duff's Device type games with
1570      #pragma omp parallel.  At least in the C front end, we don't
1571      detect such invalid branches until after gimplification.  */
1572   for (ctxp = gimplify_ctxp; ; ctxp = ctxp->prev_context)
1573     if (ctxp->case_labels)
1574       break;
1575
1576   gimple_label = gimple_build_label (CASE_LABEL (*expr_p));
1577   VEC_safe_push (tree, heap, ctxp->case_labels, *expr_p);
1578   gimplify_seq_add_stmt (pre_p, gimple_label);
1579
1580   return GS_ALL_DONE;
1581 }
1582
1583 /* Build a GOTO to the LABEL_DECL pointed to by LABEL_P, building it first
1584    if necessary.  */
1585
1586 tree
1587 build_and_jump (tree *label_p)
1588 {
1589   if (label_p == NULL)
1590     /* If there's nowhere to jump, just fall through.  */
1591     return NULL_TREE;
1592
1593   if (*label_p == NULL_TREE)
1594     {
1595       tree label = create_artificial_label (UNKNOWN_LOCATION);
1596       *label_p = label;
1597     }
1598
1599   return build1 (GOTO_EXPR, void_type_node, *label_p);
1600 }
1601
1602 /* Gimplify an EXIT_EXPR by converting to a GOTO_EXPR inside a COND_EXPR.
1603    This also involves building a label to jump to and communicating it to
1604    gimplify_loop_expr through gimplify_ctxp->exit_label.  */
1605
1606 static enum gimplify_status
1607 gimplify_exit_expr (tree *expr_p)
1608 {
1609   tree cond = TREE_OPERAND (*expr_p, 0);
1610   tree expr;
1611
1612   expr = build_and_jump (&gimplify_ctxp->exit_label);
1613   expr = build3 (COND_EXPR, void_type_node, cond, expr, NULL_TREE);
1614   *expr_p = expr;
1615
1616   return GS_OK;
1617 }
1618
1619 /* A helper function to be called via walk_tree.  Mark all labels under *TP
1620    as being forced.  To be called for DECL_INITIAL of static variables.  */
1621
1622 tree
1623 force_labels_r (tree *tp, int *walk_subtrees, void *data ATTRIBUTE_UNUSED)
1624 {
1625   if (TYPE_P (*tp))
1626     *walk_subtrees = 0;
1627   if (TREE_CODE (*tp) == LABEL_DECL)
1628     FORCED_LABEL (*tp) = 1;
1629
1630   return NULL_TREE;
1631 }
1632
1633 /* *EXPR_P is a COMPONENT_REF being used as an rvalue.  If its type is
1634    different from its canonical type, wrap the whole thing inside a
1635    NOP_EXPR and force the type of the COMPONENT_REF to be the canonical
1636    type.
1637
1638    The canonical type of a COMPONENT_REF is the type of the field being
1639    referenced--unless the field is a bit-field which can be read directly
1640    in a smaller mode, in which case the canonical type is the
1641    sign-appropriate type corresponding to that mode.  */
1642
1643 static void
1644 canonicalize_component_ref (tree *expr_p)
1645 {
1646   tree expr = *expr_p;
1647   tree type;
1648
1649   gcc_assert (TREE_CODE (expr) == COMPONENT_REF);
1650
1651   if (INTEGRAL_TYPE_P (TREE_TYPE (expr)))
1652     type = TREE_TYPE (get_unwidened (expr, NULL_TREE));
1653   else
1654     type = TREE_TYPE (TREE_OPERAND (expr, 1));
1655
1656   /* One could argue that all the stuff below is not necessary for
1657      the non-bitfield case and declare it a FE error if type
1658      adjustment would be needed.  */
1659   if (TREE_TYPE (expr) != type)
1660     {
1661 #ifdef ENABLE_TYPES_CHECKING
1662       tree old_type = TREE_TYPE (expr);
1663 #endif
1664       int type_quals;
1665
1666       /* We need to preserve qualifiers and propagate them from
1667          operand 0.  */
1668       type_quals = TYPE_QUALS (type)
1669         | TYPE_QUALS (TREE_TYPE (TREE_OPERAND (expr, 0)));
1670       if (TYPE_QUALS (type) != type_quals)
1671         type = build_qualified_type (TYPE_MAIN_VARIANT (type), type_quals);
1672
1673       /* Set the type of the COMPONENT_REF to the underlying type.  */
1674       TREE_TYPE (expr) = type;
1675
1676 #ifdef ENABLE_TYPES_CHECKING
1677       /* It is now a FE error, if the conversion from the canonical
1678          type to the original expression type is not useless.  */
1679       gcc_assert (useless_type_conversion_p (old_type, type));
1680 #endif
1681     }
1682 }
1683
1684 /* If a NOP conversion is changing a pointer to array of foo to a pointer
1685    to foo, embed that change in the ADDR_EXPR by converting
1686       T array[U];
1687       (T *)&array
1688    ==>
1689       &array[L]
1690    where L is the lower bound.  For simplicity, only do this for constant
1691    lower bound.
1692    The constraint is that the type of &array[L] is trivially convertible
1693    to T *.  */
1694
1695 static void
1696 canonicalize_addr_expr (tree *expr_p)
1697 {
1698   tree expr = *expr_p;
1699   tree addr_expr = TREE_OPERAND (expr, 0);
1700   tree datype, ddatype, pddatype;
1701
1702   /* We simplify only conversions from an ADDR_EXPR to a pointer type.  */
1703   if (!POINTER_TYPE_P (TREE_TYPE (expr))
1704       || TREE_CODE (addr_expr) != ADDR_EXPR)
1705     return;
1706
1707   /* The addr_expr type should be a pointer to an array.  */
1708   datype = TREE_TYPE (TREE_TYPE (addr_expr));
1709   if (TREE_CODE (datype) != ARRAY_TYPE)
1710     return;
1711
1712   /* The pointer to element type shall be trivially convertible to
1713      the expression pointer type.  */
1714   ddatype = TREE_TYPE (datype);
1715   pddatype = build_pointer_type (ddatype);
1716   if (!useless_type_conversion_p (TYPE_MAIN_VARIANT (TREE_TYPE (expr)),
1717                                   pddatype))
1718     return;
1719
1720   /* The lower bound and element sizes must be constant.  */
1721   if (!TYPE_SIZE_UNIT (ddatype)
1722       || TREE_CODE (TYPE_SIZE_UNIT (ddatype)) != INTEGER_CST
1723       || !TYPE_DOMAIN (datype) || !TYPE_MIN_VALUE (TYPE_DOMAIN (datype))
1724       || TREE_CODE (TYPE_MIN_VALUE (TYPE_DOMAIN (datype))) != INTEGER_CST)
1725     return;
1726
1727   /* All checks succeeded.  Build a new node to merge the cast.  */
1728   *expr_p = build4 (ARRAY_REF, ddatype, TREE_OPERAND (addr_expr, 0),
1729                     TYPE_MIN_VALUE (TYPE_DOMAIN (datype)),
1730                     NULL_TREE, NULL_TREE);
1731   *expr_p = build1 (ADDR_EXPR, pddatype, *expr_p);
1732
1733   /* We can have stripped a required restrict qualifier above.  */
1734   if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
1735     *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
1736 }
1737
1738 /* *EXPR_P is a NOP_EXPR or CONVERT_EXPR.  Remove it and/or other conversions
1739    underneath as appropriate.  */
1740
1741 static enum gimplify_status
1742 gimplify_conversion (tree *expr_p)
1743 {
1744   tree tem;
1745   location_t loc = EXPR_LOCATION (*expr_p);
1746   gcc_assert (CONVERT_EXPR_P (*expr_p));
1747
1748   /* Then strip away all but the outermost conversion.  */
1749   STRIP_SIGN_NOPS (TREE_OPERAND (*expr_p, 0));
1750
1751   /* And remove the outermost conversion if it's useless.  */
1752   if (tree_ssa_useless_type_conversion (*expr_p))
1753     *expr_p = TREE_OPERAND (*expr_p, 0);
1754
1755   /* Attempt to avoid NOP_EXPR by producing reference to a subtype.
1756      For example this fold (subclass *)&A into &A->subclass avoiding
1757      a need for statement.  */
1758   if (CONVERT_EXPR_P (*expr_p)
1759       && POINTER_TYPE_P (TREE_TYPE (*expr_p))
1760       && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (*expr_p, 0)))
1761       && (tem = maybe_fold_offset_to_address
1762           (EXPR_LOCATION (*expr_p), TREE_OPERAND (*expr_p, 0),
1763            integer_zero_node, TREE_TYPE (*expr_p))) != NULL_TREE)
1764     *expr_p = tem;
1765
1766   /* If we still have a conversion at the toplevel,
1767      then canonicalize some constructs.  */
1768   if (CONVERT_EXPR_P (*expr_p))
1769     {
1770       tree sub = TREE_OPERAND (*expr_p, 0);
1771
1772       /* If a NOP conversion is changing the type of a COMPONENT_REF
1773          expression, then canonicalize its type now in order to expose more
1774          redundant conversions.  */
1775       if (TREE_CODE (sub) == COMPONENT_REF)
1776         canonicalize_component_ref (&TREE_OPERAND (*expr_p, 0));
1777
1778       /* If a NOP conversion is changing a pointer to array of foo
1779          to a pointer to foo, embed that change in the ADDR_EXPR.  */
1780       else if (TREE_CODE (sub) == ADDR_EXPR)
1781         canonicalize_addr_expr (expr_p);
1782     }
1783
1784   /* If we have a conversion to a non-register type force the
1785      use of a VIEW_CONVERT_EXPR instead.  */
1786   if (CONVERT_EXPR_P (*expr_p) && !is_gimple_reg_type (TREE_TYPE (*expr_p)))
1787     *expr_p = fold_build1_loc (loc, VIEW_CONVERT_EXPR, TREE_TYPE (*expr_p),
1788                                TREE_OPERAND (*expr_p, 0));
1789
1790   return GS_OK;
1791 }
1792
1793 /* Nonlocal VLAs seen in the current function.  */
1794 static struct pointer_set_t *nonlocal_vlas;
1795
1796 /* Gimplify a VAR_DECL or PARM_DECL.  Returns GS_OK if we expanded a
1797    DECL_VALUE_EXPR, and it's worth re-examining things.  */
1798
1799 static enum gimplify_status
1800 gimplify_var_or_parm_decl (tree *expr_p)
1801 {
1802   tree decl = *expr_p;
1803
1804   /* ??? If this is a local variable, and it has not been seen in any
1805      outer BIND_EXPR, then it's probably the result of a duplicate
1806      declaration, for which we've already issued an error.  It would
1807      be really nice if the front end wouldn't leak these at all.
1808      Currently the only known culprit is C++ destructors, as seen
1809      in g++.old-deja/g++.jason/binding.C.  */
1810   if (TREE_CODE (decl) == VAR_DECL
1811       && !DECL_SEEN_IN_BIND_EXPR_P (decl)
1812       && !TREE_STATIC (decl) && !DECL_EXTERNAL (decl)
1813       && decl_function_context (decl) == current_function_decl)
1814     {
1815       gcc_assert (errorcount || sorrycount);
1816       return GS_ERROR;
1817     }
1818
1819   /* When within an OpenMP context, notice uses of variables.  */
1820   if (gimplify_omp_ctxp && omp_notice_variable (gimplify_omp_ctxp, decl, true))
1821     return GS_ALL_DONE;
1822
1823   /* If the decl is an alias for another expression, substitute it now.  */
1824   if (DECL_HAS_VALUE_EXPR_P (decl))
1825     {
1826       tree value_expr = DECL_VALUE_EXPR (decl);
1827
1828       /* For referenced nonlocal VLAs add a decl for debugging purposes
1829          to the current function.  */
1830       if (TREE_CODE (decl) == VAR_DECL
1831           && TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1832           && nonlocal_vlas != NULL
1833           && TREE_CODE (value_expr) == INDIRECT_REF
1834           && TREE_CODE (TREE_OPERAND (value_expr, 0)) == VAR_DECL
1835           && decl_function_context (decl) != current_function_decl)
1836         {
1837           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1838           while (ctx && ctx->region_type == ORT_WORKSHARE)
1839             ctx = ctx->outer_context;
1840           if (!ctx && !pointer_set_insert (nonlocal_vlas, decl))
1841             {
1842               tree copy = copy_node (decl), block;
1843
1844               lang_hooks.dup_lang_specific_decl (copy);
1845               SET_DECL_RTL (copy, NULL_RTX);
1846               TREE_USED (copy) = 1;
1847               block = DECL_INITIAL (current_function_decl);
1848               TREE_CHAIN (copy) = BLOCK_VARS (block);
1849               BLOCK_VARS (block) = copy;
1850               SET_DECL_VALUE_EXPR (copy, unshare_expr (value_expr));
1851               DECL_HAS_VALUE_EXPR_P (copy) = 1;
1852             }
1853         }
1854
1855       *expr_p = unshare_expr (value_expr);
1856       return GS_OK;
1857     }
1858
1859   return GS_ALL_DONE;
1860 }
1861
1862
1863 /* Gimplify the COMPONENT_REF, ARRAY_REF, REALPART_EXPR or IMAGPART_EXPR
1864    node *EXPR_P.
1865
1866       compound_lval
1867               : min_lval '[' val ']'
1868               | min_lval '.' ID
1869               | compound_lval '[' val ']'
1870               | compound_lval '.' ID
1871
1872    This is not part of the original SIMPLE definition, which separates
1873    array and member references, but it seems reasonable to handle them
1874    together.  Also, this way we don't run into problems with union
1875    aliasing; gcc requires that for accesses through a union to alias, the
1876    union reference must be explicit, which was not always the case when we
1877    were splitting up array and member refs.
1878
1879    PRE_P points to the sequence where side effects that must happen before
1880      *EXPR_P should be stored.
1881
1882    POST_P points to the sequence where side effects that must happen after
1883      *EXPR_P should be stored.  */
1884
1885 static enum gimplify_status
1886 gimplify_compound_lval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
1887                         fallback_t fallback)
1888 {
1889   tree *p;
1890   VEC(tree,heap) *stack;
1891   enum gimplify_status ret = GS_OK, tret;
1892   int i;
1893   location_t loc = EXPR_LOCATION (*expr_p);
1894
1895   /* Create a stack of the subexpressions so later we can walk them in
1896      order from inner to outer.  */
1897   stack = VEC_alloc (tree, heap, 10);
1898
1899   /* We can handle anything that get_inner_reference can deal with.  */
1900   for (p = expr_p; ; p = &TREE_OPERAND (*p, 0))
1901     {
1902     restart:
1903       /* Fold INDIRECT_REFs now to turn them into ARRAY_REFs.  */
1904       if (TREE_CODE (*p) == INDIRECT_REF)
1905         *p = fold_indirect_ref_loc (loc, *p);
1906
1907       if (handled_component_p (*p))
1908         ;
1909       /* Expand DECL_VALUE_EXPR now.  In some cases that may expose
1910          additional COMPONENT_REFs.  */
1911       else if ((TREE_CODE (*p) == VAR_DECL || TREE_CODE (*p) == PARM_DECL)
1912                && gimplify_var_or_parm_decl (p) == GS_OK)
1913         goto restart;
1914       else
1915         break;
1916
1917       VEC_safe_push (tree, heap, stack, *p);
1918     }
1919
1920   gcc_assert (VEC_length (tree, stack));
1921
1922   /* Now STACK is a stack of pointers to all the refs we've walked through
1923      and P points to the innermost expression.
1924
1925      Java requires that we elaborated nodes in source order.  That
1926      means we must gimplify the inner expression followed by each of
1927      the indices, in order.  But we can't gimplify the inner
1928      expression until we deal with any variable bounds, sizes, or
1929      positions in order to deal with PLACEHOLDER_EXPRs.
1930
1931      So we do this in three steps.  First we deal with the annotations
1932      for any variables in the components, then we gimplify the base,
1933      then we gimplify any indices, from left to right.  */
1934   for (i = VEC_length (tree, stack) - 1; i >= 0; i--)
1935     {
1936       tree t = VEC_index (tree, stack, i);
1937
1938       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
1939         {
1940           /* Gimplify the low bound and element type size and put them into
1941              the ARRAY_REF.  If these values are set, they have already been
1942              gimplified.  */
1943           if (TREE_OPERAND (t, 2) == NULL_TREE)
1944             {
1945               tree low = unshare_expr (array_ref_low_bound (t));
1946               if (!is_gimple_min_invariant (low))
1947                 {
1948                   TREE_OPERAND (t, 2) = low;
1949                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
1950                                         post_p, is_gimple_reg,
1951                                         fb_rvalue);
1952                   ret = MIN (ret, tret);
1953                 }
1954             }
1955
1956           if (!TREE_OPERAND (t, 3))
1957             {
1958               tree elmt_type = TREE_TYPE (TREE_TYPE (TREE_OPERAND (t, 0)));
1959               tree elmt_size = unshare_expr (array_ref_element_size (t));
1960               tree factor = size_int (TYPE_ALIGN_UNIT (elmt_type));
1961
1962               /* Divide the element size by the alignment of the element
1963                  type (above).  */
1964               elmt_size = size_binop_loc (loc, EXACT_DIV_EXPR, elmt_size, factor);
1965
1966               if (!is_gimple_min_invariant (elmt_size))
1967                 {
1968                   TREE_OPERAND (t, 3) = elmt_size;
1969                   tret = gimplify_expr (&TREE_OPERAND (t, 3), pre_p,
1970                                         post_p, is_gimple_reg,
1971                                         fb_rvalue);
1972                   ret = MIN (ret, tret);
1973                 }
1974             }
1975         }
1976       else if (TREE_CODE (t) == COMPONENT_REF)
1977         {
1978           /* Set the field offset into T and gimplify it.  */
1979           if (!TREE_OPERAND (t, 2))
1980             {
1981               tree offset = unshare_expr (component_ref_field_offset (t));
1982               tree field = TREE_OPERAND (t, 1);
1983               tree factor
1984                 = size_int (DECL_OFFSET_ALIGN (field) / BITS_PER_UNIT);
1985
1986               /* Divide the offset by its alignment.  */
1987               offset = size_binop_loc (loc, EXACT_DIV_EXPR, offset, factor);
1988
1989               if (!is_gimple_min_invariant (offset))
1990                 {
1991                   TREE_OPERAND (t, 2) = offset;
1992                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
1993                                         post_p, is_gimple_reg,
1994                                         fb_rvalue);
1995                   ret = MIN (ret, tret);
1996                 }
1997             }
1998         }
1999     }
2000
2001   /* Step 2 is to gimplify the base expression.  Make sure lvalue is set
2002      so as to match the min_lval predicate.  Failure to do so may result
2003      in the creation of large aggregate temporaries.  */
2004   tret = gimplify_expr (p, pre_p, post_p, is_gimple_min_lval,
2005                         fallback | fb_lvalue);
2006   ret = MIN (ret, tret);
2007
2008   /* And finally, the indices and operands to BIT_FIELD_REF.  During this
2009      loop we also remove any useless conversions.  */
2010   for (; VEC_length (tree, stack) > 0; )
2011     {
2012       tree t = VEC_pop (tree, stack);
2013
2014       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
2015         {
2016           /* Gimplify the dimension.  */
2017           if (!is_gimple_min_invariant (TREE_OPERAND (t, 1)))
2018             {
2019               tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2020                                     is_gimple_val, fb_rvalue);
2021               ret = MIN (ret, tret);
2022             }
2023         }
2024       else if (TREE_CODE (t) == BIT_FIELD_REF)
2025         {
2026           tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2027                                 is_gimple_val, fb_rvalue);
2028           ret = MIN (ret, tret);
2029           tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p, post_p,
2030                                 is_gimple_val, fb_rvalue);
2031           ret = MIN (ret, tret);
2032         }
2033
2034       STRIP_USELESS_TYPE_CONVERSION (TREE_OPERAND (t, 0));
2035
2036       /* The innermost expression P may have originally had
2037          TREE_SIDE_EFFECTS set which would have caused all the outer
2038          expressions in *EXPR_P leading to P to also have had
2039          TREE_SIDE_EFFECTS set.  */
2040       recalculate_side_effects (t);
2041     }
2042
2043   /* If the outermost expression is a COMPONENT_REF, canonicalize its type.  */
2044   if ((fallback & fb_rvalue) && TREE_CODE (*expr_p) == COMPONENT_REF)
2045     {
2046       canonicalize_component_ref (expr_p);
2047       ret = MIN (ret, GS_OK);
2048     }
2049
2050   VEC_free (tree, heap, stack);
2051
2052   return ret;
2053 }
2054
2055 /*  Gimplify the self modifying expression pointed to by EXPR_P
2056     (++, --, +=, -=).
2057
2058     PRE_P points to the list where side effects that must happen before
2059         *EXPR_P should be stored.
2060
2061     POST_P points to the list where side effects that must happen after
2062         *EXPR_P should be stored.
2063
2064     WANT_VALUE is nonzero iff we want to use the value of this expression
2065         in another expression.  */
2066
2067 static enum gimplify_status
2068 gimplify_self_mod_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
2069                         bool want_value)
2070 {
2071   enum tree_code code;
2072   tree lhs, lvalue, rhs, t1;
2073   gimple_seq post = NULL, *orig_post_p = post_p;
2074   bool postfix;
2075   enum tree_code arith_code;
2076   enum gimplify_status ret;
2077   location_t loc = EXPR_LOCATION (*expr_p);
2078
2079   code = TREE_CODE (*expr_p);
2080
2081   gcc_assert (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR
2082               || code == PREINCREMENT_EXPR || code == PREDECREMENT_EXPR);
2083
2084   /* Prefix or postfix?  */
2085   if (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR)
2086     /* Faster to treat as prefix if result is not used.  */
2087     postfix = want_value;
2088   else
2089     postfix = false;
2090
2091   /* For postfix, make sure the inner expression's post side effects
2092      are executed after side effects from this expression.  */
2093   if (postfix)
2094     post_p = &post;
2095
2096   /* Add or subtract?  */
2097   if (code == PREINCREMENT_EXPR || code == POSTINCREMENT_EXPR)
2098     arith_code = PLUS_EXPR;
2099   else
2100     arith_code = MINUS_EXPR;
2101
2102   /* Gimplify the LHS into a GIMPLE lvalue.  */
2103   lvalue = TREE_OPERAND (*expr_p, 0);
2104   ret = gimplify_expr (&lvalue, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
2105   if (ret == GS_ERROR)
2106     return ret;
2107
2108   /* Extract the operands to the arithmetic operation.  */
2109   lhs = lvalue;
2110   rhs = TREE_OPERAND (*expr_p, 1);
2111
2112   /* For postfix operator, we evaluate the LHS to an rvalue and then use
2113      that as the result value and in the postqueue operation.  We also
2114      make sure to make lvalue a minimal lval, see
2115      gcc.c-torture/execute/20040313-1.c for an example where this matters.  */
2116   if (postfix)
2117     {
2118       if (!is_gimple_min_lval (lvalue))
2119         {
2120           mark_addressable (lvalue);
2121           lvalue = build_fold_addr_expr_loc (input_location, lvalue);
2122           gimplify_expr (&lvalue, pre_p, post_p, is_gimple_val, fb_rvalue);
2123           lvalue = build_fold_indirect_ref_loc (input_location, lvalue);
2124         }
2125       ret = gimplify_expr (&lhs, pre_p, post_p, is_gimple_val, fb_rvalue);
2126       if (ret == GS_ERROR)
2127         return ret;
2128     }
2129
2130   /* For POINTERs increment, use POINTER_PLUS_EXPR.  */
2131   if (POINTER_TYPE_P (TREE_TYPE (lhs)))
2132     {
2133       rhs = fold_convert_loc (loc, sizetype, rhs);
2134       if (arith_code == MINUS_EXPR)
2135         rhs = fold_build1_loc (loc, NEGATE_EXPR, TREE_TYPE (rhs), rhs);
2136       arith_code = POINTER_PLUS_EXPR;
2137     }
2138
2139   t1 = build2 (arith_code, TREE_TYPE (*expr_p), lhs, rhs);
2140
2141   if (postfix)
2142     {
2143       gimplify_assign (lvalue, t1, orig_post_p);
2144       gimplify_seq_add_seq (orig_post_p, post);
2145       *expr_p = lhs;
2146       return GS_ALL_DONE;
2147     }
2148   else
2149     {
2150       *expr_p = build2 (MODIFY_EXPR, TREE_TYPE (lvalue), lvalue, t1);
2151       return GS_OK;
2152     }
2153 }
2154
2155
2156 /* If *EXPR_P has a variable sized type, wrap it in a WITH_SIZE_EXPR.  */
2157
2158 static void
2159 maybe_with_size_expr (tree *expr_p)
2160 {
2161   tree expr = *expr_p;
2162   tree type = TREE_TYPE (expr);
2163   tree size;
2164
2165   /* If we've already wrapped this or the type is error_mark_node, we can't do
2166      anything.  */
2167   if (TREE_CODE (expr) == WITH_SIZE_EXPR
2168       || type == error_mark_node)
2169     return;
2170
2171   /* If the size isn't known or is a constant, we have nothing to do.  */
2172   size = TYPE_SIZE_UNIT (type);
2173   if (!size || TREE_CODE (size) == INTEGER_CST)
2174     return;
2175
2176   /* Otherwise, make a WITH_SIZE_EXPR.  */
2177   size = unshare_expr (size);
2178   size = SUBSTITUTE_PLACEHOLDER_IN_EXPR (size, expr);
2179   *expr_p = build2 (WITH_SIZE_EXPR, type, expr, size);
2180 }
2181
2182
2183 /* Helper for gimplify_call_expr.  Gimplify a single argument *ARG_P
2184    Store any side-effects in PRE_P.  CALL_LOCATION is the location of
2185    the CALL_EXPR.  */
2186
2187 static enum gimplify_status
2188 gimplify_arg (tree *arg_p, gimple_seq *pre_p, location_t call_location)
2189 {
2190   bool (*test) (tree);
2191   fallback_t fb;
2192
2193   /* In general, we allow lvalues for function arguments to avoid
2194      extra overhead of copying large aggregates out of even larger
2195      aggregates into temporaries only to copy the temporaries to
2196      the argument list.  Make optimizers happy by pulling out to
2197      temporaries those types that fit in registers.  */
2198   if (is_gimple_reg_type (TREE_TYPE (*arg_p)))
2199     test = is_gimple_val, fb = fb_rvalue;
2200   else
2201     test = is_gimple_lvalue, fb = fb_either;
2202
2203   /* If this is a variable sized type, we must remember the size.  */
2204   maybe_with_size_expr (arg_p);
2205
2206   /* FIXME diagnostics: This will mess up gcc.dg/Warray-bounds.c.  */
2207   /* Make sure arguments have the same location as the function call
2208      itself.  */
2209   protected_set_expr_location (*arg_p, call_location);
2210
2211   /* There is a sequence point before a function call.  Side effects in
2212      the argument list must occur before the actual call. So, when
2213      gimplifying arguments, force gimplify_expr to use an internal
2214      post queue which is then appended to the end of PRE_P.  */
2215   return gimplify_expr (arg_p, pre_p, NULL, test, fb);
2216 }
2217
2218
2219 /* Gimplify the CALL_EXPR node *EXPR_P into the GIMPLE sequence PRE_P.
2220    WANT_VALUE is true if the result of the call is desired.  */
2221
2222 static enum gimplify_status
2223 gimplify_call_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
2224 {
2225   tree fndecl, parms, p;
2226   enum gimplify_status ret;
2227   int i, nargs;
2228   gimple call;
2229   bool builtin_va_start_p = FALSE;
2230   location_t loc = EXPR_LOCATION (*expr_p);
2231
2232   gcc_assert (TREE_CODE (*expr_p) == CALL_EXPR);
2233
2234   /* For reliable diagnostics during inlining, it is necessary that
2235      every call_expr be annotated with file and line.  */
2236   if (! EXPR_HAS_LOCATION (*expr_p))
2237     SET_EXPR_LOCATION (*expr_p, input_location);
2238
2239   /* This may be a call to a builtin function.
2240
2241      Builtin function calls may be transformed into different
2242      (and more efficient) builtin function calls under certain
2243      circumstances.  Unfortunately, gimplification can muck things
2244      up enough that the builtin expanders are not aware that certain
2245      transformations are still valid.
2246
2247      So we attempt transformation/gimplification of the call before
2248      we gimplify the CALL_EXPR.  At this time we do not manage to
2249      transform all calls in the same manner as the expanders do, but
2250      we do transform most of them.  */
2251   fndecl = get_callee_fndecl (*expr_p);
2252   if (fndecl && DECL_BUILT_IN (fndecl))
2253     {
2254       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2255
2256       if (new_tree && new_tree != *expr_p)
2257         {
2258           /* There was a transformation of this call which computes the
2259              same value, but in a more efficient way.  Return and try
2260              again.  */
2261           *expr_p = new_tree;
2262           return GS_OK;
2263         }
2264
2265       if (DECL_BUILT_IN_CLASS (fndecl) == BUILT_IN_NORMAL
2266           && DECL_FUNCTION_CODE (fndecl) == BUILT_IN_VA_START)
2267         {
2268           builtin_va_start_p = TRUE;
2269           if (call_expr_nargs (*expr_p) < 2)
2270             {
2271               error ("too few arguments to function %<va_start%>");
2272               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2273               return GS_OK;
2274             }
2275
2276           if (fold_builtin_next_arg (*expr_p, true))
2277             {
2278               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2279               return GS_OK;
2280             }
2281         }
2282     }
2283
2284   /* There is a sequence point before the call, so any side effects in
2285      the calling expression must occur before the actual call.  Force
2286      gimplify_expr to use an internal post queue.  */
2287   ret = gimplify_expr (&CALL_EXPR_FN (*expr_p), pre_p, NULL,
2288                        is_gimple_call_addr, fb_rvalue);
2289
2290   nargs = call_expr_nargs (*expr_p);
2291
2292   /* Get argument types for verification.  */
2293   fndecl = get_callee_fndecl (*expr_p);
2294   parms = NULL_TREE;
2295   if (fndecl)
2296     parms = TYPE_ARG_TYPES (TREE_TYPE (fndecl));
2297   else if (POINTER_TYPE_P (TREE_TYPE (CALL_EXPR_FN (*expr_p))))
2298     parms = TYPE_ARG_TYPES (TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (*expr_p))));
2299
2300   if (fndecl && DECL_ARGUMENTS (fndecl))
2301     p = DECL_ARGUMENTS (fndecl);
2302   else if (parms)
2303     p = parms;
2304   else
2305     p = NULL_TREE;
2306   for (i = 0; i < nargs && p; i++, p = TREE_CHAIN (p))
2307     ;
2308
2309   /* If the last argument is __builtin_va_arg_pack () and it is not
2310      passed as a named argument, decrease the number of CALL_EXPR
2311      arguments and set instead the CALL_EXPR_VA_ARG_PACK flag.  */
2312   if (!p
2313       && i < nargs
2314       && TREE_CODE (CALL_EXPR_ARG (*expr_p, nargs - 1)) == CALL_EXPR)
2315     {
2316       tree last_arg = CALL_EXPR_ARG (*expr_p, nargs - 1);
2317       tree last_arg_fndecl = get_callee_fndecl (last_arg);
2318
2319       if (last_arg_fndecl
2320           && TREE_CODE (last_arg_fndecl) == FUNCTION_DECL
2321           && DECL_BUILT_IN_CLASS (last_arg_fndecl) == BUILT_IN_NORMAL
2322           && DECL_FUNCTION_CODE (last_arg_fndecl) == BUILT_IN_VA_ARG_PACK)
2323         {
2324           tree call = *expr_p;
2325
2326           --nargs;
2327           *expr_p = build_call_array_loc (loc, TREE_TYPE (call),
2328                                           CALL_EXPR_FN (call),
2329                                           nargs, CALL_EXPR_ARGP (call));
2330
2331           /* Copy all CALL_EXPR flags, location and block, except
2332              CALL_EXPR_VA_ARG_PACK flag.  */
2333           CALL_EXPR_STATIC_CHAIN (*expr_p) = CALL_EXPR_STATIC_CHAIN (call);
2334           CALL_EXPR_TAILCALL (*expr_p) = CALL_EXPR_TAILCALL (call);
2335           CALL_EXPR_RETURN_SLOT_OPT (*expr_p)
2336             = CALL_EXPR_RETURN_SLOT_OPT (call);
2337           CALL_FROM_THUNK_P (*expr_p) = CALL_FROM_THUNK_P (call);
2338           CALL_CANNOT_INLINE_P (*expr_p) = CALL_CANNOT_INLINE_P (call);
2339           SET_EXPR_LOCATION (*expr_p, EXPR_LOCATION (call));
2340           TREE_BLOCK (*expr_p) = TREE_BLOCK (call);
2341
2342           /* Set CALL_EXPR_VA_ARG_PACK.  */
2343           CALL_EXPR_VA_ARG_PACK (*expr_p) = 1;
2344         }
2345     }
2346
2347   /* Finally, gimplify the function arguments.  */
2348   if (nargs > 0)
2349     {
2350       for (i = (PUSH_ARGS_REVERSED ? nargs - 1 : 0);
2351            PUSH_ARGS_REVERSED ? i >= 0 : i < nargs;
2352            PUSH_ARGS_REVERSED ? i-- : i++)
2353         {
2354           enum gimplify_status t;
2355
2356           /* Avoid gimplifying the second argument to va_start, which needs to
2357              be the plain PARM_DECL.  */
2358           if ((i != 1) || !builtin_va_start_p)
2359             {
2360               t = gimplify_arg (&CALL_EXPR_ARG (*expr_p, i), pre_p,
2361                                 EXPR_LOCATION (*expr_p));
2362
2363               if (t == GS_ERROR)
2364                 ret = GS_ERROR;
2365             }
2366         }
2367     }
2368
2369   /* Verify the function result.  */
2370   if (want_value && fndecl
2371       && VOID_TYPE_P (TREE_TYPE (TREE_TYPE (fndecl))))
2372     {
2373       error_at (loc, "using result of function returning %<void%>");
2374       ret = GS_ERROR;
2375     }
2376
2377   /* Try this again in case gimplification exposed something.  */
2378   if (ret != GS_ERROR)
2379     {
2380       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2381
2382       if (new_tree && new_tree != *expr_p)
2383         {
2384           /* There was a transformation of this call which computes the
2385              same value, but in a more efficient way.  Return and try
2386              again.  */
2387           *expr_p = new_tree;
2388           return GS_OK;
2389         }
2390     }
2391   else
2392     {
2393       *expr_p = error_mark_node;
2394       return GS_ERROR;
2395     }
2396
2397   /* If the function is "const" or "pure", then clear TREE_SIDE_EFFECTS on its
2398      decl.  This allows us to eliminate redundant or useless
2399      calls to "const" functions.  */
2400   if (TREE_CODE (*expr_p) == CALL_EXPR)
2401     {
2402       int flags = call_expr_flags (*expr_p);
2403       if (flags & (ECF_CONST | ECF_PURE)
2404           /* An infinite loop is considered a side effect.  */
2405           && !(flags & (ECF_LOOPING_CONST_OR_PURE)))
2406         TREE_SIDE_EFFECTS (*expr_p) = 0;
2407     }
2408
2409   /* If the value is not needed by the caller, emit a new GIMPLE_CALL
2410      and clear *EXPR_P.  Otherwise, leave *EXPR_P in its gimplified
2411      form and delegate the creation of a GIMPLE_CALL to
2412      gimplify_modify_expr.  This is always possible because when
2413      WANT_VALUE is true, the caller wants the result of this call into
2414      a temporary, which means that we will emit an INIT_EXPR in
2415      internal_get_tmp_var which will then be handled by
2416      gimplify_modify_expr.  */
2417   if (!want_value)
2418     {
2419       /* The CALL_EXPR in *EXPR_P is already in GIMPLE form, so all we
2420          have to do is replicate it as a GIMPLE_CALL tuple.  */
2421       call = gimple_build_call_from_tree (*expr_p);
2422       gimplify_seq_add_stmt (pre_p, call);
2423       *expr_p = NULL_TREE;
2424     }
2425
2426   return ret;
2427 }
2428
2429 /* Handle shortcut semantics in the predicate operand of a COND_EXPR by
2430    rewriting it into multiple COND_EXPRs, and possibly GOTO_EXPRs.
2431
2432    TRUE_LABEL_P and FALSE_LABEL_P point to the labels to jump to if the
2433    condition is true or false, respectively.  If null, we should generate
2434    our own to skip over the evaluation of this specific expression.
2435
2436    LOCUS is the source location of the COND_EXPR.
2437
2438    This function is the tree equivalent of do_jump.
2439
2440    shortcut_cond_r should only be called by shortcut_cond_expr.  */
2441
2442 static tree
2443 shortcut_cond_r (tree pred, tree *true_label_p, tree *false_label_p,
2444                  location_t locus)
2445 {
2446   tree local_label = NULL_TREE;
2447   tree t, expr = NULL;
2448
2449   /* OK, it's not a simple case; we need to pull apart the COND_EXPR to
2450      retain the shortcut semantics.  Just insert the gotos here;
2451      shortcut_cond_expr will append the real blocks later.  */
2452   if (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2453     {
2454       location_t new_locus;
2455
2456       /* Turn if (a && b) into
2457
2458          if (a); else goto no;
2459          if (b) goto yes; else goto no;
2460          (no:) */
2461
2462       if (false_label_p == NULL)
2463         false_label_p = &local_label;
2464
2465       /* Keep the original source location on the first 'if'.  */
2466       t = shortcut_cond_r (TREE_OPERAND (pred, 0), NULL, false_label_p, locus);
2467       append_to_statement_list (t, &expr);
2468
2469       /* Set the source location of the && on the second 'if'.  */
2470       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2471       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2472                            new_locus);
2473       append_to_statement_list (t, &expr);
2474     }
2475   else if (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2476     {
2477       location_t new_locus;
2478
2479       /* Turn if (a || b) into
2480
2481          if (a) goto yes;
2482          if (b) goto yes; else goto no;
2483          (yes:) */
2484
2485       if (true_label_p == NULL)
2486         true_label_p = &local_label;
2487
2488       /* Keep the original source location on the first 'if'.  */
2489       t = shortcut_cond_r (TREE_OPERAND (pred, 0), true_label_p, NULL, locus);
2490       append_to_statement_list (t, &expr);
2491
2492       /* Set the source location of the || on the second 'if'.  */
2493       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2494       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2495                            new_locus);
2496       append_to_statement_list (t, &expr);
2497     }
2498   else if (TREE_CODE (pred) == COND_EXPR)
2499     {
2500       location_t new_locus;
2501
2502       /* As long as we're messing with gotos, turn if (a ? b : c) into
2503          if (a)
2504            if (b) goto yes; else goto no;
2505          else
2506            if (c) goto yes; else goto no;  */
2507
2508       /* Keep the original source location on the first 'if'.  Set the source
2509          location of the ? on the second 'if'.  */
2510       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2511       expr = build3 (COND_EXPR, void_type_node, TREE_OPERAND (pred, 0),
2512                      shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p,
2513                                       false_label_p, locus),
2514                      shortcut_cond_r (TREE_OPERAND (pred, 2), true_label_p,
2515                                       false_label_p, new_locus));
2516     }
2517   else
2518     {
2519       expr = build3 (COND_EXPR, void_type_node, pred,
2520                      build_and_jump (true_label_p),
2521                      build_and_jump (false_label_p));
2522       SET_EXPR_LOCATION (expr, locus);
2523     }
2524
2525   if (local_label)
2526     {
2527       t = build1 (LABEL_EXPR, void_type_node, local_label);
2528       append_to_statement_list (t, &expr);
2529     }
2530
2531   return expr;
2532 }
2533
2534 /* Given a conditional expression EXPR with short-circuit boolean
2535    predicates using TRUTH_ANDIF_EXPR or TRUTH_ORIF_EXPR, break the
2536    predicate appart into the equivalent sequence of conditionals.  */
2537
2538 static tree
2539 shortcut_cond_expr (tree expr)
2540 {
2541   tree pred = TREE_OPERAND (expr, 0);
2542   tree then_ = TREE_OPERAND (expr, 1);
2543   tree else_ = TREE_OPERAND (expr, 2);
2544   tree true_label, false_label, end_label, t;
2545   tree *true_label_p;
2546   tree *false_label_p;
2547   bool emit_end, emit_false, jump_over_else;
2548   bool then_se = then_ && TREE_SIDE_EFFECTS (then_);
2549   bool else_se = else_ && TREE_SIDE_EFFECTS (else_);
2550
2551   /* First do simple transformations.  */
2552   if (!else_se)
2553     {
2554       /* If there is no 'else', turn
2555            if (a && b) then c
2556          into
2557            if (a) if (b) then c.  */
2558       while (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2559         {
2560           /* Keep the original source location on the first 'if'.  */
2561           location_t locus = EXPR_HAS_LOCATION (expr)
2562                              ? EXPR_LOCATION (expr) : input_location;
2563           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2564           /* Set the source location of the && on the second 'if'.  */
2565           if (EXPR_HAS_LOCATION (pred))
2566             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2567           then_ = shortcut_cond_expr (expr);
2568           then_se = then_ && TREE_SIDE_EFFECTS (then_);
2569           pred = TREE_OPERAND (pred, 0);
2570           expr = build3 (COND_EXPR, void_type_node, pred, then_, NULL_TREE);
2571           SET_EXPR_LOCATION (expr, locus);
2572         }
2573     }
2574
2575   if (!then_se)
2576     {
2577       /* If there is no 'then', turn
2578            if (a || b); else d
2579          into
2580            if (a); else if (b); else d.  */
2581       while (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2582         {
2583           /* Keep the original source location on the first 'if'.  */
2584           location_t locus = EXPR_HAS_LOCATION (expr)
2585                              ? EXPR_LOCATION (expr) : input_location;
2586           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2587           /* Set the source location of the || on the second 'if'.  */
2588           if (EXPR_HAS_LOCATION (pred))
2589             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2590           else_ = shortcut_cond_expr (expr);
2591           else_se = else_ && TREE_SIDE_EFFECTS (else_);
2592           pred = TREE_OPERAND (pred, 0);
2593           expr = build3 (COND_EXPR, void_type_node, pred, NULL_TREE, else_);
2594           SET_EXPR_LOCATION (expr, locus);
2595         }
2596     }
2597
2598   /* If we're done, great.  */
2599   if (TREE_CODE (pred) != TRUTH_ANDIF_EXPR
2600       && TREE_CODE (pred) != TRUTH_ORIF_EXPR)
2601     return expr;
2602
2603   /* Otherwise we need to mess with gotos.  Change
2604        if (a) c; else d;
2605      to
2606        if (a); else goto no;
2607        c; goto end;
2608        no: d; end:
2609      and recursively gimplify the condition.  */
2610
2611   true_label = false_label = end_label = NULL_TREE;
2612
2613   /* If our arms just jump somewhere, hijack those labels so we don't
2614      generate jumps to jumps.  */
2615
2616   if (then_
2617       && TREE_CODE (then_) == GOTO_EXPR
2618       && TREE_CODE (GOTO_DESTINATION (then_)) == LABEL_DECL)
2619     {
2620       true_label = GOTO_DESTINATION (then_);
2621       then_ = NULL;
2622       then_se = false;
2623     }
2624
2625   if (else_
2626       && TREE_CODE (else_) == GOTO_EXPR
2627       && TREE_CODE (GOTO_DESTINATION (else_)) == LABEL_DECL)
2628     {
2629       false_label = GOTO_DESTINATION (else_);
2630       else_ = NULL;
2631       else_se = false;
2632     }
2633
2634   /* If we aren't hijacking a label for the 'then' branch, it falls through.  */
2635   if (true_label)
2636     true_label_p = &true_label;
2637   else
2638     true_label_p = NULL;
2639
2640   /* The 'else' branch also needs a label if it contains interesting code.  */
2641   if (false_label || else_se)
2642     false_label_p = &false_label;
2643   else
2644     false_label_p = NULL;
2645
2646   /* If there was nothing else in our arms, just forward the label(s).  */
2647   if (!then_se && !else_se)
2648     return shortcut_cond_r (pred, true_label_p, false_label_p,
2649                             EXPR_HAS_LOCATION (expr)
2650                             ? EXPR_LOCATION (expr) : input_location);
2651
2652   /* If our last subexpression already has a terminal label, reuse it.  */
2653   if (else_se)
2654     t = expr_last (else_);
2655   else if (then_se)
2656     t = expr_last (then_);
2657   else
2658     t = NULL;
2659   if (t && TREE_CODE (t) == LABEL_EXPR)
2660     end_label = LABEL_EXPR_LABEL (t);
2661
2662   /* If we don't care about jumping to the 'else' branch, jump to the end
2663      if the condition is false.  */
2664   if (!false_label_p)
2665     false_label_p = &end_label;
2666
2667   /* We only want to emit these labels if we aren't hijacking them.  */
2668   emit_end = (end_label == NULL_TREE);
2669   emit_false = (false_label == NULL_TREE);
2670
2671   /* We only emit the jump over the else clause if we have to--if the
2672      then clause may fall through.  Otherwise we can wind up with a
2673      useless jump and a useless label at the end of gimplified code,
2674      which will cause us to think that this conditional as a whole
2675      falls through even if it doesn't.  If we then inline a function
2676      which ends with such a condition, that can cause us to issue an
2677      inappropriate warning about control reaching the end of a
2678      non-void function.  */
2679   jump_over_else = block_may_fallthru (then_);
2680
2681   pred = shortcut_cond_r (pred, true_label_p, false_label_p,
2682                           EXPR_HAS_LOCATION (expr)
2683                           ? EXPR_LOCATION (expr) : input_location);
2684
2685   expr = NULL;
2686   append_to_statement_list (pred, &expr);
2687
2688   append_to_statement_list (then_, &expr);
2689   if (else_se)
2690     {
2691       if (jump_over_else)
2692         {
2693           tree last = expr_last (expr);
2694           t = build_and_jump (&end_label);
2695           if (EXPR_HAS_LOCATION (last))
2696             SET_EXPR_LOCATION (t, EXPR_LOCATION (last));
2697           append_to_statement_list (t, &expr);
2698         }
2699       if (emit_false)
2700         {
2701           t = build1 (LABEL_EXPR, void_type_node, false_label);
2702           append_to_statement_list (t, &expr);
2703         }
2704       append_to_statement_list (else_, &expr);
2705     }
2706   if (emit_end && end_label)
2707     {
2708       t = build1 (LABEL_EXPR, void_type_node, end_label);
2709       append_to_statement_list (t, &expr);
2710     }
2711
2712   return expr;
2713 }
2714
2715 /* EXPR is used in a boolean context; make sure it has BOOLEAN_TYPE.  */
2716
2717 tree
2718 gimple_boolify (tree expr)
2719 {
2720   tree type = TREE_TYPE (expr);
2721   location_t loc = EXPR_LOCATION (expr);
2722
2723   if (TREE_CODE (expr) == NE_EXPR
2724       && TREE_CODE (TREE_OPERAND (expr, 0)) == CALL_EXPR
2725       && integer_zerop (TREE_OPERAND (expr, 1)))
2726     {
2727       tree call = TREE_OPERAND (expr, 0);
2728       tree fn = get_callee_fndecl (call);
2729
2730       /* For __builtin_expect ((long) (x), y) recurse into x as well.  */
2731       if (fn
2732           && DECL_BUILT_IN_CLASS (fn) == BUILT_IN_NORMAL
2733           && DECL_FUNCTION_CODE (fn) == BUILT_IN_EXPECT
2734           && call_expr_nargs (call) == 2)
2735         {
2736           tree arg = CALL_EXPR_ARG (call, 0);
2737           if (arg)
2738             {
2739               if (TREE_CODE (arg) == NOP_EXPR
2740                   && TREE_TYPE (arg) == TREE_TYPE (call))
2741                 arg = TREE_OPERAND (arg, 0);
2742               arg = gimple_boolify (arg);
2743               CALL_EXPR_ARG (call, 0)
2744                 = fold_convert_loc (loc, TREE_TYPE (call), arg);
2745             }
2746         }
2747     }
2748
2749   if (TREE_CODE (type) == BOOLEAN_TYPE)
2750     return expr;
2751
2752   switch (TREE_CODE (expr))
2753     {
2754     case TRUTH_AND_EXPR:
2755     case TRUTH_OR_EXPR:
2756     case TRUTH_XOR_EXPR:
2757     case TRUTH_ANDIF_EXPR:
2758     case TRUTH_ORIF_EXPR:
2759       /* Also boolify the arguments of truth exprs.  */
2760       TREE_OPERAND (expr, 1) = gimple_boolify (TREE_OPERAND (expr, 1));
2761       /* FALLTHRU */
2762
2763     case TRUTH_NOT_EXPR:
2764       TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
2765       /* FALLTHRU */
2766
2767     case EQ_EXPR: case NE_EXPR:
2768     case LE_EXPR: case GE_EXPR: case LT_EXPR: case GT_EXPR:
2769       /* These expressions always produce boolean results.  */
2770       TREE_TYPE (expr) = boolean_type_node;
2771       return expr;
2772
2773     default:
2774       /* Other expressions that get here must have boolean values, but
2775          might need to be converted to the appropriate mode.  */
2776       return fold_convert_loc (loc, boolean_type_node, expr);
2777     }
2778 }
2779
2780 /* Given a conditional expression *EXPR_P without side effects, gimplify
2781    its operands.  New statements are inserted to PRE_P.  */
2782
2783 static enum gimplify_status
2784 gimplify_pure_cond_expr (tree *expr_p, gimple_seq *pre_p)
2785 {
2786   tree expr = *expr_p, cond;
2787   enum gimplify_status ret, tret;
2788   enum tree_code code;
2789
2790   cond = gimple_boolify (COND_EXPR_COND (expr));
2791
2792   /* We need to handle && and || specially, as their gimplification
2793      creates pure cond_expr, thus leading to an infinite cycle otherwise.  */
2794   code = TREE_CODE (cond);
2795   if (code == TRUTH_ANDIF_EXPR)
2796     TREE_SET_CODE (cond, TRUTH_AND_EXPR);
2797   else if (code == TRUTH_ORIF_EXPR)
2798     TREE_SET_CODE (cond, TRUTH_OR_EXPR);
2799   ret = gimplify_expr (&cond, pre_p, NULL, is_gimple_condexpr, fb_rvalue);
2800   COND_EXPR_COND (*expr_p) = cond;
2801
2802   tret = gimplify_expr (&COND_EXPR_THEN (expr), pre_p, NULL,
2803                                    is_gimple_val, fb_rvalue);
2804   ret = MIN (ret, tret);
2805   tret = gimplify_expr (&COND_EXPR_ELSE (expr), pre_p, NULL,
2806                                    is_gimple_val, fb_rvalue);
2807
2808   return MIN (ret, tret);
2809 }
2810
2811 /* Returns true if evaluating EXPR could trap.
2812    EXPR is GENERIC, while tree_could_trap_p can be called
2813    only on GIMPLE.  */
2814
2815 static bool
2816 generic_expr_could_trap_p (tree expr)
2817 {
2818   unsigned i, n;
2819
2820   if (!expr || is_gimple_val (expr))
2821     return false;
2822
2823   if (!EXPR_P (expr) || tree_could_trap_p (expr))
2824     return true;
2825
2826   n = TREE_OPERAND_LENGTH (expr);
2827   for (i = 0; i < n; i++)
2828     if (generic_expr_could_trap_p (TREE_OPERAND (expr, i)))
2829       return true;
2830
2831   return false;
2832 }
2833
2834 /*  Convert the conditional expression pointed to by EXPR_P '(p) ? a : b;'
2835     into
2836
2837     if (p)                      if (p)
2838       t1 = a;                     a;
2839     else                or      else
2840       t1 = b;                     b;
2841     t1;
2842
2843     The second form is used when *EXPR_P is of type void.
2844
2845     PRE_P points to the list where side effects that must happen before
2846       *EXPR_P should be stored.  */
2847
2848 static enum gimplify_status
2849 gimplify_cond_expr (tree *expr_p, gimple_seq *pre_p, fallback_t fallback)
2850 {
2851   tree expr = *expr_p;
2852   tree tmp, type, arm1, arm2;
2853   enum gimplify_status ret;
2854   tree label_true, label_false, label_cont;
2855   bool have_then_clause_p, have_else_clause_p;
2856   gimple gimple_cond;
2857   enum tree_code pred_code;
2858   gimple_seq seq = NULL;
2859   location_t loc = EXPR_LOCATION (*expr_p);
2860
2861   type = TREE_TYPE (expr);
2862
2863   /* If this COND_EXPR has a value, copy the values into a temporary within
2864      the arms.  */
2865   if (! VOID_TYPE_P (type))
2866     {
2867       tree result;
2868
2869       /* If an rvalue is ok or we do not require an lvalue, avoid creating
2870          an addressable temporary.  */
2871       if (((fallback & fb_rvalue)
2872            || !(fallback & fb_lvalue))
2873           && !TREE_ADDRESSABLE (type))
2874         {
2875           if (gimplify_ctxp->allow_rhs_cond_expr
2876               /* If either branch has side effects or could trap, it can't be
2877                  evaluated unconditionally.  */
2878               && !TREE_SIDE_EFFECTS (TREE_OPERAND (*expr_p, 1))
2879               && !generic_expr_could_trap_p (TREE_OPERAND (*expr_p, 1))
2880               && !TREE_SIDE_EFFECTS (TREE_OPERAND (*expr_p, 2))
2881               && !generic_expr_could_trap_p (TREE_OPERAND (*expr_p, 2)))
2882             return gimplify_pure_cond_expr (expr_p, pre_p);
2883
2884           result = tmp = create_tmp_var (TREE_TYPE (expr), "iftmp");
2885           ret = GS_ALL_DONE;
2886         }
2887       else
2888         {
2889           tree type = build_pointer_type (TREE_TYPE (expr));
2890
2891           if (TREE_TYPE (TREE_OPERAND (expr, 1)) != void_type_node)
2892             TREE_OPERAND (expr, 1) =
2893               build_fold_addr_expr_loc (loc, TREE_OPERAND (expr, 1));
2894
2895           if (TREE_TYPE (TREE_OPERAND (expr, 2)) != void_type_node)
2896             TREE_OPERAND (expr, 2) =
2897               build_fold_addr_expr_loc (loc, TREE_OPERAND (expr, 2));
2898
2899           tmp = create_tmp_var (type, "iftmp");
2900
2901           expr = build3 (COND_EXPR, void_type_node, TREE_OPERAND (expr, 0),
2902                          TREE_OPERAND (expr, 1), TREE_OPERAND (expr, 2));
2903
2904           result = build_fold_indirect_ref_loc (loc, tmp);
2905         }
2906
2907       /* Build the then clause, 't1 = a;'.  But don't build an assignment
2908          if this branch is void; in C++ it can be, if it's a throw.  */
2909       if (TREE_TYPE (TREE_OPERAND (expr, 1)) != void_type_node)
2910         TREE_OPERAND (expr, 1)
2911           = build2 (MODIFY_EXPR, TREE_TYPE (tmp), tmp, TREE_OPERAND (expr, 1));
2912
2913       /* Build the else clause, 't1 = b;'.  */
2914       if (TREE_TYPE (TREE_OPERAND (expr, 2)) != void_type_node)
2915         TREE_OPERAND (expr, 2)
2916           = build2 (MODIFY_EXPR, TREE_TYPE (tmp), tmp, TREE_OPERAND (expr, 2));
2917
2918       TREE_TYPE (expr) = void_type_node;
2919       recalculate_side_effects (expr);
2920
2921       /* Move the COND_EXPR to the prequeue.  */
2922       gimplify_stmt (&expr, pre_p);
2923
2924       *expr_p = result;
2925       return GS_ALL_DONE;
2926     }
2927
2928   /* Make sure the condition has BOOLEAN_TYPE.  */
2929   TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
2930
2931   /* Break apart && and || conditions.  */
2932   if (TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ANDIF_EXPR
2933       || TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ORIF_EXPR)
2934     {
2935       expr = shortcut_cond_expr (expr);
2936
2937       if (expr != *expr_p)
2938         {
2939           *expr_p = expr;
2940
2941           /* We can't rely on gimplify_expr to re-gimplify the expanded
2942              form properly, as cleanups might cause the target labels to be
2943              wrapped in a TRY_FINALLY_EXPR.  To prevent that, we need to
2944              set up a conditional context.  */
2945           gimple_push_condition ();
2946           gimplify_stmt (expr_p, &seq);
2947           gimple_pop_condition (pre_p);
2948           gimple_seq_add_seq (pre_p, seq);
2949
2950           return GS_ALL_DONE;
2951         }
2952     }
2953
2954   /* Now do the normal gimplification.  */
2955
2956   /* Gimplify condition.  */
2957   ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, NULL, is_gimple_condexpr,
2958                        fb_rvalue);
2959   if (ret == GS_ERROR)
2960     return GS_ERROR;
2961   gcc_assert (TREE_OPERAND (expr, 0) != NULL_TREE);
2962
2963   gimple_push_condition ();
2964
2965   have_then_clause_p = have_else_clause_p = false;
2966   if (TREE_OPERAND (expr, 1) != NULL
2967       && TREE_CODE (TREE_OPERAND (expr, 1)) == GOTO_EXPR
2968       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 1))) == LABEL_DECL
2969       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 1)))
2970           == current_function_decl)
2971       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
2972          have different locations, otherwise we end up with incorrect
2973          location information on the branches.  */
2974       && (optimize
2975           || !EXPR_HAS_LOCATION (expr)
2976           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 1))
2977           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 1))))
2978     {
2979       label_true = GOTO_DESTINATION (TREE_OPERAND (expr, 1));
2980       have_then_clause_p = true;
2981     }
2982   else
2983     label_true = create_artificial_label (UNKNOWN_LOCATION);
2984   if (TREE_OPERAND (expr, 2) != NULL
2985       && TREE_CODE (TREE_OPERAND (expr, 2)) == GOTO_EXPR
2986       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 2))) == LABEL_DECL
2987       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 2)))
2988           == current_function_decl)
2989       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
2990          have different locations, otherwise we end up with incorrect
2991          location information on the branches.  */
2992       && (optimize
2993           || !EXPR_HAS_LOCATION (expr)
2994           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 2))
2995           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 2))))
2996     {
2997       label_false = GOTO_DESTINATION (TREE_OPERAND (expr, 2));
2998       have_else_clause_p = true;
2999     }
3000   else
3001     label_false = create_artificial_label (UNKNOWN_LOCATION);
3002
3003   gimple_cond_get_ops_from_tree (COND_EXPR_COND (expr), &pred_code, &arm1,
3004                                  &arm2);
3005
3006   gimple_cond = gimple_build_cond (pred_code, arm1, arm2, label_true,
3007                                    label_false);
3008
3009   gimplify_seq_add_stmt (&seq, gimple_cond);
3010   label_cont = NULL_TREE;
3011   if (!have_then_clause_p)
3012     {
3013       /* For if (...) {} else { code; } put label_true after
3014          the else block.  */
3015       if (TREE_OPERAND (expr, 1) == NULL_TREE
3016           && !have_else_clause_p
3017           && TREE_OPERAND (expr, 2) != NULL_TREE)
3018         label_cont = label_true;
3019       else
3020         {
3021           gimplify_seq_add_stmt (&seq, gimple_build_label (label_true));
3022           have_then_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 1), &seq);
3023           /* For if (...) { code; } else {} or
3024              if (...) { code; } else goto label; or
3025              if (...) { code; return; } else { ... }
3026              label_cont isn't needed.  */
3027           if (!have_else_clause_p
3028               && TREE_OPERAND (expr, 2) != NULL_TREE
3029               && gimple_seq_may_fallthru (seq))
3030             {
3031               gimple g;
3032               label_cont = create_artificial_label (UNKNOWN_LOCATION);
3033
3034               g = gimple_build_goto (label_cont);
3035
3036               /* GIMPLE_COND's are very low level; they have embedded
3037                  gotos.  This particular embedded goto should not be marked
3038                  with the location of the original COND_EXPR, as it would
3039                  correspond to the COND_EXPR's condition, not the ELSE or the
3040                  THEN arms.  To avoid marking it with the wrong location, flag
3041                  it as "no location".  */
3042               gimple_set_do_not_emit_location (g);
3043
3044               gimplify_seq_add_stmt (&seq, g);
3045             }
3046         }
3047     }
3048   if (!have_else_clause_p)
3049     {
3050       gimplify_seq_add_stmt (&seq, gimple_build_label (label_false));
3051       have_else_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 2), &seq);
3052     }
3053   if (label_cont)
3054     gimplify_seq_add_stmt (&seq, gimple_build_label (label_cont));
3055
3056   gimple_pop_condition (pre_p);
3057   gimple_seq_add_seq (pre_p, seq);
3058
3059   if (ret == GS_ERROR)
3060     ; /* Do nothing.  */
3061   else if (have_then_clause_p || have_else_clause_p)
3062     ret = GS_ALL_DONE;
3063   else
3064     {
3065       /* Both arms are empty; replace the COND_EXPR with its predicate.  */
3066       expr = TREE_OPERAND (expr, 0);
3067       gimplify_stmt (&expr, pre_p);
3068     }
3069
3070   *expr_p = NULL;
3071   return ret;
3072 }
3073
3074 /* Prepare the node pointed to by EXPR_P, an is_gimple_addressable expression,
3075    to be marked addressable.
3076
3077    We cannot rely on such an expression being directly markable if a temporary
3078    has been created by the gimplification.  In this case, we create another
3079    temporary and initialize it with a copy, which will become a store after we
3080    mark it addressable.  This can happen if the front-end passed us something
3081    that it could not mark addressable yet, like a Fortran pass-by-reference
3082    parameter (int) floatvar.  */
3083
3084 static void
3085 prepare_gimple_addressable (tree *expr_p, gimple_seq *seq_p)
3086 {
3087   while (handled_component_p (*expr_p))
3088     expr_p = &TREE_OPERAND (*expr_p, 0);
3089   if (is_gimple_reg (*expr_p))
3090     *expr_p = get_initialized_tmp_var (*expr_p, seq_p, NULL);
3091 }
3092
3093 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3094    a call to __builtin_memcpy.  */
3095
3096 static enum gimplify_status
3097 gimplify_modify_expr_to_memcpy (tree *expr_p, tree size, bool want_value,
3098                                 gimple_seq *seq_p)
3099 {
3100   tree t, to, to_ptr, from, from_ptr;
3101   gimple gs;
3102   location_t loc = EXPR_LOCATION (*expr_p);
3103
3104   to = TREE_OPERAND (*expr_p, 0);
3105   from = TREE_OPERAND (*expr_p, 1);
3106
3107   /* Mark the RHS addressable.  Beware that it may not be possible to do so
3108      directly if a temporary has been created by the gimplification.  */
3109   prepare_gimple_addressable (&from, seq_p);
3110
3111   mark_addressable (from);
3112   from_ptr = build_fold_addr_expr_loc (loc, from);
3113   gimplify_arg (&from_ptr, seq_p, loc);
3114
3115   mark_addressable (to);
3116   to_ptr = build_fold_addr_expr_loc (loc, to);
3117   gimplify_arg (&to_ptr, seq_p, loc);
3118
3119   t = implicit_built_in_decls[BUILT_IN_MEMCPY];
3120
3121   gs = gimple_build_call (t, 3, to_ptr, from_ptr, size);
3122
3123   if (want_value)
3124     {
3125       /* tmp = memcpy() */
3126       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3127       gimple_call_set_lhs (gs, t);
3128       gimplify_seq_add_stmt (seq_p, gs);
3129
3130       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (to), t);
3131       return GS_ALL_DONE;
3132     }
3133
3134   gimplify_seq_add_stmt (seq_p, gs);
3135   *expr_p = NULL;
3136   return GS_ALL_DONE;
3137 }
3138
3139 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3140    a call to __builtin_memset.  In this case we know that the RHS is
3141    a CONSTRUCTOR with an empty element list.  */
3142
3143 static enum gimplify_status
3144 gimplify_modify_expr_to_memset (tree *expr_p, tree size, bool want_value,
3145                                 gimple_seq *seq_p)
3146 {
3147   tree t, from, to, to_ptr;
3148   gimple gs;
3149   location_t loc = EXPR_LOCATION (*expr_p);
3150
3151   /* Assert our assumptions, to abort instead of producing wrong code
3152      silently if they are not met.  Beware that the RHS CONSTRUCTOR might
3153      not be immediately exposed.  */
3154   from = TREE_OPERAND (*expr_p, 1);
3155   if (TREE_CODE (from) == WITH_SIZE_EXPR)
3156     from = TREE_OPERAND (from, 0);
3157
3158   gcc_assert (TREE_CODE (from) == CONSTRUCTOR
3159               && VEC_empty (constructor_elt, CONSTRUCTOR_ELTS (from)));
3160
3161   /* Now proceed.  */
3162   to = TREE_OPERAND (*expr_p, 0);
3163
3164   to_ptr = build_fold_addr_expr_loc (loc, to);
3165   gimplify_arg (&to_ptr, seq_p, loc);
3166   t = implicit_built_in_decls[BUILT_IN_MEMSET];
3167
3168   gs = gimple_build_call (t, 3, to_ptr, integer_zero_node, size);
3169
3170   if (want_value)
3171     {
3172       /* tmp = memset() */
3173       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3174       gimple_call_set_lhs (gs, t);
3175       gimplify_seq_add_stmt (seq_p, gs);
3176
3177       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (to), t);
3178       return GS_ALL_DONE;
3179     }
3180
3181   gimplify_seq_add_stmt (seq_p, gs);
3182   *expr_p = NULL;
3183   return GS_ALL_DONE;
3184 }
3185
3186 /* A subroutine of gimplify_init_ctor_preeval.  Called via walk_tree,
3187    determine, cautiously, if a CONSTRUCTOR overlaps the lhs of an
3188    assignment.  Returns non-null if we detect a potential overlap.  */
3189
3190 struct gimplify_init_ctor_preeval_data
3191 {
3192   /* The base decl of the lhs object.  May be NULL, in which case we
3193      have to assume the lhs is indirect.  */
3194   tree lhs_base_decl;
3195
3196   /* The alias set of the lhs object.  */
3197   alias_set_type lhs_alias_set;
3198 };
3199
3200 static tree
3201 gimplify_init_ctor_preeval_1 (tree *tp, int *walk_subtrees, void *xdata)
3202 {
3203   struct gimplify_init_ctor_preeval_data *data
3204     = (struct gimplify_init_ctor_preeval_data *) xdata;
3205   tree t = *tp;
3206
3207   /* If we find the base object, obviously we have overlap.  */
3208   if (data->lhs_base_decl == t)
3209     return t;
3210
3211   /* If the constructor component is indirect, determine if we have a
3212      potential overlap with the lhs.  The only bits of information we
3213      have to go on at this point are addressability and alias sets.  */
3214   if (TREE_CODE (t) == INDIRECT_REF
3215       && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3216       && alias_sets_conflict_p (data->lhs_alias_set, get_alias_set (t)))
3217     return t;
3218
3219   /* If the constructor component is a call, determine if it can hide a
3220      potential overlap with the lhs through an INDIRECT_REF like above.  */
3221   if (TREE_CODE (t) == CALL_EXPR)
3222     {
3223       tree type, fntype = TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (t)));
3224
3225       for (type = TYPE_ARG_TYPES (fntype); type; type = TREE_CHAIN (type))
3226         if (POINTER_TYPE_P (TREE_VALUE (type))
3227             && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3228             && alias_sets_conflict_p (data->lhs_alias_set,
3229                                       get_alias_set
3230                                         (TREE_TYPE (TREE_VALUE (type)))))
3231           return t;
3232     }
3233
3234   if (IS_TYPE_OR_DECL_P (t))
3235     *walk_subtrees = 0;
3236   return NULL;
3237 }
3238
3239 /* A subroutine of gimplify_init_constructor.  Pre-evaluate EXPR,
3240    force values that overlap with the lhs (as described by *DATA)
3241    into temporaries.  */
3242
3243 static void
3244 gimplify_init_ctor_preeval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3245                             struct gimplify_init_ctor_preeval_data *data)
3246 {
3247   enum gimplify_status one;
3248
3249   /* If the value is constant, then there's nothing to pre-evaluate.  */
3250   if (TREE_CONSTANT (*expr_p))
3251     {
3252       /* Ensure it does not have side effects, it might contain a reference to
3253          the object we're initializing.  */
3254       gcc_assert (!TREE_SIDE_EFFECTS (*expr_p));
3255       return;
3256     }
3257
3258   /* If the type has non-trivial constructors, we can't pre-evaluate.  */
3259   if (TREE_ADDRESSABLE (TREE_TYPE (*expr_p)))
3260     return;
3261
3262   /* Recurse for nested constructors.  */
3263   if (TREE_CODE (*expr_p) == CONSTRUCTOR)
3264     {
3265       unsigned HOST_WIDE_INT ix;
3266       constructor_elt *ce;
3267       VEC(constructor_elt,gc) *v = CONSTRUCTOR_ELTS (*expr_p);
3268
3269       for (ix = 0; VEC_iterate (constructor_elt, v, ix, ce); ix++)
3270         gimplify_init_ctor_preeval (&ce->value, pre_p, post_p, data);
3271
3272       return;
3273     }
3274
3275   /* If this is a variable sized type, we must remember the size.  */
3276   maybe_with_size_expr (expr_p);
3277
3278   /* Gimplify the constructor element to something appropriate for the rhs
3279      of a MODIFY_EXPR.  Given that we know the LHS is an aggregate, we know
3280      the gimplifier will consider this a store to memory.  Doing this
3281      gimplification now means that we won't have to deal with complicated
3282      language-specific trees, nor trees like SAVE_EXPR that can induce
3283      exponential search behavior.  */
3284   one = gimplify_expr (expr_p, pre_p, post_p, is_gimple_mem_rhs, fb_rvalue);
3285   if (one == GS_ERROR)
3286     {
3287       *expr_p = NULL;
3288       return;
3289     }
3290
3291   /* If we gimplified to a bare decl, we can be sure that it doesn't overlap
3292      with the lhs, since "a = { .x=a }" doesn't make sense.  This will
3293      always be true for all scalars, since is_gimple_mem_rhs insists on a
3294      temporary variable for them.  */
3295   if (DECL_P (*expr_p))
3296     return;
3297
3298   /* If this is of variable size, we have no choice but to assume it doesn't
3299      overlap since we can't make a temporary for it.  */
3300   if (TREE_CODE (TYPE_SIZE (TREE_TYPE (*expr_p))) != INTEGER_CST)
3301     return;
3302
3303   /* Otherwise, we must search for overlap ...  */
3304   if (!walk_tree (expr_p, gimplify_init_ctor_preeval_1, data, NULL))
3305     return;
3306
3307   /* ... and if found, force the value into a temporary.  */
3308   *expr_p = get_formal_tmp_var (*expr_p, pre_p);
3309 }
3310
3311 /* A subroutine of gimplify_init_ctor_eval.  Create a loop for
3312    a RANGE_EXPR in a CONSTRUCTOR for an array.
3313
3314       var = lower;
3315     loop_entry:
3316       object[var] = value;
3317       if (var == upper)
3318         goto loop_exit;
3319       var = var + 1;
3320       goto loop_entry;
3321     loop_exit:
3322
3323    We increment var _after_ the loop exit check because we might otherwise
3324    fail if upper == TYPE_MAX_VALUE (type for upper).
3325
3326    Note that we never have to deal with SAVE_EXPRs here, because this has
3327    already been taken care of for us, in gimplify_init_ctor_preeval().  */
3328
3329 static void gimplify_init_ctor_eval (tree, VEC(constructor_elt,gc) *,
3330                                      gimple_seq *, bool);
3331
3332 static void
3333 gimplify_init_ctor_eval_range (tree object, tree lower, tree upper,
3334                                tree value, tree array_elt_type,
3335                                gimple_seq *pre_p, bool cleared)
3336 {
3337   tree loop_entry_label, loop_exit_label, fall_thru_label;
3338   tree var, var_type, cref, tmp;
3339
3340   loop_entry_label = create_artificial_label (UNKNOWN_LOCATION);
3341   loop_exit_label = create_artificial_label (UNKNOWN_LOCATION);
3342   fall_thru_label = create_artificial_label (UNKNOWN_LOCATION);
3343
3344   /* Create and initialize the index variable.  */
3345   var_type = TREE_TYPE (upper);
3346   var = create_tmp_var (var_type, NULL);
3347   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, lower));
3348
3349   /* Add the loop entry label.  */
3350   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_entry_label));
3351
3352   /* Build the reference.  */
3353   cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3354                  var, NULL_TREE, NULL_TREE);
3355
3356   /* If we are a constructor, just call gimplify_init_ctor_eval to do
3357      the store.  Otherwise just assign value to the reference.  */
3358
3359   if (TREE_CODE (value) == CONSTRUCTOR)
3360     /* NB we might have to call ourself recursively through
3361        gimplify_init_ctor_eval if the value is a constructor.  */
3362     gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3363                              pre_p, cleared);
3364   else
3365     gimplify_seq_add_stmt (pre_p, gimple_build_assign (cref, value));
3366
3367   /* We exit the loop when the index var is equal to the upper bound.  */
3368   gimplify_seq_add_stmt (pre_p,
3369                          gimple_build_cond (EQ_EXPR, var, upper,
3370                                             loop_exit_label, fall_thru_label));
3371
3372   gimplify_seq_add_stmt (pre_p, gimple_build_label (fall_thru_label));
3373
3374   /* Otherwise, increment the index var...  */
3375   tmp = build2 (PLUS_EXPR, var_type, var,
3376                 fold_convert (var_type, integer_one_node));
3377   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, tmp));
3378
3379   /* ...and jump back to the loop entry.  */
3380   gimplify_seq_add_stmt (pre_p, gimple_build_goto (loop_entry_label));
3381
3382   /* Add the loop exit label.  */
3383   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_exit_label));
3384 }
3385
3386 /* Return true if FDECL is accessing a field that is zero sized.  */
3387
3388 static bool
3389 zero_sized_field_decl (const_tree fdecl)
3390 {
3391   if (TREE_CODE (fdecl) == FIELD_DECL && DECL_SIZE (fdecl)
3392       && integer_zerop (DECL_SIZE (fdecl)))
3393     return true;
3394   return false;
3395 }
3396
3397 /* Return true if TYPE is zero sized.  */
3398
3399 static bool
3400 zero_sized_type (const_tree type)
3401 {
3402   if (AGGREGATE_TYPE_P (type) && TYPE_SIZE (type)
3403       && integer_zerop (TYPE_SIZE (type)))
3404     return true;
3405   return false;
3406 }
3407
3408 /* A subroutine of gimplify_init_constructor.  Generate individual
3409    MODIFY_EXPRs for a CONSTRUCTOR.  OBJECT is the LHS against which the
3410    assignments should happen.  ELTS is the CONSTRUCTOR_ELTS of the
3411    CONSTRUCTOR.  CLEARED is true if the entire LHS object has been
3412    zeroed first.  */
3413
3414 static void
3415 gimplify_init_ctor_eval (tree object, VEC(constructor_elt,gc) *elts,
3416                          gimple_seq *pre_p, bool cleared)
3417 {
3418   tree array_elt_type = NULL;
3419   unsigned HOST_WIDE_INT ix;
3420   tree purpose, value;
3421
3422   if (TREE_CODE (TREE_TYPE (object)) == ARRAY_TYPE)
3423     array_elt_type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (object)));
3424
3425   FOR_EACH_CONSTRUCTOR_ELT (elts, ix, purpose, value)
3426     {
3427       tree cref;
3428
3429       /* NULL values are created above for gimplification errors.  */
3430       if (value == NULL)
3431         continue;
3432
3433       if (cleared && initializer_zerop (value))
3434         continue;
3435
3436       /* ??? Here's to hoping the front end fills in all of the indices,
3437          so we don't have to figure out what's missing ourselves.  */
3438       gcc_assert (purpose);
3439
3440       /* Skip zero-sized fields, unless value has side-effects.  This can
3441          happen with calls to functions returning a zero-sized type, which
3442          we shouldn't discard.  As a number of downstream passes don't
3443          expect sets of zero-sized fields, we rely on the gimplification of
3444          the MODIFY_EXPR we make below to drop the assignment statement.  */
3445       if (! TREE_SIDE_EFFECTS (value) && zero_sized_field_decl (purpose))
3446         continue;
3447
3448       /* If we have a RANGE_EXPR, we have to build a loop to assign the
3449          whole range.  */
3450       if (TREE_CODE (purpose) == RANGE_EXPR)
3451         {
3452           tree lower = TREE_OPERAND (purpose, 0);
3453           tree upper = TREE_OPERAND (purpose, 1);
3454
3455           /* If the lower bound is equal to upper, just treat it as if
3456              upper was the index.  */
3457           if (simple_cst_equal (lower, upper))
3458             purpose = upper;
3459           else
3460             {
3461               gimplify_init_ctor_eval_range (object, lower, upper, value,
3462                                              array_elt_type, pre_p, cleared);
3463               continue;
3464             }
3465         }
3466
3467       if (array_elt_type)
3468         {
3469           /* Do not use bitsizetype for ARRAY_REF indices.  */
3470           if (TYPE_DOMAIN (TREE_TYPE (object)))
3471             purpose = fold_convert (TREE_TYPE (TYPE_DOMAIN (TREE_TYPE (object))),
3472                                     purpose);
3473           cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3474                          purpose, NULL_TREE, NULL_TREE);
3475         }
3476       else
3477         {
3478           gcc_assert (TREE_CODE (purpose) == FIELD_DECL);
3479           cref = build3 (COMPONENT_REF, TREE_TYPE (purpose),
3480                          unshare_expr (object), purpose, NULL_TREE);
3481         }
3482
3483       if (TREE_CODE (value) == CONSTRUCTOR
3484           && TREE_CODE (TREE_TYPE (value)) != VECTOR_TYPE)
3485         gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3486                                  pre_p, cleared);
3487       else
3488         {
3489           tree init = build2 (INIT_EXPR, TREE_TYPE (cref), cref, value);
3490           gimplify_and_add (init, pre_p);
3491           ggc_free (init);
3492         }
3493     }
3494 }
3495
3496
3497 /* Returns the appropriate RHS predicate for this LHS.  */
3498
3499 gimple_predicate
3500 rhs_predicate_for (tree lhs)
3501 {
3502   if (is_gimple_reg (lhs))
3503     return is_gimple_reg_rhs_or_call;
3504   else
3505     return is_gimple_mem_rhs_or_call;
3506 }
3507
3508 /* Gimplify a C99 compound literal expression.  This just means adding
3509    the DECL_EXPR before the current statement and using its anonymous
3510    decl instead.  */
3511
3512 static enum gimplify_status
3513 gimplify_compound_literal_expr (tree *expr_p, gimple_seq *pre_p)
3514 {
3515   tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (*expr_p);
3516   tree decl = DECL_EXPR_DECL (decl_s);
3517   /* Mark the decl as addressable if the compound literal
3518      expression is addressable now, otherwise it is marked too late
3519      after we gimplify the initialization expression.  */
3520   if (TREE_ADDRESSABLE (*expr_p))
3521     TREE_ADDRESSABLE (decl) = 1;
3522
3523   /* Preliminarily mark non-addressed complex variables as eligible
3524      for promotion to gimple registers.  We'll transform their uses
3525      as we find them.  */
3526   if ((TREE_CODE (TREE_TYPE (decl)) == COMPLEX_TYPE
3527        || TREE_CODE (TREE_TYPE (decl)) == VECTOR_TYPE)
3528       && !TREE_THIS_VOLATILE (decl)
3529       && !needs_to_live_in_memory (decl))
3530     DECL_GIMPLE_REG_P (decl) = 1;
3531
3532   /* This decl isn't mentioned in the enclosing block, so add it to the
3533      list of temps.  FIXME it seems a bit of a kludge to say that
3534      anonymous artificial vars aren't pushed, but everything else is.  */
3535   if (DECL_NAME (decl) == NULL_TREE && !DECL_SEEN_IN_BIND_EXPR_P (decl))
3536     gimple_add_tmp_var (decl);
3537
3538   gimplify_and_add (decl_s, pre_p);
3539   *expr_p = decl;
3540   return GS_OK;
3541 }
3542
3543 /* Optimize embedded COMPOUND_LITERAL_EXPRs within a CONSTRUCTOR,
3544    return a new CONSTRUCTOR if something changed.  */
3545
3546 static tree
3547 optimize_compound_literals_in_ctor (tree orig_ctor)
3548 {
3549   tree ctor = orig_ctor;
3550   VEC(constructor_elt,gc) *elts = CONSTRUCTOR_ELTS (ctor);
3551   unsigned int idx, num = VEC_length (constructor_elt, elts);
3552
3553   for (idx = 0; idx < num; idx++)
3554     {
3555       tree value = VEC_index (constructor_elt, elts, idx)->value;
3556       tree newval = value;
3557       if (TREE_CODE (value) == CONSTRUCTOR)
3558         newval = optimize_compound_literals_in_ctor (value);
3559       else if (TREE_CODE (value) == COMPOUND_LITERAL_EXPR)
3560         {
3561           tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (value);
3562           tree decl = DECL_EXPR_DECL (decl_s);
3563           tree init = DECL_INITIAL (decl);
3564
3565           if (!TREE_ADDRESSABLE (value)
3566               && !TREE_ADDRESSABLE (decl)
3567               && init)
3568             newval = optimize_compound_literals_in_ctor (init);
3569         }
3570       if (newval == value)
3571         continue;
3572
3573       if (ctor == orig_ctor)
3574         {
3575           ctor = copy_node (orig_ctor);
3576           CONSTRUCTOR_ELTS (ctor) = VEC_copy (constructor_elt, gc, elts);
3577           elts = CONSTRUCTOR_ELTS (ctor);
3578         }
3579       VEC_index (constructor_elt, elts, idx)->value = newval;
3580     }
3581   return ctor;
3582 }
3583
3584
3585
3586 /* A subroutine of gimplify_modify_expr.  Break out elements of a
3587    CONSTRUCTOR used as an initializer into separate MODIFY_EXPRs.
3588
3589    Note that we still need to clear any elements that don't have explicit
3590    initializers, so if not all elements are initialized we keep the
3591    original MODIFY_EXPR, we just remove all of the constructor elements.
3592
3593    If NOTIFY_TEMP_CREATION is true, do not gimplify, just return
3594    GS_ERROR if we would have to create a temporary when gimplifying
3595    this constructor.  Otherwise, return GS_OK.
3596
3597    If NOTIFY_TEMP_CREATION is false, just do the gimplification.  */
3598
3599 static enum gimplify_status
3600 gimplify_init_constructor (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3601                            bool want_value, bool notify_temp_creation)
3602 {
3603   tree object, ctor, type;
3604   enum gimplify_status ret;
3605   VEC(constructor_elt,gc) *elts;
3606
3607   gcc_assert (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == CONSTRUCTOR);
3608
3609   if (!notify_temp_creation)
3610     {
3611       ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
3612                            is_gimple_lvalue, fb_lvalue);
3613       if (ret == GS_ERROR)
3614         return ret;
3615     }
3616
3617   object = TREE_OPERAND (*expr_p, 0);
3618   ctor = TREE_OPERAND (*expr_p, 1) =
3619     optimize_compound_literals_in_ctor (TREE_OPERAND (*expr_p, 1));
3620   type = TREE_TYPE (ctor);
3621   elts = CONSTRUCTOR_ELTS (ctor);
3622   ret = GS_ALL_DONE;
3623
3624   switch (TREE_CODE (type))
3625     {
3626     case RECORD_TYPE:
3627     case UNION_TYPE:
3628     case QUAL_UNION_TYPE:
3629     case ARRAY_TYPE:
3630       {
3631         struct gimplify_init_ctor_preeval_data preeval_data;
3632         HOST_WIDE_INT num_type_elements, num_ctor_elements;
3633         HOST_WIDE_INT num_nonzero_elements;
3634         bool cleared, valid_const_initializer;
3635
3636         /* Aggregate types must lower constructors to initialization of
3637            individual elements.  The exception is that a CONSTRUCTOR node
3638            with no elements indicates zero-initialization of the whole.  */
3639         if (VEC_empty (constructor_elt, elts))
3640           {
3641             if (notify_temp_creation)
3642               return GS_OK;
3643             break;
3644           }
3645
3646         /* Fetch information about the constructor to direct later processing.
3647            We might want to make static versions of it in various cases, and
3648            can only do so if it known to be a valid constant initializer.  */
3649         valid_const_initializer
3650           = categorize_ctor_elements (ctor, &num_nonzero_elements,
3651                                       &num_ctor_elements, &cleared);
3652
3653         /* If a const aggregate variable is being initialized, then it
3654            should never be a lose to promote the variable to be static.  */
3655         if (valid_const_initializer
3656             && num_nonzero_elements > 1
3657             && TREE_READONLY (object)
3658             && TREE_CODE (object) == VAR_DECL
3659             && (flag_merge_constants >= 2 || !TREE_ADDRESSABLE (object)))
3660           {
3661             if (notify_temp_creation)
3662               return GS_ERROR;
3663             DECL_INITIAL (object) = ctor;
3664             TREE_STATIC (object) = 1;
3665             if (!DECL_NAME (object))
3666               DECL_NAME (object) = create_tmp_var_name ("C");
3667             walk_tree (&DECL_INITIAL (object), force_labels_r, NULL, NULL);
3668
3669             /* ??? C++ doesn't automatically append a .<number> to the
3670                assembler name, and even when it does, it looks a FE private
3671                data structures to figure out what that number should be,
3672                which are not set for this variable.  I suppose this is
3673                important for local statics for inline functions, which aren't
3674                "local" in the object file sense.  So in order to get a unique
3675                TU-local symbol, we must invoke the lhd version now.  */
3676             lhd_set_decl_assembler_name (object);
3677
3678             *expr_p = NULL_TREE;
3679             break;
3680           }
3681
3682         /* If there are "lots" of initialized elements, even discounting
3683            those that are not address constants (and thus *must* be
3684            computed at runtime), then partition the constructor into
3685            constant and non-constant parts.  Block copy the constant
3686            parts in, then generate code for the non-constant parts.  */
3687         /* TODO.  There's code in cp/typeck.c to do this.  */
3688
3689         num_type_elements = count_type_elements (type, true);
3690
3691         /* If count_type_elements could not determine number of type elements
3692            for a constant-sized object, assume clearing is needed.
3693            Don't do this for variable-sized objects, as store_constructor
3694            will ignore the clearing of variable-sized objects.  */
3695         if (num_type_elements < 0 && int_size_in_bytes (type) >= 0)
3696           cleared = true;
3697         /* If there are "lots" of zeros, then block clear the object first.  */
3698         else if (num_type_elements - num_nonzero_elements
3699                  > CLEAR_RATIO (optimize_function_for_speed_p (cfun))
3700                  && num_nonzero_elements < num_type_elements/4)
3701           cleared = true;
3702         /* ??? This bit ought not be needed.  For any element not present
3703            in the initializer, we should simply set them to zero.  Except
3704            we'd need to *find* the elements that are not present, and that
3705            requires trickery to avoid quadratic compile-time behavior in
3706            large cases or excessive memory use in small cases.  */
3707         else if (num_ctor_elements < num_type_elements)
3708           cleared = true;
3709
3710         /* If there are "lots" of initialized elements, and all of them
3711            are valid address constants, then the entire initializer can
3712            be dropped to memory, and then memcpy'd out.  Don't do this
3713            for sparse arrays, though, as it's more efficient to follow
3714            the standard CONSTRUCTOR behavior of memset followed by
3715            individual element initialization.  Also don't do this for small
3716            all-zero initializers (which aren't big enough to merit
3717            clearing), and don't try to make bitwise copies of
3718            TREE_ADDRESSABLE types.  */
3719         if (valid_const_initializer
3720             && !(cleared || num_nonzero_elements == 0)
3721             && !TREE_ADDRESSABLE (type))
3722           {
3723             HOST_WIDE_INT size = int_size_in_bytes (type);
3724             unsigned int align;
3725
3726             /* ??? We can still get unbounded array types, at least
3727                from the C++ front end.  This seems wrong, but attempt
3728                to work around it for now.  */
3729             if (size < 0)
3730               {
3731                 size = int_size_in_bytes (TREE_TYPE (object));
3732                 if (size >= 0)
3733                   TREE_TYPE (ctor) = type = TREE_TYPE (object);
3734               }
3735
3736             /* Find the maximum alignment we can assume for the object.  */
3737             /* ??? Make use of DECL_OFFSET_ALIGN.  */
3738             if (DECL_P (object))
3739               align = DECL_ALIGN (object);
3740             else
3741               align = TYPE_ALIGN (type);
3742
3743             if (size > 0
3744                 && num_nonzero_elements > 1
3745                 && !can_move_by_pieces (size, align))
3746               {
3747                 tree new_tree;
3748
3749                 if (notify_temp_creation)
3750                   return GS_ERROR;
3751
3752                 new_tree = create_tmp_var_raw (type, "C");
3753
3754                 gimple_add_tmp_var (new_tree);
3755                 TREE_STATIC (new_tree) = 1;
3756                 TREE_READONLY (new_tree) = 1;
3757                 DECL_INITIAL (new_tree) = ctor;
3758                 if (align > DECL_ALIGN (new_tree))
3759                   {
3760                     DECL_ALIGN (new_tree) = align;
3761                     DECL_USER_ALIGN (new_tree) = 1;
3762                   }
3763                 walk_tree (&DECL_INITIAL (new_tree), force_labels_r, NULL, NULL);
3764
3765                 TREE_OPERAND (*expr_p, 1) = new_tree;
3766
3767                 /* This is no longer an assignment of a CONSTRUCTOR, but
3768                    we still may have processing to do on the LHS.  So
3769                    pretend we didn't do anything here to let that happen.  */
3770                 return GS_UNHANDLED;
3771               }
3772           }
3773
3774         /* If the target is volatile and we have non-zero elements
3775            initialize the target from a temporary.  */
3776         if (TREE_THIS_VOLATILE (object)
3777             && !TREE_ADDRESSABLE (type)
3778             && num_nonzero_elements > 0)
3779           {
3780             tree temp = create_tmp_var (TYPE_MAIN_VARIANT (type), NULL);
3781             TREE_OPERAND (*expr_p, 0) = temp;
3782             *expr_p = build2 (COMPOUND_EXPR, TREE_TYPE (*expr_p),
3783                               *expr_p,
3784                               build2 (MODIFY_EXPR, void_type_node,
3785                                       object, temp));
3786             return GS_OK;
3787           }
3788
3789         if (notify_temp_creation)
3790           return GS_OK;
3791
3792         /* If there are nonzero elements, pre-evaluate to capture elements
3793            overlapping with the lhs into temporaries.  We must do this before
3794            clearing to fetch the values before they are zeroed-out.  */
3795         if (num_nonzero_elements > 0)
3796           {
3797             preeval_data.lhs_base_decl = get_base_address (object);
3798             if (!DECL_P (preeval_data.lhs_base_decl))
3799               preeval_data.lhs_base_decl = NULL;
3800             preeval_data.lhs_alias_set = get_alias_set (object);
3801
3802             gimplify_init_ctor_preeval (&TREE_OPERAND (*expr_p, 1),
3803                                         pre_p, post_p, &preeval_data);
3804           }
3805
3806         if (cleared)
3807           {
3808             /* Zap the CONSTRUCTOR element list, which simplifies this case.
3809                Note that we still have to gimplify, in order to handle the
3810                case of variable sized types.  Avoid shared tree structures.  */
3811             CONSTRUCTOR_ELTS (ctor) = NULL;
3812             TREE_SIDE_EFFECTS (ctor) = 0;
3813             object = unshare_expr (object);
3814             gimplify_stmt (expr_p, pre_p);
3815           }
3816
3817         /* If we have not block cleared the object, or if there are nonzero
3818            elements in the constructor, add assignments to the individual
3819            scalar fields of the object.  */
3820         if (!cleared || num_nonzero_elements > 0)
3821           gimplify_init_ctor_eval (object, elts, pre_p, cleared);
3822
3823         *expr_p = NULL_TREE;
3824       }
3825       break;
3826
3827     case COMPLEX_TYPE:
3828       {
3829         tree r, i;
3830
3831         if (notify_temp_creation)
3832           return GS_OK;
3833
3834         /* Extract the real and imaginary parts out of the ctor.  */
3835         gcc_assert (VEC_length (constructor_elt, elts) == 2);
3836         r = VEC_index (constructor_elt, elts, 0)->value;
3837         i = VEC_index (constructor_elt, elts, 1)->value;
3838         if (r == NULL || i == NULL)
3839           {
3840             tree zero = fold_convert (TREE_TYPE (type), integer_zero_node);
3841             if (r == NULL)
3842               r = zero;
3843             if (i == NULL)
3844               i = zero;
3845           }
3846
3847         /* Complex types have either COMPLEX_CST or COMPLEX_EXPR to
3848            represent creation of a complex value.  */
3849         if (TREE_CONSTANT (r) && TREE_CONSTANT (i))
3850           {
3851             ctor = build_complex (type, r, i);
3852             TREE_OPERAND (*expr_p, 1) = ctor;
3853           }
3854         else
3855           {
3856             ctor = build2 (COMPLEX_EXPR, type, r, i);
3857             TREE_OPERAND (*expr_p, 1) = ctor;
3858             ret = gimplify_expr (&TREE_OPERAND (*expr_p, 1),
3859                                  pre_p,
3860                                  post_p,
3861                                  rhs_predicate_for (TREE_OPERAND (*expr_p, 0)),
3862                                  fb_rvalue);
3863           }
3864       }
3865       break;
3866
3867     case VECTOR_TYPE:
3868       {
3869         unsigned HOST_WIDE_INT ix;
3870         constructor_elt *ce;
3871
3872         if (notify_temp_creation)
3873           return GS_OK;
3874
3875         /* Go ahead and simplify constant constructors to VECTOR_CST.  */
3876         if (TREE_CONSTANT (ctor))
3877           {
3878             bool constant_p = true;
3879             tree value;
3880
3881             /* Even when ctor is constant, it might contain non-*_CST
3882                elements, such as addresses or trapping values like
3883                1.0/0.0 - 1.0/0.0.  Such expressions don't belong
3884                in VECTOR_CST nodes.  */
3885             FOR_EACH_CONSTRUCTOR_VALUE (elts, ix, value)
3886               if (!CONSTANT_CLASS_P (value))
3887                 {
3888                   constant_p = false;
3889                   break;
3890                 }
3891
3892             if (constant_p)
3893               {
3894                 TREE_OPERAND (*expr_p, 1) = build_vector_from_ctor (type, elts);
3895                 break;
3896               }
3897
3898             /* Don't reduce an initializer constant even if we can't
3899                make a VECTOR_CST.  It won't do anything for us, and it'll
3900                prevent us from representing it as a single constant.  */
3901             if (initializer_constant_valid_p (ctor, type))
3902               break;
3903
3904             TREE_CONSTANT (ctor) = 0;
3905           }
3906
3907         /* Vector types use CONSTRUCTOR all the way through gimple
3908           compilation as a general initializer.  */
3909         for (ix = 0; VEC_iterate (constructor_elt, elts, ix, ce); ix++)
3910           {
3911             enum gimplify_status tret;
3912             tret = gimplify_expr (&ce->value, pre_p, post_p, is_gimple_val,
3913                                   fb_rvalue);
3914             if (tret == GS_ERROR)
3915               ret = GS_ERROR;
3916           }
3917         if (!is_gimple_reg (TREE_OPERAND (*expr_p, 0)))
3918           TREE_OPERAND (*expr_p, 1) = get_formal_tmp_var (ctor, pre_p);
3919       }
3920       break;
3921
3922     default:
3923       /* So how did we get a CONSTRUCTOR for a scalar type?  */
3924       gcc_unreachable ();
3925     }
3926
3927   if (ret == GS_ERROR)
3928     return GS_ERROR;
3929   else if (want_value)
3930     {
3931       *expr_p = object;
3932       return GS_OK;
3933     }
3934   else
3935     {
3936       /* If we have gimplified both sides of the initializer but have
3937          not emitted an assignment, do so now.  */
3938       if (*expr_p)
3939         {
3940           tree lhs = TREE_OPERAND (*expr_p, 0);
3941           tree rhs = TREE_OPERAND (*expr_p, 1);
3942           gimple init = gimple_build_assign (lhs, rhs);
3943           gimplify_seq_add_stmt (pre_p, init);
3944           *expr_p = NULL;
3945         }
3946
3947       return GS_ALL_DONE;
3948     }
3949 }
3950
3951 /* Given a pointer value OP0, return a simplified version of an
3952    indirection through OP0, or NULL_TREE if no simplification is
3953    possible.  Note that the resulting type may be different from
3954    the type pointed to in the sense that it is still compatible
3955    from the langhooks point of view. */
3956
3957 tree
3958 gimple_fold_indirect_ref (tree t)
3959 {
3960   tree type = TREE_TYPE (TREE_TYPE (t));
3961   tree sub = t;
3962   tree subtype;
3963
3964   STRIP_NOPS (sub);
3965   subtype = TREE_TYPE (sub);
3966   if (!POINTER_TYPE_P (subtype))
3967     return NULL_TREE;
3968
3969   if (TREE_CODE (sub) == ADDR_EXPR)
3970     {
3971       tree op = TREE_OPERAND (sub, 0);
3972       tree optype = TREE_TYPE (op);
3973       /* *&p => p */
3974       if (useless_type_conversion_p (type, optype))
3975         return op;
3976
3977       /* *(foo *)&fooarray => fooarray[0] */
3978       if (TREE_CODE (optype) == ARRAY_TYPE
3979           && TREE_CODE (TYPE_SIZE (TREE_TYPE (optype))) == INTEGER_CST
3980           && useless_type_conversion_p (type, TREE_TYPE (optype)))
3981        {
3982          tree type_domain = TYPE_DOMAIN (optype);
3983          tree min_val = size_zero_node;
3984          if (type_domain && TYPE_MIN_VALUE (type_domain))
3985            min_val = TYPE_MIN_VALUE (type_domain);
3986          if (TREE_CODE (min_val) == INTEGER_CST)
3987            return build4 (ARRAY_REF, type, op, min_val, NULL_TREE, NULL_TREE);
3988        }
3989       /* *(foo *)&complexfoo => __real__ complexfoo */
3990       else if (TREE_CODE (optype) == COMPLEX_TYPE
3991                && useless_type_conversion_p (type, TREE_TYPE (optype)))
3992         return fold_build1 (REALPART_EXPR, type, op);
3993       /* *(foo *)&vectorfoo => BIT_FIELD_REF<vectorfoo,...> */
3994       else if (TREE_CODE (optype) == VECTOR_TYPE
3995                && useless_type_conversion_p (type, TREE_TYPE (optype)))
3996         {
3997           tree part_width = TYPE_SIZE (type);
3998           tree index = bitsize_int (0);
3999           return fold_build3 (BIT_FIELD_REF, type, op, part_width, index);
4000         }
4001     }
4002
4003   /* ((foo*)&vectorfoo)[1] => BIT_FIELD_REF<vectorfoo,...> */
4004   if (TREE_CODE (sub) == POINTER_PLUS_EXPR
4005       && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
4006     {
4007       tree op00 = TREE_OPERAND (sub, 0);
4008       tree op01 = TREE_OPERAND (sub, 1);
4009       tree op00type;
4010
4011       STRIP_NOPS (op00);
4012       op00type = TREE_TYPE (op00);
4013       if (TREE_CODE (op00) == ADDR_EXPR
4014           && TREE_CODE (TREE_TYPE (op00type)) == VECTOR_TYPE
4015           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (op00type))))
4016         {
4017           HOST_WIDE_INT offset = tree_low_cst (op01, 0);
4018           tree part_width = TYPE_SIZE (type);
4019           unsigned HOST_WIDE_INT part_widthi
4020             = tree_low_cst (part_width, 0) / BITS_PER_UNIT;
4021           unsigned HOST_WIDE_INT indexi = offset * BITS_PER_UNIT;
4022           tree index = bitsize_int (indexi);
4023           if (offset / part_widthi
4024               <= TYPE_VECTOR_SUBPARTS (TREE_TYPE (op00type)))
4025             return fold_build3 (BIT_FIELD_REF, type, TREE_OPERAND (op00, 0),
4026                                 part_width, index);
4027         }
4028     }
4029
4030   /* ((foo*)&complexfoo)[1] => __imag__ complexfoo */
4031   if (TREE_CODE (sub) == POINTER_PLUS_EXPR
4032       && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
4033     {
4034       tree op00 = TREE_OPERAND (sub, 0);
4035       tree op01 = TREE_OPERAND (sub, 1);
4036       tree op00type;
4037
4038       STRIP_NOPS (op00);
4039       op00type = TREE_TYPE (op00);
4040       if (TREE_CODE (op00) == ADDR_EXPR
4041           && TREE_CODE (TREE_TYPE (op00type)) == COMPLEX_TYPE
4042           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (op00type))))
4043         {
4044           tree size = TYPE_SIZE_UNIT (type);
4045           if (tree_int_cst_equal (size, op01))
4046             return fold_build1 (IMAGPART_EXPR, type, TREE_OPERAND (op00, 0));
4047         }
4048     }
4049
4050   /* *(foo *)fooarrptr => (*fooarrptr)[0] */
4051   if (TREE_CODE (TREE_TYPE (subtype)) == ARRAY_TYPE
4052       && TREE_CODE (TYPE_SIZE (TREE_TYPE (TREE_TYPE (subtype)))) == INTEGER_CST
4053       && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (subtype))))
4054     {
4055       tree type_domain;
4056       tree min_val = size_zero_node;
4057       tree osub = sub;
4058       sub = gimple_fold_indirect_ref (sub);
4059       if (! sub)
4060         sub = build1 (INDIRECT_REF, TREE_TYPE (subtype), osub);
4061       type_domain = TYPE_DOMAIN (TREE_TYPE (sub));
4062       if (type_domain && TYPE_MIN_VALUE (type_domain))
4063         min_val = TYPE_MIN_VALUE (type_domain);
4064       if (TREE_CODE (min_val) == INTEGER_CST)
4065         return build4 (ARRAY_REF, type, sub, min_val, NULL_TREE, NULL_TREE);
4066     }
4067
4068   return NULL_TREE;
4069 }
4070
4071 /* Given a pointer value OP0, return a simplified version of an
4072    indirection through OP0, or NULL_TREE if no simplification is
4073    possible.  This may only be applied to a rhs of an expression.
4074    Note that the resulting type may be different from the type pointed
4075    to in the sense that it is still compatible from the langhooks
4076    point of view. */
4077
4078 static tree
4079 gimple_fold_indirect_ref_rhs (tree t)
4080 {
4081   return gimple_fold_indirect_ref (t);
4082 }
4083
4084 /* Subroutine of gimplify_modify_expr to do simplifications of
4085    MODIFY_EXPRs based on the code of the RHS.  We loop for as long as
4086    something changes.  */
4087
4088 static enum gimplify_status
4089 gimplify_modify_expr_rhs (tree *expr_p, tree *from_p, tree *to_p,
4090                           gimple_seq *pre_p, gimple_seq *post_p,
4091                           bool want_value)
4092 {
4093   enum gimplify_status ret = GS_OK;
4094
4095   while (ret != GS_UNHANDLED)
4096     switch (TREE_CODE (*from_p))
4097       {
4098       case VAR_DECL:
4099         /* If we're assigning from a read-only variable initialized with
4100            a constructor, do the direct assignment from the constructor,
4101            but only if neither source nor target are volatile since this
4102            latter assignment might end up being done on a per-field basis.  */
4103         if (DECL_INITIAL (*from_p)
4104             && TREE_READONLY (*from_p)
4105             && !TREE_THIS_VOLATILE (*from_p)
4106             && !TREE_THIS_VOLATILE (*to_p)
4107             && TREE_CODE (DECL_INITIAL (*from_p)) == CONSTRUCTOR)
4108           {
4109             tree old_from = *from_p;
4110
4111             /* Move the constructor into the RHS.  */
4112             *from_p = unshare_expr (DECL_INITIAL (*from_p));
4113
4114             /* Let's see if gimplify_init_constructor will need to put
4115                it in memory.  If so, revert the change.  */
4116             ret = gimplify_init_constructor (expr_p, NULL, NULL, false, true);
4117             if (ret == GS_ERROR)
4118               {
4119                 *from_p = old_from;
4120                 /* Fall through.  */
4121               }
4122             else
4123               {
4124                 ret = GS_OK;
4125                 break;
4126               }
4127           }
4128         ret = GS_UNHANDLED;
4129         break;
4130       case INDIRECT_REF:
4131         {
4132           /* If we have code like
4133
4134                 *(const A*)(A*)&x
4135
4136              where the type of "x" is a (possibly cv-qualified variant
4137              of "A"), treat the entire expression as identical to "x".
4138              This kind of code arises in C++ when an object is bound
4139              to a const reference, and if "x" is a TARGET_EXPR we want
4140              to take advantage of the optimization below.  */
4141           tree t = gimple_fold_indirect_ref_rhs (TREE_OPERAND (*from_p, 0));
4142           if (t)
4143             {
4144               *from_p = t;
4145               ret = GS_OK;
4146             }
4147           else
4148             ret = GS_UNHANDLED;
4149           break;
4150         }
4151
4152       case TARGET_EXPR:
4153         {
4154           /* If we are initializing something from a TARGET_EXPR, strip the
4155              TARGET_EXPR and initialize it directly, if possible.  This can't
4156              be done if the initializer is void, since that implies that the
4157              temporary is set in some non-trivial way.
4158
4159              ??? What about code that pulls out the temp and uses it
4160              elsewhere? I think that such code never uses the TARGET_EXPR as
4161              an initializer.  If I'm wrong, we'll die because the temp won't
4162              have any RTL.  In that case, I guess we'll need to replace
4163              references somehow.  */
4164           tree init = TARGET_EXPR_INITIAL (*from_p);
4165
4166           if (init
4167               && !VOID_TYPE_P (TREE_TYPE (init)))
4168             {
4169               *from_p = init;
4170               ret = GS_OK;
4171             }
4172           else
4173             ret = GS_UNHANDLED;
4174         }
4175         break;
4176
4177       case COMPOUND_EXPR:
4178         /* Remove any COMPOUND_EXPR in the RHS so the following cases will be
4179            caught.  */
4180         gimplify_compound_expr (from_p, pre_p, true);
4181         ret = GS_OK;
4182         break;
4183
4184       case CONSTRUCTOR:
4185         /* If we're initializing from a CONSTRUCTOR, break this into
4186            individual MODIFY_EXPRs.  */
4187         return gimplify_init_constructor (expr_p, pre_p, post_p, want_value,
4188                                           false);
4189
4190       case COND_EXPR:
4191         /* If we're assigning to a non-register type, push the assignment
4192            down into the branches.  This is mandatory for ADDRESSABLE types,
4193            since we cannot generate temporaries for such, but it saves a
4194            copy in other cases as well.  */
4195         if (!is_gimple_reg_type (TREE_TYPE (*from_p)))
4196           {
4197             /* This code should mirror the code in gimplify_cond_expr. */
4198             enum tree_code code = TREE_CODE (*expr_p);
4199             tree cond = *from_p;
4200             tree result = *to_p;
4201
4202             ret = gimplify_expr (&result, pre_p, post_p,
4203                                  is_gimple_lvalue, fb_lvalue);
4204             if (ret != GS_ERROR)
4205               ret = GS_OK;
4206
4207             if (TREE_TYPE (TREE_OPERAND (cond, 1)) != void_type_node)
4208               TREE_OPERAND (cond, 1)
4209                 = build2 (code, void_type_node, result,
4210                           TREE_OPERAND (cond, 1));
4211             if (TREE_TYPE (TREE_OPERAND (cond, 2)) != void_type_node)
4212               TREE_OPERAND (cond, 2)
4213                 = build2 (code, void_type_node, unshare_expr (result),
4214                           TREE_OPERAND (cond, 2));
4215
4216             TREE_TYPE (cond) = void_type_node;
4217             recalculate_side_effects (cond);
4218
4219             if (want_value)
4220               {
4221                 gimplify_and_add (cond, pre_p);
4222                 *expr_p = unshare_expr (result);
4223               }
4224             else
4225               *expr_p = cond;
4226             return ret;
4227           }
4228         else
4229           ret = GS_UNHANDLED;
4230         break;
4231
4232       case CALL_EXPR:
4233         /* For calls that return in memory, give *to_p as the CALL_EXPR's
4234            return slot so that we don't generate a temporary.  */
4235         if (!CALL_EXPR_RETURN_SLOT_OPT (*from_p)
4236             && aggregate_value_p (*from_p, *from_p))
4237           {
4238             bool use_target;
4239
4240             if (!(rhs_predicate_for (*to_p))(*from_p))
4241               /* If we need a temporary, *to_p isn't accurate.  */
4242               use_target = false;
4243             else if (TREE_CODE (*to_p) == RESULT_DECL
4244                      && DECL_NAME (*to_p) == NULL_TREE
4245                      && needs_to_live_in_memory (*to_p))
4246               /* It's OK to use the return slot directly unless it's an NRV. */
4247               use_target = true;
4248             else if (is_gimple_reg_type (TREE_TYPE (*to_p))
4249                      || (DECL_P (*to_p) && DECL_REGISTER (*to_p)))
4250               /* Don't force regs into memory.  */
4251               use_target = false;
4252             else if (TREE_CODE (*expr_p) == INIT_EXPR)
4253               /* It's OK to use the target directly if it's being
4254                  initialized. */
4255               use_target = true;
4256             else if (!is_gimple_non_addressable (*to_p))
4257               /* Don't use the original target if it's already addressable;
4258                  if its address escapes, and the called function uses the
4259                  NRV optimization, a conforming program could see *to_p
4260                  change before the called function returns; see c++/19317.
4261                  When optimizing, the return_slot pass marks more functions
4262                  as safe after we have escape info.  */
4263               use_target = false;
4264             else
4265               use_target = true;
4266
4267             if (use_target)
4268               {
4269                 CALL_EXPR_RETURN_SLOT_OPT (*from_p) = 1;
4270                 mark_addressable (*to_p);
4271               }
4272           }
4273
4274         ret = GS_UNHANDLED;
4275         break;
4276
4277         /* If we're initializing from a container, push the initialization
4278            inside it.  */
4279       case CLEANUP_POINT_EXPR:
4280       case BIND_EXPR:
4281       case STATEMENT_LIST:
4282         {
4283           tree wrap = *from_p;
4284           tree t;
4285
4286           ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_min_lval,
4287                                fb_lvalue);
4288           if (ret != GS_ERROR)
4289             ret = GS_OK;
4290
4291           t = voidify_wrapper_expr (wrap, *expr_p);
4292           gcc_assert (t == *expr_p);
4293
4294           if (want_value)
4295             {
4296               gimplify_and_add (wrap, pre_p);
4297               *expr_p = unshare_expr (*to_p);
4298             }
4299           else
4300             *expr_p = wrap;
4301           return GS_OK;
4302         }
4303
4304       case COMPOUND_LITERAL_EXPR:
4305         {
4306           tree complit = TREE_OPERAND (*expr_p, 1);
4307           tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (complit);
4308           tree decl = DECL_EXPR_DECL (decl_s);
4309           tree init = DECL_INITIAL (decl);
4310
4311           /* struct T x = (struct T) { 0, 1, 2 } can be optimized
4312              into struct T x = { 0, 1, 2 } if the address of the
4313              compound literal has never been taken.  */
4314           if (!TREE_ADDRESSABLE (complit)
4315               && !TREE_ADDRESSABLE (decl)
4316               && init)
4317             {
4318               *expr_p = copy_node (*expr_p);
4319               TREE_OPERAND (*expr_p, 1) = init;
4320               return GS_OK;
4321             }
4322         }
4323
4324       default:
4325         ret = GS_UNHANDLED;
4326         break;
4327       }
4328
4329   return ret;
4330 }
4331
4332
4333 /* Promote partial stores to COMPLEX variables to total stores.  *EXPR_P is
4334    a MODIFY_EXPR with a lhs of a REAL/IMAGPART_EXPR of a variable with
4335    DECL_GIMPLE_REG_P set.
4336
4337    IMPORTANT NOTE: This promotion is performed by introducing a load of the
4338    other, unmodified part of the complex object just before the total store.
4339    As a consequence, if the object is still uninitialized, an undefined value
4340    will be loaded into a register, which may result in a spurious exception
4341    if the register is floating-point and the value happens to be a signaling
4342    NaN for example.  Then the fully-fledged complex operations lowering pass
4343    followed by a DCE pass are necessary in order to fix things up.  */
4344
4345 static enum gimplify_status
4346 gimplify_modify_expr_complex_part (tree *expr_p, gimple_seq *pre_p,
4347                                    bool want_value)
4348 {
4349   enum tree_code code, ocode;
4350   tree lhs, rhs, new_rhs, other, realpart, imagpart;
4351
4352   lhs = TREE_OPERAND (*expr_p, 0);
4353   rhs = TREE_OPERAND (*expr_p, 1);
4354   code = TREE_CODE (lhs);
4355   lhs = TREE_OPERAND (lhs, 0);
4356
4357   ocode = code == REALPART_EXPR ? IMAGPART_EXPR : REALPART_EXPR;
4358   other = build1 (ocode, TREE_TYPE (rhs), lhs);
4359   other = get_formal_tmp_var (other, pre_p);
4360
4361   realpart = code == REALPART_EXPR ? rhs : other;
4362   imagpart = code == REALPART_EXPR ? other : rhs;
4363
4364   if (TREE_CONSTANT (realpart) && TREE_CONSTANT (imagpart))
4365     new_rhs = build_complex (TREE_TYPE (lhs), realpart, imagpart);
4366   else
4367     new_rhs = build2 (COMPLEX_EXPR, TREE_TYPE (lhs), realpart, imagpart);
4368
4369   gimplify_seq_add_stmt (pre_p, gimple_build_assign (lhs, new_rhs));
4370   *expr_p = (want_value) ? rhs : NULL_TREE;
4371
4372   return GS_ALL_DONE;
4373 }
4374
4375
4376 /* Gimplify the MODIFY_EXPR node pointed to by EXPR_P.
4377
4378       modify_expr
4379               : varname '=' rhs
4380               | '*' ID '=' rhs
4381
4382     PRE_P points to the list where side effects that must happen before
4383         *EXPR_P should be stored.
4384
4385     POST_P points to the list where side effects that must happen after
4386         *EXPR_P should be stored.
4387
4388     WANT_VALUE is nonzero iff we want to use the value of this expression
4389         in another expression.  */
4390
4391 static enum gimplify_status
4392 gimplify_modify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
4393                       bool want_value)
4394 {
4395   tree *from_p = &TREE_OPERAND (*expr_p, 1);
4396   tree *to_p = &TREE_OPERAND (*expr_p, 0);
4397   enum gimplify_status ret = GS_UNHANDLED;
4398   gimple assign;
4399   location_t loc = EXPR_LOCATION (*expr_p);
4400
4401   gcc_assert (TREE_CODE (*expr_p) == MODIFY_EXPR
4402               || TREE_CODE (*expr_p) == INIT_EXPR);
4403
4404   /* Insert pointer conversions required by the middle-end that are not
4405      required by the frontend.  This fixes middle-end type checking for
4406      for example gcc.dg/redecl-6.c.  */
4407   if (POINTER_TYPE_P (TREE_TYPE (*to_p)))
4408     {
4409       STRIP_USELESS_TYPE_CONVERSION (*from_p);
4410       if (!useless_type_conversion_p (TREE_TYPE (*to_p), TREE_TYPE (*from_p)))
4411         *from_p = fold_convert_loc (loc, TREE_TYPE (*to_p), *from_p);
4412     }
4413
4414   /* See if any simplifications can be done based on what the RHS is.  */
4415   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4416                                   want_value);
4417   if (ret != GS_UNHANDLED)
4418     return ret;
4419
4420   /* For zero sized types only gimplify the left hand side and right hand
4421      side as statements and throw away the assignment.  Do this after
4422      gimplify_modify_expr_rhs so we handle TARGET_EXPRs of addressable
4423      types properly.  */
4424   if (zero_sized_type (TREE_TYPE (*from_p)) && !want_value)
4425     {
4426       gimplify_stmt (from_p, pre_p);
4427       gimplify_stmt (to_p, pre_p);
4428       *expr_p = NULL_TREE;
4429       return GS_ALL_DONE;
4430     }
4431
4432   /* If the value being copied is of variable width, compute the length
4433      of the copy into a WITH_SIZE_EXPR.   Note that we need to do this
4434      before gimplifying any of the operands so that we can resolve any
4435      PLACEHOLDER_EXPRs in the size.  Also note that the RTL expander uses
4436      the size of the expression to be copied, not of the destination, so
4437      that is what we must do here.  */
4438   maybe_with_size_expr (from_p);
4439
4440   ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
4441   if (ret == GS_ERROR)
4442     return ret;
4443
4444   /* As a special case, we have to temporarily allow for assignments
4445      with a CALL_EXPR on the RHS.  Since in GIMPLE a function call is
4446      a toplevel statement, when gimplifying the GENERIC expression
4447      MODIFY_EXPR <a, CALL_EXPR <foo>>, we cannot create the tuple
4448      GIMPLE_ASSIGN <a, GIMPLE_CALL <foo>>.
4449
4450      Instead, we need to create the tuple GIMPLE_CALL <a, foo>.  To
4451      prevent gimplify_expr from trying to create a new temporary for
4452      foo's LHS, we tell it that it should only gimplify until it
4453      reaches the CALL_EXPR.  On return from gimplify_expr, the newly
4454      created GIMPLE_CALL <foo> will be the last statement in *PRE_P
4455      and all we need to do here is set 'a' to be its LHS.  */
4456   ret = gimplify_expr (from_p, pre_p, post_p, rhs_predicate_for (*to_p),
4457                        fb_rvalue);
4458   if (ret == GS_ERROR)
4459     return ret;
4460
4461   /* Now see if the above changed *from_p to something we handle specially.  */
4462   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4463                                   want_value);
4464   if (ret != GS_UNHANDLED)
4465     return ret;
4466
4467   /* If we've got a variable sized assignment between two lvalues (i.e. does
4468      not involve a call), then we can make things a bit more straightforward
4469      by converting the assignment to memcpy or memset.  */
4470   if (TREE_CODE (*from_p) == WITH_SIZE_EXPR)
4471     {
4472       tree from = TREE_OPERAND (*from_p, 0);
4473       tree size = TREE_OPERAND (*from_p, 1);
4474
4475       if (TREE_CODE (from) == CONSTRUCTOR)
4476         return gimplify_modify_expr_to_memset (expr_p, size, want_value, pre_p);
4477
4478       if (is_gimple_addressable (from))
4479         {
4480           *from_p = from;
4481           return gimplify_modify_expr_to_memcpy (expr_p, size, want_value,
4482                                                  pre_p);
4483         }
4484     }
4485
4486   /* Transform partial stores to non-addressable complex variables into
4487      total stores.  This allows us to use real instead of virtual operands
4488      for these variables, which improves optimization.  */
4489   if ((TREE_CODE (*to_p) == REALPART_EXPR
4490        || TREE_CODE (*to_p) == IMAGPART_EXPR)
4491       && is_gimple_reg (TREE_OPERAND (*to_p, 0)))
4492     return gimplify_modify_expr_complex_part (expr_p, pre_p, want_value);
4493
4494   /* Try to alleviate the effects of the gimplification creating artificial
4495      temporaries (see for example is_gimple_reg_rhs) on the debug info.  */
4496   if (!gimplify_ctxp->into_ssa
4497       && DECL_P (*from_p)
4498       && DECL_IGNORED_P (*from_p)
4499       && DECL_P (*to_p)
4500       && !DECL_IGNORED_P (*to_p))
4501     {
4502       if (!DECL_NAME (*from_p) && DECL_NAME (*to_p))
4503         DECL_NAME (*from_p)
4504           = create_tmp_var_name (IDENTIFIER_POINTER (DECL_NAME (*to_p)));
4505       DECL_DEBUG_EXPR_IS_FROM (*from_p) = 1;
4506       SET_DECL_DEBUG_EXPR (*from_p, *to_p);
4507    }
4508
4509   if (TREE_CODE (*from_p) == CALL_EXPR)
4510     {
4511       /* Since the RHS is a CALL_EXPR, we need to create a GIMPLE_CALL
4512          instead of a GIMPLE_ASSIGN.  */
4513       assign = gimple_build_call_from_tree (*from_p);
4514       if (!gimple_call_noreturn_p (assign))
4515         gimple_call_set_lhs (assign, *to_p);
4516     }
4517   else
4518     {
4519       assign = gimple_build_assign (*to_p, *from_p);
4520       gimple_set_location (assign, EXPR_LOCATION (*expr_p));
4521     }
4522
4523   gimplify_seq_add_stmt (pre_p, assign);
4524
4525   if (gimplify_ctxp->into_ssa && is_gimple_reg (*to_p))
4526     {
4527       /* If we've somehow already got an SSA_NAME on the LHS, then
4528          we've probably modified it twice.  Not good.  */
4529       gcc_assert (TREE_CODE (*to_p) != SSA_NAME);
4530       *to_p = make_ssa_name (*to_p, assign);
4531       gimple_set_lhs (assign, *to_p);
4532     }
4533
4534   if (want_value)
4535     {
4536       *expr_p = unshare_expr (*to_p);
4537       return GS_OK;
4538     }
4539   else
4540     *expr_p = NULL;
4541
4542   return GS_ALL_DONE;
4543 }
4544
4545 /*  Gimplify a comparison between two variable-sized objects.  Do this
4546     with a call to BUILT_IN_MEMCMP.  */
4547
4548 static enum gimplify_status
4549 gimplify_variable_sized_compare (tree *expr_p)
4550 {
4551   tree op0 = TREE_OPERAND (*expr_p, 0);
4552   tree op1 = TREE_OPERAND (*expr_p, 1);
4553   tree t, arg, dest, src;
4554   location_t loc = EXPR_LOCATION (*expr_p);
4555
4556   arg = TYPE_SIZE_UNIT (TREE_TYPE (op0));
4557   arg = unshare_expr (arg);
4558   arg = SUBSTITUTE_PLACEHOLDER_IN_EXPR (arg, op0);
4559   src = build_fold_addr_expr_loc (loc, op1);
4560   dest = build_fold_addr_expr_loc (loc, op0);
4561   t = implicit_built_in_decls[BUILT_IN_MEMCMP];
4562   t = build_call_expr_loc (loc, t, 3, dest, src, arg);
4563   *expr_p
4564     = build2 (TREE_CODE (*expr_p), TREE_TYPE (*expr_p), t, integer_zero_node);
4565
4566   return GS_OK;
4567 }
4568
4569 /*  Gimplify a comparison between two aggregate objects of integral scalar
4570     mode as a comparison between the bitwise equivalent scalar values.  */
4571
4572 static enum gimplify_status
4573 gimplify_scalar_mode_aggregate_compare (tree *expr_p)
4574 {
4575   location_t loc = EXPR_LOCATION (*expr_p);
4576   tree op0 = TREE_OPERAND (*expr_p, 0);
4577   tree op1 = TREE_OPERAND (*expr_p, 1);
4578
4579   tree type = TREE_TYPE (op0);
4580   tree scalar_type = lang_hooks.types.type_for_mode (TYPE_MODE (type), 1);
4581
4582   op0 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op0);
4583   op1 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op1);
4584
4585   *expr_p
4586     = fold_build2_loc (loc, TREE_CODE (*expr_p), TREE_TYPE (*expr_p), op0, op1);
4587
4588   return GS_OK;
4589 }
4590
4591 /*  Gimplify TRUTH_ANDIF_EXPR and TRUTH_ORIF_EXPR expressions.  EXPR_P
4592     points to the expression to gimplify.
4593
4594     Expressions of the form 'a && b' are gimplified to:
4595
4596         a && b ? true : false
4597
4598     LOCUS is the source location to be put on the generated COND_EXPR.
4599     gimplify_cond_expr will do the rest.  */
4600
4601 static enum gimplify_status
4602 gimplify_boolean_expr (tree *expr_p, location_t locus)
4603 {
4604   /* Preserve the original type of the expression.  */
4605   tree type = TREE_TYPE (*expr_p);
4606
4607   *expr_p = build3 (COND_EXPR, type, *expr_p,
4608                     fold_convert_loc (locus, type, boolean_true_node),
4609                     fold_convert_loc (locus, type, boolean_false_node));
4610
4611   SET_EXPR_LOCATION (*expr_p, locus);
4612
4613   return GS_OK;
4614 }
4615
4616 /* Gimplifies an expression sequence.  This function gimplifies each
4617    expression and re-writes the original expression with the last
4618    expression of the sequence in GIMPLE form.
4619
4620    PRE_P points to the list where the side effects for all the
4621        expressions in the sequence will be emitted.
4622
4623    WANT_VALUE is true when the result of the last COMPOUND_EXPR is used.  */
4624
4625 static enum gimplify_status
4626 gimplify_compound_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
4627 {
4628   tree t = *expr_p;
4629
4630   do
4631     {
4632       tree *sub_p = &TREE_OPERAND (t, 0);
4633
4634       if (TREE_CODE (*sub_p) == COMPOUND_EXPR)
4635         gimplify_compound_expr (sub_p, pre_p, false);
4636       else
4637         gimplify_stmt (sub_p, pre_p);
4638
4639       t = TREE_OPERAND (t, 1);
4640     }
4641   while (TREE_CODE (t) == COMPOUND_EXPR);
4642
4643   *expr_p = t;
4644   if (want_value)
4645     return GS_OK;
4646   else
4647     {
4648       gimplify_stmt (expr_p, pre_p);
4649       return GS_ALL_DONE;
4650     }
4651 }
4652
4653
4654 /* Gimplify a SAVE_EXPR node.  EXPR_P points to the expression to
4655    gimplify.  After gimplification, EXPR_P will point to a new temporary
4656    that holds the original value of the SAVE_EXPR node.
4657
4658    PRE_P points to the list where side effects that must happen before
4659       *EXPR_P should be stored.  */
4660
4661 static enum gimplify_status
4662 gimplify_save_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4663 {
4664   enum gimplify_status ret = GS_ALL_DONE;
4665   tree val;
4666
4667   gcc_assert (TREE_CODE (*expr_p) == SAVE_EXPR);
4668   val = TREE_OPERAND (*expr_p, 0);
4669
4670   /* If the SAVE_EXPR has not been resolved, then evaluate it once.  */
4671   if (!SAVE_EXPR_RESOLVED_P (*expr_p))
4672     {
4673       /* The operand may be a void-valued expression such as SAVE_EXPRs
4674          generated by the Java frontend for class initialization.  It is
4675          being executed only for its side-effects.  */
4676       if (TREE_TYPE (val) == void_type_node)
4677         {
4678           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
4679                                is_gimple_stmt, fb_none);
4680           val = NULL;
4681         }
4682       else
4683         val = get_initialized_tmp_var (val, pre_p, post_p);
4684
4685       TREE_OPERAND (*expr_p, 0) = val;
4686       SAVE_EXPR_RESOLVED_P (*expr_p) = 1;
4687     }
4688
4689   *expr_p = val;
4690
4691   return ret;
4692 }
4693
4694 /*  Re-write the ADDR_EXPR node pointed to by EXPR_P
4695
4696       unary_expr
4697               : ...
4698               | '&' varname
4699               ...
4700
4701     PRE_P points to the list where side effects that must happen before
4702         *EXPR_P should be stored.
4703
4704     POST_P points to the list where side effects that must happen after
4705         *EXPR_P should be stored.  */
4706
4707 static enum gimplify_status
4708 gimplify_addr_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4709 {
4710   tree expr = *expr_p;
4711   tree op0 = TREE_OPERAND (expr, 0);
4712   enum gimplify_status ret;
4713   location_t loc = EXPR_LOCATION (*expr_p);
4714
4715   switch (TREE_CODE (op0))
4716     {
4717     case INDIRECT_REF:
4718     case MISALIGNED_INDIRECT_REF:
4719     do_indirect_ref:
4720       /* Check if we are dealing with an expression of the form '&*ptr'.
4721          While the front end folds away '&*ptr' into 'ptr', these
4722          expressions may be generated internally by the compiler (e.g.,
4723          builtins like __builtin_va_end).  */
4724       /* Caution: the silent array decomposition semantics we allow for
4725          ADDR_EXPR means we can't always discard the pair.  */
4726       /* Gimplification of the ADDR_EXPR operand may drop
4727          cv-qualification conversions, so make sure we add them if
4728          needed.  */
4729       {
4730         tree op00 = TREE_OPERAND (op0, 0);
4731         tree t_expr = TREE_TYPE (expr);
4732         tree t_op00 = TREE_TYPE (op00);
4733
4734         if (!useless_type_conversion_p (t_expr, t_op00))
4735           op00 = fold_convert_loc (loc, TREE_TYPE (expr), op00);
4736         *expr_p = op00;
4737         ret = GS_OK;
4738       }
4739       break;
4740
4741     case VIEW_CONVERT_EXPR:
4742       /* Take the address of our operand and then convert it to the type of
4743          this ADDR_EXPR.
4744
4745          ??? The interactions of VIEW_CONVERT_EXPR and aliasing is not at
4746          all clear.  The impact of this transformation is even less clear.  */
4747
4748       /* If the operand is a useless conversion, look through it.  Doing so
4749          guarantees that the ADDR_EXPR and its operand will remain of the
4750          same type.  */
4751       if (tree_ssa_useless_type_conversion (TREE_OPERAND (op0, 0)))
4752         op0 = TREE_OPERAND (op0, 0);
4753
4754       *expr_p = fold_convert_loc (loc, TREE_TYPE (expr),
4755                                   build_fold_addr_expr_loc (loc,
4756                                                         TREE_OPERAND (op0, 0)));
4757       ret = GS_OK;
4758       break;
4759
4760     default:
4761       /* We use fb_either here because the C frontend sometimes takes
4762          the address of a call that returns a struct; see
4763          gcc.dg/c99-array-lval-1.c.  The gimplifier will correctly make
4764          the implied temporary explicit.  */
4765
4766       /* Make the operand addressable.  */
4767       ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, post_p,
4768                            is_gimple_addressable, fb_either);
4769       if (ret == GS_ERROR)
4770         break;
4771
4772       /* Then mark it.  Beware that it may not be possible to do so directly
4773          if a temporary has been created by the gimplification.  */
4774       prepare_gimple_addressable (&TREE_OPERAND (expr, 0), pre_p);
4775
4776       op0 = TREE_OPERAND (expr, 0);
4777
4778       /* For various reasons, the gimplification of the expression
4779          may have made a new INDIRECT_REF.  */
4780       if (TREE_CODE (op0) == INDIRECT_REF)
4781         goto do_indirect_ref;
4782
4783       mark_addressable (TREE_OPERAND (expr, 0));
4784
4785       /* The FEs may end up building ADDR_EXPRs early on a decl with
4786          an incomplete type.  Re-build ADDR_EXPRs in canonical form
4787          here.  */
4788       if (!types_compatible_p (TREE_TYPE (op0), TREE_TYPE (TREE_TYPE (expr))))
4789         *expr_p = build_fold_addr_expr (op0);
4790
4791       /* Make sure TREE_CONSTANT and TREE_SIDE_EFFECTS are set properly.  */
4792       recompute_tree_invariant_for_addr_expr (*expr_p);
4793
4794       /* If we re-built the ADDR_EXPR add a conversion to the original type
4795          if required.  */
4796       if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
4797         *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
4798
4799       break;
4800     }
4801
4802   return ret;
4803 }
4804
4805 /* Gimplify the operands of an ASM_EXPR.  Input operands should be a gimple
4806    value; output operands should be a gimple lvalue.  */
4807
4808 static enum gimplify_status
4809 gimplify_asm_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4810 {
4811   tree expr;
4812   int noutputs;
4813   const char **oconstraints;
4814   int i;
4815   tree link;
4816   const char *constraint;
4817   bool allows_mem, allows_reg, is_inout;
4818   enum gimplify_status ret, tret;
4819   gimple stmt;
4820   VEC(tree, gc) *inputs;
4821   VEC(tree, gc) *outputs;
4822   VEC(tree, gc) *clobbers;
4823   VEC(tree, gc) *labels;
4824   tree link_next;
4825
4826   expr = *expr_p;
4827   noutputs = list_length (ASM_OUTPUTS (expr));
4828   oconstraints = (const char **) alloca ((noutputs) * sizeof (const char *));
4829
4830   inputs = outputs = clobbers = labels = NULL;
4831
4832   ret = GS_ALL_DONE;
4833   link_next = NULL_TREE;
4834   for (i = 0, link = ASM_OUTPUTS (expr); link; ++i, link = link_next)
4835     {
4836       bool ok;
4837       size_t constraint_len;
4838
4839       link_next = TREE_CHAIN (link);
4840
4841       oconstraints[i]
4842         = constraint
4843         = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4844       constraint_len = strlen (constraint);
4845       if (constraint_len == 0)
4846         continue;
4847
4848       ok = parse_output_constraint (&constraint, i, 0, 0,
4849                                     &allows_mem, &allows_reg, &is_inout);
4850       if (!ok)
4851         {
4852           ret = GS_ERROR;
4853           is_inout = false;
4854         }
4855
4856       if (!allows_reg && allows_mem)
4857         mark_addressable (TREE_VALUE (link));
4858
4859       tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
4860                             is_inout ? is_gimple_min_lval : is_gimple_lvalue,
4861                             fb_lvalue | fb_mayfail);
4862       if (tret == GS_ERROR)
4863         {
4864           error ("invalid lvalue in asm output %d", i);
4865           ret = tret;
4866         }
4867
4868       VEC_safe_push (tree, gc, outputs, link);
4869       TREE_CHAIN (link) = NULL_TREE;
4870
4871       if (is_inout)
4872         {
4873           /* An input/output operand.  To give the optimizers more
4874              flexibility, split it into separate input and output
4875              operands.  */
4876           tree input;
4877           char buf[10];
4878
4879           /* Turn the in/out constraint into an output constraint.  */
4880           char *p = xstrdup (constraint);
4881           p[0] = '=';
4882           TREE_VALUE (TREE_PURPOSE (link)) = build_string (constraint_len, p);
4883
4884           /* And add a matching input constraint.  */
4885           if (allows_reg)
4886             {
4887               sprintf (buf, "%d", i);
4888
4889               /* If there are multiple alternatives in the constraint,
4890                  handle each of them individually.  Those that allow register
4891                  will be replaced with operand number, the others will stay
4892                  unchanged.  */
4893               if (strchr (p, ',') != NULL)
4894                 {
4895                   size_t len = 0, buflen = strlen (buf);
4896                   char *beg, *end, *str, *dst;
4897
4898                   for (beg = p + 1;;)
4899                     {
4900                       end = strchr (beg, ',');
4901                       if (end == NULL)
4902                         end = strchr (beg, '\0');
4903                       if ((size_t) (end - beg) < buflen)
4904                         len += buflen + 1;
4905                       else
4906                         len += end - beg + 1;
4907                       if (*end)
4908                         beg = end + 1;
4909                       else
4910                         break;
4911                     }
4912
4913                   str = (char *) alloca (len);
4914                   for (beg = p + 1, dst = str;;)
4915                     {
4916                       const char *tem;
4917                       bool mem_p, reg_p, inout_p;
4918
4919                       end = strchr (beg, ',');
4920                       if (end)
4921                         *end = '\0';
4922                       beg[-1] = '=';
4923                       tem = beg - 1;
4924                       parse_output_constraint (&tem, i, 0, 0,
4925                                                &mem_p, &reg_p, &inout_p);
4926                       if (dst != str)
4927                         *dst++ = ',';
4928                       if (reg_p)
4929                         {
4930                           memcpy (dst, buf, buflen);
4931                           dst += buflen;
4932                         }
4933                       else
4934                         {
4935                           if (end)
4936                             len = end - beg;
4937                           else
4938                             len = strlen (beg);
4939                           memcpy (dst, beg, len);
4940                           dst += len;
4941                         }
4942                       if (end)
4943                         beg = end + 1;
4944                       else
4945                         break;
4946                     }
4947                   *dst = '\0';
4948                   input = build_string (dst - str, str);
4949                 }
4950               else
4951                 input = build_string (strlen (buf), buf);
4952             }
4953           else
4954             input = build_string (constraint_len - 1, constraint + 1);
4955
4956           free (p);
4957
4958           input = build_tree_list (build_tree_list (NULL_TREE, input),
4959                                    unshare_expr (TREE_VALUE (link)));
4960           ASM_INPUTS (expr) = chainon (ASM_INPUTS (expr), input);
4961         }
4962     }
4963
4964   link_next = NULL_TREE;
4965   for (link = ASM_INPUTS (expr); link; ++i, link = link_next)
4966     {
4967       link_next = TREE_CHAIN (link);
4968       constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4969       parse_input_constraint (&constraint, 0, 0, noutputs, 0,
4970                               oconstraints, &allows_mem, &allows_reg);
4971
4972       /* If we can't make copies, we can only accept memory.  */
4973       if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (link))))
4974         {
4975           if (allows_mem)
4976             allows_reg = 0;
4977           else
4978             {
4979               error ("impossible constraint in %<asm%>");
4980               error ("non-memory input %d must stay in memory", i);
4981               return GS_ERROR;
4982             }
4983         }
4984
4985       /* If the operand is a memory input, it should be an lvalue.  */
4986       if (!allows_reg && allows_mem)
4987         {
4988           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
4989                                 is_gimple_lvalue, fb_lvalue | fb_mayfail);
4990           mark_addressable (TREE_VALUE (link));
4991           if (tret == GS_ERROR)
4992             {
4993               if (EXPR_HAS_LOCATION (TREE_VALUE (link)))
4994                 input_location = EXPR_LOCATION (TREE_VALUE (link));
4995               error ("memory input %d is not directly addressable", i);
4996               ret = tret;
4997             }
4998         }
4999       else
5000         {
5001           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
5002                                 is_gimple_asm_val, fb_rvalue);
5003           if (tret == GS_ERROR)
5004             ret = tret;
5005         }
5006
5007       TREE_CHAIN (link) = NULL_TREE;
5008       VEC_safe_push (tree, gc, inputs, link);
5009     }
5010
5011   for (link = ASM_CLOBBERS (expr); link; ++i, link = TREE_CHAIN (link))
5012     VEC_safe_push (tree, gc, clobbers, link);
5013
5014   for (link = ASM_LABELS (expr); link; ++i, link = TREE_CHAIN (link))
5015     VEC_safe_push (tree, gc, labels, link);
5016
5017   /* Do not add ASMs with errors to the gimple IL stream.  */
5018   if (ret != GS_ERROR)
5019     {
5020       stmt = gimple_build_asm_vec (TREE_STRING_POINTER (ASM_STRING (expr)),
5021                                    inputs, outputs, clobbers, labels);
5022
5023       gimple_asm_set_volatile (stmt, ASM_VOLATILE_P (expr));
5024       gimple_asm_set_input (stmt, ASM_INPUT_P (expr));
5025
5026       gimplify_seq_add_stmt (pre_p, stmt);
5027     }
5028
5029   return ret;
5030 }
5031
5032 /* Gimplify a CLEANUP_POINT_EXPR.  Currently this works by adding
5033    GIMPLE_WITH_CLEANUP_EXPRs to the prequeue as we encounter cleanups while
5034    gimplifying the body, and converting them to TRY_FINALLY_EXPRs when we
5035    return to this function.
5036
5037    FIXME should we complexify the prequeue handling instead?  Or use flags
5038    for all the cleanups and let the optimizer tighten them up?  The current
5039    code seems pretty fragile; it will break on a cleanup within any
5040    non-conditional nesting.  But any such nesting would be broken, anyway;
5041    we can't write a TRY_FINALLY_EXPR that starts inside a nesting construct
5042    and continues out of it.  We can do that at the RTL level, though, so
5043    having an optimizer to tighten up try/finally regions would be a Good
5044    Thing.  */
5045
5046 static enum gimplify_status
5047 gimplify_cleanup_point_expr (tree *expr_p, gimple_seq *pre_p)
5048 {
5049   gimple_stmt_iterator iter;
5050   gimple_seq body_sequence = NULL;
5051
5052   tree temp = voidify_wrapper_expr (*expr_p, NULL);
5053
5054   /* We only care about the number of conditions between the innermost
5055      CLEANUP_POINT_EXPR and the cleanup.  So save and reset the count and
5056      any cleanups collected outside the CLEANUP_POINT_EXPR.  */
5057   int old_conds = gimplify_ctxp->conditions;
5058   gimple_seq old_cleanups = gimplify_ctxp->conditional_cleanups;
5059   gimplify_ctxp->conditions = 0;
5060   gimplify_ctxp->conditional_cleanups = NULL;
5061
5062   gimplify_stmt (&TREE_OPERAND (*expr_p, 0), &body_sequence);
5063
5064   gimplify_ctxp->conditions = old_conds;
5065   gimplify_ctxp->conditional_cleanups = old_cleanups;
5066
5067   for (iter = gsi_start (body_sequence); !gsi_end_p (iter); )
5068     {
5069       gimple wce = gsi_stmt (iter);
5070
5071       if (gimple_code (wce) == GIMPLE_WITH_CLEANUP_EXPR)
5072         {
5073           if (gsi_one_before_end_p (iter))
5074             {
5075               /* Note that gsi_insert_seq_before and gsi_remove do not
5076                  scan operands, unlike some other sequence mutators.  */
5077               gsi_insert_seq_before_without_update (&iter,
5078                                                     gimple_wce_cleanup (wce),
5079                                                     GSI_SAME_STMT);
5080               gsi_remove (&iter, true);
5081               break;
5082             }
5083           else
5084             {
5085               gimple gtry;
5086               gimple_seq seq;
5087               enum gimple_try_flags kind;
5088
5089               if (gimple_wce_cleanup_eh_only (wce))
5090                 kind = GIMPLE_TRY_CATCH;
5091               else
5092                 kind = GIMPLE_TRY_FINALLY;
5093               seq = gsi_split_seq_after (iter);
5094
5095               gtry = gimple_build_try (seq, gimple_wce_cleanup (wce), kind);
5096               /* Do not use gsi_replace here, as it may scan operands.
5097                  We want to do a simple structural modification only.  */
5098               *gsi_stmt_ptr (&iter) = gtry;
5099               iter = gsi_start (seq);
5100             }
5101         }
5102       else
5103         gsi_next (&iter);
5104     }
5105
5106   gimplify_seq_add_seq (pre_p, body_sequence);
5107   if (temp)
5108     {
5109       *expr_p = temp;
5110       return GS_OK;
5111     }
5112   else
5113     {
5114       *expr_p = NULL;
5115       return GS_ALL_DONE;
5116     }
5117 }
5118
5119 /* Insert a cleanup marker for gimplify_cleanup_point_expr.  CLEANUP
5120    is the cleanup action required.  EH_ONLY is true if the cleanup should
5121    only be executed if an exception is thrown, not on normal exit.  */
5122
5123 static void
5124 gimple_push_cleanup (tree var, tree cleanup, bool eh_only, gimple_seq *pre_p)
5125 {
5126   gimple wce;
5127   gimple_seq cleanup_stmts = NULL;
5128
5129   /* Errors can result in improperly nested cleanups.  Which results in
5130      confusion when trying to resolve the GIMPLE_WITH_CLEANUP_EXPR.  */
5131   if (errorcount || sorrycount)
5132     return;
5133
5134   if (gimple_conditional_context ())
5135     {
5136       /* If we're in a conditional context, this is more complex.  We only
5137          want to run the cleanup if we actually ran the initialization that
5138          necessitates it, but we want to run it after the end of the
5139          conditional context.  So we wrap the try/finally around the
5140          condition and use a flag to determine whether or not to actually
5141          run the destructor.  Thus
5142
5143            test ? f(A()) : 0
5144
5145          becomes (approximately)
5146
5147            flag = 0;
5148            try {
5149              if (test) { A::A(temp); flag = 1; val = f(temp); }
5150              else { val = 0; }
5151            } finally {
5152              if (flag) A::~A(temp);
5153            }
5154            val
5155       */
5156       tree flag = create_tmp_var (boolean_type_node, "cleanup");
5157       gimple ffalse = gimple_build_assign (flag, boolean_false_node);
5158       gimple ftrue = gimple_build_assign (flag, boolean_true_node);
5159
5160       cleanup = build3 (COND_EXPR, void_type_node, flag, cleanup, NULL);
5161       gimplify_stmt (&cleanup, &cleanup_stmts);
5162       wce = gimple_build_wce (cleanup_stmts);
5163
5164       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, ffalse);
5165       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, wce);
5166       gimplify_seq_add_stmt (pre_p, ftrue);
5167
5168       /* Because of this manipulation, and the EH edges that jump
5169          threading cannot redirect, the temporary (VAR) will appear
5170          to be used uninitialized.  Don't warn.  */
5171       TREE_NO_WARNING (var) = 1;
5172     }
5173   else
5174     {
5175       gimplify_stmt (&cleanup, &cleanup_stmts);
5176       wce = gimple_build_wce (cleanup_stmts);
5177       gimple_wce_set_cleanup_eh_only (wce, eh_only);
5178       gimplify_seq_add_stmt (pre_p, wce);
5179     }
5180 }
5181
5182 /* Gimplify a TARGET_EXPR which doesn't appear on the rhs of an INIT_EXPR.  */
5183
5184 static enum gimplify_status
5185 gimplify_target_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
5186 {
5187   tree targ = *expr_p;
5188   tree temp = TARGET_EXPR_SLOT (targ);
5189   tree init = TARGET_EXPR_INITIAL (targ);
5190   enum gimplify_status ret;
5191
5192   if (init)
5193     {
5194       /* TARGET_EXPR temps aren't part of the enclosing block, so add it
5195          to the temps list.  Handle also variable length TARGET_EXPRs.  */
5196       if (TREE_CODE (DECL_SIZE (temp)) != INTEGER_CST)
5197         {
5198           if (!TYPE_SIZES_GIMPLIFIED (TREE_TYPE (temp)))
5199             gimplify_type_sizes (TREE_TYPE (temp), pre_p);
5200           gimplify_vla_decl (temp, pre_p);
5201         }
5202       else
5203         gimple_add_tmp_var (temp);
5204
5205       /* If TARGET_EXPR_INITIAL is void, then the mere evaluation of the
5206          expression is supposed to initialize the slot.  */
5207       if (VOID_TYPE_P (TREE_TYPE (init)))
5208         ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5209       else
5210         {
5211           tree init_expr = build2 (INIT_EXPR, void_type_node, temp, init);
5212           init = init_expr;
5213           ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5214           init = NULL;
5215           ggc_free (init_expr);
5216         }
5217       if (ret == GS_ERROR)
5218         {
5219           /* PR c++/28266 Make sure this is expanded only once. */
5220           TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5221           return GS_ERROR;
5222         }
5223       if (init)
5224         gimplify_and_add (init, pre_p);
5225
5226       /* If needed, push the cleanup for the temp.  */
5227       if (TARGET_EXPR_CLEANUP (targ))
5228         gimple_push_cleanup (temp, TARGET_EXPR_CLEANUP (targ),
5229                              CLEANUP_EH_ONLY (targ), pre_p);
5230
5231       /* Only expand this once.  */
5232       TREE_OPERAND (targ, 3) = init;
5233       TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5234     }
5235   else
5236     /* We should have expanded this before.  */
5237     gcc_assert (DECL_SEEN_IN_BIND_EXPR_P (temp));
5238
5239   *expr_p = temp;
5240   return GS_OK;
5241 }
5242
5243 /* Gimplification of expression trees.  */
5244
5245 /* Gimplify an expression which appears at statement context.  The
5246    corresponding GIMPLE statements are added to *SEQ_P.  If *SEQ_P is
5247    NULL, a new sequence is allocated.
5248
5249    Return true if we actually added a statement to the queue.  */
5250
5251 bool
5252 gimplify_stmt (tree *stmt_p, gimple_seq *seq_p)
5253 {
5254   gimple_seq_node last;
5255
5256   if (!*seq_p)
5257     *seq_p = gimple_seq_alloc ();
5258
5259   last = gimple_seq_last (*seq_p);
5260   gimplify_expr (stmt_p, seq_p, NULL, is_gimple_stmt, fb_none);
5261   return last != gimple_seq_last (*seq_p);
5262 }
5263
5264
5265 /* Add FIRSTPRIVATE entries for DECL in the OpenMP the surrounding parallels
5266    to CTX.  If entries already exist, force them to be some flavor of private.
5267    If there is no enclosing parallel, do nothing.  */
5268
5269 void
5270 omp_firstprivatize_variable (struct gimplify_omp_ctx *ctx, tree decl)
5271 {
5272   splay_tree_node n;
5273
5274   if (decl == NULL || !DECL_P (decl))
5275     return;
5276
5277   do
5278     {
5279       n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5280       if (n != NULL)
5281         {
5282           if (n->value & GOVD_SHARED)
5283             n->value = GOVD_FIRSTPRIVATE | (n->value & GOVD_SEEN);
5284           else
5285             return;
5286         }
5287       else if (ctx->region_type != ORT_WORKSHARE)
5288         omp_add_variable (ctx, decl, GOVD_FIRSTPRIVATE);
5289
5290       ctx = ctx->outer_context;
5291     }
5292   while (ctx);
5293 }
5294
5295 /* Similarly for each of the type sizes of TYPE.  */
5296
5297 static void
5298 omp_firstprivatize_type_sizes (struct gimplify_omp_ctx *ctx, tree type)
5299 {
5300   if (type == NULL || type == error_mark_node)
5301     return;
5302   type = TYPE_MAIN_VARIANT (type);
5303
5304   if (pointer_set_insert (ctx->privatized_types, type))
5305     return;
5306
5307   switch (TREE_CODE (type))
5308     {
5309     case INTEGER_TYPE:
5310     case ENUMERAL_TYPE:
5311     case BOOLEAN_TYPE:
5312     case REAL_TYPE:
5313     case FIXED_POINT_TYPE:
5314       omp_firstprivatize_variable (ctx, TYPE_MIN_VALUE (type));
5315       omp_firstprivatize_variable (ctx, TYPE_MAX_VALUE (type));
5316       break;
5317
5318     case ARRAY_TYPE:
5319       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5320       omp_firstprivatize_type_sizes (ctx, TYPE_DOMAIN (type));
5321       break;
5322
5323     case RECORD_TYPE:
5324     case UNION_TYPE:
5325     case QUAL_UNION_TYPE:
5326       {
5327         tree field;
5328         for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
5329           if (TREE_CODE (field) == FIELD_DECL)
5330             {
5331               omp_firstprivatize_variable (ctx, DECL_FIELD_OFFSET (field));
5332               omp_firstprivatize_type_sizes (ctx, TREE_TYPE (field));
5333             }
5334       }
5335       break;
5336
5337     case POINTER_TYPE:
5338     case REFERENCE_TYPE:
5339       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5340       break;
5341
5342     default:
5343       break;
5344     }
5345
5346   omp_firstprivatize_variable (ctx, TYPE_SIZE (type));
5347   omp_firstprivatize_variable (ctx, TYPE_SIZE_UNIT (type));
5348   lang_hooks.types.omp_firstprivatize_type_sizes (ctx, type);
5349 }
5350
5351 /* Add an entry for DECL in the OpenMP context CTX with FLAGS.  */
5352
5353 static void
5354 omp_add_variable (struct gimplify_omp_ctx *ctx, tree decl, unsigned int flags)
5355 {
5356   splay_tree_node n;
5357   unsigned int nflags;
5358   tree t;
5359
5360   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5361     return;
5362
5363   /* Never elide decls whose type has TREE_ADDRESSABLE set.  This means
5364      there are constructors involved somewhere.  */
5365   if (TREE_ADDRESSABLE (TREE_TYPE (decl))
5366       || TYPE_NEEDS_CONSTRUCTING (TREE_TYPE (decl)))
5367     flags |= GOVD_SEEN;
5368
5369   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5370   if (n != NULL)
5371     {
5372       /* We shouldn't be re-adding the decl with the same data
5373          sharing class.  */
5374       gcc_assert ((n->value & GOVD_DATA_SHARE_CLASS & flags) == 0);
5375       /* The only combination of data sharing classes we should see is
5376          FIRSTPRIVATE and LASTPRIVATE.  */
5377       nflags = n->value | flags;
5378       gcc_assert ((nflags & GOVD_DATA_SHARE_CLASS)
5379                   == (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE));
5380       n->value = nflags;
5381       return;
5382     }
5383
5384   /* When adding a variable-sized variable, we have to handle all sorts
5385      of additional bits of data: the pointer replacement variable, and
5386      the parameters of the type.  */
5387   if (DECL_SIZE (decl) && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5388     {
5389       /* Add the pointer replacement variable as PRIVATE if the variable
5390          replacement is private, else FIRSTPRIVATE since we'll need the
5391          address of the original variable either for SHARED, or for the
5392          copy into or out of the context.  */
5393       if (!(flags & GOVD_LOCAL))
5394         {
5395           nflags = flags & GOVD_PRIVATE ? GOVD_PRIVATE : GOVD_FIRSTPRIVATE;
5396           nflags |= flags & GOVD_SEEN;
5397           t = DECL_VALUE_EXPR (decl);
5398           gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5399           t = TREE_OPERAND (t, 0);
5400           gcc_assert (DECL_P (t));
5401           omp_add_variable (ctx, t, nflags);
5402         }
5403
5404       /* Add all of the variable and type parameters (which should have
5405          been gimplified to a formal temporary) as FIRSTPRIVATE.  */
5406       omp_firstprivatize_variable (ctx, DECL_SIZE_UNIT (decl));
5407       omp_firstprivatize_variable (ctx, DECL_SIZE (decl));
5408       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5409
5410       /* The variable-sized variable itself is never SHARED, only some form
5411          of PRIVATE.  The sharing would take place via the pointer variable
5412          which we remapped above.  */
5413       if (flags & GOVD_SHARED)
5414         flags = GOVD_PRIVATE | GOVD_DEBUG_PRIVATE
5415                 | (flags & (GOVD_SEEN | GOVD_EXPLICIT));
5416
5417       /* We're going to make use of the TYPE_SIZE_UNIT at least in the
5418          alloca statement we generate for the variable, so make sure it
5419          is available.  This isn't automatically needed for the SHARED
5420          case, since we won't be allocating local storage then.
5421          For local variables TYPE_SIZE_UNIT might not be gimplified yet,
5422          in this case omp_notice_variable will be called later
5423          on when it is gimplified.  */
5424       else if (! (flags & GOVD_LOCAL))
5425         omp_notice_variable (ctx, TYPE_SIZE_UNIT (TREE_TYPE (decl)), true);
5426     }
5427   else if (lang_hooks.decls.omp_privatize_by_reference (decl))
5428     {
5429       gcc_assert ((flags & GOVD_LOCAL) == 0);
5430       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5431
5432       /* Similar to the direct variable sized case above, we'll need the
5433          size of references being privatized.  */
5434       if ((flags & GOVD_SHARED) == 0)
5435         {
5436           t = TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (decl)));
5437           if (TREE_CODE (t) != INTEGER_CST)
5438             omp_notice_variable (ctx, t, true);
5439         }
5440     }
5441
5442   splay_tree_insert (ctx->variables, (splay_tree_key)decl, flags);
5443 }
5444
5445 /* Record the fact that DECL was used within the OpenMP context CTX.
5446    IN_CODE is true when real code uses DECL, and false when we should
5447    merely emit default(none) errors.  Return true if DECL is going to
5448    be remapped and thus DECL shouldn't be gimplified into its
5449    DECL_VALUE_EXPR (if any).  */
5450
5451 static bool
5452 omp_notice_variable (struct gimplify_omp_ctx *ctx, tree decl, bool in_code)
5453 {
5454   splay_tree_node n;
5455   unsigned flags = in_code ? GOVD_SEEN : 0;
5456   bool ret = false, shared;
5457
5458   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5459     return false;
5460
5461   /* Threadprivate variables are predetermined.  */
5462   if (is_global_var (decl))
5463     {
5464       if (DECL_THREAD_LOCAL_P (decl))
5465         return false;
5466
5467       if (DECL_HAS_VALUE_EXPR_P (decl))
5468         {
5469           tree value = get_base_address (DECL_VALUE_EXPR (decl));
5470
5471           if (value && DECL_P (value) && DECL_THREAD_LOCAL_P (value))
5472             return false;
5473         }
5474     }
5475
5476   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5477   if (n == NULL)
5478     {
5479       enum omp_clause_default_kind default_kind, kind;
5480       struct gimplify_omp_ctx *octx;
5481
5482       if (ctx->region_type == ORT_WORKSHARE)
5483         goto do_outer;
5484
5485       /* ??? Some compiler-generated variables (like SAVE_EXPRs) could be
5486          remapped firstprivate instead of shared.  To some extent this is
5487          addressed in omp_firstprivatize_type_sizes, but not effectively.  */
5488       default_kind = ctx->default_kind;
5489       kind = lang_hooks.decls.omp_predetermined_sharing (decl);
5490       if (kind != OMP_CLAUSE_DEFAULT_UNSPECIFIED)
5491         default_kind = kind;
5492
5493       switch (default_kind)
5494         {
5495         case OMP_CLAUSE_DEFAULT_NONE:
5496           error ("%qE not specified in enclosing parallel",
5497                  DECL_NAME (decl));
5498           error_at (ctx->location, "enclosing parallel");
5499           /* FALLTHRU */
5500         case OMP_CLAUSE_DEFAULT_SHARED:
5501           flags |= GOVD_SHARED;
5502           break;
5503         case OMP_CLAUSE_DEFAULT_PRIVATE:
5504           flags |= GOVD_PRIVATE;
5505           break;
5506         case OMP_CLAUSE_DEFAULT_FIRSTPRIVATE:
5507           flags |= GOVD_FIRSTPRIVATE;
5508           break;
5509         case OMP_CLAUSE_DEFAULT_UNSPECIFIED:
5510           /* decl will be either GOVD_FIRSTPRIVATE or GOVD_SHARED.  */
5511           gcc_assert (ctx->region_type == ORT_TASK);
5512           if (ctx->outer_context)
5513             omp_notice_variable (ctx->outer_context, decl, in_code);
5514           for (octx = ctx->outer_context; octx; octx = octx->outer_context)
5515             {
5516               splay_tree_node n2;
5517
5518               n2 = splay_tree_lookup (octx->variables, (splay_tree_key) decl);
5519               if (n2 && (n2->value & GOVD_DATA_SHARE_CLASS) != GOVD_SHARED)
5520                 {
5521                   flags |= GOVD_FIRSTPRIVATE;
5522                   break;
5523                 }
5524               if ((octx->region_type & ORT_PARALLEL) != 0)
5525                 break;
5526             }
5527           if (flags & GOVD_FIRSTPRIVATE)
5528             break;
5529           if (octx == NULL
5530               && (TREE_CODE (decl) == PARM_DECL
5531                   || (!is_global_var (decl)
5532                       && DECL_CONTEXT (decl) == current_function_decl)))
5533             {
5534               flags |= GOVD_FIRSTPRIVATE;
5535               break;
5536             }
5537           flags |= GOVD_SHARED;
5538           break;
5539         default:
5540           gcc_unreachable ();
5541         }
5542
5543       if ((flags & GOVD_PRIVATE)
5544           && lang_hooks.decls.omp_private_outer_ref (decl))
5545         flags |= GOVD_PRIVATE_OUTER_REF;
5546
5547       omp_add_variable (ctx, decl, flags);
5548
5549       shared = (flags & GOVD_SHARED) != 0;
5550       ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5551       goto do_outer;
5552     }
5553
5554   if ((n->value & (GOVD_SEEN | GOVD_LOCAL)) == 0
5555       && (flags & (GOVD_SEEN | GOVD_LOCAL)) == GOVD_SEEN
5556       && DECL_SIZE (decl)
5557       && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5558     {
5559       splay_tree_node n2;
5560       tree t = DECL_VALUE_EXPR (decl);
5561       gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5562       t = TREE_OPERAND (t, 0);
5563       gcc_assert (DECL_P (t));
5564       n2 = splay_tree_lookup (ctx->variables, (splay_tree_key) t);
5565       n2->value |= GOVD_SEEN;
5566     }
5567
5568   shared = ((flags | n->value) & GOVD_SHARED) != 0;
5569   ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5570
5571   /* If nothing changed, there's nothing left to do.  */
5572   if ((n->value & flags) == flags)
5573     return ret;
5574   flags |= n->value;
5575   n->value = flags;
5576
5577  do_outer:
5578   /* If the variable is private in the current context, then we don't
5579      need to propagate anything to an outer context.  */
5580   if ((flags & GOVD_PRIVATE) && !(flags & GOVD_PRIVATE_OUTER_REF))
5581     return ret;
5582   if (ctx->outer_context
5583       && omp_notice_variable (ctx->outer_context, decl, in_code))
5584     return true;
5585   return ret;
5586 }
5587
5588 /* Verify that DECL is private within CTX.  If there's specific information
5589    to the contrary in the innermost scope, generate an error.  */
5590
5591 static bool
5592 omp_is_private (struct gimplify_omp_ctx *ctx, tree decl)
5593 {
5594   splay_tree_node n;
5595
5596   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5597   if (n != NULL)
5598     {
5599       if (n->value & GOVD_SHARED)
5600         {
5601           if (ctx == gimplify_omp_ctxp)
5602             {
5603               error ("iteration variable %qE should be private",
5604                      DECL_NAME (decl));
5605               n->value = GOVD_PRIVATE;
5606               return true;
5607             }
5608           else
5609             return false;
5610         }
5611       else if ((n->value & GOVD_EXPLICIT) != 0
5612                && (ctx == gimplify_omp_ctxp
5613                    || (ctx->region_type == ORT_COMBINED_PARALLEL
5614                        && gimplify_omp_ctxp->outer_context == ctx)))
5615         {
5616           if ((n->value & GOVD_FIRSTPRIVATE) != 0)
5617             error ("iteration variable %qE should not be firstprivate",
5618                    DECL_NAME (decl));
5619           else if ((n->value & GOVD_REDUCTION) != 0)
5620             error ("iteration variable %qE should not be reduction",
5621                    DECL_NAME (decl));
5622         }
5623       return (ctx == gimplify_omp_ctxp
5624               || (ctx->region_type == ORT_COMBINED_PARALLEL
5625                   && gimplify_omp_ctxp->outer_context == ctx));
5626     }
5627
5628   if (ctx->region_type != ORT_WORKSHARE)
5629     return false;
5630   else if (ctx->outer_context)
5631     return omp_is_private (ctx->outer_context, decl);
5632   return false;
5633 }
5634
5635 /* Return true if DECL is private within a parallel region
5636    that binds to the current construct's context or in parallel
5637    region's REDUCTION clause.  */
5638
5639 static bool
5640 omp_check_private (struct gimplify_omp_ctx *ctx, tree decl)
5641 {
5642   splay_tree_node n;
5643
5644   do
5645     {
5646       ctx = ctx->outer_context;
5647       if (ctx == NULL)
5648         return !(is_global_var (decl)
5649                  /* References might be private, but might be shared too.  */
5650                  || lang_hooks.decls.omp_privatize_by_reference (decl));
5651
5652       n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5653       if (n != NULL)
5654         return (n->value & GOVD_SHARED) == 0;
5655     }
5656   while (ctx->region_type == ORT_WORKSHARE);
5657   return false;
5658 }
5659
5660 /* Scan the OpenMP clauses in *LIST_P, installing mappings into a new
5661    and previous omp contexts.  */
5662
5663 static void
5664 gimplify_scan_omp_clauses (tree *list_p, gimple_seq *pre_p,
5665                            enum omp_region_type region_type)
5666 {
5667   struct gimplify_omp_ctx *ctx, *outer_ctx;
5668   struct gimplify_ctx gctx;
5669   tree c;
5670
5671   ctx = new_omp_context (region_type);
5672   outer_ctx = ctx->outer_context;
5673
5674   while ((c = *list_p) != NULL)
5675     {
5676       bool remove = false;
5677       bool notice_outer = true;
5678       const char *check_non_private = NULL;
5679       unsigned int flags;
5680       tree decl;
5681
5682       switch (OMP_CLAUSE_CODE (c))
5683         {
5684         case OMP_CLAUSE_PRIVATE:
5685           flags = GOVD_PRIVATE | GOVD_EXPLICIT;
5686           if (lang_hooks.decls.omp_private_outer_ref (OMP_CLAUSE_DECL (c)))
5687             {
5688               flags |= GOVD_PRIVATE_OUTER_REF;
5689               OMP_CLAUSE_PRIVATE_OUTER_REF (c) = 1;
5690             }
5691           else
5692             notice_outer = false;
5693           goto do_add;
5694         case OMP_CLAUSE_SHARED:
5695           flags = GOVD_SHARED | GOVD_EXPLICIT;
5696           goto do_add;
5697         case OMP_CLAUSE_FIRSTPRIVATE:
5698           flags = GOVD_FIRSTPRIVATE | GOVD_EXPLICIT;
5699           check_non_private = "firstprivate";
5700           goto do_add;
5701         case OMP_CLAUSE_LASTPRIVATE:
5702           flags = GOVD_LASTPRIVATE | GOVD_SEEN | GOVD_EXPLICIT;
5703           check_non_private = "lastprivate";
5704           goto do_add;
5705         case OMP_CLAUSE_REDUCTION:
5706           flags = GOVD_REDUCTION | GOVD_SEEN | GOVD_EXPLICIT;
5707           check_non_private = "reduction";
5708           goto do_add;
5709
5710         do_add:
5711           decl = OMP_CLAUSE_DECL (c);
5712           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5713             {
5714               remove = true;
5715               break;
5716             }
5717           omp_add_variable (ctx, decl, flags);
5718           if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_REDUCTION
5719               && OMP_CLAUSE_REDUCTION_PLACEHOLDER (c))
5720             {
5721               omp_add_variable (ctx, OMP_CLAUSE_REDUCTION_PLACEHOLDER (c),
5722                                 GOVD_LOCAL | GOVD_SEEN);
5723               gimplify_omp_ctxp = ctx;
5724               push_gimplify_context (&gctx);
5725
5726               OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c) = gimple_seq_alloc ();
5727               OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c) = gimple_seq_alloc ();
5728
5729               gimplify_and_add (OMP_CLAUSE_REDUCTION_INIT (c),
5730                                 &OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c));
5731               pop_gimplify_context
5732                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c)));
5733               push_gimplify_context (&gctx);
5734               gimplify_and_add (OMP_CLAUSE_REDUCTION_MERGE (c),
5735                                 &OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c));
5736               pop_gimplify_context
5737                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c)));
5738               OMP_CLAUSE_REDUCTION_INIT (c) = NULL_TREE;
5739               OMP_CLAUSE_REDUCTION_MERGE (c) = NULL_TREE;
5740
5741               gimplify_omp_ctxp = outer_ctx;
5742             }
5743           else if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
5744                    && OMP_CLAUSE_LASTPRIVATE_STMT (c))
5745             {
5746               gimplify_omp_ctxp = ctx;
5747               push_gimplify_context (&gctx);
5748               if (TREE_CODE (OMP_CLAUSE_LASTPRIVATE_STMT (c)) != BIND_EXPR)
5749                 {
5750                   tree bind = build3 (BIND_EXPR, void_type_node, NULL,
5751                                       NULL, NULL);
5752                   TREE_SIDE_EFFECTS (bind) = 1;
5753                   BIND_EXPR_BODY (bind) = OMP_CLAUSE_LASTPRIVATE_STMT (c);
5754                   OMP_CLAUSE_LASTPRIVATE_STMT (c) = bind;
5755                 }
5756               gimplify_and_add (OMP_CLAUSE_LASTPRIVATE_STMT (c),
5757                                 &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
5758               pop_gimplify_context
5759                 (gimple_seq_first_stmt (OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c)));
5760               OMP_CLAUSE_LASTPRIVATE_STMT (c) = NULL_TREE;
5761
5762               gimplify_omp_ctxp = outer_ctx;
5763             }
5764           if (notice_outer)
5765             goto do_notice;
5766           break;
5767
5768         case OMP_CLAUSE_COPYIN:
5769         case OMP_CLAUSE_COPYPRIVATE:
5770           decl = OMP_CLAUSE_DECL (c);
5771           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5772             {
5773               remove = true;
5774               break;
5775             }
5776         do_notice:
5777           if (outer_ctx)
5778             omp_notice_variable (outer_ctx, decl, true);
5779           if (check_non_private
5780               && region_type == ORT_WORKSHARE
5781               && omp_check_private (ctx, decl))
5782             {
5783               error ("%s variable %qE is private in outer context",
5784                      check_non_private, DECL_NAME (decl));
5785               remove = true;
5786             }
5787           break;
5788
5789         case OMP_CLAUSE_IF:
5790           OMP_CLAUSE_OPERAND (c, 0)
5791             = gimple_boolify (OMP_CLAUSE_OPERAND (c, 0));
5792           /* Fall through.  */
5793
5794         case OMP_CLAUSE_SCHEDULE:
5795         case OMP_CLAUSE_NUM_THREADS:
5796           if (gimplify_expr (&OMP_CLAUSE_OPERAND (c, 0), pre_p, NULL,
5797                              is_gimple_val, fb_rvalue) == GS_ERROR)
5798               remove = true;
5799           break;
5800
5801         case OMP_CLAUSE_NOWAIT:
5802         case OMP_CLAUSE_ORDERED:
5803         case OMP_CLAUSE_UNTIED:
5804         case OMP_CLAUSE_COLLAPSE:
5805           break;
5806
5807         case OMP_CLAUSE_DEFAULT:
5808           ctx->default_kind = OMP_CLAUSE_DEFAULT_KIND (c);
5809           break;
5810
5811         default:
5812           gcc_unreachable ();
5813         }
5814
5815       if (remove)
5816         *list_p = OMP_CLAUSE_CHAIN (c);
5817       else
5818         list_p = &OMP_CLAUSE_CHAIN (c);
5819     }
5820
5821   gimplify_omp_ctxp = ctx;
5822 }
5823
5824 /* For all variables that were not actually used within the context,
5825    remove PRIVATE, SHARED, and FIRSTPRIVATE clauses.  */
5826
5827 static int
5828 gimplify_adjust_omp_clauses_1 (splay_tree_node n, void *data)
5829 {
5830   tree *list_p = (tree *) data;
5831   tree decl = (tree) n->key;
5832   unsigned flags = n->value;
5833   enum omp_clause_code code;
5834   tree clause;
5835   bool private_debug;
5836
5837   if (flags & (GOVD_EXPLICIT | GOVD_LOCAL))
5838     return 0;
5839   if ((flags & GOVD_SEEN) == 0)
5840     return 0;
5841   if (flags & GOVD_DEBUG_PRIVATE)
5842     {
5843       gcc_assert ((flags & GOVD_DATA_SHARE_CLASS) == GOVD_PRIVATE);
5844       private_debug = true;
5845     }
5846   else
5847     private_debug
5848       = lang_hooks.decls.omp_private_debug_clause (decl,
5849                                                    !!(flags & GOVD_SHARED));
5850   if (private_debug)
5851     code = OMP_CLAUSE_PRIVATE;
5852   else if (flags & GOVD_SHARED)
5853     {
5854       if (is_global_var (decl))
5855         {
5856           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp->outer_context;
5857           while (ctx != NULL)
5858             {
5859               splay_tree_node on
5860                 = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5861               if (on && (on->value & (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE
5862                                       | GOVD_PRIVATE | GOVD_REDUCTION)) != 0)
5863                 break;
5864               ctx = ctx->outer_context;
5865             }
5866           if (ctx == NULL)
5867             return 0;
5868         }
5869       code = OMP_CLAUSE_SHARED;
5870     }
5871   else if (flags & GOVD_PRIVATE)
5872     code = OMP_CLAUSE_PRIVATE;
5873   else if (flags & GOVD_FIRSTPRIVATE)
5874     code = OMP_CLAUSE_FIRSTPRIVATE;
5875   else
5876     gcc_unreachable ();
5877
5878   clause = build_omp_clause (input_location, code);
5879   OMP_CLAUSE_DECL (clause) = decl;
5880   OMP_CLAUSE_CHAIN (clause) = *list_p;
5881   if (private_debug)
5882     OMP_CLAUSE_PRIVATE_DEBUG (clause) = 1;
5883   else if (code == OMP_CLAUSE_PRIVATE && (flags & GOVD_PRIVATE_OUTER_REF))
5884     OMP_CLAUSE_PRIVATE_OUTER_REF (clause) = 1;
5885   *list_p = clause;
5886   lang_hooks.decls.omp_finish_clause (clause);
5887
5888   return 0;
5889 }
5890
5891 static void
5892 gimplify_adjust_omp_clauses (tree *list_p)
5893 {
5894   struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
5895   tree c, decl;
5896
5897   while ((c = *list_p) != NULL)
5898     {
5899       splay_tree_node n;
5900       bool remove = false;
5901
5902       switch (OMP_CLAUSE_CODE (c))
5903         {
5904         case OMP_CLAUSE_PRIVATE:
5905         case OMP_CLAUSE_SHARED:
5906         case OMP_CLAUSE_FIRSTPRIVATE:
5907           decl = OMP_CLAUSE_DECL (c);
5908           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5909           remove = !(n->value & GOVD_SEEN);
5910           if (! remove)
5911             {
5912               bool shared = OMP_CLAUSE_CODE (c) == OMP_CLAUSE_SHARED;
5913               if ((n->value & GOVD_DEBUG_PRIVATE)
5914                   || lang_hooks.decls.omp_private_debug_clause (decl, shared))
5915                 {
5916                   gcc_assert ((n->value & GOVD_DEBUG_PRIVATE) == 0
5917                               || ((n->value & GOVD_DATA_SHARE_CLASS)
5918                                   == GOVD_PRIVATE));
5919                   OMP_CLAUSE_SET_CODE (c, OMP_CLAUSE_PRIVATE);
5920                   OMP_CLAUSE_PRIVATE_DEBUG (c) = 1;
5921                 }
5922             }
5923           break;
5924
5925         case OMP_CLAUSE_LASTPRIVATE:
5926           /* Make sure OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE is set to
5927              accurately reflect the presence of a FIRSTPRIVATE clause.  */
5928           decl = OMP_CLAUSE_DECL (c);
5929           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5930           OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE (c)
5931             = (n->value & GOVD_FIRSTPRIVATE) != 0;
5932           break;
5933
5934         case OMP_CLAUSE_REDUCTION:
5935         case OMP_CLAUSE_COPYIN:
5936         case OMP_CLAUSE_COPYPRIVATE:
5937         case OMP_CLAUSE_IF:
5938         case OMP_CLAUSE_NUM_THREADS:
5939         case OMP_CLAUSE_SCHEDULE:
5940         case OMP_CLAUSE_NOWAIT:
5941         case OMP_CLAUSE_ORDERED:
5942         case OMP_CLAUSE_DEFAULT:
5943         case OMP_CLAUSE_UNTIED:
5944         case OMP_CLAUSE_COLLAPSE:
5945           break;
5946
5947         default:
5948           gcc_unreachable ();
5949         }
5950
5951       if (remove)
5952         *list_p = OMP_CLAUSE_CHAIN (c);
5953       else
5954         list_p = &OMP_CLAUSE_CHAIN (c);
5955     }
5956
5957   /* Add in any implicit data sharing.  */
5958   splay_tree_foreach (ctx->variables, gimplify_adjust_omp_clauses_1, list_p);
5959
5960   gimplify_omp_ctxp = ctx->outer_context;
5961   delete_omp_context (ctx);
5962 }
5963
5964 /* Gimplify the contents of an OMP_PARALLEL statement.  This involves
5965    gimplification of the body, as well as scanning the body for used
5966    variables.  We need to do this scan now, because variable-sized
5967    decls will be decomposed during gimplification.  */
5968
5969 static void
5970 gimplify_omp_parallel (tree *expr_p, gimple_seq *pre_p)
5971 {
5972   tree expr = *expr_p;
5973   gimple g;
5974   gimple_seq body = NULL;
5975   struct gimplify_ctx gctx;
5976
5977   gimplify_scan_omp_clauses (&OMP_PARALLEL_CLAUSES (expr), pre_p,
5978                              OMP_PARALLEL_COMBINED (expr)
5979                              ? ORT_COMBINED_PARALLEL
5980                              : ORT_PARALLEL);
5981
5982   push_gimplify_context (&gctx);
5983
5984   g = gimplify_and_return_first (OMP_PARALLEL_BODY (expr), &body);
5985   if (gimple_code (g) == GIMPLE_BIND)
5986     pop_gimplify_context (g);
5987   else
5988     pop_gimplify_context (NULL);
5989
5990   gimplify_adjust_omp_clauses (&OMP_PARALLEL_CLAUSES (expr));
5991
5992   g = gimple_build_omp_parallel (body,
5993                                  OMP_PARALLEL_CLAUSES (expr),
5994                                  NULL_TREE, NULL_TREE);
5995   if (OMP_PARALLEL_COMBINED (expr))
5996     gimple_omp_set_subcode (g, GF_OMP_PARALLEL_COMBINED);
5997   gimplify_seq_add_stmt (pre_p, g);
5998   *expr_p = NULL_TREE;
5999 }
6000
6001 /* Gimplify the contents of an OMP_TASK statement.  This involves
6002    gimplification of the body, as well as scanning the body for used
6003    variables.  We need to do this scan now, because variable-sized
6004    decls will be decomposed during gimplification.  */
6005
6006 static void
6007 gimplify_omp_task (tree *expr_p, gimple_seq *pre_p)
6008 {
6009   tree expr = *expr_p;
6010   gimple g;
6011   gimple_seq body = NULL;
6012   struct gimplify_ctx gctx;
6013
6014   gimplify_scan_omp_clauses (&OMP_TASK_CLAUSES (expr), pre_p, ORT_TASK);
6015
6016   push_gimplify_context (&gctx);
6017
6018   g = gimplify_and_return_first (OMP_TASK_BODY (expr), &body);
6019   if (gimple_code (g) == GIMPLE_BIND)
6020     pop_gimplify_context (g);
6021   else
6022     pop_gimplify_context (NULL);
6023
6024   gimplify_adjust_omp_clauses (&OMP_TASK_CLAUSES (expr));
6025
6026   g = gimple_build_omp_task (body,
6027                              OMP_TASK_CLAUSES (expr),
6028                              NULL_TREE, NULL_TREE,
6029                              NULL_TREE, NULL_TREE, NULL_TREE);
6030   gimplify_seq_add_stmt (pre_p, g);
6031   *expr_p = NULL_TREE;
6032 }
6033
6034 /* Gimplify the gross structure of an OMP_FOR statement.  */
6035
6036 static enum gimplify_status
6037 gimplify_omp_for (tree *expr_p, gimple_seq *pre_p)
6038 {
6039   tree for_stmt, decl, var, t;
6040   enum gimplify_status ret = GS_ALL_DONE;
6041   enum gimplify_status tret;
6042   gimple gfor;
6043   gimple_seq for_body, for_pre_body;
6044   int i;
6045
6046   for_stmt = *expr_p;
6047
6048   gimplify_scan_omp_clauses (&OMP_FOR_CLAUSES (for_stmt), pre_p,
6049                              ORT_WORKSHARE);
6050
6051   /* Handle OMP_FOR_INIT.  */
6052   for_pre_body = NULL;
6053   gimplify_and_add (OMP_FOR_PRE_BODY (for_stmt), &for_pre_body);
6054   OMP_FOR_PRE_BODY (for_stmt) = NULL_TREE;
6055
6056   for_body = gimple_seq_alloc ();
6057   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6058               == TREE_VEC_LENGTH (OMP_FOR_COND (for_stmt)));
6059   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6060               == TREE_VEC_LENGTH (OMP_FOR_INCR (for_stmt)));
6061   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6062     {
6063       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6064       gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6065       decl = TREE_OPERAND (t, 0);
6066       gcc_assert (DECL_P (decl));
6067       gcc_assert (INTEGRAL_TYPE_P (TREE_TYPE (decl))
6068                   || POINTER_TYPE_P (TREE_TYPE (decl)));
6069
6070       /* Make sure the iteration variable is private.  */
6071       if (omp_is_private (gimplify_omp_ctxp, decl))
6072         omp_notice_variable (gimplify_omp_ctxp, decl, true);
6073       else
6074         omp_add_variable (gimplify_omp_ctxp, decl, GOVD_PRIVATE | GOVD_SEEN);
6075
6076       /* If DECL is not a gimple register, create a temporary variable to act
6077          as an iteration counter.  This is valid, since DECL cannot be
6078          modified in the body of the loop.  */
6079       if (!is_gimple_reg (decl))
6080         {
6081           var = create_tmp_var (TREE_TYPE (decl), get_name (decl));
6082           TREE_OPERAND (t, 0) = var;
6083
6084           gimplify_seq_add_stmt (&for_body, gimple_build_assign (decl, var));
6085
6086           omp_add_variable (gimplify_omp_ctxp, var, GOVD_PRIVATE | GOVD_SEEN);
6087         }
6088       else
6089         var = decl;
6090
6091       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6092                             is_gimple_val, fb_rvalue);
6093       ret = MIN (ret, tret);
6094       if (ret == GS_ERROR)
6095         return ret;
6096
6097       /* Handle OMP_FOR_COND.  */
6098       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6099       gcc_assert (COMPARISON_CLASS_P (t));
6100       gcc_assert (TREE_OPERAND (t, 0) == decl);
6101
6102       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6103                             is_gimple_val, fb_rvalue);
6104       ret = MIN (ret, tret);
6105
6106       /* Handle OMP_FOR_INCR.  */
6107       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6108       switch (TREE_CODE (t))
6109         {
6110         case PREINCREMENT_EXPR:
6111         case POSTINCREMENT_EXPR:
6112           t = build_int_cst (TREE_TYPE (decl), 1);
6113           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6114           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6115           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6116           break;
6117
6118         case PREDECREMENT_EXPR:
6119         case POSTDECREMENT_EXPR:
6120           t = build_int_cst (TREE_TYPE (decl), -1);
6121           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6122           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6123           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6124           break;
6125
6126         case MODIFY_EXPR:
6127           gcc_assert (TREE_OPERAND (t, 0) == decl);
6128           TREE_OPERAND (t, 0) = var;
6129
6130           t = TREE_OPERAND (t, 1);
6131           switch (TREE_CODE (t))
6132             {
6133             case PLUS_EXPR:
6134               if (TREE_OPERAND (t, 1) == decl)
6135                 {
6136                   TREE_OPERAND (t, 1) = TREE_OPERAND (t, 0);
6137                   TREE_OPERAND (t, 0) = var;
6138                   break;
6139                 }
6140
6141               /* Fallthru.  */
6142             case MINUS_EXPR:
6143             case POINTER_PLUS_EXPR:
6144               gcc_assert (TREE_OPERAND (t, 0) == decl);
6145               TREE_OPERAND (t, 0) = var;
6146               break;
6147             default:
6148               gcc_unreachable ();
6149             }
6150
6151           tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6152                                 is_gimple_val, fb_rvalue);
6153           ret = MIN (ret, tret);
6154           break;
6155
6156         default:
6157           gcc_unreachable ();
6158         }
6159
6160       if (var != decl || TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)) > 1)
6161         {
6162           tree c;
6163           for (c = OMP_FOR_CLAUSES (for_stmt); c ; c = OMP_CLAUSE_CHAIN (c))
6164             if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
6165                 && OMP_CLAUSE_DECL (c) == decl
6166                 && OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c) == NULL)
6167               {
6168                 t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6169                 gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6170                 gcc_assert (TREE_OPERAND (t, 0) == var);
6171                 t = TREE_OPERAND (t, 1);
6172                 gcc_assert (TREE_CODE (t) == PLUS_EXPR
6173                             || TREE_CODE (t) == MINUS_EXPR
6174                             || TREE_CODE (t) == POINTER_PLUS_EXPR);
6175                 gcc_assert (TREE_OPERAND (t, 0) == var);
6176                 t = build2 (TREE_CODE (t), TREE_TYPE (decl), decl,
6177                             TREE_OPERAND (t, 1));
6178                 gimplify_assign (decl, t,
6179                                  &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
6180             }
6181         }
6182     }
6183
6184   gimplify_and_add (OMP_FOR_BODY (for_stmt), &for_body);
6185
6186   gimplify_adjust_omp_clauses (&OMP_FOR_CLAUSES (for_stmt));
6187
6188   gfor = gimple_build_omp_for (for_body, OMP_FOR_CLAUSES (for_stmt),
6189                                TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)),
6190                                for_pre_body);
6191
6192   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6193     {
6194       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6195       gimple_omp_for_set_index (gfor, i, TREE_OPERAND (t, 0));
6196       gimple_omp_for_set_initial (gfor, i, TREE_OPERAND (t, 1));
6197       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6198       gimple_omp_for_set_cond (gfor, i, TREE_CODE (t));
6199       gimple_omp_for_set_final (gfor, i, TREE_OPERAND (t, 1));
6200       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6201       gimple_omp_for_set_incr (gfor, i, TREE_OPERAND (t, 1));
6202     }
6203
6204   gimplify_seq_add_stmt (pre_p, gfor);
6205   return ret == GS_ALL_DONE ? GS_ALL_DONE : GS_ERROR;
6206 }
6207
6208 /* Gimplify the gross structure of other OpenMP worksharing constructs.
6209    In particular, OMP_SECTIONS and OMP_SINGLE.  */
6210
6211 static void
6212 gimplify_omp_workshare (tree *expr_p, gimple_seq *pre_p)
6213 {
6214   tree expr = *expr_p;
6215   gimple stmt;
6216   gimple_seq body = NULL;
6217
6218   gimplify_scan_omp_clauses (&OMP_CLAUSES (expr), pre_p, ORT_WORKSHARE);
6219   gimplify_and_add (OMP_BODY (expr), &body);
6220   gimplify_adjust_omp_clauses (&OMP_CLAUSES (expr));
6221
6222   if (TREE_CODE (expr) == OMP_SECTIONS)
6223     stmt = gimple_build_omp_sections (body, OMP_CLAUSES (expr));
6224   else if (TREE_CODE (expr) == OMP_SINGLE)
6225     stmt = gimple_build_omp_single (body, OMP_CLAUSES (expr));
6226   else
6227     gcc_unreachable ();
6228
6229   gimplify_seq_add_stmt (pre_p, stmt);
6230 }
6231
6232 /* A subroutine of gimplify_omp_atomic.  The front end is supposed to have
6233    stabilized the lhs of the atomic operation as *ADDR.  Return true if
6234    EXPR is this stabilized form.  */
6235
6236 static bool
6237 goa_lhs_expr_p (tree expr, tree addr)
6238 {
6239   /* Also include casts to other type variants.  The C front end is fond
6240      of adding these for e.g. volatile variables.  This is like
6241      STRIP_TYPE_NOPS but includes the main variant lookup.  */
6242   STRIP_USELESS_TYPE_CONVERSION (expr);
6243
6244   if (TREE_CODE (expr) == INDIRECT_REF)
6245     {
6246       expr = TREE_OPERAND (expr, 0);
6247       while (expr != addr
6248              && (CONVERT_EXPR_P (expr)
6249                  || TREE_CODE (expr) == NON_LVALUE_EXPR)
6250              && TREE_CODE (expr) == TREE_CODE (addr)
6251              && types_compatible_p (TREE_TYPE (expr), TREE_TYPE (addr)))
6252         {
6253           expr = TREE_OPERAND (expr, 0);
6254           addr = TREE_OPERAND (addr, 0);
6255         }
6256       if (expr == addr)
6257         return true;
6258       return (TREE_CODE (addr) == ADDR_EXPR
6259               && TREE_CODE (expr) == ADDR_EXPR
6260               && TREE_OPERAND (addr, 0) == TREE_OPERAND (expr, 0));
6261     }
6262   if (TREE_CODE (addr) == ADDR_EXPR && expr == TREE_OPERAND (addr, 0))
6263     return true;
6264   return false;
6265 }
6266
6267 /* Walk *EXPR_P and replace
6268    appearances of *LHS_ADDR with LHS_VAR.  If an expression does not involve
6269    the lhs, evaluate it into a temporary.  Return 1 if the lhs appeared as
6270    a subexpression, 0 if it did not, or -1 if an error was encountered.  */
6271
6272 static int
6273 goa_stabilize_expr (tree *expr_p, gimple_seq *pre_p, tree lhs_addr,
6274                     tree lhs_var)
6275 {
6276   tree expr = *expr_p;
6277   int saw_lhs;
6278
6279   if (goa_lhs_expr_p (expr, lhs_addr))
6280     {
6281       *expr_p = lhs_var;
6282       return 1;
6283     }
6284   if (is_gimple_val (expr))
6285     return 0;
6286
6287   saw_lhs = 0;
6288   switch (TREE_CODE_CLASS (TREE_CODE (expr)))
6289     {
6290     case tcc_binary:
6291     case tcc_comparison:
6292       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p, lhs_addr,
6293                                      lhs_var);
6294     case tcc_unary:
6295       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p, lhs_addr,
6296                                      lhs_var);
6297       break;
6298     case tcc_expression:
6299       switch (TREE_CODE (expr))
6300         {
6301         case TRUTH_ANDIF_EXPR:
6302         case TRUTH_ORIF_EXPR:
6303           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p,
6304                                          lhs_addr, lhs_var);
6305           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p,
6306                                          lhs_addr, lhs_var);
6307           break;
6308         default:
6309           break;
6310         }
6311       break;
6312     default:
6313       break;
6314     }
6315
6316   if (saw_lhs == 0)
6317     {
6318       enum gimplify_status gs;
6319       gs = gimplify_expr (expr_p, pre_p, NULL, is_gimple_val, fb_rvalue);
6320       if (gs != GS_ALL_DONE)
6321         saw_lhs = -1;
6322     }
6323
6324   return saw_lhs;
6325 }
6326
6327
6328 /* Gimplify an OMP_ATOMIC statement.  */
6329
6330 static enum gimplify_status
6331 gimplify_omp_atomic (tree *expr_p, gimple_seq *pre_p)
6332 {
6333   tree addr = TREE_OPERAND (*expr_p, 0);
6334   tree rhs = TREE_OPERAND (*expr_p, 1);
6335   tree type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (addr)));
6336   tree tmp_load;
6337
6338    tmp_load = create_tmp_var (type, NULL);
6339    if (TREE_CODE (type) == COMPLEX_TYPE || TREE_CODE (type) == VECTOR_TYPE)
6340      DECL_GIMPLE_REG_P (tmp_load) = 1;
6341    if (goa_stabilize_expr (&rhs, pre_p, addr, tmp_load) < 0)
6342      return GS_ERROR;
6343
6344    if (gimplify_expr (&addr, pre_p, NULL, is_gimple_val, fb_rvalue)
6345        != GS_ALL_DONE)
6346      return GS_ERROR;
6347
6348    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_load (tmp_load, addr));
6349    if (gimplify_expr (&rhs, pre_p, NULL, is_gimple_val, fb_rvalue)
6350        != GS_ALL_DONE)
6351      return GS_ERROR;
6352    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_store (rhs));
6353    *expr_p = NULL;
6354
6355    return GS_ALL_DONE;
6356 }
6357
6358
6359 /* Converts the GENERIC expression tree *EXPR_P to GIMPLE.  If the
6360    expression produces a value to be used as an operand inside a GIMPLE
6361    statement, the value will be stored back in *EXPR_P.  This value will
6362    be a tree of class tcc_declaration, tcc_constant, tcc_reference or
6363    an SSA_NAME.  The corresponding sequence of GIMPLE statements is
6364    emitted in PRE_P and POST_P.
6365
6366    Additionally, this process may overwrite parts of the input
6367    expression during gimplification.  Ideally, it should be
6368    possible to do non-destructive gimplification.
6369
6370    EXPR_P points to the GENERIC expression to convert to GIMPLE.  If
6371       the expression needs to evaluate to a value to be used as
6372       an operand in a GIMPLE statement, this value will be stored in
6373       *EXPR_P on exit.  This happens when the caller specifies one
6374       of fb_lvalue or fb_rvalue fallback flags.
6375
6376    PRE_P will contain the sequence of GIMPLE statements corresponding
6377        to the evaluation of EXPR and all the side-effects that must
6378        be executed before the main expression.  On exit, the last
6379        statement of PRE_P is the core statement being gimplified.  For
6380        instance, when gimplifying 'if (++a)' the last statement in
6381        PRE_P will be 'if (t.1)' where t.1 is the result of
6382        pre-incrementing 'a'.
6383
6384    POST_P will contain the sequence of GIMPLE statements corresponding
6385        to the evaluation of all the side-effects that must be executed
6386        after the main expression.  If this is NULL, the post
6387        side-effects are stored at the end of PRE_P.
6388
6389        The reason why the output is split in two is to handle post
6390        side-effects explicitly.  In some cases, an expression may have
6391        inner and outer post side-effects which need to be emitted in
6392        an order different from the one given by the recursive
6393        traversal.  For instance, for the expression (*p--)++ the post
6394        side-effects of '--' must actually occur *after* the post
6395        side-effects of '++'.  However, gimplification will first visit
6396        the inner expression, so if a separate POST sequence was not
6397        used, the resulting sequence would be:
6398
6399             1   t.1 = *p
6400             2   p = p - 1
6401             3   t.2 = t.1 + 1
6402             4   *p = t.2
6403
6404        However, the post-decrement operation in line #2 must not be
6405        evaluated until after the store to *p at line #4, so the
6406        correct sequence should be:
6407
6408             1   t.1 = *p
6409             2   t.2 = t.1 + 1
6410             3   *p = t.2
6411             4   p = p - 1
6412
6413        So, by specifying a separate post queue, it is possible
6414        to emit the post side-effects in the correct order.
6415        If POST_P is NULL, an internal queue will be used.  Before
6416        returning to the caller, the sequence POST_P is appended to
6417        the main output sequence PRE_P.
6418
6419    GIMPLE_TEST_F points to a function that takes a tree T and
6420        returns nonzero if T is in the GIMPLE form requested by the
6421        caller.  The GIMPLE predicates are in tree-gimple.c.
6422
6423    FALLBACK tells the function what sort of a temporary we want if
6424        gimplification cannot produce an expression that complies with
6425        GIMPLE_TEST_F.
6426
6427        fb_none means that no temporary should be generated
6428        fb_rvalue means that an rvalue is OK to generate
6429        fb_lvalue means that an lvalue is OK to generate
6430        fb_either means that either is OK, but an lvalue is preferable.
6431        fb_mayfail means that gimplification may fail (in which case
6432        GS_ERROR will be returned)
6433
6434    The return value is either GS_ERROR or GS_ALL_DONE, since this
6435    function iterates until EXPR is completely gimplified or an error
6436    occurs.  */
6437
6438 enum gimplify_status
6439 gimplify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
6440                bool (*gimple_test_f) (tree), fallback_t fallback)
6441 {
6442   tree tmp;
6443   gimple_seq internal_pre = NULL;
6444   gimple_seq internal_post = NULL;
6445   tree save_expr;
6446   bool is_statement;
6447   location_t saved_location;
6448   enum gimplify_status ret;
6449   gimple_stmt_iterator pre_last_gsi, post_last_gsi;
6450
6451   save_expr = *expr_p;
6452   if (save_expr == NULL_TREE)
6453     return GS_ALL_DONE;
6454
6455   /* If we are gimplifying a top-level statement, PRE_P must be valid.  */
6456   is_statement = gimple_test_f == is_gimple_stmt;
6457   if (is_statement)
6458     gcc_assert (pre_p);
6459
6460   /* Consistency checks.  */
6461   if (gimple_test_f == is_gimple_reg)
6462     gcc_assert (fallback & (fb_rvalue | fb_lvalue));
6463   else if (gimple_test_f == is_gimple_val
6464            || gimple_test_f == is_gimple_call_addr
6465            || gimple_test_f == is_gimple_condexpr
6466            || gimple_test_f == is_gimple_mem_rhs
6467            || gimple_test_f == is_gimple_mem_rhs_or_call
6468            || gimple_test_f == is_gimple_reg_rhs
6469            || gimple_test_f == is_gimple_reg_rhs_or_call
6470            || gimple_test_f == is_gimple_asm_val)
6471     gcc_assert (fallback & fb_rvalue);
6472   else if (gimple_test_f == is_gimple_min_lval
6473            || gimple_test_f == is_gimple_lvalue)
6474     gcc_assert (fallback & fb_lvalue);
6475   else if (gimple_test_f == is_gimple_addressable)
6476     gcc_assert (fallback & fb_either);
6477   else if (gimple_test_f == is_gimple_stmt)
6478     gcc_assert (fallback == fb_none);
6479   else
6480     {
6481       /* We should have recognized the GIMPLE_TEST_F predicate to
6482          know what kind of fallback to use in case a temporary is
6483          needed to hold the value or address of *EXPR_P.  */
6484       gcc_unreachable ();
6485     }
6486
6487   /* We used to check the predicate here and return immediately if it
6488      succeeds.  This is wrong; the design is for gimplification to be
6489      idempotent, and for the predicates to only test for valid forms, not
6490      whether they are fully simplified.  */
6491   if (pre_p == NULL)
6492     pre_p = &internal_pre;
6493
6494   if (post_p == NULL)
6495     post_p = &internal_post;
6496
6497   /* Remember the last statements added to PRE_P and POST_P.  Every
6498      new statement added by the gimplification helpers needs to be
6499      annotated with location information.  To centralize the
6500      responsibility, we remember the last statement that had been
6501      added to both queues before gimplifying *EXPR_P.  If
6502      gimplification produces new statements in PRE_P and POST_P, those
6503      statements will be annotated with the same location information
6504      as *EXPR_P.  */
6505   pre_last_gsi = gsi_last (*pre_p);
6506   post_last_gsi = gsi_last (*post_p);
6507
6508   saved_location = input_location;
6509   if (save_expr != error_mark_node
6510       && EXPR_HAS_LOCATION (*expr_p))
6511     input_location = EXPR_LOCATION (*expr_p);
6512
6513   /* Loop over the specific gimplifiers until the toplevel node
6514      remains the same.  */
6515   do
6516     {
6517       /* Strip away as many useless type conversions as possible
6518          at the toplevel.  */
6519       STRIP_USELESS_TYPE_CONVERSION (*expr_p);
6520
6521       /* Remember the expr.  */
6522       save_expr = *expr_p;
6523
6524       /* Die, die, die, my darling.  */
6525       if (save_expr == error_mark_node
6526           || (TREE_TYPE (save_expr)
6527               && TREE_TYPE (save_expr) == error_mark_node))
6528         {
6529           ret = GS_ERROR;
6530           break;
6531         }
6532
6533       /* Do any language-specific gimplification.  */
6534       ret = ((enum gimplify_status)
6535              lang_hooks.gimplify_expr (expr_p, pre_p, post_p));
6536       if (ret == GS_OK)
6537         {
6538           if (*expr_p == NULL_TREE)
6539             break;
6540           if (*expr_p != save_expr)
6541             continue;
6542         }
6543       else if (ret != GS_UNHANDLED)
6544         break;
6545
6546       ret = GS_OK;
6547       switch (TREE_CODE (*expr_p))
6548         {
6549           /* First deal with the special cases.  */
6550
6551         case POSTINCREMENT_EXPR:
6552         case POSTDECREMENT_EXPR:
6553         case PREINCREMENT_EXPR:
6554         case PREDECREMENT_EXPR:
6555           ret = gimplify_self_mod_expr (expr_p, pre_p, post_p,
6556                                         fallback != fb_none);
6557           break;
6558
6559         case ARRAY_REF:
6560         case ARRAY_RANGE_REF:
6561         case REALPART_EXPR:
6562         case IMAGPART_EXPR:
6563         case COMPONENT_REF:
6564         case VIEW_CONVERT_EXPR:
6565           ret = gimplify_compound_lval (expr_p, pre_p, post_p,
6566                                         fallback ? fallback : fb_rvalue);
6567           break;
6568
6569         case COND_EXPR:
6570           ret = gimplify_cond_expr (expr_p, pre_p, fallback);
6571
6572           /* C99 code may assign to an array in a structure value of a
6573              conditional expression, and this has undefined behavior
6574              only on execution, so create a temporary if an lvalue is
6575              required.  */
6576           if (fallback == fb_lvalue)
6577             {
6578               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6579               mark_addressable (*expr_p);
6580             }
6581           break;
6582
6583         case CALL_EXPR:
6584           ret = gimplify_call_expr (expr_p, pre_p, fallback != fb_none);
6585
6586           /* C99 code may assign to an array in a structure returned
6587              from a function, and this has undefined behavior only on
6588              execution, so create a temporary if an lvalue is
6589              required.  */
6590           if (fallback == fb_lvalue)
6591             {
6592               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6593               mark_addressable (*expr_p);
6594             }
6595           break;
6596
6597         case TREE_LIST:
6598           gcc_unreachable ();
6599
6600         case COMPOUND_EXPR:
6601           ret = gimplify_compound_expr (expr_p, pre_p, fallback != fb_none);
6602           break;
6603
6604         case COMPOUND_LITERAL_EXPR:
6605           ret = gimplify_compound_literal_expr (expr_p, pre_p);
6606           break;
6607
6608         case MODIFY_EXPR:
6609         case INIT_EXPR:
6610           ret = gimplify_modify_expr (expr_p, pre_p, post_p,
6611                                       fallback != fb_none);
6612           break;
6613
6614         case TRUTH_ANDIF_EXPR:
6615         case TRUTH_ORIF_EXPR:
6616           /* Pass the source location of the outer expression.  */
6617           ret = gimplify_boolean_expr (expr_p, saved_location);
6618           break;
6619
6620         case TRUTH_NOT_EXPR:
6621           if (TREE_CODE (TREE_TYPE (*expr_p)) != BOOLEAN_TYPE)
6622             {
6623               tree type = TREE_TYPE (*expr_p);
6624               *expr_p = fold_convert (type, gimple_boolify (*expr_p));
6625               ret = GS_OK;
6626               break;
6627             }
6628
6629           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6630                                is_gimple_val, fb_rvalue);
6631           recalculate_side_effects (*expr_p);
6632           break;
6633
6634         case ADDR_EXPR:
6635           ret = gimplify_addr_expr (expr_p, pre_p, post_p);
6636           break;
6637
6638         case VA_ARG_EXPR:
6639           ret = gimplify_va_arg_expr (expr_p, pre_p, post_p);
6640           break;
6641
6642         CASE_CONVERT:
6643           if (IS_EMPTY_STMT (*expr_p))
6644             {
6645               ret = GS_ALL_DONE;
6646               break;
6647             }
6648
6649           if (VOID_TYPE_P (TREE_TYPE (*expr_p))
6650               || fallback == fb_none)
6651             {
6652               /* Just strip a conversion to void (or in void context) and
6653                  try again.  */
6654               *expr_p = TREE_OPERAND (*expr_p, 0);
6655               break;
6656             }
6657
6658           ret = gimplify_conversion (expr_p);
6659           if (ret == GS_ERROR)
6660             break;
6661           if (*expr_p != save_expr)
6662             break;
6663           /* FALLTHRU */
6664
6665         case FIX_TRUNC_EXPR:
6666           /* unary_expr: ... | '(' cast ')' val | ...  */
6667           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6668                                is_gimple_val, fb_rvalue);
6669           recalculate_side_effects (*expr_p);
6670           break;
6671
6672         case INDIRECT_REF:
6673           *expr_p = fold_indirect_ref_loc (input_location, *expr_p);
6674           if (*expr_p != save_expr)
6675             break;
6676           /* else fall through.  */
6677         case ALIGN_INDIRECT_REF:
6678         case MISALIGNED_INDIRECT_REF:
6679           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6680                                is_gimple_reg, fb_rvalue);
6681           recalculate_side_effects (*expr_p);
6682           break;
6683
6684           /* Constants need not be gimplified.  */
6685         case INTEGER_CST:
6686         case REAL_CST:
6687         case FIXED_CST:
6688         case STRING_CST:
6689         case COMPLEX_CST:
6690         case VECTOR_CST:
6691           ret = GS_ALL_DONE;
6692           break;
6693
6694         case CONST_DECL:
6695           /* If we require an lvalue, such as for ADDR_EXPR, retain the
6696              CONST_DECL node.  Otherwise the decl is replaceable by its
6697              value.  */
6698           /* ??? Should be == fb_lvalue, but ADDR_EXPR passes fb_either.  */
6699           if (fallback & fb_lvalue)
6700             ret = GS_ALL_DONE;
6701           else
6702             *expr_p = DECL_INITIAL (*expr_p);
6703           break;
6704
6705         case DECL_EXPR:
6706           ret = gimplify_decl_expr (expr_p, pre_p);
6707           break;
6708
6709         case BIND_EXPR:
6710           ret = gimplify_bind_expr (expr_p, pre_p);
6711           break;
6712
6713         case LOOP_EXPR:
6714           ret = gimplify_loop_expr (expr_p, pre_p);
6715           break;
6716
6717         case SWITCH_EXPR:
6718           ret = gimplify_switch_expr (expr_p, pre_p);
6719           break;
6720
6721         case EXIT_EXPR:
6722           ret = gimplify_exit_expr (expr_p);
6723           break;
6724
6725         case GOTO_EXPR:
6726           /* If the target is not LABEL, then it is a computed jump
6727              and the target needs to be gimplified.  */
6728           if (TREE_CODE (GOTO_DESTINATION (*expr_p)) != LABEL_DECL)
6729             {
6730               ret = gimplify_expr (&GOTO_DESTINATION (*expr_p), pre_p,
6731                                    NULL, is_gimple_val, fb_rvalue);
6732               if (ret == GS_ERROR)
6733                 break;
6734             }
6735           gimplify_seq_add_stmt (pre_p,
6736                           gimple_build_goto (GOTO_DESTINATION (*expr_p)));
6737           break;
6738
6739         case PREDICT_EXPR:
6740           gimplify_seq_add_stmt (pre_p,
6741                         gimple_build_predict (PREDICT_EXPR_PREDICTOR (*expr_p),
6742                                               PREDICT_EXPR_OUTCOME (*expr_p)));
6743           ret = GS_ALL_DONE;
6744           break;
6745
6746         case LABEL_EXPR:
6747           ret = GS_ALL_DONE;
6748           gcc_assert (decl_function_context (LABEL_EXPR_LABEL (*expr_p))
6749                       == current_function_decl);
6750           gimplify_seq_add_stmt (pre_p,
6751                           gimple_build_label (LABEL_EXPR_LABEL (*expr_p)));
6752           break;
6753
6754         case CASE_LABEL_EXPR:
6755           ret = gimplify_case_label_expr (expr_p, pre_p);
6756           break;
6757
6758         case RETURN_EXPR:
6759           ret = gimplify_return_expr (*expr_p, pre_p);
6760           break;
6761
6762         case CONSTRUCTOR:
6763           /* Don't reduce this in place; let gimplify_init_constructor work its
6764              magic.  Buf if we're just elaborating this for side effects, just
6765              gimplify any element that has side-effects.  */
6766           if (fallback == fb_none)
6767             {
6768               unsigned HOST_WIDE_INT ix;
6769               constructor_elt *ce;
6770               tree temp = NULL_TREE;
6771               for (ix = 0;
6772                    VEC_iterate (constructor_elt, CONSTRUCTOR_ELTS (*expr_p),
6773                                 ix, ce);
6774                    ix++)
6775                 if (TREE_SIDE_EFFECTS (ce->value))
6776                   append_to_statement_list (ce->value, &temp);
6777
6778               *expr_p = temp;
6779               ret = GS_OK;
6780             }
6781           /* C99 code may assign to an array in a constructed
6782              structure or union, and this has undefined behavior only
6783              on execution, so create a temporary if an lvalue is
6784              required.  */
6785           else if (fallback == fb_lvalue)
6786             {
6787               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6788               mark_addressable (*expr_p);
6789             }
6790           else
6791             ret = GS_ALL_DONE;
6792           break;
6793
6794           /* The following are special cases that are not handled by the
6795              original GIMPLE grammar.  */
6796
6797           /* SAVE_EXPR nodes are converted into a GIMPLE identifier and
6798              eliminated.  */
6799         case SAVE_EXPR:
6800           ret = gimplify_save_expr (expr_p, pre_p, post_p);
6801           break;
6802
6803         case BIT_FIELD_REF:
6804           {
6805             enum gimplify_status r0, r1, r2;
6806
6807             r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
6808                                 post_p, is_gimple_lvalue, fb_either);
6809             r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
6810                                 post_p, is_gimple_val, fb_rvalue);
6811             r2 = gimplify_expr (&TREE_OPERAND (*expr_p, 2), pre_p,
6812                                 post_p, is_gimple_val, fb_rvalue);
6813             recalculate_side_effects (*expr_p);
6814
6815             ret = MIN (r0, MIN (r1, r2));
6816           }
6817           break;
6818
6819         case TARGET_MEM_REF:
6820           {
6821             enum gimplify_status r0 = GS_ALL_DONE, r1 = GS_ALL_DONE;
6822
6823             if (TMR_SYMBOL (*expr_p))
6824               r0 = gimplify_expr (&TMR_SYMBOL (*expr_p), pre_p,
6825                                   post_p, is_gimple_lvalue, fb_either);
6826             else if (TMR_BASE (*expr_p))
6827               r0 = gimplify_expr (&TMR_BASE (*expr_p), pre_p,
6828                                   post_p, is_gimple_val, fb_either);
6829             if (TMR_INDEX (*expr_p))
6830               r1 = gimplify_expr (&TMR_INDEX (*expr_p), pre_p,
6831                                   post_p, is_gimple_val, fb_rvalue);
6832             /* TMR_STEP and TMR_OFFSET are always integer constants.  */
6833             ret = MIN (r0, r1);
6834           }
6835           break;
6836
6837         case NON_LVALUE_EXPR:
6838           /* This should have been stripped above.  */
6839           gcc_unreachable ();
6840
6841         case ASM_EXPR:
6842           ret = gimplify_asm_expr (expr_p, pre_p, post_p);
6843           break;
6844
6845         case TRY_FINALLY_EXPR:
6846         case TRY_CATCH_EXPR:
6847           {
6848             gimple_seq eval, cleanup;
6849             gimple try_;
6850
6851             eval = cleanup = NULL;
6852             gimplify_and_add (TREE_OPERAND (*expr_p, 0), &eval);
6853             gimplify_and_add (TREE_OPERAND (*expr_p, 1), &cleanup);
6854             /* Don't create bogus GIMPLE_TRY with empty cleanup.  */
6855             if (gimple_seq_empty_p (cleanup))
6856               {
6857                 gimple_seq_add_seq (pre_p, eval);
6858                 ret = GS_ALL_DONE;
6859                 break;
6860               }
6861             try_ = gimple_build_try (eval, cleanup,
6862                                      TREE_CODE (*expr_p) == TRY_FINALLY_EXPR
6863                                      ? GIMPLE_TRY_FINALLY
6864                                      : GIMPLE_TRY_CATCH);
6865             if (TREE_CODE (*expr_p) == TRY_CATCH_EXPR)
6866               gimple_try_set_catch_is_cleanup (try_,
6867                                                TRY_CATCH_IS_CLEANUP (*expr_p));
6868             gimplify_seq_add_stmt (pre_p, try_);
6869             ret = GS_ALL_DONE;
6870             break;
6871           }
6872
6873         case CLEANUP_POINT_EXPR:
6874           ret = gimplify_cleanup_point_expr (expr_p, pre_p);
6875           break;
6876
6877         case TARGET_EXPR:
6878           ret = gimplify_target_expr (expr_p, pre_p, post_p);
6879           break;
6880
6881         case CATCH_EXPR:
6882           {
6883             gimple c;
6884             gimple_seq handler = NULL;
6885             gimplify_and_add (CATCH_BODY (*expr_p), &handler);
6886             c = gimple_build_catch (CATCH_TYPES (*expr_p), handler);
6887             gimplify_seq_add_stmt (pre_p, c);
6888             ret = GS_ALL_DONE;
6889             break;
6890           }
6891
6892         case EH_FILTER_EXPR:
6893           {
6894             gimple ehf;
6895             gimple_seq failure = NULL;
6896
6897             gimplify_and_add (EH_FILTER_FAILURE (*expr_p), &failure);
6898             ehf = gimple_build_eh_filter (EH_FILTER_TYPES (*expr_p), failure);
6899             gimple_set_no_warning (ehf, TREE_NO_WARNING (*expr_p));
6900             gimplify_seq_add_stmt (pre_p, ehf);
6901             ret = GS_ALL_DONE;
6902             break;
6903           }
6904
6905         case OBJ_TYPE_REF:
6906           {
6907             enum gimplify_status r0, r1;
6908             r0 = gimplify_expr (&OBJ_TYPE_REF_OBJECT (*expr_p), pre_p,
6909                                 post_p, is_gimple_val, fb_rvalue);
6910             r1 = gimplify_expr (&OBJ_TYPE_REF_EXPR (*expr_p), pre_p,
6911                                 post_p, is_gimple_val, fb_rvalue);
6912             TREE_SIDE_EFFECTS (*expr_p) = 0;
6913             ret = MIN (r0, r1);
6914           }
6915           break;
6916
6917         case LABEL_DECL:
6918           /* We get here when taking the address of a label.  We mark
6919              the label as "forced"; meaning it can never be removed and
6920              it is a potential target for any computed goto.  */
6921           FORCED_LABEL (*expr_p) = 1;
6922           ret = GS_ALL_DONE;
6923           break;
6924
6925         case STATEMENT_LIST:
6926           ret = gimplify_statement_list (expr_p, pre_p);
6927           break;
6928
6929         case WITH_SIZE_EXPR:
6930           {
6931             gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
6932                            post_p == &internal_post ? NULL : post_p,
6933                            gimple_test_f, fallback);
6934             gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
6935                            is_gimple_val, fb_rvalue);
6936           }
6937           break;
6938
6939         case VAR_DECL:
6940         case PARM_DECL:
6941           ret = gimplify_var_or_parm_decl (expr_p);
6942           break;
6943
6944         case RESULT_DECL:
6945           /* When within an OpenMP context, notice uses of variables.  */
6946           if (gimplify_omp_ctxp)
6947             omp_notice_variable (gimplify_omp_ctxp, *expr_p, true);
6948           ret = GS_ALL_DONE;
6949           break;
6950
6951         case SSA_NAME:
6952           /* Allow callbacks into the gimplifier during optimization.  */
6953           ret = GS_ALL_DONE;
6954           break;
6955
6956         case OMP_PARALLEL:
6957           gimplify_omp_parallel (expr_p, pre_p);
6958           ret = GS_ALL_DONE;
6959           break;
6960
6961         case OMP_TASK:
6962           gimplify_omp_task (expr_p, pre_p);
6963           ret = GS_ALL_DONE;
6964           break;
6965
6966         case OMP_FOR:
6967           ret = gimplify_omp_for (expr_p, pre_p);
6968           break;
6969
6970         case OMP_SECTIONS:
6971         case OMP_SINGLE:
6972           gimplify_omp_workshare (expr_p, pre_p);
6973           ret = GS_ALL_DONE;
6974           break;
6975
6976         case OMP_SECTION:
6977         case OMP_MASTER:
6978         case OMP_ORDERED:
6979         case OMP_CRITICAL:
6980           {
6981             gimple_seq body = NULL;
6982             gimple g;
6983
6984             gimplify_and_add (OMP_BODY (*expr_p), &body);
6985             switch (TREE_CODE (*expr_p))
6986               {
6987               case OMP_SECTION:
6988                 g = gimple_build_omp_section (body);
6989                 break;
6990               case OMP_MASTER:
6991                 g = gimple_build_omp_master (body);
6992                 break;
6993               case OMP_ORDERED:
6994                 g = gimple_build_omp_ordered (body);
6995                 break;
6996               case OMP_CRITICAL:
6997                 g = gimple_build_omp_critical (body,
6998                                                OMP_CRITICAL_NAME (*expr_p));
6999                 break;
7000               default:
7001                 gcc_unreachable ();
7002               }
7003             gimplify_seq_add_stmt (pre_p, g);
7004             ret = GS_ALL_DONE;
7005             break;
7006           }
7007
7008         case OMP_ATOMIC:
7009           ret = gimplify_omp_atomic (expr_p, pre_p);
7010           break;
7011
7012         case POINTER_PLUS_EXPR:
7013           /* Convert ((type *)A)+offset into &A->field_of_type_and_offset.
7014              The second is gimple immediate saving a need for extra statement.
7015            */
7016           if (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7017               && (tmp = maybe_fold_offset_to_address
7018                   (EXPR_LOCATION (*expr_p),
7019                    TREE_OPERAND (*expr_p, 0), TREE_OPERAND (*expr_p, 1),
7020                    TREE_TYPE (*expr_p))))
7021             {
7022               *expr_p = tmp;
7023               break;
7024             }
7025           /* Convert (void *)&a + 4 into (void *)&a[1].  */
7026           if (TREE_CODE (TREE_OPERAND (*expr_p, 0)) == NOP_EXPR
7027               && TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7028               && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p,
7029                                                                         0),0)))
7030               && (tmp = maybe_fold_offset_to_address
7031                   (EXPR_LOCATION (*expr_p),
7032                    TREE_OPERAND (TREE_OPERAND (*expr_p, 0), 0),
7033                    TREE_OPERAND (*expr_p, 1),
7034                    TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p, 0),
7035                                             0)))))
7036              {
7037                *expr_p = fold_convert (TREE_TYPE (*expr_p), tmp);
7038                break;
7039              }
7040           /* FALLTHRU */
7041
7042         default:
7043           switch (TREE_CODE_CLASS (TREE_CODE (*expr_p)))
7044             {
7045             case tcc_comparison:
7046               /* Handle comparison of objects of non scalar mode aggregates
7047                  with a call to memcmp.  It would be nice to only have to do
7048                  this for variable-sized objects, but then we'd have to allow
7049                  the same nest of reference nodes we allow for MODIFY_EXPR and
7050                  that's too complex.
7051
7052                  Compare scalar mode aggregates as scalar mode values.  Using
7053                  memcmp for them would be very inefficient at best, and is
7054                  plain wrong if bitfields are involved.  */
7055                 {
7056                   tree type = TREE_TYPE (TREE_OPERAND (*expr_p, 1));
7057
7058                   if (!AGGREGATE_TYPE_P (type))
7059                     goto expr_2;
7060                   else if (TYPE_MODE (type) != BLKmode)
7061                     ret = gimplify_scalar_mode_aggregate_compare (expr_p);
7062                   else
7063                     ret = gimplify_variable_sized_compare (expr_p);
7064
7065                   break;
7066                 }
7067
7068             /* If *EXPR_P does not need to be special-cased, handle it
7069                according to its class.  */
7070             case tcc_unary:
7071               ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7072                                    post_p, is_gimple_val, fb_rvalue);
7073               break;
7074
7075             case tcc_binary:
7076             expr_2:
7077               {
7078                 enum gimplify_status r0, r1;
7079
7080                 r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7081                                     post_p, is_gimple_val, fb_rvalue);
7082                 r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
7083                                     post_p, is_gimple_val, fb_rvalue);
7084
7085                 ret = MIN (r0, r1);
7086                 break;
7087               }
7088
7089             case tcc_declaration:
7090             case tcc_constant:
7091               ret = GS_ALL_DONE;
7092               goto dont_recalculate;
7093
7094             default:
7095               gcc_assert (TREE_CODE (*expr_p) == TRUTH_AND_EXPR
7096                           || TREE_CODE (*expr_p) == TRUTH_OR_EXPR
7097                           || TREE_CODE (*expr_p) == TRUTH_XOR_EXPR);
7098               goto expr_2;
7099             }
7100
7101           recalculate_side_effects (*expr_p);
7102
7103         dont_recalculate:
7104           break;
7105         }
7106
7107       /* If we replaced *expr_p, gimplify again.  */
7108       if (ret == GS_OK && (*expr_p == NULL || *expr_p == save_expr))
7109         ret = GS_ALL_DONE;
7110     }
7111   while (ret == GS_OK);
7112
7113   /* If we encountered an error_mark somewhere nested inside, either
7114      stub out the statement or propagate the error back out.  */
7115   if (ret == GS_ERROR)
7116     {
7117       if (is_statement)
7118         *expr_p = NULL;
7119       goto out;
7120     }
7121
7122   /* This was only valid as a return value from the langhook, which
7123      we handled.  Make sure it doesn't escape from any other context.  */
7124   gcc_assert (ret != GS_UNHANDLED);
7125
7126   if (fallback == fb_none && *expr_p && !is_gimple_stmt (*expr_p))
7127     {
7128       /* We aren't looking for a value, and we don't have a valid
7129          statement.  If it doesn't have side-effects, throw it away.  */
7130       if (!TREE_SIDE_EFFECTS (*expr_p))
7131         *expr_p = NULL;
7132       else if (!TREE_THIS_VOLATILE (*expr_p))
7133         {
7134           /* This is probably a _REF that contains something nested that
7135              has side effects.  Recurse through the operands to find it.  */
7136           enum tree_code code = TREE_CODE (*expr_p);
7137
7138           switch (code)
7139             {
7140             case COMPONENT_REF:
7141             case REALPART_EXPR:
7142             case IMAGPART_EXPR:
7143             case VIEW_CONVERT_EXPR:
7144               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7145                              gimple_test_f, fallback);
7146               break;
7147
7148             case ARRAY_REF:
7149             case ARRAY_RANGE_REF:
7150               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7151                              gimple_test_f, fallback);
7152               gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
7153                              gimple_test_f, fallback);
7154               break;
7155
7156             default:
7157                /* Anything else with side-effects must be converted to
7158                   a valid statement before we get here.  */
7159               gcc_unreachable ();
7160             }
7161
7162           *expr_p = NULL;
7163         }
7164       else if (COMPLETE_TYPE_P (TREE_TYPE (*expr_p))
7165                && TYPE_MODE (TREE_TYPE (*expr_p)) != BLKmode)
7166         {
7167           /* Historically, the compiler has treated a bare reference
7168              to a non-BLKmode volatile lvalue as forcing a load.  */
7169           tree type = TYPE_MAIN_VARIANT (TREE_TYPE (*expr_p));
7170
7171           /* Normally, we do not want to create a temporary for a
7172              TREE_ADDRESSABLE type because such a type should not be
7173              copied by bitwise-assignment.  However, we make an
7174              exception here, as all we are doing here is ensuring that
7175              we read the bytes that make up the type.  We use
7176              create_tmp_var_raw because create_tmp_var will abort when
7177              given a TREE_ADDRESSABLE type.  */
7178           tree tmp = create_tmp_var_raw (type, "vol");
7179           gimple_add_tmp_var (tmp);
7180           gimplify_assign (tmp, *expr_p, pre_p);
7181           *expr_p = NULL;
7182         }
7183       else
7184         /* We can't do anything useful with a volatile reference to
7185            an incomplete type, so just throw it away.  Likewise for
7186            a BLKmode type, since any implicit inner load should
7187            already have been turned into an explicit one by the
7188            gimplification process.  */
7189         *expr_p = NULL;
7190     }
7191
7192   /* If we are gimplifying at the statement level, we're done.  Tack
7193      everything together and return.  */
7194   if (fallback == fb_none || is_statement)
7195     {
7196       /* Since *EXPR_P has been converted into a GIMPLE tuple, clear
7197          it out for GC to reclaim it.  */
7198       *expr_p = NULL_TREE;
7199
7200       if (!gimple_seq_empty_p (internal_pre)
7201           || !gimple_seq_empty_p (internal_post))
7202         {
7203           gimplify_seq_add_seq (&internal_pre, internal_post);
7204           gimplify_seq_add_seq (pre_p, internal_pre);
7205         }
7206
7207       /* The result of gimplifying *EXPR_P is going to be the last few
7208          statements in *PRE_P and *POST_P.  Add location information
7209          to all the statements that were added by the gimplification
7210          helpers.  */
7211       if (!gimple_seq_empty_p (*pre_p))
7212         annotate_all_with_location_after (*pre_p, pre_last_gsi, input_location);
7213
7214       if (!gimple_seq_empty_p (*post_p))
7215         annotate_all_with_location_after (*post_p, post_last_gsi,
7216                                           input_location);
7217
7218       goto out;
7219     }
7220
7221 #ifdef ENABLE_GIMPLE_CHECKING
7222   if (*expr_p)
7223     {
7224       enum tree_code code = TREE_CODE (*expr_p);
7225       /* These expressions should already be in gimple IR form.  */
7226       gcc_assert (code != MODIFY_EXPR
7227                   && code != ASM_EXPR
7228                   && code != BIND_EXPR
7229                   && code != CATCH_EXPR
7230                   && (code != COND_EXPR || gimplify_ctxp->allow_rhs_cond_expr)
7231                   && code != EH_FILTER_EXPR
7232                   && code != GOTO_EXPR
7233                   && code != LABEL_EXPR
7234                   && code != LOOP_EXPR
7235                   && code != SWITCH_EXPR
7236                   && code != TRY_FINALLY_EXPR
7237                   && code != OMP_CRITICAL
7238                   && code != OMP_FOR
7239                   && code != OMP_MASTER
7240                   && code != OMP_ORDERED
7241                   && code != OMP_PARALLEL
7242                   && code != OMP_SECTIONS
7243                   && code != OMP_SECTION
7244                   && code != OMP_SINGLE);
7245     }
7246 #endif
7247
7248   /* Otherwise we're gimplifying a subexpression, so the resulting
7249      value is interesting.  If it's a valid operand that matches
7250      GIMPLE_TEST_F, we're done. Unless we are handling some
7251      post-effects internally; if that's the case, we need to copy into
7252      a temporary before adding the post-effects to POST_P.  */
7253   if (gimple_seq_empty_p (internal_post) && (*gimple_test_f) (*expr_p))
7254     goto out;
7255
7256   /* Otherwise, we need to create a new temporary for the gimplified
7257      expression.  */
7258
7259   /* We can't return an lvalue if we have an internal postqueue.  The
7260      object the lvalue refers to would (probably) be modified by the
7261      postqueue; we need to copy the value out first, which means an
7262      rvalue.  */
7263   if ((fallback & fb_lvalue)
7264       && gimple_seq_empty_p (internal_post)
7265       && is_gimple_addressable (*expr_p))
7266     {
7267       /* An lvalue will do.  Take the address of the expression, store it
7268          in a temporary, and replace the expression with an INDIRECT_REF of
7269          that temporary.  */
7270       tmp = build_fold_addr_expr_loc (input_location, *expr_p);
7271       gimplify_expr (&tmp, pre_p, post_p, is_gimple_reg, fb_rvalue);
7272       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (TREE_TYPE (tmp)), tmp);
7273     }
7274   else if ((fallback & fb_rvalue) && is_gimple_reg_rhs_or_call (*expr_p))
7275     {
7276       /* An rvalue will do.  Assign the gimplified expression into a
7277          new temporary TMP and replace the original expression with
7278          TMP.  First, make sure that the expression has a type so that
7279          it can be assigned into a temporary.  */
7280       gcc_assert (!VOID_TYPE_P (TREE_TYPE (*expr_p)));
7281
7282       if (!gimple_seq_empty_p (internal_post) || (fallback & fb_lvalue))
7283         /* The postqueue might change the value of the expression between
7284            the initialization and use of the temporary, so we can't use a
7285            formal temp.  FIXME do we care?  */
7286         {
7287           *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
7288           if (TREE_CODE (TREE_TYPE (*expr_p)) == COMPLEX_TYPE
7289               || TREE_CODE (TREE_TYPE (*expr_p)) == VECTOR_TYPE)
7290             DECL_GIMPLE_REG_P (*expr_p) = 1;
7291         }
7292       else
7293         *expr_p = get_formal_tmp_var (*expr_p, pre_p);
7294     }
7295   else
7296     {
7297 #ifdef ENABLE_GIMPLE_CHECKING
7298       if (!(fallback & fb_mayfail))
7299         {
7300           fprintf (stderr, "gimplification failed:\n");
7301           print_generic_expr (stderr, *expr_p, 0);
7302           debug_tree (*expr_p);
7303           internal_error ("gimplification failed");
7304         }
7305 #endif
7306       gcc_assert (fallback & fb_mayfail);
7307
7308       /* If this is an asm statement, and the user asked for the
7309          impossible, don't die.  Fail and let gimplify_asm_expr
7310          issue an error.  */
7311       ret = GS_ERROR;
7312       goto out;
7313     }
7314
7315   /* Make sure the temporary matches our predicate.  */
7316   gcc_assert ((*gimple_test_f) (*expr_p));
7317
7318   if (!gimple_seq_empty_p (internal_post))
7319     {
7320       annotate_all_with_location (internal_post, input_location);
7321       gimplify_seq_add_seq (pre_p, internal_post);
7322     }
7323
7324  out:
7325   input_location = saved_location;
7326   return ret;
7327 }
7328
7329 /* Look through TYPE for variable-sized objects and gimplify each such
7330    size that we find.  Add to LIST_P any statements generated.  */
7331
7332 void
7333 gimplify_type_sizes (tree type, gimple_seq *list_p)
7334 {
7335   tree field, t;
7336
7337   if (type == NULL || type == error_mark_node)
7338     return;
7339
7340   /* We first do the main variant, then copy into any other variants.  */
7341   type = TYPE_MAIN_VARIANT (type);
7342
7343   /* Avoid infinite recursion.  */
7344   if (TYPE_SIZES_GIMPLIFIED (type))
7345     return;
7346
7347   TYPE_SIZES_GIMPLIFIED (type) = 1;
7348
7349   switch (TREE_CODE (type))
7350     {
7351     case INTEGER_TYPE:
7352     case ENUMERAL_TYPE:
7353     case BOOLEAN_TYPE:
7354     case REAL_TYPE:
7355     case FIXED_POINT_TYPE:
7356       gimplify_one_sizepos (&TYPE_MIN_VALUE (type), list_p);
7357       gimplify_one_sizepos (&TYPE_MAX_VALUE (type), list_p);
7358
7359       for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7360         {
7361           TYPE_MIN_VALUE (t) = TYPE_MIN_VALUE (type);
7362           TYPE_MAX_VALUE (t) = TYPE_MAX_VALUE (type);
7363         }
7364       break;
7365
7366     case ARRAY_TYPE:
7367       /* These types may not have declarations, so handle them here.  */
7368       gimplify_type_sizes (TREE_TYPE (type), list_p);
7369       gimplify_type_sizes (TYPE_DOMAIN (type), list_p);
7370       /* When not optimizing, ensure VLA bounds aren't removed.  */
7371       if (!optimize
7372           && TYPE_DOMAIN (type)
7373           && INTEGRAL_TYPE_P (TYPE_DOMAIN (type)))
7374         {
7375           t = TYPE_MIN_VALUE (TYPE_DOMAIN (type));
7376           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7377             DECL_IGNORED_P (t) = 0;
7378           t = TYPE_MAX_VALUE (TYPE_DOMAIN (type));
7379           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7380             DECL_IGNORED_P (t) = 0;
7381         }
7382       break;
7383
7384     case RECORD_TYPE:
7385     case UNION_TYPE:
7386     case QUAL_UNION_TYPE:
7387       for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
7388         if (TREE_CODE (field) == FIELD_DECL)
7389           {
7390             gimplify_one_sizepos (&DECL_FIELD_OFFSET (field), list_p);
7391             gimplify_one_sizepos (&DECL_SIZE (field), list_p);
7392             gimplify_one_sizepos (&DECL_SIZE_UNIT (field), list_p);
7393             gimplify_type_sizes (TREE_TYPE (field), list_p);
7394           }
7395       break;
7396
7397     case POINTER_TYPE:
7398     case REFERENCE_TYPE:
7399         /* We used to recurse on the pointed-to type here, which turned out to
7400            be incorrect because its definition might refer to variables not
7401            yet initialized at this point if a forward declaration is involved.
7402
7403            It was actually useful for anonymous pointed-to types to ensure
7404            that the sizes evaluation dominates every possible later use of the
7405            values.  Restricting to such types here would be safe since there
7406            is no possible forward declaration around, but would introduce an
7407            undesirable middle-end semantic to anonymity.  We then defer to
7408            front-ends the responsibility of ensuring that the sizes are
7409            evaluated both early and late enough, e.g. by attaching artificial
7410            type declarations to the tree.  */
7411       break;
7412
7413     default:
7414       break;
7415     }
7416
7417   gimplify_one_sizepos (&TYPE_SIZE (type), list_p);
7418   gimplify_one_sizepos (&TYPE_SIZE_UNIT (type), list_p);
7419
7420   for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7421     {
7422       TYPE_SIZE (t) = TYPE_SIZE (type);
7423       TYPE_SIZE_UNIT (t) = TYPE_SIZE_UNIT (type);
7424       TYPE_SIZES_GIMPLIFIED (t) = 1;
7425     }
7426 }
7427
7428 /* A subroutine of gimplify_type_sizes to make sure that *EXPR_P,
7429    a size or position, has had all of its SAVE_EXPRs evaluated.
7430    We add any required statements to *STMT_P.  */
7431
7432 void
7433 gimplify_one_sizepos (tree *expr_p, gimple_seq *stmt_p)
7434 {
7435   tree type, expr = *expr_p;
7436
7437   /* We don't do anything if the value isn't there, is constant, or contains
7438      A PLACEHOLDER_EXPR.  We also don't want to do anything if it's already
7439      a VAR_DECL.  If it's a VAR_DECL from another function, the gimplifier
7440      will want to replace it with a new variable, but that will cause problems
7441      if this type is from outside the function.  It's OK to have that here.  */
7442   if (expr == NULL_TREE || TREE_CONSTANT (expr)
7443       || TREE_CODE (expr) == VAR_DECL
7444       || CONTAINS_PLACEHOLDER_P (expr))
7445     return;
7446
7447   type = TREE_TYPE (expr);
7448   *expr_p = unshare_expr (expr);
7449
7450   gimplify_expr (expr_p, stmt_p, NULL, is_gimple_val, fb_rvalue);
7451   expr = *expr_p;
7452
7453   /* Verify that we've an exact type match with the original expression.
7454      In particular, we do not wish to drop a "sizetype" in favour of a
7455      type of similar dimensions.  We don't want to pollute the generic
7456      type-stripping code with this knowledge because it doesn't matter
7457      for the bulk of GENERIC/GIMPLE.  It only matters that TYPE_SIZE_UNIT
7458      and friends retain their "sizetype-ness".  */
7459   if (TREE_TYPE (expr) != type
7460       && TREE_CODE (type) == INTEGER_TYPE
7461       && TYPE_IS_SIZETYPE (type))
7462     {
7463       tree tmp;
7464       gimple stmt;
7465
7466       *expr_p = create_tmp_var (type, NULL);
7467       tmp = build1 (NOP_EXPR, type, expr);
7468       stmt = gimplify_assign (*expr_p, tmp, stmt_p);
7469       if (EXPR_HAS_LOCATION (expr))
7470         gimple_set_location (stmt, EXPR_LOCATION (expr));
7471       else
7472         gimple_set_location (stmt, input_location);
7473     }
7474 }
7475
7476
7477 /* Gimplify the body of statements pointed to by BODY_P and return a
7478    GIMPLE_BIND containing the sequence of GIMPLE statements
7479    corresponding to BODY_P.  FNDECL is the function decl containing
7480    *BODY_P.  */
7481
7482 gimple
7483 gimplify_body (tree *body_p, tree fndecl, bool do_parms)
7484 {
7485   location_t saved_location = input_location;
7486   gimple_seq parm_stmts, seq;
7487   gimple outer_bind;
7488   struct gimplify_ctx gctx;
7489
7490   timevar_push (TV_TREE_GIMPLIFY);
7491
7492   /* Initialize for optimize_insn_for_s{ize,peed}_p possibly called during
7493      gimplification.  */
7494   default_rtl_profile ();
7495
7496   gcc_assert (gimplify_ctxp == NULL);
7497   push_gimplify_context (&gctx);
7498
7499   /* Unshare most shared trees in the body and in that of any nested functions.
7500      It would seem we don't have to do this for nested functions because
7501      they are supposed to be output and then the outer function gimplified
7502      first, but the g++ front end doesn't always do it that way.  */
7503   unshare_body (body_p, fndecl);
7504   unvisit_body (body_p, fndecl);
7505
7506   if (cgraph_node (fndecl)->origin)
7507     nonlocal_vlas = pointer_set_create ();
7508
7509   /* Make sure input_location isn't set to something weird.  */
7510   input_location = DECL_SOURCE_LOCATION (fndecl);
7511
7512   /* Resolve callee-copies.  This has to be done before processing
7513      the body so that DECL_VALUE_EXPR gets processed correctly.  */
7514   parm_stmts = (do_parms) ? gimplify_parameters () : NULL;
7515
7516   /* Gimplify the function's body.  */
7517   seq = NULL;
7518   gimplify_stmt (body_p, &seq);
7519   outer_bind = gimple_seq_first_stmt (seq);
7520   if (!outer_bind)
7521     {
7522       outer_bind = gimple_build_nop ();
7523       gimplify_seq_add_stmt (&seq, outer_bind);
7524     }
7525
7526   /* The body must contain exactly one statement, a GIMPLE_BIND.  If this is
7527      not the case, wrap everything in a GIMPLE_BIND to make it so.  */
7528   if (gimple_code (outer_bind) == GIMPLE_BIND
7529       && gimple_seq_first (seq) == gimple_seq_last (seq))
7530     ;
7531   else
7532     outer_bind = gimple_build_bind (NULL_TREE, seq, NULL);
7533
7534   *body_p = NULL_TREE;
7535
7536   /* If we had callee-copies statements, insert them at the beginning
7537      of the function.  */
7538   if (!gimple_seq_empty_p (parm_stmts))
7539     {
7540       gimplify_seq_add_seq (&parm_stmts, gimple_bind_body (outer_bind));
7541       gimple_bind_set_body (outer_bind, parm_stmts);
7542     }
7543
7544   if (nonlocal_vlas)
7545     {
7546       pointer_set_destroy (nonlocal_vlas);
7547       nonlocal_vlas = NULL;
7548     }
7549
7550   pop_gimplify_context (outer_bind);
7551   gcc_assert (gimplify_ctxp == NULL);
7552
7553 #ifdef ENABLE_TYPES_CHECKING
7554   if (!errorcount && !sorrycount)
7555     verify_types_in_gimple_seq (gimple_bind_body (outer_bind));
7556 #endif
7557
7558   timevar_pop (TV_TREE_GIMPLIFY);
7559   input_location = saved_location;
7560
7561   return outer_bind;
7562 }
7563
7564 /* Entry point to the gimplification pass.  FNDECL is the FUNCTION_DECL
7565    node for the function we want to gimplify.
7566
7567    Returns the sequence of GIMPLE statements corresponding to the body
7568    of FNDECL.  */
7569
7570 void
7571 gimplify_function_tree (tree fndecl)
7572 {
7573   tree oldfn, parm, ret;
7574   gimple_seq seq;
7575   gimple bind;
7576
7577   gcc_assert (!gimple_body (fndecl));
7578
7579   oldfn = current_function_decl;
7580   current_function_decl = fndecl;
7581   if (DECL_STRUCT_FUNCTION (fndecl))
7582     push_cfun (DECL_STRUCT_FUNCTION (fndecl));
7583   else
7584     push_struct_function (fndecl);
7585
7586   for (parm = DECL_ARGUMENTS (fndecl); parm ; parm = TREE_CHAIN (parm))
7587     {
7588       /* Preliminarily mark non-addressed complex variables as eligible
7589          for promotion to gimple registers.  We'll transform their uses
7590          as we find them.  */
7591       if ((TREE_CODE (TREE_TYPE (parm)) == COMPLEX_TYPE
7592            || TREE_CODE (TREE_TYPE (parm)) == VECTOR_TYPE)
7593           && !TREE_THIS_VOLATILE (parm)
7594           && !needs_to_live_in_memory (parm))
7595         DECL_GIMPLE_REG_P (parm) = 1;
7596     }
7597
7598   ret = DECL_RESULT (fndecl);
7599   if ((TREE_CODE (TREE_TYPE (ret)) == COMPLEX_TYPE
7600        || TREE_CODE (TREE_TYPE (ret)) == VECTOR_TYPE)
7601       && !needs_to_live_in_memory (ret))
7602     DECL_GIMPLE_REG_P (ret) = 1;
7603
7604   bind = gimplify_body (&DECL_SAVED_TREE (fndecl), fndecl, true);
7605
7606   /* The tree body of the function is no longer needed, replace it
7607      with the new GIMPLE body.  */
7608   seq = gimple_seq_alloc ();
7609   gimple_seq_add_stmt (&seq, bind);
7610   gimple_set_body (fndecl, seq);
7611
7612   /* If we're instrumenting function entry/exit, then prepend the call to
7613      the entry hook and wrap the whole function in a TRY_FINALLY_EXPR to
7614      catch the exit hook.  */
7615   /* ??? Add some way to ignore exceptions for this TFE.  */
7616   if (flag_instrument_function_entry_exit
7617       && !DECL_NO_INSTRUMENT_FUNCTION_ENTRY_EXIT (fndecl)
7618       && !flag_instrument_functions_exclude_p (fndecl))
7619     {
7620       tree x;
7621       gimple new_bind;
7622       gimple tf;
7623       gimple_seq cleanup = NULL, body = NULL;
7624
7625       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_EXIT];
7626       gimplify_seq_add_stmt (&cleanup, gimple_build_call (x, 0));
7627       tf = gimple_build_try (seq, cleanup, GIMPLE_TRY_FINALLY);
7628
7629       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_ENTER];
7630       gimplify_seq_add_stmt (&body, gimple_build_call (x, 0));
7631       gimplify_seq_add_stmt (&body, tf);
7632       new_bind = gimple_build_bind (NULL, body, gimple_bind_block (bind));
7633       /* Clear the block for BIND, since it is no longer directly inside
7634          the function, but within a try block.  */
7635       gimple_bind_set_block (bind, NULL);
7636
7637       /* Replace the current function body with the body
7638          wrapped in the try/finally TF.  */
7639       seq = gimple_seq_alloc ();
7640       gimple_seq_add_stmt (&seq, new_bind);
7641       gimple_set_body (fndecl, seq);
7642     }
7643
7644   DECL_SAVED_TREE (fndecl) = NULL_TREE;
7645   cfun->curr_properties = PROP_gimple_any;
7646
7647   current_function_decl = oldfn;
7648   pop_cfun ();
7649 }
7650
7651
7652 /* Some transformations like inlining may invalidate the GIMPLE form
7653    for operands.  This function traverses all the operands in STMT and
7654    gimplifies anything that is not a valid gimple operand.  Any new
7655    GIMPLE statements are inserted before *GSI_P.  */
7656
7657 void
7658 gimple_regimplify_operands (gimple stmt, gimple_stmt_iterator *gsi_p)
7659 {
7660   size_t i, num_ops;
7661   tree orig_lhs = NULL_TREE, lhs, t;
7662   gimple_seq pre = NULL;
7663   gimple post_stmt = NULL;
7664   struct gimplify_ctx gctx;
7665
7666   push_gimplify_context (&gctx);
7667   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
7668
7669   switch (gimple_code (stmt))
7670     {
7671     case GIMPLE_COND:
7672       gimplify_expr (gimple_cond_lhs_ptr (stmt), &pre, NULL,
7673                      is_gimple_val, fb_rvalue);
7674       gimplify_expr (gimple_cond_rhs_ptr (stmt), &pre, NULL,
7675                      is_gimple_val, fb_rvalue);
7676       break;
7677     case GIMPLE_SWITCH:
7678       gimplify_expr (gimple_switch_index_ptr (stmt), &pre, NULL,
7679                      is_gimple_val, fb_rvalue);
7680       break;
7681     case GIMPLE_OMP_ATOMIC_LOAD:
7682       gimplify_expr (gimple_omp_atomic_load_rhs_ptr (stmt), &pre, NULL,
7683                      is_gimple_val, fb_rvalue);
7684       break;
7685     case GIMPLE_ASM:
7686       {
7687         size_t i, noutputs = gimple_asm_noutputs (stmt);
7688         const char *constraint, **oconstraints;
7689         bool allows_mem, allows_reg, is_inout;
7690
7691         oconstraints
7692           = (const char **) alloca ((noutputs) * sizeof (const char *));
7693         for (i = 0; i < noutputs; i++)
7694           {
7695             tree op = gimple_asm_output_op (stmt, i);
7696             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7697             oconstraints[i] = constraint;
7698             parse_output_constraint (&constraint, i, 0, 0, &allows_mem,
7699                                      &allows_reg, &is_inout);
7700             gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7701                            is_inout ? is_gimple_min_lval : is_gimple_lvalue,
7702                            fb_lvalue | fb_mayfail);
7703           }
7704         for (i = 0; i < gimple_asm_ninputs (stmt); i++)
7705           {
7706             tree op = gimple_asm_input_op (stmt, i);
7707             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7708             parse_input_constraint (&constraint, 0, 0, noutputs, 0,
7709                                     oconstraints, &allows_mem, &allows_reg);
7710             if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (op))) && allows_mem)
7711               allows_reg = 0;
7712             if (!allows_reg && allows_mem)
7713               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7714                              is_gimple_lvalue, fb_lvalue | fb_mayfail);
7715             else
7716               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7717                              is_gimple_asm_val, fb_rvalue);
7718           }
7719       }
7720       break;
7721     default:
7722       /* NOTE: We start gimplifying operands from last to first to
7723          make sure that side-effects on the RHS of calls, assignments
7724          and ASMs are executed before the LHS.  The ordering is not
7725          important for other statements.  */
7726       num_ops = gimple_num_ops (stmt);
7727       orig_lhs = gimple_get_lhs (stmt);
7728       for (i = num_ops; i > 0; i--)
7729         {
7730           tree op = gimple_op (stmt, i - 1);
7731           if (op == NULL_TREE)
7732             continue;
7733           if (i == 1 && (is_gimple_call (stmt) || is_gimple_assign (stmt)))
7734             gimplify_expr (&op, &pre, NULL, is_gimple_lvalue, fb_lvalue);
7735           else if (i == 2
7736                    && is_gimple_assign (stmt)
7737                    && num_ops == 2
7738                    && get_gimple_rhs_class (gimple_expr_code (stmt))
7739                       == GIMPLE_SINGLE_RHS)
7740             gimplify_expr (&op, &pre, NULL,
7741                            rhs_predicate_for (gimple_assign_lhs (stmt)),
7742                            fb_rvalue);
7743           else if (i == 2 && is_gimple_call (stmt))
7744             {
7745               if (TREE_CODE (op) == FUNCTION_DECL)
7746                 continue;
7747               gimplify_expr (&op, &pre, NULL, is_gimple_call_addr, fb_rvalue);
7748             }
7749           else
7750             gimplify_expr (&op, &pre, NULL, is_gimple_val, fb_rvalue);
7751           gimple_set_op (stmt, i - 1, op);
7752         }
7753
7754       lhs = gimple_get_lhs (stmt);
7755       /* If the LHS changed it in a way that requires a simple RHS,
7756          create temporary.  */
7757       if (lhs && !is_gimple_reg (lhs))
7758         {
7759           bool need_temp = false;
7760
7761           if (is_gimple_assign (stmt)
7762               && num_ops == 2
7763               && get_gimple_rhs_class (gimple_expr_code (stmt))
7764                  == GIMPLE_SINGLE_RHS)
7765             gimplify_expr (gimple_assign_rhs1_ptr (stmt), &pre, NULL,
7766                            rhs_predicate_for (gimple_assign_lhs (stmt)),
7767                            fb_rvalue);
7768           else if (is_gimple_reg (lhs))
7769             {
7770               if (is_gimple_reg_type (TREE_TYPE (lhs)))
7771                 {
7772                   if (is_gimple_call (stmt))
7773                     {
7774                       i = gimple_call_flags (stmt);
7775                       if ((i & ECF_LOOPING_CONST_OR_PURE)
7776                           || !(i & (ECF_CONST | ECF_PURE)))
7777                         need_temp = true;
7778                     }
7779                   if (stmt_can_throw_internal (stmt))
7780                     need_temp = true;
7781                 }
7782             }
7783           else
7784             {
7785               if (is_gimple_reg_type (TREE_TYPE (lhs)))
7786                 need_temp = true;
7787               else if (TYPE_MODE (TREE_TYPE (lhs)) != BLKmode)
7788                 {
7789                   if (is_gimple_call (stmt))
7790                     {
7791                       tree fndecl = gimple_call_fndecl (stmt);
7792
7793                       if (!aggregate_value_p (TREE_TYPE (lhs), fndecl)
7794                           && !(fndecl && DECL_RESULT (fndecl)
7795                                && DECL_BY_REFERENCE (DECL_RESULT (fndecl))))
7796                         need_temp = true;
7797                     }
7798                   else
7799                     need_temp = true;
7800                 }
7801             }
7802           if (need_temp)
7803             {
7804               tree temp = create_tmp_var (TREE_TYPE (lhs), NULL);
7805
7806               if (TREE_CODE (TREE_TYPE (lhs)) == COMPLEX_TYPE
7807                   || TREE_CODE (TREE_TYPE (lhs)) == VECTOR_TYPE)
7808                 DECL_GIMPLE_REG_P (temp) = 1;
7809               if (TREE_CODE (orig_lhs) == SSA_NAME)
7810                 orig_lhs = SSA_NAME_VAR (orig_lhs);
7811
7812               if (gimple_in_ssa_p (cfun))
7813                 temp = make_ssa_name (temp, NULL);
7814               gimple_set_lhs (stmt, temp);
7815               post_stmt = gimple_build_assign (lhs, temp);
7816               if (TREE_CODE (lhs) == SSA_NAME)
7817                 SSA_NAME_DEF_STMT (lhs) = post_stmt;
7818             }
7819         }
7820       break;
7821     }
7822
7823   if (gimple_referenced_vars (cfun))
7824     for (t = gimplify_ctxp->temps; t ; t = TREE_CHAIN (t))
7825       add_referenced_var (t);
7826
7827   if (!gimple_seq_empty_p (pre))
7828     {
7829       if (gimple_in_ssa_p (cfun))
7830         {
7831           gimple_stmt_iterator i;
7832
7833           for (i = gsi_start (pre); !gsi_end_p (i); gsi_next (&i))
7834             mark_symbols_for_renaming (gsi_stmt (i));
7835         }
7836       gsi_insert_seq_before (gsi_p, pre, GSI_SAME_STMT);
7837     }
7838   if (post_stmt)
7839     gsi_insert_after (gsi_p, post_stmt, GSI_NEW_STMT);
7840
7841   pop_gimplify_context (NULL);
7842 }
7843
7844
7845 /* Expands EXPR to list of gimple statements STMTS.  If SIMPLE is true,
7846    force the result to be either ssa_name or an invariant, otherwise
7847    just force it to be a rhs expression.  If VAR is not NULL, make the
7848    base variable of the final destination be VAR if suitable.  */
7849
7850 tree
7851 force_gimple_operand (tree expr, gimple_seq *stmts, bool simple, tree var)
7852 {
7853   tree t;
7854   enum gimplify_status ret;
7855   gimple_predicate gimple_test_f;
7856   struct gimplify_ctx gctx;
7857
7858   *stmts = NULL;
7859
7860   if (is_gimple_val (expr))
7861     return expr;
7862
7863   gimple_test_f = simple ? is_gimple_val : is_gimple_reg_rhs;
7864
7865   push_gimplify_context (&gctx);
7866   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
7867   gimplify_ctxp->allow_rhs_cond_expr = true;
7868
7869   if (var)
7870     expr = build2 (MODIFY_EXPR, TREE_TYPE (var), var, expr);
7871
7872   if (TREE_CODE (expr) != MODIFY_EXPR
7873       && TREE_TYPE (expr) == void_type_node)
7874     {
7875       gimplify_and_add (expr, stmts);
7876       expr = NULL_TREE;
7877     }
7878   else
7879     {
7880       ret = gimplify_expr (&expr, stmts, NULL, gimple_test_f, fb_rvalue);
7881       gcc_assert (ret != GS_ERROR);
7882     }
7883
7884   if (gimple_referenced_vars (cfun))
7885     for (t = gimplify_ctxp->temps; t ; t = TREE_CHAIN (t))
7886       add_referenced_var (t);
7887
7888   pop_gimplify_context (NULL);
7889
7890   return expr;
7891 }
7892
7893 /* Invokes force_gimple_operand for EXPR with parameters SIMPLE_P and VAR.  If
7894    some statements are produced, emits them at GSI.  If BEFORE is true.
7895    the statements are appended before GSI, otherwise they are appended after
7896    it.  M specifies the way GSI moves after insertion (GSI_SAME_STMT or
7897    GSI_CONTINUE_LINKING are the usual values).  */
7898
7899 tree
7900 force_gimple_operand_gsi (gimple_stmt_iterator *gsi, tree expr,
7901                           bool simple_p, tree var, bool before,
7902                           enum gsi_iterator_update m)
7903 {
7904   gimple_seq stmts;
7905
7906   expr = force_gimple_operand (expr, &stmts, simple_p, var);
7907
7908   if (!gimple_seq_empty_p (stmts))
7909     {
7910       if (gimple_in_ssa_p (cfun))
7911         {
7912           gimple_stmt_iterator i;
7913
7914           for (i = gsi_start (stmts); !gsi_end_p (i); gsi_next (&i))
7915             mark_symbols_for_renaming (gsi_stmt (i));
7916         }
7917
7918       if (before)
7919         gsi_insert_seq_before (gsi, stmts, m);
7920       else
7921         gsi_insert_seq_after (gsi, stmts, m);
7922     }
7923
7924   return expr;
7925 }
7926
7927 #include "gt-gimplify.h"