OSDN Git Service

* expr.c (categorize_ctor_elements_1): Properly count sub-elements of
[pf3gnuchains/gcc-fork.git] / gcc / gimplify.c
1 /* Tree lowering pass.  This pass converts the GENERIC functions-as-trees
2    tree representation into the GIMPLE form.
3    Copyright (C) 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010
4    Free Software Foundation, Inc.
5    Major work done by Sebastian Pop <s.pop@laposte.net>,
6    Diego Novillo <dnovillo@redhat.com> and Jason Merrill <jason@redhat.com>.
7
8 This file is part of GCC.
9
10 GCC is free software; you can redistribute it and/or modify it under
11 the terms of the GNU General Public License as published by the Free
12 Software Foundation; either version 3, or (at your option) any later
13 version.
14
15 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
16 WARRANTY; without even the implied warranty of MERCHANTABILITY or
17 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
18 for more details.
19
20 You should have received a copy of the GNU General Public License
21 along with GCC; see the file COPYING3.  If not see
22 <http://www.gnu.org/licenses/>.  */
23
24 #include "config.h"
25 #include "system.h"
26 #include "coretypes.h"
27 #include "tm.h"
28 #include "tree.h"
29 #include "rtl.h"
30 #include "varray.h"
31 #include "gimple.h"
32 #include "tree-iterator.h"
33 #include "tree-inline.h"
34 #include "diagnostic.h"
35 #include "langhooks.h"
36 #include "langhooks-def.h"
37 #include "tree-flow.h"
38 #include "cgraph.h"
39 #include "timevar.h"
40 #include "except.h"
41 #include "hashtab.h"
42 #include "flags.h"
43 #include "real.h"
44 #include "function.h"
45 #include "output.h"
46 #include "expr.h"
47 #include "ggc.h"
48 #include "toplev.h"
49 #include "target.h"
50 #include "optabs.h"
51 #include "pointer-set.h"
52 #include "splay-tree.h"
53 #include "vec.h"
54 #include "gimple.h"
55 #include "tree-pass.h"
56
57
58 enum gimplify_omp_var_data
59 {
60   GOVD_SEEN = 1,
61   GOVD_EXPLICIT = 2,
62   GOVD_SHARED = 4,
63   GOVD_PRIVATE = 8,
64   GOVD_FIRSTPRIVATE = 16,
65   GOVD_LASTPRIVATE = 32,
66   GOVD_REDUCTION = 64,
67   GOVD_LOCAL = 128,
68   GOVD_DEBUG_PRIVATE = 256,
69   GOVD_PRIVATE_OUTER_REF = 512,
70   GOVD_DATA_SHARE_CLASS = (GOVD_SHARED | GOVD_PRIVATE | GOVD_FIRSTPRIVATE
71                            | GOVD_LASTPRIVATE | GOVD_REDUCTION | GOVD_LOCAL)
72 };
73
74
75 enum omp_region_type
76 {
77   ORT_WORKSHARE = 0,
78   ORT_TASK = 1,
79   ORT_PARALLEL = 2,
80   ORT_COMBINED_PARALLEL = 3
81 };
82
83 struct gimplify_omp_ctx
84 {
85   struct gimplify_omp_ctx *outer_context;
86   splay_tree variables;
87   struct pointer_set_t *privatized_types;
88   location_t location;
89   enum omp_clause_default_kind default_kind;
90   enum omp_region_type region_type;
91 };
92
93 static struct gimplify_ctx *gimplify_ctxp;
94 static struct gimplify_omp_ctx *gimplify_omp_ctxp;
95
96
97 /* Formal (expression) temporary table handling: Multiple occurrences of
98    the same scalar expression are evaluated into the same temporary.  */
99
100 typedef struct gimple_temp_hash_elt
101 {
102   tree val;   /* Key */
103   tree temp;  /* Value */
104 } elt_t;
105
106 /* Forward declarations.  */
107 static enum gimplify_status gimplify_compound_expr (tree *, gimple_seq *, bool);
108
109 /* Mark X addressable.  Unlike the langhook we expect X to be in gimple
110    form and we don't do any syntax checking.  */
111 void
112 mark_addressable (tree x)
113 {
114   while (handled_component_p (x))
115     x = TREE_OPERAND (x, 0);
116   if (TREE_CODE (x) != VAR_DECL
117       && TREE_CODE (x) != PARM_DECL
118       && TREE_CODE (x) != RESULT_DECL)
119     return ;
120   TREE_ADDRESSABLE (x) = 1;
121 }
122
123 /* Return a hash value for a formal temporary table entry.  */
124
125 static hashval_t
126 gimple_tree_hash (const void *p)
127 {
128   tree t = ((const elt_t *) p)->val;
129   return iterative_hash_expr (t, 0);
130 }
131
132 /* Compare two formal temporary table entries.  */
133
134 static int
135 gimple_tree_eq (const void *p1, const void *p2)
136 {
137   tree t1 = ((const elt_t *) p1)->val;
138   tree t2 = ((const elt_t *) p2)->val;
139   enum tree_code code = TREE_CODE (t1);
140
141   if (TREE_CODE (t2) != code
142       || TREE_TYPE (t1) != TREE_TYPE (t2))
143     return 0;
144
145   if (!operand_equal_p (t1, t2, 0))
146     return 0;
147
148   /* Only allow them to compare equal if they also hash equal; otherwise
149      results are nondeterminate, and we fail bootstrap comparison.  */
150   gcc_assert (gimple_tree_hash (p1) == gimple_tree_hash (p2));
151
152   return 1;
153 }
154
155 /* Link gimple statement GS to the end of the sequence *SEQ_P.  If
156    *SEQ_P is NULL, a new sequence is allocated.  This function is
157    similar to gimple_seq_add_stmt, but does not scan the operands.
158    During gimplification, we need to manipulate statement sequences
159    before the def/use vectors have been constructed.  */
160
161 static void
162 gimplify_seq_add_stmt (gimple_seq *seq_p, gimple gs)
163 {
164   gimple_stmt_iterator si;
165
166   if (gs == NULL)
167     return;
168
169   if (*seq_p == NULL)
170     *seq_p = gimple_seq_alloc ();
171
172   si = gsi_last (*seq_p);
173
174   gsi_insert_after_without_update (&si, gs, GSI_NEW_STMT);
175 }
176
177 /* Append sequence SRC to the end of sequence *DST_P.  If *DST_P is
178    NULL, a new sequence is allocated.   This function is
179    similar to gimple_seq_add_seq, but does not scan the operands.
180    During gimplification, we need to manipulate statement sequences
181    before the def/use vectors have been constructed.  */
182
183 static void
184 gimplify_seq_add_seq (gimple_seq *dst_p, gimple_seq src)
185 {
186   gimple_stmt_iterator si;
187
188   if (src == NULL)
189     return;
190
191   if (*dst_p == NULL)
192     *dst_p = gimple_seq_alloc ();
193
194   si = gsi_last (*dst_p);
195   gsi_insert_seq_after_without_update (&si, src, GSI_NEW_STMT);
196 }
197
198 /* Set up a context for the gimplifier.  */
199
200 void
201 push_gimplify_context (struct gimplify_ctx *c)
202 {
203   memset (c, '\0', sizeof (*c));
204   c->prev_context = gimplify_ctxp;
205   gimplify_ctxp = c;
206 }
207
208 /* Tear down a context for the gimplifier.  If BODY is non-null, then
209    put the temporaries into the outer BIND_EXPR.  Otherwise, put them
210    in the local_decls.
211
212    BODY is not a sequence, but the first tuple in a sequence.  */
213
214 void
215 pop_gimplify_context (gimple body)
216 {
217   struct gimplify_ctx *c = gimplify_ctxp;
218
219   gcc_assert (c && (c->bind_expr_stack == NULL
220                     || VEC_empty (gimple, c->bind_expr_stack)));
221   VEC_free (gimple, heap, c->bind_expr_stack);
222   gimplify_ctxp = c->prev_context;
223
224   if (body)
225     declare_vars (c->temps, body, false);
226   else
227     record_vars (c->temps);
228
229   if (c->temp_htab)
230     htab_delete (c->temp_htab);
231 }
232
233 static void
234 gimple_push_bind_expr (gimple gimple_bind)
235 {
236   if (gimplify_ctxp->bind_expr_stack == NULL)
237     gimplify_ctxp->bind_expr_stack = VEC_alloc (gimple, heap, 8);
238   VEC_safe_push (gimple, heap, gimplify_ctxp->bind_expr_stack, gimple_bind);
239 }
240
241 static void
242 gimple_pop_bind_expr (void)
243 {
244   VEC_pop (gimple, gimplify_ctxp->bind_expr_stack);
245 }
246
247 gimple
248 gimple_current_bind_expr (void)
249 {
250   return VEC_last (gimple, gimplify_ctxp->bind_expr_stack);
251 }
252
253 /* Return the stack GIMPLE_BINDs created during gimplification.  */
254
255 VEC(gimple, heap) *
256 gimple_bind_expr_stack (void)
257 {
258   return gimplify_ctxp->bind_expr_stack;
259 }
260
261 /* Returns true iff there is a COND_EXPR between us and the innermost
262    CLEANUP_POINT_EXPR.  This info is used by gimple_push_cleanup.  */
263
264 static bool
265 gimple_conditional_context (void)
266 {
267   return gimplify_ctxp->conditions > 0;
268 }
269
270 /* Note that we've entered a COND_EXPR.  */
271
272 static void
273 gimple_push_condition (void)
274 {
275 #ifdef ENABLE_GIMPLE_CHECKING
276   if (gimplify_ctxp->conditions == 0)
277     gcc_assert (gimple_seq_empty_p (gimplify_ctxp->conditional_cleanups));
278 #endif
279   ++(gimplify_ctxp->conditions);
280 }
281
282 /* Note that we've left a COND_EXPR.  If we're back at unconditional scope
283    now, add any conditional cleanups we've seen to the prequeue.  */
284
285 static void
286 gimple_pop_condition (gimple_seq *pre_p)
287 {
288   int conds = --(gimplify_ctxp->conditions);
289
290   gcc_assert (conds >= 0);
291   if (conds == 0)
292     {
293       gimplify_seq_add_seq (pre_p, gimplify_ctxp->conditional_cleanups);
294       gimplify_ctxp->conditional_cleanups = NULL;
295     }
296 }
297
298 /* A stable comparison routine for use with splay trees and DECLs.  */
299
300 static int
301 splay_tree_compare_decl_uid (splay_tree_key xa, splay_tree_key xb)
302 {
303   tree a = (tree) xa;
304   tree b = (tree) xb;
305
306   return DECL_UID (a) - DECL_UID (b);
307 }
308
309 /* Create a new omp construct that deals with variable remapping.  */
310
311 static struct gimplify_omp_ctx *
312 new_omp_context (enum omp_region_type region_type)
313 {
314   struct gimplify_omp_ctx *c;
315
316   c = XCNEW (struct gimplify_omp_ctx);
317   c->outer_context = gimplify_omp_ctxp;
318   c->variables = splay_tree_new (splay_tree_compare_decl_uid, 0, 0);
319   c->privatized_types = pointer_set_create ();
320   c->location = input_location;
321   c->region_type = region_type;
322   if (region_type != ORT_TASK)
323     c->default_kind = OMP_CLAUSE_DEFAULT_SHARED;
324   else
325     c->default_kind = OMP_CLAUSE_DEFAULT_UNSPECIFIED;
326
327   return c;
328 }
329
330 /* Destroy an omp construct that deals with variable remapping.  */
331
332 static void
333 delete_omp_context (struct gimplify_omp_ctx *c)
334 {
335   splay_tree_delete (c->variables);
336   pointer_set_destroy (c->privatized_types);
337   XDELETE (c);
338 }
339
340 static void omp_add_variable (struct gimplify_omp_ctx *, tree, unsigned int);
341 static bool omp_notice_variable (struct gimplify_omp_ctx *, tree, bool);
342
343 /* A subroutine of append_to_statement_list{,_force}.  T is not NULL.  */
344
345 static void
346 append_to_statement_list_1 (tree t, tree *list_p)
347 {
348   tree list = *list_p;
349   tree_stmt_iterator i;
350
351   if (!list)
352     {
353       if (t && TREE_CODE (t) == STATEMENT_LIST)
354         {
355           *list_p = t;
356           return;
357         }
358       *list_p = list = alloc_stmt_list ();
359     }
360
361   i = tsi_last (list);
362   tsi_link_after (&i, t, TSI_CONTINUE_LINKING);
363 }
364
365 /* Add T to the end of the list container pointed to by LIST_P.
366    If T is an expression with no effects, it is ignored.  */
367
368 void
369 append_to_statement_list (tree t, tree *list_p)
370 {
371   if (t && TREE_SIDE_EFFECTS (t))
372     append_to_statement_list_1 (t, list_p);
373 }
374
375 /* Similar, but the statement is always added, regardless of side effects.  */
376
377 void
378 append_to_statement_list_force (tree t, tree *list_p)
379 {
380   if (t != NULL_TREE)
381     append_to_statement_list_1 (t, list_p);
382 }
383
384 /* Both gimplify the statement T and append it to *SEQ_P.  This function
385    behaves exactly as gimplify_stmt, but you don't have to pass T as a
386    reference.  */
387
388 void
389 gimplify_and_add (tree t, gimple_seq *seq_p)
390 {
391   gimplify_stmt (&t, seq_p);
392 }
393
394 /* Gimplify statement T into sequence *SEQ_P, and return the first
395    tuple in the sequence of generated tuples for this statement.
396    Return NULL if gimplifying T produced no tuples.  */
397
398 static gimple
399 gimplify_and_return_first (tree t, gimple_seq *seq_p)
400 {
401   gimple_stmt_iterator last = gsi_last (*seq_p);
402
403   gimplify_and_add (t, seq_p);
404
405   if (!gsi_end_p (last))
406     {
407       gsi_next (&last);
408       return gsi_stmt (last);
409     }
410   else
411     return gimple_seq_first_stmt (*seq_p);
412 }
413
414 /* Strip off a legitimate source ending from the input string NAME of
415    length LEN.  Rather than having to know the names used by all of
416    our front ends, we strip off an ending of a period followed by
417    up to five characters.  (Java uses ".class".)  */
418
419 static inline void
420 remove_suffix (char *name, int len)
421 {
422   int i;
423
424   for (i = 2;  i < 8 && len > i;  i++)
425     {
426       if (name[len - i] == '.')
427         {
428           name[len - i] = '\0';
429           break;
430         }
431     }
432 }
433
434 /* Create a new temporary name with PREFIX.  Returns an identifier.  */
435
436 static GTY(()) unsigned int tmp_var_id_num;
437
438 tree
439 create_tmp_var_name (const char *prefix)
440 {
441   char *tmp_name;
442
443   if (prefix)
444     {
445       char *preftmp = ASTRDUP (prefix);
446
447       remove_suffix (preftmp, strlen (preftmp));
448       prefix = preftmp;
449     }
450
451   ASM_FORMAT_PRIVATE_NAME (tmp_name, prefix ? prefix : "T", tmp_var_id_num++);
452   return get_identifier (tmp_name);
453 }
454
455
456 /* Create a new temporary variable declaration of type TYPE.
457    Does NOT push it into the current binding.  */
458
459 tree
460 create_tmp_var_raw (tree type, const char *prefix)
461 {
462   tree tmp_var;
463   tree new_type;
464
465   /* Make the type of the variable writable.  */
466   new_type = build_type_variant (type, 0, 0);
467   TYPE_ATTRIBUTES (new_type) = TYPE_ATTRIBUTES (type);
468
469   tmp_var = build_decl (input_location,
470                         VAR_DECL, prefix ? create_tmp_var_name (prefix) : NULL,
471                         type);
472
473   /* The variable was declared by the compiler.  */
474   DECL_ARTIFICIAL (tmp_var) = 1;
475   /* And we don't want debug info for it.  */
476   DECL_IGNORED_P (tmp_var) = 1;
477
478   /* Make the variable writable.  */
479   TREE_READONLY (tmp_var) = 0;
480
481   DECL_EXTERNAL (tmp_var) = 0;
482   TREE_STATIC (tmp_var) = 0;
483   TREE_USED (tmp_var) = 1;
484
485   return tmp_var;
486 }
487
488 /* Create a new temporary variable declaration of type TYPE.  DOES push the
489    variable into the current binding.  Further, assume that this is called
490    only from gimplification or optimization, at which point the creation of
491    certain types are bugs.  */
492
493 tree
494 create_tmp_var (tree type, const char *prefix)
495 {
496   tree tmp_var;
497
498   /* We don't allow types that are addressable (meaning we can't make copies),
499      or incomplete.  We also used to reject every variable size objects here,
500      but now support those for which a constant upper bound can be obtained.
501      The processing for variable sizes is performed in gimple_add_tmp_var,
502      point at which it really matters and possibly reached via paths not going
503      through this function, e.g. after direct calls to create_tmp_var_raw.  */
504   gcc_assert (!TREE_ADDRESSABLE (type) && COMPLETE_TYPE_P (type));
505
506   tmp_var = create_tmp_var_raw (type, prefix);
507   gimple_add_tmp_var (tmp_var);
508   return tmp_var;
509 }
510
511 /* Create a temporary with a name derived from VAL.  Subroutine of
512    lookup_tmp_var; nobody else should call this function.  */
513
514 static inline tree
515 create_tmp_from_val (tree val)
516 {
517   return create_tmp_var (TREE_TYPE (val), get_name (val));
518 }
519
520 /* Create a temporary to hold the value of VAL.  If IS_FORMAL, try to reuse
521    an existing expression temporary.  */
522
523 static tree
524 lookup_tmp_var (tree val, bool is_formal)
525 {
526   tree ret;
527
528   /* If not optimizing, never really reuse a temporary.  local-alloc
529      won't allocate any variable that is used in more than one basic
530      block, which means it will go into memory, causing much extra
531      work in reload and final and poorer code generation, outweighing
532      the extra memory allocation here.  */
533   if (!optimize || !is_formal || TREE_SIDE_EFFECTS (val))
534     ret = create_tmp_from_val (val);
535   else
536     {
537       elt_t elt, *elt_p;
538       void **slot;
539
540       elt.val = val;
541       if (gimplify_ctxp->temp_htab == NULL)
542         gimplify_ctxp->temp_htab
543           = htab_create (1000, gimple_tree_hash, gimple_tree_eq, free);
544       slot = htab_find_slot (gimplify_ctxp->temp_htab, (void *)&elt, INSERT);
545       if (*slot == NULL)
546         {
547           elt_p = XNEW (elt_t);
548           elt_p->val = val;
549           elt_p->temp = ret = create_tmp_from_val (val);
550           *slot = (void *) elt_p;
551         }
552       else
553         {
554           elt_p = (elt_t *) *slot;
555           ret = elt_p->temp;
556         }
557     }
558
559   return ret;
560 }
561
562
563 /* Return true if T is a CALL_EXPR or an expression that can be
564    assignmed to a temporary.  Note that this predicate should only be
565    used during gimplification.  See the rationale for this in
566    gimplify_modify_expr.  */
567
568 static bool
569 is_gimple_reg_rhs_or_call (tree t)
570 {
571   return (get_gimple_rhs_class (TREE_CODE (t)) != GIMPLE_INVALID_RHS
572           || TREE_CODE (t) == CALL_EXPR);
573 }
574
575 /* Return true if T is a valid memory RHS or a CALL_EXPR.  Note that
576    this predicate should only be used during gimplification.  See the
577    rationale for this in gimplify_modify_expr.  */
578
579 static bool
580 is_gimple_mem_rhs_or_call (tree t)
581 {
582   /* If we're dealing with a renamable type, either source or dest must be
583      a renamed variable.  */
584   if (is_gimple_reg_type (TREE_TYPE (t)))
585     return is_gimple_val (t);
586   else
587     return (is_gimple_val (t) || is_gimple_lvalue (t)
588             || TREE_CODE (t) == CALL_EXPR);
589 }
590
591 /* Helper for get_formal_tmp_var and get_initialized_tmp_var.  */
592
593 static tree
594 internal_get_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p,
595                       bool is_formal)
596 {
597   tree t, mod;
598
599   /* Notice that we explicitly allow VAL to be a CALL_EXPR so that we
600      can create an INIT_EXPR and convert it into a GIMPLE_CALL below.  */
601   gimplify_expr (&val, pre_p, post_p, is_gimple_reg_rhs_or_call,
602                  fb_rvalue);
603
604   t = lookup_tmp_var (val, is_formal);
605
606   if (is_formal
607       && (TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
608           || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE))
609     DECL_GIMPLE_REG_P (t) = 1;
610
611   mod = build2 (INIT_EXPR, TREE_TYPE (t), t, unshare_expr (val));
612
613   if (EXPR_HAS_LOCATION (val))
614     SET_EXPR_LOCATION (mod, EXPR_LOCATION (val));
615   else
616     SET_EXPR_LOCATION (mod, input_location);
617
618   /* gimplify_modify_expr might want to reduce this further.  */
619   gimplify_and_add (mod, pre_p);
620   ggc_free (mod);
621
622   /* If we're gimplifying into ssa, gimplify_modify_expr will have
623      given our temporary an SSA name.  Find and return it.  */
624   if (gimplify_ctxp->into_ssa)
625     {
626       gimple last = gimple_seq_last_stmt (*pre_p);
627       t = gimple_get_lhs (last);
628     }
629
630   return t;
631 }
632
633 /* Returns a formal temporary variable initialized with VAL.  PRE_P is as
634    in gimplify_expr.  Only use this function if:
635
636    1) The value of the unfactored expression represented by VAL will not
637       change between the initialization and use of the temporary, and
638    2) The temporary will not be otherwise modified.
639
640    For instance, #1 means that this is inappropriate for SAVE_EXPR temps,
641    and #2 means it is inappropriate for && temps.
642
643    For other cases, use get_initialized_tmp_var instead.  */
644
645 tree
646 get_formal_tmp_var (tree val, gimple_seq *pre_p)
647 {
648   return internal_get_tmp_var (val, pre_p, NULL, true);
649 }
650
651 /* Returns a temporary variable initialized with VAL.  PRE_P and POST_P
652    are as in gimplify_expr.  */
653
654 tree
655 get_initialized_tmp_var (tree val, gimple_seq *pre_p, gimple_seq *post_p)
656 {
657   return internal_get_tmp_var (val, pre_p, post_p, false);
658 }
659
660 /* Declares all the variables in VARS in SCOPE.  If DEBUG_INFO is
661    true, generate debug info for them; otherwise don't.  */
662
663 void
664 declare_vars (tree vars, gimple scope, bool debug_info)
665 {
666   tree last = vars;
667   if (last)
668     {
669       tree temps, block;
670
671       gcc_assert (gimple_code (scope) == GIMPLE_BIND);
672
673       temps = nreverse (last);
674
675       block = gimple_bind_block (scope);
676       gcc_assert (!block || TREE_CODE (block) == BLOCK);
677       if (!block || !debug_info)
678         {
679           TREE_CHAIN (last) = gimple_bind_vars (scope);
680           gimple_bind_set_vars (scope, temps);
681         }
682       else
683         {
684           /* We need to attach the nodes both to the BIND_EXPR and to its
685              associated BLOCK for debugging purposes.  The key point here
686              is that the BLOCK_VARS of the BIND_EXPR_BLOCK of a BIND_EXPR
687              is a subchain of the BIND_EXPR_VARS of the BIND_EXPR.  */
688           if (BLOCK_VARS (block))
689             BLOCK_VARS (block) = chainon (BLOCK_VARS (block), temps);
690           else
691             {
692               gimple_bind_set_vars (scope,
693                                     chainon (gimple_bind_vars (scope), temps));
694               BLOCK_VARS (block) = temps;
695             }
696         }
697     }
698 }
699
700 /* For VAR a VAR_DECL of variable size, try to find a constant upper bound
701    for the size and adjust DECL_SIZE/DECL_SIZE_UNIT accordingly.  Abort if
702    no such upper bound can be obtained.  */
703
704 static void
705 force_constant_size (tree var)
706 {
707   /* The only attempt we make is by querying the maximum size of objects
708      of the variable's type.  */
709
710   HOST_WIDE_INT max_size;
711
712   gcc_assert (TREE_CODE (var) == VAR_DECL);
713
714   max_size = max_int_size_in_bytes (TREE_TYPE (var));
715
716   gcc_assert (max_size >= 0);
717
718   DECL_SIZE_UNIT (var)
719     = build_int_cst (TREE_TYPE (DECL_SIZE_UNIT (var)), max_size);
720   DECL_SIZE (var)
721     = build_int_cst (TREE_TYPE (DECL_SIZE (var)), max_size * BITS_PER_UNIT);
722 }
723
724 void
725 gimple_add_tmp_var (tree tmp)
726 {
727   gcc_assert (!TREE_CHAIN (tmp) && !DECL_SEEN_IN_BIND_EXPR_P (tmp));
728
729   /* Later processing assumes that the object size is constant, which might
730      not be true at this point.  Force the use of a constant upper bound in
731      this case.  */
732   if (!host_integerp (DECL_SIZE_UNIT (tmp), 1))
733     force_constant_size (tmp);
734
735   DECL_CONTEXT (tmp) = current_function_decl;
736   DECL_SEEN_IN_BIND_EXPR_P (tmp) = 1;
737
738   if (gimplify_ctxp)
739     {
740       TREE_CHAIN (tmp) = gimplify_ctxp->temps;
741       gimplify_ctxp->temps = tmp;
742
743       /* Mark temporaries local within the nearest enclosing parallel.  */
744       if (gimplify_omp_ctxp)
745         {
746           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
747           while (ctx && ctx->region_type == ORT_WORKSHARE)
748             ctx = ctx->outer_context;
749           if (ctx)
750             omp_add_variable (ctx, tmp, GOVD_LOCAL | GOVD_SEEN);
751         }
752     }
753   else if (cfun)
754     record_vars (tmp);
755   else
756     {
757       gimple_seq body_seq;
758
759       /* This case is for nested functions.  We need to expose the locals
760          they create.  */
761       body_seq = gimple_body (current_function_decl);
762       declare_vars (tmp, gimple_seq_first_stmt (body_seq), false);
763     }
764 }
765
766 /* Determines whether to assign a location to the statement GS.  */
767
768 static bool
769 should_carry_location_p (gimple gs)
770 {
771   /* Don't emit a line note for a label.  We particularly don't want to
772      emit one for the break label, since it doesn't actually correspond
773      to the beginning of the loop/switch.  */
774   if (gimple_code (gs) == GIMPLE_LABEL)
775     return false;
776
777   return true;
778 }
779
780
781 /* Return true if a location should not be emitted for this statement
782    by annotate_one_with_location.  */
783
784 static inline bool
785 gimple_do_not_emit_location_p (gimple g)
786 {
787   return gimple_plf (g, GF_PLF_1);
788 }
789
790 /* Mark statement G so a location will not be emitted by
791    annotate_one_with_location.  */
792
793 static inline void
794 gimple_set_do_not_emit_location (gimple g)
795 {
796   /* The PLF flags are initialized to 0 when a new tuple is created,
797      so no need to initialize it anywhere.  */
798   gimple_set_plf (g, GF_PLF_1, true);
799 }
800
801 /* Set the location for gimple statement GS to LOCATION.  */
802
803 static void
804 annotate_one_with_location (gimple gs, location_t location)
805 {
806   if (!gimple_has_location (gs)
807       && !gimple_do_not_emit_location_p (gs)
808       && should_carry_location_p (gs))
809     gimple_set_location (gs, location);
810 }
811
812
813 /* Set LOCATION for all the statements after iterator GSI in sequence
814    SEQ.  If GSI is pointing to the end of the sequence, start with the
815    first statement in SEQ.  */
816
817 static void
818 annotate_all_with_location_after (gimple_seq seq, gimple_stmt_iterator gsi,
819                                   location_t location)
820 {
821   if (gsi_end_p (gsi))
822     gsi = gsi_start (seq);
823   else
824     gsi_next (&gsi);
825
826   for (; !gsi_end_p (gsi); gsi_next (&gsi))
827     annotate_one_with_location (gsi_stmt (gsi), location);
828 }
829
830
831 /* Set the location for all the statements in a sequence STMT_P to LOCATION.  */
832
833 void
834 annotate_all_with_location (gimple_seq stmt_p, location_t location)
835 {
836   gimple_stmt_iterator i;
837
838   if (gimple_seq_empty_p (stmt_p))
839     return;
840
841   for (i = gsi_start (stmt_p); !gsi_end_p (i); gsi_next (&i))
842     {
843       gimple gs = gsi_stmt (i);
844       annotate_one_with_location (gs, location);
845     }
846 }
847
848
849 /* Similar to copy_tree_r() but do not copy SAVE_EXPR or TARGET_EXPR nodes.
850    These nodes model computations that should only be done once.  If we
851    were to unshare something like SAVE_EXPR(i++), the gimplification
852    process would create wrong code.  */
853
854 static tree
855 mostly_copy_tree_r (tree *tp, int *walk_subtrees, void *data)
856 {
857   enum tree_code code = TREE_CODE (*tp);
858   /* Don't unshare types, decls, constants and SAVE_EXPR nodes.  */
859   if (TREE_CODE_CLASS (code) == tcc_type
860       || TREE_CODE_CLASS (code) == tcc_declaration
861       || TREE_CODE_CLASS (code) == tcc_constant
862       || code == SAVE_EXPR || code == TARGET_EXPR
863       /* We can't do anything sensible with a BLOCK used as an expression,
864          but we also can't just die when we see it because of non-expression
865          uses.  So just avert our eyes and cross our fingers.  Silly Java.  */
866       || code == BLOCK)
867     *walk_subtrees = 0;
868   else
869     {
870       gcc_assert (code != BIND_EXPR);
871       copy_tree_r (tp, walk_subtrees, data);
872     }
873
874   return NULL_TREE;
875 }
876
877 /* Callback for walk_tree to unshare most of the shared trees rooted at
878    *TP.  If *TP has been visited already (i.e., TREE_VISITED (*TP) == 1),
879    then *TP is deep copied by calling copy_tree_r.
880
881    This unshares the same trees as copy_tree_r with the exception of
882    SAVE_EXPR nodes.  These nodes model computations that should only be
883    done once.  If we were to unshare something like SAVE_EXPR(i++), the
884    gimplification process would create wrong code.  */
885
886 static tree
887 copy_if_shared_r (tree *tp, int *walk_subtrees ATTRIBUTE_UNUSED,
888                   void *data ATTRIBUTE_UNUSED)
889 {
890   tree t = *tp;
891   enum tree_code code = TREE_CODE (t);
892
893   /* Skip types, decls, and constants.  But we do want to look at their
894      types and the bounds of types.  Mark them as visited so we properly
895      unmark their subtrees on the unmark pass.  If we've already seen them,
896      don't look down further.  */
897   if (TREE_CODE_CLASS (code) == tcc_type
898       || TREE_CODE_CLASS (code) == tcc_declaration
899       || TREE_CODE_CLASS (code) == tcc_constant)
900     {
901       if (TREE_VISITED (t))
902         *walk_subtrees = 0;
903       else
904         TREE_VISITED (t) = 1;
905     }
906
907   /* If this node has been visited already, unshare it and don't look
908      any deeper.  */
909   else if (TREE_VISITED (t))
910     {
911       walk_tree (tp, mostly_copy_tree_r, NULL, NULL);
912       *walk_subtrees = 0;
913     }
914
915   /* Otherwise, mark the tree as visited and keep looking.  */
916   else
917     TREE_VISITED (t) = 1;
918
919   return NULL_TREE;
920 }
921
922 static tree
923 unmark_visited_r (tree *tp, int *walk_subtrees ATTRIBUTE_UNUSED,
924                   void *data ATTRIBUTE_UNUSED)
925 {
926   if (TREE_VISITED (*tp))
927     TREE_VISITED (*tp) = 0;
928   else
929     *walk_subtrees = 0;
930
931   return NULL_TREE;
932 }
933
934 /* Unshare all the trees in BODY_P, a pointer into the body of FNDECL, and the
935    bodies of any nested functions if we are unsharing the entire body of
936    FNDECL.  */
937
938 static void
939 unshare_body (tree *body_p, tree fndecl)
940 {
941   struct cgraph_node *cgn = cgraph_node (fndecl);
942
943   walk_tree (body_p, copy_if_shared_r, NULL, NULL);
944   if (body_p == &DECL_SAVED_TREE (fndecl))
945     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
946       unshare_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
947 }
948
949 /* Likewise, but mark all trees as not visited.  */
950
951 static void
952 unvisit_body (tree *body_p, tree fndecl)
953 {
954   struct cgraph_node *cgn = cgraph_node (fndecl);
955
956   walk_tree (body_p, unmark_visited_r, NULL, NULL);
957   if (body_p == &DECL_SAVED_TREE (fndecl))
958     for (cgn = cgn->nested; cgn; cgn = cgn->next_nested)
959       unvisit_body (&DECL_SAVED_TREE (cgn->decl), cgn->decl);
960 }
961
962 /* Unconditionally make an unshared copy of EXPR.  This is used when using
963    stored expressions which span multiple functions, such as BINFO_VTABLE,
964    as the normal unsharing process can't tell that they're shared.  */
965
966 tree
967 unshare_expr (tree expr)
968 {
969   walk_tree (&expr, mostly_copy_tree_r, NULL, NULL);
970   return expr;
971 }
972 \f
973 /* WRAPPER is a code such as BIND_EXPR or CLEANUP_POINT_EXPR which can both
974    contain statements and have a value.  Assign its value to a temporary
975    and give it void_type_node.  Returns the temporary, or NULL_TREE if
976    WRAPPER was already void.  */
977
978 tree
979 voidify_wrapper_expr (tree wrapper, tree temp)
980 {
981   tree type = TREE_TYPE (wrapper);
982   if (type && !VOID_TYPE_P (type))
983     {
984       tree *p;
985
986       /* Set p to point to the body of the wrapper.  Loop until we find
987          something that isn't a wrapper.  */
988       for (p = &wrapper; p && *p; )
989         {
990           switch (TREE_CODE (*p))
991             {
992             case BIND_EXPR:
993               TREE_SIDE_EFFECTS (*p) = 1;
994               TREE_TYPE (*p) = void_type_node;
995               /* For a BIND_EXPR, the body is operand 1.  */
996               p = &BIND_EXPR_BODY (*p);
997               break;
998
999             case CLEANUP_POINT_EXPR:
1000             case TRY_FINALLY_EXPR:
1001             case TRY_CATCH_EXPR:
1002               TREE_SIDE_EFFECTS (*p) = 1;
1003               TREE_TYPE (*p) = void_type_node;
1004               p = &TREE_OPERAND (*p, 0);
1005               break;
1006
1007             case STATEMENT_LIST:
1008               {
1009                 tree_stmt_iterator i = tsi_last (*p);
1010                 TREE_SIDE_EFFECTS (*p) = 1;
1011                 TREE_TYPE (*p) = void_type_node;
1012                 p = tsi_end_p (i) ? NULL : tsi_stmt_ptr (i);
1013               }
1014               break;
1015
1016             case COMPOUND_EXPR:
1017               /* Advance to the last statement.  Set all container types to void.  */
1018               for (; TREE_CODE (*p) == COMPOUND_EXPR; p = &TREE_OPERAND (*p, 1))
1019                 {
1020                   TREE_SIDE_EFFECTS (*p) = 1;
1021                   TREE_TYPE (*p) = void_type_node;
1022                 }
1023               break;
1024
1025             default:
1026               goto out;
1027             }
1028         }
1029
1030     out:
1031       if (p == NULL || IS_EMPTY_STMT (*p))
1032         temp = NULL_TREE;
1033       else if (temp)
1034         {
1035           /* The wrapper is on the RHS of an assignment that we're pushing
1036              down.  */
1037           gcc_assert (TREE_CODE (temp) == INIT_EXPR
1038                       || TREE_CODE (temp) == MODIFY_EXPR);
1039           TREE_OPERAND (temp, 1) = *p;
1040           *p = temp;
1041         }
1042       else
1043         {
1044           temp = create_tmp_var (type, "retval");
1045           *p = build2 (INIT_EXPR, type, temp, *p);
1046         }
1047
1048       return temp;
1049     }
1050
1051   return NULL_TREE;
1052 }
1053
1054 /* Prepare calls to builtins to SAVE and RESTORE the stack as well as
1055    a temporary through which they communicate.  */
1056
1057 static void
1058 build_stack_save_restore (gimple *save, gimple *restore)
1059 {
1060   tree tmp_var;
1061
1062   *save = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_SAVE], 0);
1063   tmp_var = create_tmp_var (ptr_type_node, "saved_stack");
1064   gimple_call_set_lhs (*save, tmp_var);
1065
1066   *restore = gimple_build_call (implicit_built_in_decls[BUILT_IN_STACK_RESTORE],
1067                             1, tmp_var);
1068 }
1069
1070 /* Gimplify a BIND_EXPR.  Just voidify and recurse.  */
1071
1072 static enum gimplify_status
1073 gimplify_bind_expr (tree *expr_p, gimple_seq *pre_p)
1074 {
1075   tree bind_expr = *expr_p;
1076   bool old_save_stack = gimplify_ctxp->save_stack;
1077   tree t;
1078   gimple gimple_bind;
1079   gimple_seq body;
1080
1081   tree temp = voidify_wrapper_expr (bind_expr, NULL);
1082
1083   /* Mark variables seen in this bind expr.  */
1084   for (t = BIND_EXPR_VARS (bind_expr); t ; t = TREE_CHAIN (t))
1085     {
1086       if (TREE_CODE (t) == VAR_DECL)
1087         {
1088           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1089
1090           /* Mark variable as local.  */
1091           if (ctx && !is_global_var (t)
1092               && (! DECL_SEEN_IN_BIND_EXPR_P (t)
1093                   || splay_tree_lookup (ctx->variables,
1094                                         (splay_tree_key) t) == NULL))
1095             omp_add_variable (gimplify_omp_ctxp, t, GOVD_LOCAL | GOVD_SEEN);
1096
1097           DECL_SEEN_IN_BIND_EXPR_P (t) = 1;
1098
1099           if (DECL_HARD_REGISTER (t) && !is_global_var (t) && cfun)
1100             cfun->has_local_explicit_reg_vars = true;
1101         }
1102
1103       /* Preliminarily mark non-addressed complex variables as eligible
1104          for promotion to gimple registers.  We'll transform their uses
1105          as we find them.
1106          We exclude complex types if not optimizing because they can be
1107          subject to partial stores in GNU C by means of the __real__ and
1108          __imag__ operators and we cannot promote them to total stores
1109          (see gimplify_modify_expr_complex_part).  */
1110       if (optimize
1111           && (TREE_CODE (TREE_TYPE (t)) == COMPLEX_TYPE
1112               || TREE_CODE (TREE_TYPE (t)) == VECTOR_TYPE)
1113           && !TREE_THIS_VOLATILE (t)
1114           && (TREE_CODE (t) == VAR_DECL && !DECL_HARD_REGISTER (t))
1115           && !needs_to_live_in_memory (t))
1116         DECL_GIMPLE_REG_P (t) = 1;
1117     }
1118
1119   gimple_bind = gimple_build_bind (BIND_EXPR_VARS (bind_expr), NULL,
1120                                    BIND_EXPR_BLOCK (bind_expr));
1121   gimple_push_bind_expr (gimple_bind);
1122
1123   gimplify_ctxp->save_stack = false;
1124
1125   /* Gimplify the body into the GIMPLE_BIND tuple's body.  */
1126   body = NULL;
1127   gimplify_stmt (&BIND_EXPR_BODY (bind_expr), &body);
1128   gimple_bind_set_body (gimple_bind, body);
1129
1130   if (gimplify_ctxp->save_stack)
1131     {
1132       gimple stack_save, stack_restore, gs;
1133       gimple_seq cleanup, new_body;
1134
1135       /* Save stack on entry and restore it on exit.  Add a try_finally
1136          block to achieve this.  Note that mudflap depends on the
1137          format of the emitted code: see mx_register_decls().  */
1138       build_stack_save_restore (&stack_save, &stack_restore);
1139
1140       cleanup = new_body = NULL;
1141       gimplify_seq_add_stmt (&cleanup, stack_restore);
1142       gs = gimple_build_try (gimple_bind_body (gimple_bind), cleanup,
1143                              GIMPLE_TRY_FINALLY);
1144
1145       gimplify_seq_add_stmt (&new_body, stack_save);
1146       gimplify_seq_add_stmt (&new_body, gs);
1147       gimple_bind_set_body (gimple_bind, new_body);
1148     }
1149
1150   gimplify_ctxp->save_stack = old_save_stack;
1151   gimple_pop_bind_expr ();
1152
1153   gimplify_seq_add_stmt (pre_p, gimple_bind);
1154
1155   if (temp)
1156     {
1157       *expr_p = temp;
1158       return GS_OK;
1159     }
1160
1161   *expr_p = NULL_TREE;
1162   return GS_ALL_DONE;
1163 }
1164
1165 /* Gimplify a RETURN_EXPR.  If the expression to be returned is not a
1166    GIMPLE value, it is assigned to a new temporary and the statement is
1167    re-written to return the temporary.
1168
1169    PRE_P points to the sequence where side effects that must happen before
1170    STMT should be stored.  */
1171
1172 static enum gimplify_status
1173 gimplify_return_expr (tree stmt, gimple_seq *pre_p)
1174 {
1175   gimple ret;
1176   tree ret_expr = TREE_OPERAND (stmt, 0);
1177   tree result_decl, result;
1178
1179   if (ret_expr == error_mark_node)
1180     return GS_ERROR;
1181
1182   if (!ret_expr
1183       || TREE_CODE (ret_expr) == RESULT_DECL
1184       || ret_expr == error_mark_node)
1185     {
1186       gimple ret = gimple_build_return (ret_expr);
1187       gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1188       gimplify_seq_add_stmt (pre_p, ret);
1189       return GS_ALL_DONE;
1190     }
1191
1192   if (VOID_TYPE_P (TREE_TYPE (TREE_TYPE (current_function_decl))))
1193     result_decl = NULL_TREE;
1194   else
1195     {
1196       result_decl = TREE_OPERAND (ret_expr, 0);
1197
1198       /* See through a return by reference.  */
1199       if (TREE_CODE (result_decl) == INDIRECT_REF)
1200         result_decl = TREE_OPERAND (result_decl, 0);
1201
1202       gcc_assert ((TREE_CODE (ret_expr) == MODIFY_EXPR
1203                    || TREE_CODE (ret_expr) == INIT_EXPR)
1204                   && TREE_CODE (result_decl) == RESULT_DECL);
1205     }
1206
1207   /* If aggregate_value_p is true, then we can return the bare RESULT_DECL.
1208      Recall that aggregate_value_p is FALSE for any aggregate type that is
1209      returned in registers.  If we're returning values in registers, then
1210      we don't want to extend the lifetime of the RESULT_DECL, particularly
1211      across another call.  In addition, for those aggregates for which
1212      hard_function_value generates a PARALLEL, we'll die during normal
1213      expansion of structure assignments; there's special code in expand_return
1214      to handle this case that does not exist in expand_expr.  */
1215   if (!result_decl
1216       || aggregate_value_p (result_decl, TREE_TYPE (current_function_decl)))
1217     result = result_decl;
1218   else if (gimplify_ctxp->return_temp)
1219     result = gimplify_ctxp->return_temp;
1220   else
1221     {
1222       result = create_tmp_var (TREE_TYPE (result_decl), NULL);
1223       if (TREE_CODE (TREE_TYPE (result)) == COMPLEX_TYPE
1224           || TREE_CODE (TREE_TYPE (result)) == VECTOR_TYPE)
1225         DECL_GIMPLE_REG_P (result) = 1;
1226
1227       /* ??? With complex control flow (usually involving abnormal edges),
1228          we can wind up warning about an uninitialized value for this.  Due
1229          to how this variable is constructed and initialized, this is never
1230          true.  Give up and never warn.  */
1231       TREE_NO_WARNING (result) = 1;
1232
1233       gimplify_ctxp->return_temp = result;
1234     }
1235
1236   /* Smash the lhs of the MODIFY_EXPR to the temporary we plan to use.
1237      Then gimplify the whole thing.  */
1238   if (result != result_decl)
1239     TREE_OPERAND (ret_expr, 0) = result;
1240
1241   gimplify_and_add (TREE_OPERAND (stmt, 0), pre_p);
1242
1243   ret = gimple_build_return (result);
1244   gimple_set_no_warning (ret, TREE_NO_WARNING (stmt));
1245   gimplify_seq_add_stmt (pre_p, ret);
1246
1247   return GS_ALL_DONE;
1248 }
1249
1250 static void
1251 gimplify_vla_decl (tree decl, gimple_seq *seq_p)
1252 {
1253   /* This is a variable-sized decl.  Simplify its size and mark it
1254      for deferred expansion.  Note that mudflap depends on the format
1255      of the emitted code: see mx_register_decls().  */
1256   tree t, addr, ptr_type;
1257
1258   gimplify_one_sizepos (&DECL_SIZE (decl), seq_p);
1259   gimplify_one_sizepos (&DECL_SIZE_UNIT (decl), seq_p);
1260
1261   /* All occurrences of this decl in final gimplified code will be
1262      replaced by indirection.  Setting DECL_VALUE_EXPR does two
1263      things: First, it lets the rest of the gimplifier know what
1264      replacement to use.  Second, it lets the debug info know
1265      where to find the value.  */
1266   ptr_type = build_pointer_type (TREE_TYPE (decl));
1267   addr = create_tmp_var (ptr_type, get_name (decl));
1268   DECL_IGNORED_P (addr) = 0;
1269   t = build_fold_indirect_ref (addr);
1270   SET_DECL_VALUE_EXPR (decl, t);
1271   DECL_HAS_VALUE_EXPR_P (decl) = 1;
1272
1273   t = built_in_decls[BUILT_IN_ALLOCA];
1274   t = build_call_expr (t, 1, DECL_SIZE_UNIT (decl));
1275   t = fold_convert (ptr_type, t);
1276   t = build2 (MODIFY_EXPR, TREE_TYPE (addr), addr, t);
1277
1278   gimplify_and_add (t, seq_p);
1279
1280   /* Indicate that we need to restore the stack level when the
1281      enclosing BIND_EXPR is exited.  */
1282   gimplify_ctxp->save_stack = true;
1283 }
1284
1285
1286 /* Gimplifies a DECL_EXPR node *STMT_P by making any necessary allocation
1287    and initialization explicit.  */
1288
1289 static enum gimplify_status
1290 gimplify_decl_expr (tree *stmt_p, gimple_seq *seq_p)
1291 {
1292   tree stmt = *stmt_p;
1293   tree decl = DECL_EXPR_DECL (stmt);
1294
1295   *stmt_p = NULL_TREE;
1296
1297   if (TREE_TYPE (decl) == error_mark_node)
1298     return GS_ERROR;
1299
1300   if ((TREE_CODE (decl) == TYPE_DECL
1301        || TREE_CODE (decl) == VAR_DECL)
1302       && !TYPE_SIZES_GIMPLIFIED (TREE_TYPE (decl)))
1303     gimplify_type_sizes (TREE_TYPE (decl), seq_p);
1304
1305   if (TREE_CODE (decl) == VAR_DECL && !DECL_EXTERNAL (decl))
1306     {
1307       tree init = DECL_INITIAL (decl);
1308
1309       if (TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1310           || (!TREE_STATIC (decl)
1311               && flag_stack_check == GENERIC_STACK_CHECK
1312               && compare_tree_int (DECL_SIZE_UNIT (decl),
1313                                    STACK_CHECK_MAX_VAR_SIZE) > 0))
1314         gimplify_vla_decl (decl, seq_p);
1315
1316       if (init && init != error_mark_node)
1317         {
1318           if (!TREE_STATIC (decl))
1319             {
1320               DECL_INITIAL (decl) = NULL_TREE;
1321               init = build2 (INIT_EXPR, void_type_node, decl, init);
1322               gimplify_and_add (init, seq_p);
1323               ggc_free (init);
1324             }
1325           else
1326             /* We must still examine initializers for static variables
1327                as they may contain a label address.  */
1328             walk_tree (&init, force_labels_r, NULL, NULL);
1329         }
1330
1331       /* Some front ends do not explicitly declare all anonymous
1332          artificial variables.  We compensate here by declaring the
1333          variables, though it would be better if the front ends would
1334          explicitly declare them.  */
1335       if (!DECL_SEEN_IN_BIND_EXPR_P (decl)
1336           && DECL_ARTIFICIAL (decl) && DECL_NAME (decl) == NULL_TREE)
1337         gimple_add_tmp_var (decl);
1338     }
1339
1340   return GS_ALL_DONE;
1341 }
1342
1343 /* Gimplify a LOOP_EXPR.  Normally this just involves gimplifying the body
1344    and replacing the LOOP_EXPR with goto, but if the loop contains an
1345    EXIT_EXPR, we need to append a label for it to jump to.  */
1346
1347 static enum gimplify_status
1348 gimplify_loop_expr (tree *expr_p, gimple_seq *pre_p)
1349 {
1350   tree saved_label = gimplify_ctxp->exit_label;
1351   tree start_label = create_artificial_label (UNKNOWN_LOCATION);
1352
1353   gimplify_seq_add_stmt (pre_p, gimple_build_label (start_label));
1354
1355   gimplify_ctxp->exit_label = NULL_TREE;
1356
1357   gimplify_and_add (LOOP_EXPR_BODY (*expr_p), pre_p);
1358
1359   gimplify_seq_add_stmt (pre_p, gimple_build_goto (start_label));
1360
1361   if (gimplify_ctxp->exit_label)
1362     gimplify_seq_add_stmt (pre_p, gimple_build_label (gimplify_ctxp->exit_label));
1363
1364   gimplify_ctxp->exit_label = saved_label;
1365
1366   *expr_p = NULL;
1367   return GS_ALL_DONE;
1368 }
1369
1370 /* Gimplifies a statement list onto a sequence.  These may be created either
1371    by an enlightened front-end, or by shortcut_cond_expr.  */
1372
1373 static enum gimplify_status
1374 gimplify_statement_list (tree *expr_p, gimple_seq *pre_p)
1375 {
1376   tree temp = voidify_wrapper_expr (*expr_p, NULL);
1377
1378   tree_stmt_iterator i = tsi_start (*expr_p);
1379
1380   while (!tsi_end_p (i))
1381     {
1382       gimplify_stmt (tsi_stmt_ptr (i), pre_p);
1383       tsi_delink (&i);
1384     }
1385
1386   if (temp)
1387     {
1388       *expr_p = temp;
1389       return GS_OK;
1390     }
1391
1392   return GS_ALL_DONE;
1393 }
1394
1395 /* Compare two case labels.  Because the front end should already have
1396    made sure that case ranges do not overlap, it is enough to only compare
1397    the CASE_LOW values of each case label.  */
1398
1399 static int
1400 compare_case_labels (const void *p1, const void *p2)
1401 {
1402   const_tree const case1 = *(const_tree const*)p1;
1403   const_tree const case2 = *(const_tree const*)p2;
1404
1405   /* The 'default' case label always goes first.  */
1406   if (!CASE_LOW (case1))
1407     return -1;
1408   else if (!CASE_LOW (case2))
1409     return 1;
1410   else
1411     return tree_int_cst_compare (CASE_LOW (case1), CASE_LOW (case2));
1412 }
1413
1414
1415 /* Sort the case labels in LABEL_VEC in place in ascending order.  */
1416
1417 void
1418 sort_case_labels (VEC(tree,heap)* label_vec)
1419 {
1420   size_t len = VEC_length (tree, label_vec);
1421   qsort (VEC_address (tree, label_vec), len, sizeof (tree),
1422          compare_case_labels);
1423 }
1424
1425
1426 /* Gimplify a SWITCH_EXPR, and collect a TREE_VEC of the labels it can
1427    branch to.  */
1428
1429 static enum gimplify_status
1430 gimplify_switch_expr (tree *expr_p, gimple_seq *pre_p)
1431 {
1432   tree switch_expr = *expr_p;
1433   gimple_seq switch_body_seq = NULL;
1434   enum gimplify_status ret;
1435
1436   ret = gimplify_expr (&SWITCH_COND (switch_expr), pre_p, NULL, is_gimple_val,
1437                        fb_rvalue);
1438   if (ret == GS_ERROR || ret == GS_UNHANDLED)
1439     return ret;
1440
1441   if (SWITCH_BODY (switch_expr))
1442     {
1443       VEC (tree,heap) *labels;
1444       VEC (tree,heap) *saved_labels;
1445       tree default_case = NULL_TREE;
1446       size_t i, len;
1447       gimple gimple_switch;
1448
1449       /* If someone can be bothered to fill in the labels, they can
1450          be bothered to null out the body too.  */
1451       gcc_assert (!SWITCH_LABELS (switch_expr));
1452
1453       /* save old labels, get new ones from body, then restore the old
1454          labels.  Save all the things from the switch body to append after.  */
1455       saved_labels = gimplify_ctxp->case_labels;
1456       gimplify_ctxp->case_labels = VEC_alloc (tree, heap, 8);
1457
1458       gimplify_stmt (&SWITCH_BODY (switch_expr), &switch_body_seq);
1459       labels = gimplify_ctxp->case_labels;
1460       gimplify_ctxp->case_labels = saved_labels;
1461
1462       i = 0;
1463       while (i < VEC_length (tree, labels))
1464         {
1465           tree elt = VEC_index (tree, labels, i);
1466           tree low = CASE_LOW (elt);
1467           bool remove_element = FALSE;
1468
1469           if (low)
1470             {
1471               /* Discard empty ranges.  */
1472               tree high = CASE_HIGH (elt);
1473               if (high && tree_int_cst_lt (high, low))
1474                 remove_element = TRUE;
1475             }
1476           else
1477             {
1478               /* The default case must be the last label in the list.  */
1479               gcc_assert (!default_case);
1480               default_case = elt;
1481               remove_element = TRUE;
1482             }
1483
1484           if (remove_element)
1485             VEC_ordered_remove (tree, labels, i);
1486           else
1487             i++;
1488         }
1489       len = i;
1490
1491       if (!VEC_empty (tree, labels))
1492         sort_case_labels (labels);
1493
1494       if (!default_case)
1495         {
1496           tree type = TREE_TYPE (switch_expr);
1497
1498           /* If the switch has no default label, add one, so that we jump
1499              around the switch body.  If the labels already cover the whole
1500              range of type, add the default label pointing to one of the
1501              existing labels.  */
1502           if (type == void_type_node)
1503             type = TREE_TYPE (SWITCH_COND (switch_expr));
1504           if (len
1505               && INTEGRAL_TYPE_P (type)
1506               && TYPE_MIN_VALUE (type)
1507               && TYPE_MAX_VALUE (type)
1508               && tree_int_cst_equal (CASE_LOW (VEC_index (tree, labels, 0)),
1509                                      TYPE_MIN_VALUE (type)))
1510             {
1511               tree low, high = CASE_HIGH (VEC_index (tree, labels, len - 1));
1512               if (!high)
1513                 high = CASE_LOW (VEC_index (tree, labels, len - 1));
1514               if (tree_int_cst_equal (high, TYPE_MAX_VALUE (type)))
1515                 {
1516                   for (i = 1; i < len; i++)
1517                     {
1518                       high = CASE_LOW (VEC_index (tree, labels, i));
1519                       low = CASE_HIGH (VEC_index (tree, labels, i - 1));
1520                       if (!low)
1521                         low = CASE_LOW (VEC_index (tree, labels, i - 1));
1522                       if ((TREE_INT_CST_LOW (low) + 1
1523                            != TREE_INT_CST_LOW (high))
1524                           || (TREE_INT_CST_HIGH (low)
1525                               + (TREE_INT_CST_LOW (high) == 0)
1526                               != TREE_INT_CST_HIGH (high)))
1527                         break;
1528                     }
1529                   if (i == len)
1530                     default_case = build3 (CASE_LABEL_EXPR, void_type_node,
1531                                            NULL_TREE, NULL_TREE,
1532                                            CASE_LABEL (VEC_index (tree,
1533                                                                   labels, 0)));
1534                 }
1535             }
1536
1537           if (!default_case)
1538             {
1539               gimple new_default;
1540
1541               default_case
1542                 = build3 (CASE_LABEL_EXPR, void_type_node,
1543                           NULL_TREE, NULL_TREE,
1544                           create_artificial_label (UNKNOWN_LOCATION));
1545               new_default = gimple_build_label (CASE_LABEL (default_case));
1546               gimplify_seq_add_stmt (&switch_body_seq, new_default);
1547             }
1548         }
1549
1550       gimple_switch = gimple_build_switch_vec (SWITCH_COND (switch_expr),
1551                                                default_case, labels);
1552       gimplify_seq_add_stmt (pre_p, gimple_switch);
1553       gimplify_seq_add_seq (pre_p, switch_body_seq);
1554       VEC_free(tree, heap, labels);
1555     }
1556   else
1557     gcc_assert (SWITCH_LABELS (switch_expr));
1558
1559   return GS_ALL_DONE;
1560 }
1561
1562
1563 static enum gimplify_status
1564 gimplify_case_label_expr (tree *expr_p, gimple_seq *pre_p)
1565 {
1566   struct gimplify_ctx *ctxp;
1567   gimple gimple_label;
1568
1569   /* Invalid OpenMP programs can play Duff's Device type games with
1570      #pragma omp parallel.  At least in the C front end, we don't
1571      detect such invalid branches until after gimplification.  */
1572   for (ctxp = gimplify_ctxp; ; ctxp = ctxp->prev_context)
1573     if (ctxp->case_labels)
1574       break;
1575
1576   gimple_label = gimple_build_label (CASE_LABEL (*expr_p));
1577   VEC_safe_push (tree, heap, ctxp->case_labels, *expr_p);
1578   gimplify_seq_add_stmt (pre_p, gimple_label);
1579
1580   return GS_ALL_DONE;
1581 }
1582
1583 /* Build a GOTO to the LABEL_DECL pointed to by LABEL_P, building it first
1584    if necessary.  */
1585
1586 tree
1587 build_and_jump (tree *label_p)
1588 {
1589   if (label_p == NULL)
1590     /* If there's nowhere to jump, just fall through.  */
1591     return NULL_TREE;
1592
1593   if (*label_p == NULL_TREE)
1594     {
1595       tree label = create_artificial_label (UNKNOWN_LOCATION);
1596       *label_p = label;
1597     }
1598
1599   return build1 (GOTO_EXPR, void_type_node, *label_p);
1600 }
1601
1602 /* Gimplify an EXIT_EXPR by converting to a GOTO_EXPR inside a COND_EXPR.
1603    This also involves building a label to jump to and communicating it to
1604    gimplify_loop_expr through gimplify_ctxp->exit_label.  */
1605
1606 static enum gimplify_status
1607 gimplify_exit_expr (tree *expr_p)
1608 {
1609   tree cond = TREE_OPERAND (*expr_p, 0);
1610   tree expr;
1611
1612   expr = build_and_jump (&gimplify_ctxp->exit_label);
1613   expr = build3 (COND_EXPR, void_type_node, cond, expr, NULL_TREE);
1614   *expr_p = expr;
1615
1616   return GS_OK;
1617 }
1618
1619 /* A helper function to be called via walk_tree.  Mark all labels under *TP
1620    as being forced.  To be called for DECL_INITIAL of static variables.  */
1621
1622 tree
1623 force_labels_r (tree *tp, int *walk_subtrees, void *data ATTRIBUTE_UNUSED)
1624 {
1625   if (TYPE_P (*tp))
1626     *walk_subtrees = 0;
1627   if (TREE_CODE (*tp) == LABEL_DECL)
1628     FORCED_LABEL (*tp) = 1;
1629
1630   return NULL_TREE;
1631 }
1632
1633 /* *EXPR_P is a COMPONENT_REF being used as an rvalue.  If its type is
1634    different from its canonical type, wrap the whole thing inside a
1635    NOP_EXPR and force the type of the COMPONENT_REF to be the canonical
1636    type.
1637
1638    The canonical type of a COMPONENT_REF is the type of the field being
1639    referenced--unless the field is a bit-field which can be read directly
1640    in a smaller mode, in which case the canonical type is the
1641    sign-appropriate type corresponding to that mode.  */
1642
1643 static void
1644 canonicalize_component_ref (tree *expr_p)
1645 {
1646   tree expr = *expr_p;
1647   tree type;
1648
1649   gcc_assert (TREE_CODE (expr) == COMPONENT_REF);
1650
1651   if (INTEGRAL_TYPE_P (TREE_TYPE (expr)))
1652     type = TREE_TYPE (get_unwidened (expr, NULL_TREE));
1653   else
1654     type = TREE_TYPE (TREE_OPERAND (expr, 1));
1655
1656   /* One could argue that all the stuff below is not necessary for
1657      the non-bitfield case and declare it a FE error if type
1658      adjustment would be needed.  */
1659   if (TREE_TYPE (expr) != type)
1660     {
1661 #ifdef ENABLE_TYPES_CHECKING
1662       tree old_type = TREE_TYPE (expr);
1663 #endif
1664       int type_quals;
1665
1666       /* We need to preserve qualifiers and propagate them from
1667          operand 0.  */
1668       type_quals = TYPE_QUALS (type)
1669         | TYPE_QUALS (TREE_TYPE (TREE_OPERAND (expr, 0)));
1670       if (TYPE_QUALS (type) != type_quals)
1671         type = build_qualified_type (TYPE_MAIN_VARIANT (type), type_quals);
1672
1673       /* Set the type of the COMPONENT_REF to the underlying type.  */
1674       TREE_TYPE (expr) = type;
1675
1676 #ifdef ENABLE_TYPES_CHECKING
1677       /* It is now a FE error, if the conversion from the canonical
1678          type to the original expression type is not useless.  */
1679       gcc_assert (useless_type_conversion_p (old_type, type));
1680 #endif
1681     }
1682 }
1683
1684 /* If a NOP conversion is changing a pointer to array of foo to a pointer
1685    to foo, embed that change in the ADDR_EXPR by converting
1686       T array[U];
1687       (T *)&array
1688    ==>
1689       &array[L]
1690    where L is the lower bound.  For simplicity, only do this for constant
1691    lower bound.
1692    The constraint is that the type of &array[L] is trivially convertible
1693    to T *.  */
1694
1695 static void
1696 canonicalize_addr_expr (tree *expr_p)
1697 {
1698   tree expr = *expr_p;
1699   tree addr_expr = TREE_OPERAND (expr, 0);
1700   tree datype, ddatype, pddatype;
1701
1702   /* We simplify only conversions from an ADDR_EXPR to a pointer type.  */
1703   if (!POINTER_TYPE_P (TREE_TYPE (expr))
1704       || TREE_CODE (addr_expr) != ADDR_EXPR)
1705     return;
1706
1707   /* The addr_expr type should be a pointer to an array.  */
1708   datype = TREE_TYPE (TREE_TYPE (addr_expr));
1709   if (TREE_CODE (datype) != ARRAY_TYPE)
1710     return;
1711
1712   /* The pointer to element type shall be trivially convertible to
1713      the expression pointer type.  */
1714   ddatype = TREE_TYPE (datype);
1715   pddatype = build_pointer_type (ddatype);
1716   if (!useless_type_conversion_p (TYPE_MAIN_VARIANT (TREE_TYPE (expr)),
1717                                   pddatype))
1718     return;
1719
1720   /* The lower bound and element sizes must be constant.  */
1721   if (!TYPE_SIZE_UNIT (ddatype)
1722       || TREE_CODE (TYPE_SIZE_UNIT (ddatype)) != INTEGER_CST
1723       || !TYPE_DOMAIN (datype) || !TYPE_MIN_VALUE (TYPE_DOMAIN (datype))
1724       || TREE_CODE (TYPE_MIN_VALUE (TYPE_DOMAIN (datype))) != INTEGER_CST)
1725     return;
1726
1727   /* All checks succeeded.  Build a new node to merge the cast.  */
1728   *expr_p = build4 (ARRAY_REF, ddatype, TREE_OPERAND (addr_expr, 0),
1729                     TYPE_MIN_VALUE (TYPE_DOMAIN (datype)),
1730                     NULL_TREE, NULL_TREE);
1731   *expr_p = build1 (ADDR_EXPR, pddatype, *expr_p);
1732
1733   /* We can have stripped a required restrict qualifier above.  */
1734   if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
1735     *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
1736 }
1737
1738 /* *EXPR_P is a NOP_EXPR or CONVERT_EXPR.  Remove it and/or other conversions
1739    underneath as appropriate.  */
1740
1741 static enum gimplify_status
1742 gimplify_conversion (tree *expr_p)
1743 {
1744   tree tem;
1745   location_t loc = EXPR_LOCATION (*expr_p);
1746   gcc_assert (CONVERT_EXPR_P (*expr_p));
1747
1748   /* Then strip away all but the outermost conversion.  */
1749   STRIP_SIGN_NOPS (TREE_OPERAND (*expr_p, 0));
1750
1751   /* And remove the outermost conversion if it's useless.  */
1752   if (tree_ssa_useless_type_conversion (*expr_p))
1753     *expr_p = TREE_OPERAND (*expr_p, 0);
1754
1755   /* Attempt to avoid NOP_EXPR by producing reference to a subtype.
1756      For example this fold (subclass *)&A into &A->subclass avoiding
1757      a need for statement.  */
1758   if (CONVERT_EXPR_P (*expr_p)
1759       && POINTER_TYPE_P (TREE_TYPE (*expr_p))
1760       && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (*expr_p, 0)))
1761       && (tem = maybe_fold_offset_to_address
1762           (EXPR_LOCATION (*expr_p), TREE_OPERAND (*expr_p, 0),
1763            integer_zero_node, TREE_TYPE (*expr_p))) != NULL_TREE)
1764     *expr_p = tem;
1765
1766   /* If we still have a conversion at the toplevel,
1767      then canonicalize some constructs.  */
1768   if (CONVERT_EXPR_P (*expr_p))
1769     {
1770       tree sub = TREE_OPERAND (*expr_p, 0);
1771
1772       /* If a NOP conversion is changing the type of a COMPONENT_REF
1773          expression, then canonicalize its type now in order to expose more
1774          redundant conversions.  */
1775       if (TREE_CODE (sub) == COMPONENT_REF)
1776         canonicalize_component_ref (&TREE_OPERAND (*expr_p, 0));
1777
1778       /* If a NOP conversion is changing a pointer to array of foo
1779          to a pointer to foo, embed that change in the ADDR_EXPR.  */
1780       else if (TREE_CODE (sub) == ADDR_EXPR)
1781         canonicalize_addr_expr (expr_p);
1782     }
1783
1784   /* If we have a conversion to a non-register type force the
1785      use of a VIEW_CONVERT_EXPR instead.  */
1786   if (CONVERT_EXPR_P (*expr_p) && !is_gimple_reg_type (TREE_TYPE (*expr_p)))
1787     *expr_p = fold_build1_loc (loc, VIEW_CONVERT_EXPR, TREE_TYPE (*expr_p),
1788                                TREE_OPERAND (*expr_p, 0));
1789
1790   return GS_OK;
1791 }
1792
1793 /* Nonlocal VLAs seen in the current function.  */
1794 static struct pointer_set_t *nonlocal_vlas;
1795
1796 /* Gimplify a VAR_DECL or PARM_DECL.  Returns GS_OK if we expanded a
1797    DECL_VALUE_EXPR, and it's worth re-examining things.  */
1798
1799 static enum gimplify_status
1800 gimplify_var_or_parm_decl (tree *expr_p)
1801 {
1802   tree decl = *expr_p;
1803
1804   /* ??? If this is a local variable, and it has not been seen in any
1805      outer BIND_EXPR, then it's probably the result of a duplicate
1806      declaration, for which we've already issued an error.  It would
1807      be really nice if the front end wouldn't leak these at all.
1808      Currently the only known culprit is C++ destructors, as seen
1809      in g++.old-deja/g++.jason/binding.C.  */
1810   if (TREE_CODE (decl) == VAR_DECL
1811       && !DECL_SEEN_IN_BIND_EXPR_P (decl)
1812       && !TREE_STATIC (decl) && !DECL_EXTERNAL (decl)
1813       && decl_function_context (decl) == current_function_decl)
1814     {
1815       gcc_assert (errorcount || sorrycount);
1816       return GS_ERROR;
1817     }
1818
1819   /* When within an OpenMP context, notice uses of variables.  */
1820   if (gimplify_omp_ctxp && omp_notice_variable (gimplify_omp_ctxp, decl, true))
1821     return GS_ALL_DONE;
1822
1823   /* If the decl is an alias for another expression, substitute it now.  */
1824   if (DECL_HAS_VALUE_EXPR_P (decl))
1825     {
1826       tree value_expr = DECL_VALUE_EXPR (decl);
1827
1828       /* For referenced nonlocal VLAs add a decl for debugging purposes
1829          to the current function.  */
1830       if (TREE_CODE (decl) == VAR_DECL
1831           && TREE_CODE (DECL_SIZE_UNIT (decl)) != INTEGER_CST
1832           && nonlocal_vlas != NULL
1833           && TREE_CODE (value_expr) == INDIRECT_REF
1834           && TREE_CODE (TREE_OPERAND (value_expr, 0)) == VAR_DECL
1835           && decl_function_context (decl) != current_function_decl)
1836         {
1837           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
1838           while (ctx && ctx->region_type == ORT_WORKSHARE)
1839             ctx = ctx->outer_context;
1840           if (!ctx && !pointer_set_insert (nonlocal_vlas, decl))
1841             {
1842               tree copy = copy_node (decl), block;
1843
1844               lang_hooks.dup_lang_specific_decl (copy);
1845               SET_DECL_RTL (copy, NULL_RTX);
1846               TREE_USED (copy) = 1;
1847               block = DECL_INITIAL (current_function_decl);
1848               TREE_CHAIN (copy) = BLOCK_VARS (block);
1849               BLOCK_VARS (block) = copy;
1850               SET_DECL_VALUE_EXPR (copy, unshare_expr (value_expr));
1851               DECL_HAS_VALUE_EXPR_P (copy) = 1;
1852             }
1853         }
1854
1855       *expr_p = unshare_expr (value_expr);
1856       return GS_OK;
1857     }
1858
1859   return GS_ALL_DONE;
1860 }
1861
1862
1863 /* Gimplify the COMPONENT_REF, ARRAY_REF, REALPART_EXPR or IMAGPART_EXPR
1864    node *EXPR_P.
1865
1866       compound_lval
1867               : min_lval '[' val ']'
1868               | min_lval '.' ID
1869               | compound_lval '[' val ']'
1870               | compound_lval '.' ID
1871
1872    This is not part of the original SIMPLE definition, which separates
1873    array and member references, but it seems reasonable to handle them
1874    together.  Also, this way we don't run into problems with union
1875    aliasing; gcc requires that for accesses through a union to alias, the
1876    union reference must be explicit, which was not always the case when we
1877    were splitting up array and member refs.
1878
1879    PRE_P points to the sequence where side effects that must happen before
1880      *EXPR_P should be stored.
1881
1882    POST_P points to the sequence where side effects that must happen after
1883      *EXPR_P should be stored.  */
1884
1885 static enum gimplify_status
1886 gimplify_compound_lval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
1887                         fallback_t fallback)
1888 {
1889   tree *p;
1890   VEC(tree,heap) *stack;
1891   enum gimplify_status ret = GS_OK, tret;
1892   int i;
1893   location_t loc = EXPR_LOCATION (*expr_p);
1894
1895   /* Create a stack of the subexpressions so later we can walk them in
1896      order from inner to outer.  */
1897   stack = VEC_alloc (tree, heap, 10);
1898
1899   /* We can handle anything that get_inner_reference can deal with.  */
1900   for (p = expr_p; ; p = &TREE_OPERAND (*p, 0))
1901     {
1902     restart:
1903       /* Fold INDIRECT_REFs now to turn them into ARRAY_REFs.  */
1904       if (TREE_CODE (*p) == INDIRECT_REF)
1905         *p = fold_indirect_ref_loc (loc, *p);
1906
1907       if (handled_component_p (*p))
1908         ;
1909       /* Expand DECL_VALUE_EXPR now.  In some cases that may expose
1910          additional COMPONENT_REFs.  */
1911       else if ((TREE_CODE (*p) == VAR_DECL || TREE_CODE (*p) == PARM_DECL)
1912                && gimplify_var_or_parm_decl (p) == GS_OK)
1913         goto restart;
1914       else
1915         break;
1916
1917       VEC_safe_push (tree, heap, stack, *p);
1918     }
1919
1920   gcc_assert (VEC_length (tree, stack));
1921
1922   /* Now STACK is a stack of pointers to all the refs we've walked through
1923      and P points to the innermost expression.
1924
1925      Java requires that we elaborated nodes in source order.  That
1926      means we must gimplify the inner expression followed by each of
1927      the indices, in order.  But we can't gimplify the inner
1928      expression until we deal with any variable bounds, sizes, or
1929      positions in order to deal with PLACEHOLDER_EXPRs.
1930
1931      So we do this in three steps.  First we deal with the annotations
1932      for any variables in the components, then we gimplify the base,
1933      then we gimplify any indices, from left to right.  */
1934   for (i = VEC_length (tree, stack) - 1; i >= 0; i--)
1935     {
1936       tree t = VEC_index (tree, stack, i);
1937
1938       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
1939         {
1940           /* Gimplify the low bound and element type size and put them into
1941              the ARRAY_REF.  If these values are set, they have already been
1942              gimplified.  */
1943           if (TREE_OPERAND (t, 2) == NULL_TREE)
1944             {
1945               tree low = unshare_expr (array_ref_low_bound (t));
1946               if (!is_gimple_min_invariant (low))
1947                 {
1948                   TREE_OPERAND (t, 2) = low;
1949                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
1950                                         post_p, is_gimple_reg,
1951                                         fb_rvalue);
1952                   ret = MIN (ret, tret);
1953                 }
1954             }
1955
1956           if (!TREE_OPERAND (t, 3))
1957             {
1958               tree elmt_type = TREE_TYPE (TREE_TYPE (TREE_OPERAND (t, 0)));
1959               tree elmt_size = unshare_expr (array_ref_element_size (t));
1960               tree factor = size_int (TYPE_ALIGN_UNIT (elmt_type));
1961
1962               /* Divide the element size by the alignment of the element
1963                  type (above).  */
1964               elmt_size = size_binop_loc (loc, EXACT_DIV_EXPR, elmt_size, factor);
1965
1966               if (!is_gimple_min_invariant (elmt_size))
1967                 {
1968                   TREE_OPERAND (t, 3) = elmt_size;
1969                   tret = gimplify_expr (&TREE_OPERAND (t, 3), pre_p,
1970                                         post_p, is_gimple_reg,
1971                                         fb_rvalue);
1972                   ret = MIN (ret, tret);
1973                 }
1974             }
1975         }
1976       else if (TREE_CODE (t) == COMPONENT_REF)
1977         {
1978           /* Set the field offset into T and gimplify it.  */
1979           if (!TREE_OPERAND (t, 2))
1980             {
1981               tree offset = unshare_expr (component_ref_field_offset (t));
1982               tree field = TREE_OPERAND (t, 1);
1983               tree factor
1984                 = size_int (DECL_OFFSET_ALIGN (field) / BITS_PER_UNIT);
1985
1986               /* Divide the offset by its alignment.  */
1987               offset = size_binop_loc (loc, EXACT_DIV_EXPR, offset, factor);
1988
1989               if (!is_gimple_min_invariant (offset))
1990                 {
1991                   TREE_OPERAND (t, 2) = offset;
1992                   tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p,
1993                                         post_p, is_gimple_reg,
1994                                         fb_rvalue);
1995                   ret = MIN (ret, tret);
1996                 }
1997             }
1998         }
1999     }
2000
2001   /* Step 2 is to gimplify the base expression.  Make sure lvalue is set
2002      so as to match the min_lval predicate.  Failure to do so may result
2003      in the creation of large aggregate temporaries.  */
2004   tret = gimplify_expr (p, pre_p, post_p, is_gimple_min_lval,
2005                         fallback | fb_lvalue);
2006   ret = MIN (ret, tret);
2007
2008   /* And finally, the indices and operands to BIT_FIELD_REF.  During this
2009      loop we also remove any useless conversions.  */
2010   for (; VEC_length (tree, stack) > 0; )
2011     {
2012       tree t = VEC_pop (tree, stack);
2013
2014       if (TREE_CODE (t) == ARRAY_REF || TREE_CODE (t) == ARRAY_RANGE_REF)
2015         {
2016           /* Gimplify the dimension.  */
2017           if (!is_gimple_min_invariant (TREE_OPERAND (t, 1)))
2018             {
2019               tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2020                                     is_gimple_val, fb_rvalue);
2021               ret = MIN (ret, tret);
2022             }
2023         }
2024       else if (TREE_CODE (t) == BIT_FIELD_REF)
2025         {
2026           tret = gimplify_expr (&TREE_OPERAND (t, 1), pre_p, post_p,
2027                                 is_gimple_val, fb_rvalue);
2028           ret = MIN (ret, tret);
2029           tret = gimplify_expr (&TREE_OPERAND (t, 2), pre_p, post_p,
2030                                 is_gimple_val, fb_rvalue);
2031           ret = MIN (ret, tret);
2032         }
2033
2034       STRIP_USELESS_TYPE_CONVERSION (TREE_OPERAND (t, 0));
2035
2036       /* The innermost expression P may have originally had
2037          TREE_SIDE_EFFECTS set which would have caused all the outer
2038          expressions in *EXPR_P leading to P to also have had
2039          TREE_SIDE_EFFECTS set.  */
2040       recalculate_side_effects (t);
2041     }
2042
2043   /* If the outermost expression is a COMPONENT_REF, canonicalize its type.  */
2044   if ((fallback & fb_rvalue) && TREE_CODE (*expr_p) == COMPONENT_REF)
2045     {
2046       canonicalize_component_ref (expr_p);
2047       ret = MIN (ret, GS_OK);
2048     }
2049
2050   VEC_free (tree, heap, stack);
2051
2052   return ret;
2053 }
2054
2055 /*  Gimplify the self modifying expression pointed to by EXPR_P
2056     (++, --, +=, -=).
2057
2058     PRE_P points to the list where side effects that must happen before
2059         *EXPR_P should be stored.
2060
2061     POST_P points to the list where side effects that must happen after
2062         *EXPR_P should be stored.
2063
2064     WANT_VALUE is nonzero iff we want to use the value of this expression
2065         in another expression.  */
2066
2067 static enum gimplify_status
2068 gimplify_self_mod_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
2069                         bool want_value)
2070 {
2071   enum tree_code code;
2072   tree lhs, lvalue, rhs, t1;
2073   gimple_seq post = NULL, *orig_post_p = post_p;
2074   bool postfix;
2075   enum tree_code arith_code;
2076   enum gimplify_status ret;
2077   location_t loc = EXPR_LOCATION (*expr_p);
2078
2079   code = TREE_CODE (*expr_p);
2080
2081   gcc_assert (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR
2082               || code == PREINCREMENT_EXPR || code == PREDECREMENT_EXPR);
2083
2084   /* Prefix or postfix?  */
2085   if (code == POSTINCREMENT_EXPR || code == POSTDECREMENT_EXPR)
2086     /* Faster to treat as prefix if result is not used.  */
2087     postfix = want_value;
2088   else
2089     postfix = false;
2090
2091   /* For postfix, make sure the inner expression's post side effects
2092      are executed after side effects from this expression.  */
2093   if (postfix)
2094     post_p = &post;
2095
2096   /* Add or subtract?  */
2097   if (code == PREINCREMENT_EXPR || code == POSTINCREMENT_EXPR)
2098     arith_code = PLUS_EXPR;
2099   else
2100     arith_code = MINUS_EXPR;
2101
2102   /* Gimplify the LHS into a GIMPLE lvalue.  */
2103   lvalue = TREE_OPERAND (*expr_p, 0);
2104   ret = gimplify_expr (&lvalue, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
2105   if (ret == GS_ERROR)
2106     return ret;
2107
2108   /* Extract the operands to the arithmetic operation.  */
2109   lhs = lvalue;
2110   rhs = TREE_OPERAND (*expr_p, 1);
2111
2112   /* For postfix operator, we evaluate the LHS to an rvalue and then use
2113      that as the result value and in the postqueue operation.  We also
2114      make sure to make lvalue a minimal lval, see
2115      gcc.c-torture/execute/20040313-1.c for an example where this matters.  */
2116   if (postfix)
2117     {
2118       if (!is_gimple_min_lval (lvalue))
2119         {
2120           mark_addressable (lvalue);
2121           lvalue = build_fold_addr_expr_loc (input_location, lvalue);
2122           gimplify_expr (&lvalue, pre_p, post_p, is_gimple_val, fb_rvalue);
2123           lvalue = build_fold_indirect_ref_loc (input_location, lvalue);
2124         }
2125       ret = gimplify_expr (&lhs, pre_p, post_p, is_gimple_val, fb_rvalue);
2126       if (ret == GS_ERROR)
2127         return ret;
2128     }
2129
2130   /* For POINTERs increment, use POINTER_PLUS_EXPR.  */
2131   if (POINTER_TYPE_P (TREE_TYPE (lhs)))
2132     {
2133       rhs = fold_convert_loc (loc, sizetype, rhs);
2134       if (arith_code == MINUS_EXPR)
2135         rhs = fold_build1_loc (loc, NEGATE_EXPR, TREE_TYPE (rhs), rhs);
2136       arith_code = POINTER_PLUS_EXPR;
2137     }
2138
2139   t1 = build2 (arith_code, TREE_TYPE (*expr_p), lhs, rhs);
2140
2141   if (postfix)
2142     {
2143       gimplify_assign (lvalue, t1, orig_post_p);
2144       gimplify_seq_add_seq (orig_post_p, post);
2145       *expr_p = lhs;
2146       return GS_ALL_DONE;
2147     }
2148   else
2149     {
2150       *expr_p = build2 (MODIFY_EXPR, TREE_TYPE (lvalue), lvalue, t1);
2151       return GS_OK;
2152     }
2153 }
2154
2155
2156 /* If *EXPR_P has a variable sized type, wrap it in a WITH_SIZE_EXPR.  */
2157
2158 static void
2159 maybe_with_size_expr (tree *expr_p)
2160 {
2161   tree expr = *expr_p;
2162   tree type = TREE_TYPE (expr);
2163   tree size;
2164
2165   /* If we've already wrapped this or the type is error_mark_node, we can't do
2166      anything.  */
2167   if (TREE_CODE (expr) == WITH_SIZE_EXPR
2168       || type == error_mark_node)
2169     return;
2170
2171   /* If the size isn't known or is a constant, we have nothing to do.  */
2172   size = TYPE_SIZE_UNIT (type);
2173   if (!size || TREE_CODE (size) == INTEGER_CST)
2174     return;
2175
2176   /* Otherwise, make a WITH_SIZE_EXPR.  */
2177   size = unshare_expr (size);
2178   size = SUBSTITUTE_PLACEHOLDER_IN_EXPR (size, expr);
2179   *expr_p = build2 (WITH_SIZE_EXPR, type, expr, size);
2180 }
2181
2182
2183 /* Helper for gimplify_call_expr.  Gimplify a single argument *ARG_P
2184    Store any side-effects in PRE_P.  CALL_LOCATION is the location of
2185    the CALL_EXPR.  */
2186
2187 static enum gimplify_status
2188 gimplify_arg (tree *arg_p, gimple_seq *pre_p, location_t call_location)
2189 {
2190   bool (*test) (tree);
2191   fallback_t fb;
2192
2193   /* In general, we allow lvalues for function arguments to avoid
2194      extra overhead of copying large aggregates out of even larger
2195      aggregates into temporaries only to copy the temporaries to
2196      the argument list.  Make optimizers happy by pulling out to
2197      temporaries those types that fit in registers.  */
2198   if (is_gimple_reg_type (TREE_TYPE (*arg_p)))
2199     test = is_gimple_val, fb = fb_rvalue;
2200   else
2201     test = is_gimple_lvalue, fb = fb_either;
2202
2203   /* If this is a variable sized type, we must remember the size.  */
2204   maybe_with_size_expr (arg_p);
2205
2206   /* FIXME diagnostics: This will mess up gcc.dg/Warray-bounds.c.  */
2207   /* Make sure arguments have the same location as the function call
2208      itself.  */
2209   protected_set_expr_location (*arg_p, call_location);
2210
2211   /* There is a sequence point before a function call.  Side effects in
2212      the argument list must occur before the actual call. So, when
2213      gimplifying arguments, force gimplify_expr to use an internal
2214      post queue which is then appended to the end of PRE_P.  */
2215   return gimplify_expr (arg_p, pre_p, NULL, test, fb);
2216 }
2217
2218
2219 /* Gimplify the CALL_EXPR node *EXPR_P into the GIMPLE sequence PRE_P.
2220    WANT_VALUE is true if the result of the call is desired.  */
2221
2222 static enum gimplify_status
2223 gimplify_call_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
2224 {
2225   tree fndecl, parms, p;
2226   enum gimplify_status ret;
2227   int i, nargs;
2228   gimple call;
2229   bool builtin_va_start_p = FALSE;
2230   location_t loc = EXPR_LOCATION (*expr_p);
2231
2232   gcc_assert (TREE_CODE (*expr_p) == CALL_EXPR);
2233
2234   /* For reliable diagnostics during inlining, it is necessary that
2235      every call_expr be annotated with file and line.  */
2236   if (! EXPR_HAS_LOCATION (*expr_p))
2237     SET_EXPR_LOCATION (*expr_p, input_location);
2238
2239   /* This may be a call to a builtin function.
2240
2241      Builtin function calls may be transformed into different
2242      (and more efficient) builtin function calls under certain
2243      circumstances.  Unfortunately, gimplification can muck things
2244      up enough that the builtin expanders are not aware that certain
2245      transformations are still valid.
2246
2247      So we attempt transformation/gimplification of the call before
2248      we gimplify the CALL_EXPR.  At this time we do not manage to
2249      transform all calls in the same manner as the expanders do, but
2250      we do transform most of them.  */
2251   fndecl = get_callee_fndecl (*expr_p);
2252   if (fndecl && DECL_BUILT_IN (fndecl))
2253     {
2254       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2255
2256       if (new_tree && new_tree != *expr_p)
2257         {
2258           /* There was a transformation of this call which computes the
2259              same value, but in a more efficient way.  Return and try
2260              again.  */
2261           *expr_p = new_tree;
2262           return GS_OK;
2263         }
2264
2265       if (DECL_BUILT_IN_CLASS (fndecl) == BUILT_IN_NORMAL
2266           && DECL_FUNCTION_CODE (fndecl) == BUILT_IN_VA_START)
2267         {
2268           builtin_va_start_p = TRUE;
2269           if (call_expr_nargs (*expr_p) < 2)
2270             {
2271               error ("too few arguments to function %<va_start%>");
2272               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2273               return GS_OK;
2274             }
2275
2276           if (fold_builtin_next_arg (*expr_p, true))
2277             {
2278               *expr_p = build_empty_stmt (EXPR_LOCATION (*expr_p));
2279               return GS_OK;
2280             }
2281         }
2282     }
2283
2284   /* There is a sequence point before the call, so any side effects in
2285      the calling expression must occur before the actual call.  Force
2286      gimplify_expr to use an internal post queue.  */
2287   ret = gimplify_expr (&CALL_EXPR_FN (*expr_p), pre_p, NULL,
2288                        is_gimple_call_addr, fb_rvalue);
2289
2290   nargs = call_expr_nargs (*expr_p);
2291
2292   /* Get argument types for verification.  */
2293   fndecl = get_callee_fndecl (*expr_p);
2294   parms = NULL_TREE;
2295   if (fndecl)
2296     parms = TYPE_ARG_TYPES (TREE_TYPE (fndecl));
2297   else if (POINTER_TYPE_P (TREE_TYPE (CALL_EXPR_FN (*expr_p))))
2298     parms = TYPE_ARG_TYPES (TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (*expr_p))));
2299
2300   if (fndecl && DECL_ARGUMENTS (fndecl))
2301     p = DECL_ARGUMENTS (fndecl);
2302   else if (parms)
2303     p = parms;
2304   else
2305     p = NULL_TREE;
2306   for (i = 0; i < nargs && p; i++, p = TREE_CHAIN (p))
2307     ;
2308
2309   /* If the last argument is __builtin_va_arg_pack () and it is not
2310      passed as a named argument, decrease the number of CALL_EXPR
2311      arguments and set instead the CALL_EXPR_VA_ARG_PACK flag.  */
2312   if (!p
2313       && i < nargs
2314       && TREE_CODE (CALL_EXPR_ARG (*expr_p, nargs - 1)) == CALL_EXPR)
2315     {
2316       tree last_arg = CALL_EXPR_ARG (*expr_p, nargs - 1);
2317       tree last_arg_fndecl = get_callee_fndecl (last_arg);
2318
2319       if (last_arg_fndecl
2320           && TREE_CODE (last_arg_fndecl) == FUNCTION_DECL
2321           && DECL_BUILT_IN_CLASS (last_arg_fndecl) == BUILT_IN_NORMAL
2322           && DECL_FUNCTION_CODE (last_arg_fndecl) == BUILT_IN_VA_ARG_PACK)
2323         {
2324           tree call = *expr_p;
2325
2326           --nargs;
2327           *expr_p = build_call_array_loc (loc, TREE_TYPE (call),
2328                                           CALL_EXPR_FN (call),
2329                                           nargs, CALL_EXPR_ARGP (call));
2330
2331           /* Copy all CALL_EXPR flags, location and block, except
2332              CALL_EXPR_VA_ARG_PACK flag.  */
2333           CALL_EXPR_STATIC_CHAIN (*expr_p) = CALL_EXPR_STATIC_CHAIN (call);
2334           CALL_EXPR_TAILCALL (*expr_p) = CALL_EXPR_TAILCALL (call);
2335           CALL_EXPR_RETURN_SLOT_OPT (*expr_p)
2336             = CALL_EXPR_RETURN_SLOT_OPT (call);
2337           CALL_FROM_THUNK_P (*expr_p) = CALL_FROM_THUNK_P (call);
2338           CALL_CANNOT_INLINE_P (*expr_p) = CALL_CANNOT_INLINE_P (call);
2339           SET_EXPR_LOCATION (*expr_p, EXPR_LOCATION (call));
2340           TREE_BLOCK (*expr_p) = TREE_BLOCK (call);
2341
2342           /* Set CALL_EXPR_VA_ARG_PACK.  */
2343           CALL_EXPR_VA_ARG_PACK (*expr_p) = 1;
2344         }
2345     }
2346
2347   /* Finally, gimplify the function arguments.  */
2348   if (nargs > 0)
2349     {
2350       for (i = (PUSH_ARGS_REVERSED ? nargs - 1 : 0);
2351            PUSH_ARGS_REVERSED ? i >= 0 : i < nargs;
2352            PUSH_ARGS_REVERSED ? i-- : i++)
2353         {
2354           enum gimplify_status t;
2355
2356           /* Avoid gimplifying the second argument to va_start, which needs to
2357              be the plain PARM_DECL.  */
2358           if ((i != 1) || !builtin_va_start_p)
2359             {
2360               t = gimplify_arg (&CALL_EXPR_ARG (*expr_p, i), pre_p,
2361                                 EXPR_LOCATION (*expr_p));
2362
2363               if (t == GS_ERROR)
2364                 ret = GS_ERROR;
2365             }
2366         }
2367     }
2368
2369   /* Verify the function result.  */
2370   if (want_value && fndecl
2371       && VOID_TYPE_P (TREE_TYPE (TREE_TYPE (fndecl))))
2372     {
2373       error_at (loc, "using result of function returning %<void%>");
2374       ret = GS_ERROR;
2375     }
2376
2377   /* Try this again in case gimplification exposed something.  */
2378   if (ret != GS_ERROR)
2379     {
2380       tree new_tree = fold_call_expr (input_location, *expr_p, !want_value);
2381
2382       if (new_tree && new_tree != *expr_p)
2383         {
2384           /* There was a transformation of this call which computes the
2385              same value, but in a more efficient way.  Return and try
2386              again.  */
2387           *expr_p = new_tree;
2388           return GS_OK;
2389         }
2390     }
2391   else
2392     {
2393       *expr_p = error_mark_node;
2394       return GS_ERROR;
2395     }
2396
2397   /* If the function is "const" or "pure", then clear TREE_SIDE_EFFECTS on its
2398      decl.  This allows us to eliminate redundant or useless
2399      calls to "const" functions.  */
2400   if (TREE_CODE (*expr_p) == CALL_EXPR)
2401     {
2402       int flags = call_expr_flags (*expr_p);
2403       if (flags & (ECF_CONST | ECF_PURE)
2404           /* An infinite loop is considered a side effect.  */
2405           && !(flags & (ECF_LOOPING_CONST_OR_PURE)))
2406         TREE_SIDE_EFFECTS (*expr_p) = 0;
2407     }
2408
2409   /* If the value is not needed by the caller, emit a new GIMPLE_CALL
2410      and clear *EXPR_P.  Otherwise, leave *EXPR_P in its gimplified
2411      form and delegate the creation of a GIMPLE_CALL to
2412      gimplify_modify_expr.  This is always possible because when
2413      WANT_VALUE is true, the caller wants the result of this call into
2414      a temporary, which means that we will emit an INIT_EXPR in
2415      internal_get_tmp_var which will then be handled by
2416      gimplify_modify_expr.  */
2417   if (!want_value)
2418     {
2419       /* The CALL_EXPR in *EXPR_P is already in GIMPLE form, so all we
2420          have to do is replicate it as a GIMPLE_CALL tuple.  */
2421       call = gimple_build_call_from_tree (*expr_p);
2422       gimplify_seq_add_stmt (pre_p, call);
2423       *expr_p = NULL_TREE;
2424     }
2425
2426   return ret;
2427 }
2428
2429 /* Handle shortcut semantics in the predicate operand of a COND_EXPR by
2430    rewriting it into multiple COND_EXPRs, and possibly GOTO_EXPRs.
2431
2432    TRUE_LABEL_P and FALSE_LABEL_P point to the labels to jump to if the
2433    condition is true or false, respectively.  If null, we should generate
2434    our own to skip over the evaluation of this specific expression.
2435
2436    LOCUS is the source location of the COND_EXPR.
2437
2438    This function is the tree equivalent of do_jump.
2439
2440    shortcut_cond_r should only be called by shortcut_cond_expr.  */
2441
2442 static tree
2443 shortcut_cond_r (tree pred, tree *true_label_p, tree *false_label_p,
2444                  location_t locus)
2445 {
2446   tree local_label = NULL_TREE;
2447   tree t, expr = NULL;
2448
2449   /* OK, it's not a simple case; we need to pull apart the COND_EXPR to
2450      retain the shortcut semantics.  Just insert the gotos here;
2451      shortcut_cond_expr will append the real blocks later.  */
2452   if (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2453     {
2454       location_t new_locus;
2455
2456       /* Turn if (a && b) into
2457
2458          if (a); else goto no;
2459          if (b) goto yes; else goto no;
2460          (no:) */
2461
2462       if (false_label_p == NULL)
2463         false_label_p = &local_label;
2464
2465       /* Keep the original source location on the first 'if'.  */
2466       t = shortcut_cond_r (TREE_OPERAND (pred, 0), NULL, false_label_p, locus);
2467       append_to_statement_list (t, &expr);
2468
2469       /* Set the source location of the && on the second 'if'.  */
2470       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2471       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2472                            new_locus);
2473       append_to_statement_list (t, &expr);
2474     }
2475   else if (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2476     {
2477       location_t new_locus;
2478
2479       /* Turn if (a || b) into
2480
2481          if (a) goto yes;
2482          if (b) goto yes; else goto no;
2483          (yes:) */
2484
2485       if (true_label_p == NULL)
2486         true_label_p = &local_label;
2487
2488       /* Keep the original source location on the first 'if'.  */
2489       t = shortcut_cond_r (TREE_OPERAND (pred, 0), true_label_p, NULL, locus);
2490       append_to_statement_list (t, &expr);
2491
2492       /* Set the source location of the || on the second 'if'.  */
2493       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2494       t = shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p, false_label_p,
2495                            new_locus);
2496       append_to_statement_list (t, &expr);
2497     }
2498   else if (TREE_CODE (pred) == COND_EXPR)
2499     {
2500       location_t new_locus;
2501
2502       /* As long as we're messing with gotos, turn if (a ? b : c) into
2503          if (a)
2504            if (b) goto yes; else goto no;
2505          else
2506            if (c) goto yes; else goto no;  */
2507
2508       /* Keep the original source location on the first 'if'.  Set the source
2509          location of the ? on the second 'if'.  */
2510       new_locus = EXPR_HAS_LOCATION (pred) ? EXPR_LOCATION (pred) : locus;
2511       expr = build3 (COND_EXPR, void_type_node, TREE_OPERAND (pred, 0),
2512                      shortcut_cond_r (TREE_OPERAND (pred, 1), true_label_p,
2513                                       false_label_p, locus),
2514                      shortcut_cond_r (TREE_OPERAND (pred, 2), true_label_p,
2515                                       false_label_p, new_locus));
2516     }
2517   else
2518     {
2519       expr = build3 (COND_EXPR, void_type_node, pred,
2520                      build_and_jump (true_label_p),
2521                      build_and_jump (false_label_p));
2522       SET_EXPR_LOCATION (expr, locus);
2523     }
2524
2525   if (local_label)
2526     {
2527       t = build1 (LABEL_EXPR, void_type_node, local_label);
2528       append_to_statement_list (t, &expr);
2529     }
2530
2531   return expr;
2532 }
2533
2534 /* Given a conditional expression EXPR with short-circuit boolean
2535    predicates using TRUTH_ANDIF_EXPR or TRUTH_ORIF_EXPR, break the
2536    predicate appart into the equivalent sequence of conditionals.  */
2537
2538 static tree
2539 shortcut_cond_expr (tree expr)
2540 {
2541   tree pred = TREE_OPERAND (expr, 0);
2542   tree then_ = TREE_OPERAND (expr, 1);
2543   tree else_ = TREE_OPERAND (expr, 2);
2544   tree true_label, false_label, end_label, t;
2545   tree *true_label_p;
2546   tree *false_label_p;
2547   bool emit_end, emit_false, jump_over_else;
2548   bool then_se = then_ && TREE_SIDE_EFFECTS (then_);
2549   bool else_se = else_ && TREE_SIDE_EFFECTS (else_);
2550
2551   /* First do simple transformations.  */
2552   if (!else_se)
2553     {
2554       /* If there is no 'else', turn
2555            if (a && b) then c
2556          into
2557            if (a) if (b) then c.  */
2558       while (TREE_CODE (pred) == TRUTH_ANDIF_EXPR)
2559         {
2560           /* Keep the original source location on the first 'if'.  */
2561           location_t locus = EXPR_HAS_LOCATION (expr)
2562                              ? EXPR_LOCATION (expr) : input_location;
2563           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2564           /* Set the source location of the && on the second 'if'.  */
2565           if (EXPR_HAS_LOCATION (pred))
2566             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2567           then_ = shortcut_cond_expr (expr);
2568           then_se = then_ && TREE_SIDE_EFFECTS (then_);
2569           pred = TREE_OPERAND (pred, 0);
2570           expr = build3 (COND_EXPR, void_type_node, pred, then_, NULL_TREE);
2571           SET_EXPR_LOCATION (expr, locus);
2572         }
2573     }
2574
2575   if (!then_se)
2576     {
2577       /* If there is no 'then', turn
2578            if (a || b); else d
2579          into
2580            if (a); else if (b); else d.  */
2581       while (TREE_CODE (pred) == TRUTH_ORIF_EXPR)
2582         {
2583           /* Keep the original source location on the first 'if'.  */
2584           location_t locus = EXPR_HAS_LOCATION (expr)
2585                              ? EXPR_LOCATION (expr) : input_location;
2586           TREE_OPERAND (expr, 0) = TREE_OPERAND (pred, 1);
2587           /* Set the source location of the || on the second 'if'.  */
2588           if (EXPR_HAS_LOCATION (pred))
2589             SET_EXPR_LOCATION (expr, EXPR_LOCATION (pred));
2590           else_ = shortcut_cond_expr (expr);
2591           else_se = else_ && TREE_SIDE_EFFECTS (else_);
2592           pred = TREE_OPERAND (pred, 0);
2593           expr = build3 (COND_EXPR, void_type_node, pred, NULL_TREE, else_);
2594           SET_EXPR_LOCATION (expr, locus);
2595         }
2596     }
2597
2598   /* If we're done, great.  */
2599   if (TREE_CODE (pred) != TRUTH_ANDIF_EXPR
2600       && TREE_CODE (pred) != TRUTH_ORIF_EXPR)
2601     return expr;
2602
2603   /* Otherwise we need to mess with gotos.  Change
2604        if (a) c; else d;
2605      to
2606        if (a); else goto no;
2607        c; goto end;
2608        no: d; end:
2609      and recursively gimplify the condition.  */
2610
2611   true_label = false_label = end_label = NULL_TREE;
2612
2613   /* If our arms just jump somewhere, hijack those labels so we don't
2614      generate jumps to jumps.  */
2615
2616   if (then_
2617       && TREE_CODE (then_) == GOTO_EXPR
2618       && TREE_CODE (GOTO_DESTINATION (then_)) == LABEL_DECL)
2619     {
2620       true_label = GOTO_DESTINATION (then_);
2621       then_ = NULL;
2622       then_se = false;
2623     }
2624
2625   if (else_
2626       && TREE_CODE (else_) == GOTO_EXPR
2627       && TREE_CODE (GOTO_DESTINATION (else_)) == LABEL_DECL)
2628     {
2629       false_label = GOTO_DESTINATION (else_);
2630       else_ = NULL;
2631       else_se = false;
2632     }
2633
2634   /* If we aren't hijacking a label for the 'then' branch, it falls through.  */
2635   if (true_label)
2636     true_label_p = &true_label;
2637   else
2638     true_label_p = NULL;
2639
2640   /* The 'else' branch also needs a label if it contains interesting code.  */
2641   if (false_label || else_se)
2642     false_label_p = &false_label;
2643   else
2644     false_label_p = NULL;
2645
2646   /* If there was nothing else in our arms, just forward the label(s).  */
2647   if (!then_se && !else_se)
2648     return shortcut_cond_r (pred, true_label_p, false_label_p,
2649                             EXPR_HAS_LOCATION (expr)
2650                             ? EXPR_LOCATION (expr) : input_location);
2651
2652   /* If our last subexpression already has a terminal label, reuse it.  */
2653   if (else_se)
2654     t = expr_last (else_);
2655   else if (then_se)
2656     t = expr_last (then_);
2657   else
2658     t = NULL;
2659   if (t && TREE_CODE (t) == LABEL_EXPR)
2660     end_label = LABEL_EXPR_LABEL (t);
2661
2662   /* If we don't care about jumping to the 'else' branch, jump to the end
2663      if the condition is false.  */
2664   if (!false_label_p)
2665     false_label_p = &end_label;
2666
2667   /* We only want to emit these labels if we aren't hijacking them.  */
2668   emit_end = (end_label == NULL_TREE);
2669   emit_false = (false_label == NULL_TREE);
2670
2671   /* We only emit the jump over the else clause if we have to--if the
2672      then clause may fall through.  Otherwise we can wind up with a
2673      useless jump and a useless label at the end of gimplified code,
2674      which will cause us to think that this conditional as a whole
2675      falls through even if it doesn't.  If we then inline a function
2676      which ends with such a condition, that can cause us to issue an
2677      inappropriate warning about control reaching the end of a
2678      non-void function.  */
2679   jump_over_else = block_may_fallthru (then_);
2680
2681   pred = shortcut_cond_r (pred, true_label_p, false_label_p,
2682                           EXPR_HAS_LOCATION (expr)
2683                           ? EXPR_LOCATION (expr) : input_location);
2684
2685   expr = NULL;
2686   append_to_statement_list (pred, &expr);
2687
2688   append_to_statement_list (then_, &expr);
2689   if (else_se)
2690     {
2691       if (jump_over_else)
2692         {
2693           tree last = expr_last (expr);
2694           t = build_and_jump (&end_label);
2695           if (EXPR_HAS_LOCATION (last))
2696             SET_EXPR_LOCATION (t, EXPR_LOCATION (last));
2697           append_to_statement_list (t, &expr);
2698         }
2699       if (emit_false)
2700         {
2701           t = build1 (LABEL_EXPR, void_type_node, false_label);
2702           append_to_statement_list (t, &expr);
2703         }
2704       append_to_statement_list (else_, &expr);
2705     }
2706   if (emit_end && end_label)
2707     {
2708       t = build1 (LABEL_EXPR, void_type_node, end_label);
2709       append_to_statement_list (t, &expr);
2710     }
2711
2712   return expr;
2713 }
2714
2715 /* EXPR is used in a boolean context; make sure it has BOOLEAN_TYPE.  */
2716
2717 tree
2718 gimple_boolify (tree expr)
2719 {
2720   tree type = TREE_TYPE (expr);
2721   location_t loc = EXPR_LOCATION (expr);
2722
2723   if (TREE_CODE (expr) == NE_EXPR
2724       && TREE_CODE (TREE_OPERAND (expr, 0)) == CALL_EXPR
2725       && integer_zerop (TREE_OPERAND (expr, 1)))
2726     {
2727       tree call = TREE_OPERAND (expr, 0);
2728       tree fn = get_callee_fndecl (call);
2729
2730       /* For __builtin_expect ((long) (x), y) recurse into x as well
2731          if x is truth_value_p.  */
2732       if (fn
2733           && DECL_BUILT_IN_CLASS (fn) == BUILT_IN_NORMAL
2734           && DECL_FUNCTION_CODE (fn) == BUILT_IN_EXPECT
2735           && call_expr_nargs (call) == 2)
2736         {
2737           tree arg = CALL_EXPR_ARG (call, 0);
2738           if (arg)
2739             {
2740               if (TREE_CODE (arg) == NOP_EXPR
2741                   && TREE_TYPE (arg) == TREE_TYPE (call))
2742                 arg = TREE_OPERAND (arg, 0);
2743               if (truth_value_p (TREE_CODE (arg)))
2744                 {
2745                   arg = gimple_boolify (arg);
2746                   CALL_EXPR_ARG (call, 0)
2747                     = fold_convert_loc (loc, TREE_TYPE (call), arg);
2748                 }
2749             }
2750         }
2751     }
2752
2753   if (TREE_CODE (type) == BOOLEAN_TYPE)
2754     return expr;
2755
2756   switch (TREE_CODE (expr))
2757     {
2758     case TRUTH_AND_EXPR:
2759     case TRUTH_OR_EXPR:
2760     case TRUTH_XOR_EXPR:
2761     case TRUTH_ANDIF_EXPR:
2762     case TRUTH_ORIF_EXPR:
2763       /* Also boolify the arguments of truth exprs.  */
2764       TREE_OPERAND (expr, 1) = gimple_boolify (TREE_OPERAND (expr, 1));
2765       /* FALLTHRU */
2766
2767     case TRUTH_NOT_EXPR:
2768       TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
2769       /* FALLTHRU */
2770
2771     case EQ_EXPR: case NE_EXPR:
2772     case LE_EXPR: case GE_EXPR: case LT_EXPR: case GT_EXPR:
2773       /* These expressions always produce boolean results.  */
2774       TREE_TYPE (expr) = boolean_type_node;
2775       return expr;
2776
2777     default:
2778       /* Other expressions that get here must have boolean values, but
2779          might need to be converted to the appropriate mode.  */
2780       return fold_convert_loc (loc, boolean_type_node, expr);
2781     }
2782 }
2783
2784 /* Given a conditional expression *EXPR_P without side effects, gimplify
2785    its operands.  New statements are inserted to PRE_P.  */
2786
2787 static enum gimplify_status
2788 gimplify_pure_cond_expr (tree *expr_p, gimple_seq *pre_p)
2789 {
2790   tree expr = *expr_p, cond;
2791   enum gimplify_status ret, tret;
2792   enum tree_code code;
2793
2794   cond = gimple_boolify (COND_EXPR_COND (expr));
2795
2796   /* We need to handle && and || specially, as their gimplification
2797      creates pure cond_expr, thus leading to an infinite cycle otherwise.  */
2798   code = TREE_CODE (cond);
2799   if (code == TRUTH_ANDIF_EXPR)
2800     TREE_SET_CODE (cond, TRUTH_AND_EXPR);
2801   else if (code == TRUTH_ORIF_EXPR)
2802     TREE_SET_CODE (cond, TRUTH_OR_EXPR);
2803   ret = gimplify_expr (&cond, pre_p, NULL, is_gimple_condexpr, fb_rvalue);
2804   COND_EXPR_COND (*expr_p) = cond;
2805
2806   tret = gimplify_expr (&COND_EXPR_THEN (expr), pre_p, NULL,
2807                                    is_gimple_val, fb_rvalue);
2808   ret = MIN (ret, tret);
2809   tret = gimplify_expr (&COND_EXPR_ELSE (expr), pre_p, NULL,
2810                                    is_gimple_val, fb_rvalue);
2811
2812   return MIN (ret, tret);
2813 }
2814
2815 /* Returns true if evaluating EXPR could trap.
2816    EXPR is GENERIC, while tree_could_trap_p can be called
2817    only on GIMPLE.  */
2818
2819 static bool
2820 generic_expr_could_trap_p (tree expr)
2821 {
2822   unsigned i, n;
2823
2824   if (!expr || is_gimple_val (expr))
2825     return false;
2826
2827   if (!EXPR_P (expr) || tree_could_trap_p (expr))
2828     return true;
2829
2830   n = TREE_OPERAND_LENGTH (expr);
2831   for (i = 0; i < n; i++)
2832     if (generic_expr_could_trap_p (TREE_OPERAND (expr, i)))
2833       return true;
2834
2835   return false;
2836 }
2837
2838 /*  Convert the conditional expression pointed to by EXPR_P '(p) ? a : b;'
2839     into
2840
2841     if (p)                      if (p)
2842       t1 = a;                     a;
2843     else                or      else
2844       t1 = b;                     b;
2845     t1;
2846
2847     The second form is used when *EXPR_P is of type void.
2848
2849     PRE_P points to the list where side effects that must happen before
2850       *EXPR_P should be stored.  */
2851
2852 static enum gimplify_status
2853 gimplify_cond_expr (tree *expr_p, gimple_seq *pre_p, fallback_t fallback)
2854 {
2855   tree expr = *expr_p;
2856   tree tmp, type, arm1, arm2;
2857   enum gimplify_status ret;
2858   tree label_true, label_false, label_cont;
2859   bool have_then_clause_p, have_else_clause_p;
2860   gimple gimple_cond;
2861   enum tree_code pred_code;
2862   gimple_seq seq = NULL;
2863   location_t loc = EXPR_LOCATION (*expr_p);
2864
2865   type = TREE_TYPE (expr);
2866
2867   /* If this COND_EXPR has a value, copy the values into a temporary within
2868      the arms.  */
2869   if (! VOID_TYPE_P (type))
2870     {
2871       tree result;
2872
2873       /* If an rvalue is ok or we do not require an lvalue, avoid creating
2874          an addressable temporary.  */
2875       if (((fallback & fb_rvalue)
2876            || !(fallback & fb_lvalue))
2877           && !TREE_ADDRESSABLE (type))
2878         {
2879           if (gimplify_ctxp->allow_rhs_cond_expr
2880               /* If either branch has side effects or could trap, it can't be
2881                  evaluated unconditionally.  */
2882               && !TREE_SIDE_EFFECTS (TREE_OPERAND (*expr_p, 1))
2883               && !generic_expr_could_trap_p (TREE_OPERAND (*expr_p, 1))
2884               && !TREE_SIDE_EFFECTS (TREE_OPERAND (*expr_p, 2))
2885               && !generic_expr_could_trap_p (TREE_OPERAND (*expr_p, 2)))
2886             return gimplify_pure_cond_expr (expr_p, pre_p);
2887
2888           result = tmp = create_tmp_var (TREE_TYPE (expr), "iftmp");
2889           ret = GS_ALL_DONE;
2890         }
2891       else
2892         {
2893           tree type = build_pointer_type (TREE_TYPE (expr));
2894
2895           if (TREE_TYPE (TREE_OPERAND (expr, 1)) != void_type_node)
2896             TREE_OPERAND (expr, 1) =
2897               build_fold_addr_expr_loc (loc, TREE_OPERAND (expr, 1));
2898
2899           if (TREE_TYPE (TREE_OPERAND (expr, 2)) != void_type_node)
2900             TREE_OPERAND (expr, 2) =
2901               build_fold_addr_expr_loc (loc, TREE_OPERAND (expr, 2));
2902
2903           tmp = create_tmp_var (type, "iftmp");
2904
2905           expr = build3 (COND_EXPR, void_type_node, TREE_OPERAND (expr, 0),
2906                          TREE_OPERAND (expr, 1), TREE_OPERAND (expr, 2));
2907
2908           result = build_fold_indirect_ref_loc (loc, tmp);
2909         }
2910
2911       /* Build the then clause, 't1 = a;'.  But don't build an assignment
2912          if this branch is void; in C++ it can be, if it's a throw.  */
2913       if (TREE_TYPE (TREE_OPERAND (expr, 1)) != void_type_node)
2914         TREE_OPERAND (expr, 1)
2915           = build2 (MODIFY_EXPR, TREE_TYPE (tmp), tmp, TREE_OPERAND (expr, 1));
2916
2917       /* Build the else clause, 't1 = b;'.  */
2918       if (TREE_TYPE (TREE_OPERAND (expr, 2)) != void_type_node)
2919         TREE_OPERAND (expr, 2)
2920           = build2 (MODIFY_EXPR, TREE_TYPE (tmp), tmp, TREE_OPERAND (expr, 2));
2921
2922       TREE_TYPE (expr) = void_type_node;
2923       recalculate_side_effects (expr);
2924
2925       /* Move the COND_EXPR to the prequeue.  */
2926       gimplify_stmt (&expr, pre_p);
2927
2928       *expr_p = result;
2929       return GS_ALL_DONE;
2930     }
2931
2932   /* Make sure the condition has BOOLEAN_TYPE.  */
2933   TREE_OPERAND (expr, 0) = gimple_boolify (TREE_OPERAND (expr, 0));
2934
2935   /* Break apart && and || conditions.  */
2936   if (TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ANDIF_EXPR
2937       || TREE_CODE (TREE_OPERAND (expr, 0)) == TRUTH_ORIF_EXPR)
2938     {
2939       expr = shortcut_cond_expr (expr);
2940
2941       if (expr != *expr_p)
2942         {
2943           *expr_p = expr;
2944
2945           /* We can't rely on gimplify_expr to re-gimplify the expanded
2946              form properly, as cleanups might cause the target labels to be
2947              wrapped in a TRY_FINALLY_EXPR.  To prevent that, we need to
2948              set up a conditional context.  */
2949           gimple_push_condition ();
2950           gimplify_stmt (expr_p, &seq);
2951           gimple_pop_condition (pre_p);
2952           gimple_seq_add_seq (pre_p, seq);
2953
2954           return GS_ALL_DONE;
2955         }
2956     }
2957
2958   /* Now do the normal gimplification.  */
2959
2960   /* Gimplify condition.  */
2961   ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, NULL, is_gimple_condexpr,
2962                        fb_rvalue);
2963   if (ret == GS_ERROR)
2964     return GS_ERROR;
2965   gcc_assert (TREE_OPERAND (expr, 0) != NULL_TREE);
2966
2967   gimple_push_condition ();
2968
2969   have_then_clause_p = have_else_clause_p = false;
2970   if (TREE_OPERAND (expr, 1) != NULL
2971       && TREE_CODE (TREE_OPERAND (expr, 1)) == GOTO_EXPR
2972       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 1))) == LABEL_DECL
2973       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 1)))
2974           == current_function_decl)
2975       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
2976          have different locations, otherwise we end up with incorrect
2977          location information on the branches.  */
2978       && (optimize
2979           || !EXPR_HAS_LOCATION (expr)
2980           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 1))
2981           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 1))))
2982     {
2983       label_true = GOTO_DESTINATION (TREE_OPERAND (expr, 1));
2984       have_then_clause_p = true;
2985     }
2986   else
2987     label_true = create_artificial_label (UNKNOWN_LOCATION);
2988   if (TREE_OPERAND (expr, 2) != NULL
2989       && TREE_CODE (TREE_OPERAND (expr, 2)) == GOTO_EXPR
2990       && TREE_CODE (GOTO_DESTINATION (TREE_OPERAND (expr, 2))) == LABEL_DECL
2991       && (DECL_CONTEXT (GOTO_DESTINATION (TREE_OPERAND (expr, 2)))
2992           == current_function_decl)
2993       /* For -O0 avoid this optimization if the COND_EXPR and GOTO_EXPR
2994          have different locations, otherwise we end up with incorrect
2995          location information on the branches.  */
2996       && (optimize
2997           || !EXPR_HAS_LOCATION (expr)
2998           || !EXPR_HAS_LOCATION (TREE_OPERAND (expr, 2))
2999           || EXPR_LOCATION (expr) == EXPR_LOCATION (TREE_OPERAND (expr, 2))))
3000     {
3001       label_false = GOTO_DESTINATION (TREE_OPERAND (expr, 2));
3002       have_else_clause_p = true;
3003     }
3004   else
3005     label_false = create_artificial_label (UNKNOWN_LOCATION);
3006
3007   gimple_cond_get_ops_from_tree (COND_EXPR_COND (expr), &pred_code, &arm1,
3008                                  &arm2);
3009
3010   gimple_cond = gimple_build_cond (pred_code, arm1, arm2, label_true,
3011                                    label_false);
3012
3013   gimplify_seq_add_stmt (&seq, gimple_cond);
3014   label_cont = NULL_TREE;
3015   if (!have_then_clause_p)
3016     {
3017       /* For if (...) {} else { code; } put label_true after
3018          the else block.  */
3019       if (TREE_OPERAND (expr, 1) == NULL_TREE
3020           && !have_else_clause_p
3021           && TREE_OPERAND (expr, 2) != NULL_TREE)
3022         label_cont = label_true;
3023       else
3024         {
3025           gimplify_seq_add_stmt (&seq, gimple_build_label (label_true));
3026           have_then_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 1), &seq);
3027           /* For if (...) { code; } else {} or
3028              if (...) { code; } else goto label; or
3029              if (...) { code; return; } else { ... }
3030              label_cont isn't needed.  */
3031           if (!have_else_clause_p
3032               && TREE_OPERAND (expr, 2) != NULL_TREE
3033               && gimple_seq_may_fallthru (seq))
3034             {
3035               gimple g;
3036               label_cont = create_artificial_label (UNKNOWN_LOCATION);
3037
3038               g = gimple_build_goto (label_cont);
3039
3040               /* GIMPLE_COND's are very low level; they have embedded
3041                  gotos.  This particular embedded goto should not be marked
3042                  with the location of the original COND_EXPR, as it would
3043                  correspond to the COND_EXPR's condition, not the ELSE or the
3044                  THEN arms.  To avoid marking it with the wrong location, flag
3045                  it as "no location".  */
3046               gimple_set_do_not_emit_location (g);
3047
3048               gimplify_seq_add_stmt (&seq, g);
3049             }
3050         }
3051     }
3052   if (!have_else_clause_p)
3053     {
3054       gimplify_seq_add_stmt (&seq, gimple_build_label (label_false));
3055       have_else_clause_p = gimplify_stmt (&TREE_OPERAND (expr, 2), &seq);
3056     }
3057   if (label_cont)
3058     gimplify_seq_add_stmt (&seq, gimple_build_label (label_cont));
3059
3060   gimple_pop_condition (pre_p);
3061   gimple_seq_add_seq (pre_p, seq);
3062
3063   if (ret == GS_ERROR)
3064     ; /* Do nothing.  */
3065   else if (have_then_clause_p || have_else_clause_p)
3066     ret = GS_ALL_DONE;
3067   else
3068     {
3069       /* Both arms are empty; replace the COND_EXPR with its predicate.  */
3070       expr = TREE_OPERAND (expr, 0);
3071       gimplify_stmt (&expr, pre_p);
3072     }
3073
3074   *expr_p = NULL;
3075   return ret;
3076 }
3077
3078 /* Prepare the node pointed to by EXPR_P, an is_gimple_addressable expression,
3079    to be marked addressable.
3080
3081    We cannot rely on such an expression being directly markable if a temporary
3082    has been created by the gimplification.  In this case, we create another
3083    temporary and initialize it with a copy, which will become a store after we
3084    mark it addressable.  This can happen if the front-end passed us something
3085    that it could not mark addressable yet, like a Fortran pass-by-reference
3086    parameter (int) floatvar.  */
3087
3088 static void
3089 prepare_gimple_addressable (tree *expr_p, gimple_seq *seq_p)
3090 {
3091   while (handled_component_p (*expr_p))
3092     expr_p = &TREE_OPERAND (*expr_p, 0);
3093   if (is_gimple_reg (*expr_p))
3094     *expr_p = get_initialized_tmp_var (*expr_p, seq_p, NULL);
3095 }
3096
3097 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3098    a call to __builtin_memcpy.  */
3099
3100 static enum gimplify_status
3101 gimplify_modify_expr_to_memcpy (tree *expr_p, tree size, bool want_value,
3102                                 gimple_seq *seq_p)
3103 {
3104   tree t, to, to_ptr, from, from_ptr;
3105   gimple gs;
3106   location_t loc = EXPR_LOCATION (*expr_p);
3107
3108   to = TREE_OPERAND (*expr_p, 0);
3109   from = TREE_OPERAND (*expr_p, 1);
3110
3111   /* Mark the RHS addressable.  Beware that it may not be possible to do so
3112      directly if a temporary has been created by the gimplification.  */
3113   prepare_gimple_addressable (&from, seq_p);
3114
3115   mark_addressable (from);
3116   from_ptr = build_fold_addr_expr_loc (loc, from);
3117   gimplify_arg (&from_ptr, seq_p, loc);
3118
3119   mark_addressable (to);
3120   to_ptr = build_fold_addr_expr_loc (loc, to);
3121   gimplify_arg (&to_ptr, seq_p, loc);
3122
3123   t = implicit_built_in_decls[BUILT_IN_MEMCPY];
3124
3125   gs = gimple_build_call (t, 3, to_ptr, from_ptr, size);
3126
3127   if (want_value)
3128     {
3129       /* tmp = memcpy() */
3130       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3131       gimple_call_set_lhs (gs, t);
3132       gimplify_seq_add_stmt (seq_p, gs);
3133
3134       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (to), t);
3135       return GS_ALL_DONE;
3136     }
3137
3138   gimplify_seq_add_stmt (seq_p, gs);
3139   *expr_p = NULL;
3140   return GS_ALL_DONE;
3141 }
3142
3143 /* A subroutine of gimplify_modify_expr.  Replace a MODIFY_EXPR with
3144    a call to __builtin_memset.  In this case we know that the RHS is
3145    a CONSTRUCTOR with an empty element list.  */
3146
3147 static enum gimplify_status
3148 gimplify_modify_expr_to_memset (tree *expr_p, tree size, bool want_value,
3149                                 gimple_seq *seq_p)
3150 {
3151   tree t, from, to, to_ptr;
3152   gimple gs;
3153   location_t loc = EXPR_LOCATION (*expr_p);
3154
3155   /* Assert our assumptions, to abort instead of producing wrong code
3156      silently if they are not met.  Beware that the RHS CONSTRUCTOR might
3157      not be immediately exposed.  */
3158   from = TREE_OPERAND (*expr_p, 1);
3159   if (TREE_CODE (from) == WITH_SIZE_EXPR)
3160     from = TREE_OPERAND (from, 0);
3161
3162   gcc_assert (TREE_CODE (from) == CONSTRUCTOR
3163               && VEC_empty (constructor_elt, CONSTRUCTOR_ELTS (from)));
3164
3165   /* Now proceed.  */
3166   to = TREE_OPERAND (*expr_p, 0);
3167
3168   to_ptr = build_fold_addr_expr_loc (loc, to);
3169   gimplify_arg (&to_ptr, seq_p, loc);
3170   t = implicit_built_in_decls[BUILT_IN_MEMSET];
3171
3172   gs = gimple_build_call (t, 3, to_ptr, integer_zero_node, size);
3173
3174   if (want_value)
3175     {
3176       /* tmp = memset() */
3177       t = create_tmp_var (TREE_TYPE (to_ptr), NULL);
3178       gimple_call_set_lhs (gs, t);
3179       gimplify_seq_add_stmt (seq_p, gs);
3180
3181       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (to), t);
3182       return GS_ALL_DONE;
3183     }
3184
3185   gimplify_seq_add_stmt (seq_p, gs);
3186   *expr_p = NULL;
3187   return GS_ALL_DONE;
3188 }
3189
3190 /* A subroutine of gimplify_init_ctor_preeval.  Called via walk_tree,
3191    determine, cautiously, if a CONSTRUCTOR overlaps the lhs of an
3192    assignment.  Returns non-null if we detect a potential overlap.  */
3193
3194 struct gimplify_init_ctor_preeval_data
3195 {
3196   /* The base decl of the lhs object.  May be NULL, in which case we
3197      have to assume the lhs is indirect.  */
3198   tree lhs_base_decl;
3199
3200   /* The alias set of the lhs object.  */
3201   alias_set_type lhs_alias_set;
3202 };
3203
3204 static tree
3205 gimplify_init_ctor_preeval_1 (tree *tp, int *walk_subtrees, void *xdata)
3206 {
3207   struct gimplify_init_ctor_preeval_data *data
3208     = (struct gimplify_init_ctor_preeval_data *) xdata;
3209   tree t = *tp;
3210
3211   /* If we find the base object, obviously we have overlap.  */
3212   if (data->lhs_base_decl == t)
3213     return t;
3214
3215   /* If the constructor component is indirect, determine if we have a
3216      potential overlap with the lhs.  The only bits of information we
3217      have to go on at this point are addressability and alias sets.  */
3218   if (TREE_CODE (t) == INDIRECT_REF
3219       && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3220       && alias_sets_conflict_p (data->lhs_alias_set, get_alias_set (t)))
3221     return t;
3222
3223   /* If the constructor component is a call, determine if it can hide a
3224      potential overlap with the lhs through an INDIRECT_REF like above.  */
3225   if (TREE_CODE (t) == CALL_EXPR)
3226     {
3227       tree type, fntype = TREE_TYPE (TREE_TYPE (CALL_EXPR_FN (t)));
3228
3229       for (type = TYPE_ARG_TYPES (fntype); type; type = TREE_CHAIN (type))
3230         if (POINTER_TYPE_P (TREE_VALUE (type))
3231             && (!data->lhs_base_decl || TREE_ADDRESSABLE (data->lhs_base_decl))
3232             && alias_sets_conflict_p (data->lhs_alias_set,
3233                                       get_alias_set
3234                                         (TREE_TYPE (TREE_VALUE (type)))))
3235           return t;
3236     }
3237
3238   if (IS_TYPE_OR_DECL_P (t))
3239     *walk_subtrees = 0;
3240   return NULL;
3241 }
3242
3243 /* A subroutine of gimplify_init_constructor.  Pre-evaluate EXPR,
3244    force values that overlap with the lhs (as described by *DATA)
3245    into temporaries.  */
3246
3247 static void
3248 gimplify_init_ctor_preeval (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3249                             struct gimplify_init_ctor_preeval_data *data)
3250 {
3251   enum gimplify_status one;
3252
3253   /* If the value is constant, then there's nothing to pre-evaluate.  */
3254   if (TREE_CONSTANT (*expr_p))
3255     {
3256       /* Ensure it does not have side effects, it might contain a reference to
3257          the object we're initializing.  */
3258       gcc_assert (!TREE_SIDE_EFFECTS (*expr_p));
3259       return;
3260     }
3261
3262   /* If the type has non-trivial constructors, we can't pre-evaluate.  */
3263   if (TREE_ADDRESSABLE (TREE_TYPE (*expr_p)))
3264     return;
3265
3266   /* Recurse for nested constructors.  */
3267   if (TREE_CODE (*expr_p) == CONSTRUCTOR)
3268     {
3269       unsigned HOST_WIDE_INT ix;
3270       constructor_elt *ce;
3271       VEC(constructor_elt,gc) *v = CONSTRUCTOR_ELTS (*expr_p);
3272
3273       for (ix = 0; VEC_iterate (constructor_elt, v, ix, ce); ix++)
3274         gimplify_init_ctor_preeval (&ce->value, pre_p, post_p, data);
3275
3276       return;
3277     }
3278
3279   /* If this is a variable sized type, we must remember the size.  */
3280   maybe_with_size_expr (expr_p);
3281
3282   /* Gimplify the constructor element to something appropriate for the rhs
3283      of a MODIFY_EXPR.  Given that we know the LHS is an aggregate, we know
3284      the gimplifier will consider this a store to memory.  Doing this
3285      gimplification now means that we won't have to deal with complicated
3286      language-specific trees, nor trees like SAVE_EXPR that can induce
3287      exponential search behavior.  */
3288   one = gimplify_expr (expr_p, pre_p, post_p, is_gimple_mem_rhs, fb_rvalue);
3289   if (one == GS_ERROR)
3290     {
3291       *expr_p = NULL;
3292       return;
3293     }
3294
3295   /* If we gimplified to a bare decl, we can be sure that it doesn't overlap
3296      with the lhs, since "a = { .x=a }" doesn't make sense.  This will
3297      always be true for all scalars, since is_gimple_mem_rhs insists on a
3298      temporary variable for them.  */
3299   if (DECL_P (*expr_p))
3300     return;
3301
3302   /* If this is of variable size, we have no choice but to assume it doesn't
3303      overlap since we can't make a temporary for it.  */
3304   if (TREE_CODE (TYPE_SIZE (TREE_TYPE (*expr_p))) != INTEGER_CST)
3305     return;
3306
3307   /* Otherwise, we must search for overlap ...  */
3308   if (!walk_tree (expr_p, gimplify_init_ctor_preeval_1, data, NULL))
3309     return;
3310
3311   /* ... and if found, force the value into a temporary.  */
3312   *expr_p = get_formal_tmp_var (*expr_p, pre_p);
3313 }
3314
3315 /* A subroutine of gimplify_init_ctor_eval.  Create a loop for
3316    a RANGE_EXPR in a CONSTRUCTOR for an array.
3317
3318       var = lower;
3319     loop_entry:
3320       object[var] = value;
3321       if (var == upper)
3322         goto loop_exit;
3323       var = var + 1;
3324       goto loop_entry;
3325     loop_exit:
3326
3327    We increment var _after_ the loop exit check because we might otherwise
3328    fail if upper == TYPE_MAX_VALUE (type for upper).
3329
3330    Note that we never have to deal with SAVE_EXPRs here, because this has
3331    already been taken care of for us, in gimplify_init_ctor_preeval().  */
3332
3333 static void gimplify_init_ctor_eval (tree, VEC(constructor_elt,gc) *,
3334                                      gimple_seq *, bool);
3335
3336 static void
3337 gimplify_init_ctor_eval_range (tree object, tree lower, tree upper,
3338                                tree value, tree array_elt_type,
3339                                gimple_seq *pre_p, bool cleared)
3340 {
3341   tree loop_entry_label, loop_exit_label, fall_thru_label;
3342   tree var, var_type, cref, tmp;
3343
3344   loop_entry_label = create_artificial_label (UNKNOWN_LOCATION);
3345   loop_exit_label = create_artificial_label (UNKNOWN_LOCATION);
3346   fall_thru_label = create_artificial_label (UNKNOWN_LOCATION);
3347
3348   /* Create and initialize the index variable.  */
3349   var_type = TREE_TYPE (upper);
3350   var = create_tmp_var (var_type, NULL);
3351   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, lower));
3352
3353   /* Add the loop entry label.  */
3354   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_entry_label));
3355
3356   /* Build the reference.  */
3357   cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3358                  var, NULL_TREE, NULL_TREE);
3359
3360   /* If we are a constructor, just call gimplify_init_ctor_eval to do
3361      the store.  Otherwise just assign value to the reference.  */
3362
3363   if (TREE_CODE (value) == CONSTRUCTOR)
3364     /* NB we might have to call ourself recursively through
3365        gimplify_init_ctor_eval if the value is a constructor.  */
3366     gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3367                              pre_p, cleared);
3368   else
3369     gimplify_seq_add_stmt (pre_p, gimple_build_assign (cref, value));
3370
3371   /* We exit the loop when the index var is equal to the upper bound.  */
3372   gimplify_seq_add_stmt (pre_p,
3373                          gimple_build_cond (EQ_EXPR, var, upper,
3374                                             loop_exit_label, fall_thru_label));
3375
3376   gimplify_seq_add_stmt (pre_p, gimple_build_label (fall_thru_label));
3377
3378   /* Otherwise, increment the index var...  */
3379   tmp = build2 (PLUS_EXPR, var_type, var,
3380                 fold_convert (var_type, integer_one_node));
3381   gimplify_seq_add_stmt (pre_p, gimple_build_assign (var, tmp));
3382
3383   /* ...and jump back to the loop entry.  */
3384   gimplify_seq_add_stmt (pre_p, gimple_build_goto (loop_entry_label));
3385
3386   /* Add the loop exit label.  */
3387   gimplify_seq_add_stmt (pre_p, gimple_build_label (loop_exit_label));
3388 }
3389
3390 /* Return true if FDECL is accessing a field that is zero sized.  */
3391
3392 static bool
3393 zero_sized_field_decl (const_tree fdecl)
3394 {
3395   if (TREE_CODE (fdecl) == FIELD_DECL && DECL_SIZE (fdecl)
3396       && integer_zerop (DECL_SIZE (fdecl)))
3397     return true;
3398   return false;
3399 }
3400
3401 /* Return true if TYPE is zero sized.  */
3402
3403 static bool
3404 zero_sized_type (const_tree type)
3405 {
3406   if (AGGREGATE_TYPE_P (type) && TYPE_SIZE (type)
3407       && integer_zerop (TYPE_SIZE (type)))
3408     return true;
3409   return false;
3410 }
3411
3412 /* A subroutine of gimplify_init_constructor.  Generate individual
3413    MODIFY_EXPRs for a CONSTRUCTOR.  OBJECT is the LHS against which the
3414    assignments should happen.  ELTS is the CONSTRUCTOR_ELTS of the
3415    CONSTRUCTOR.  CLEARED is true if the entire LHS object has been
3416    zeroed first.  */
3417
3418 static void
3419 gimplify_init_ctor_eval (tree object, VEC(constructor_elt,gc) *elts,
3420                          gimple_seq *pre_p, bool cleared)
3421 {
3422   tree array_elt_type = NULL;
3423   unsigned HOST_WIDE_INT ix;
3424   tree purpose, value;
3425
3426   if (TREE_CODE (TREE_TYPE (object)) == ARRAY_TYPE)
3427     array_elt_type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (object)));
3428
3429   FOR_EACH_CONSTRUCTOR_ELT (elts, ix, purpose, value)
3430     {
3431       tree cref;
3432
3433       /* NULL values are created above for gimplification errors.  */
3434       if (value == NULL)
3435         continue;
3436
3437       if (cleared && initializer_zerop (value))
3438         continue;
3439
3440       /* ??? Here's to hoping the front end fills in all of the indices,
3441          so we don't have to figure out what's missing ourselves.  */
3442       gcc_assert (purpose);
3443
3444       /* Skip zero-sized fields, unless value has side-effects.  This can
3445          happen with calls to functions returning a zero-sized type, which
3446          we shouldn't discard.  As a number of downstream passes don't
3447          expect sets of zero-sized fields, we rely on the gimplification of
3448          the MODIFY_EXPR we make below to drop the assignment statement.  */
3449       if (! TREE_SIDE_EFFECTS (value) && zero_sized_field_decl (purpose))
3450         continue;
3451
3452       /* If we have a RANGE_EXPR, we have to build a loop to assign the
3453          whole range.  */
3454       if (TREE_CODE (purpose) == RANGE_EXPR)
3455         {
3456           tree lower = TREE_OPERAND (purpose, 0);
3457           tree upper = TREE_OPERAND (purpose, 1);
3458
3459           /* If the lower bound is equal to upper, just treat it as if
3460              upper was the index.  */
3461           if (simple_cst_equal (lower, upper))
3462             purpose = upper;
3463           else
3464             {
3465               gimplify_init_ctor_eval_range (object, lower, upper, value,
3466                                              array_elt_type, pre_p, cleared);
3467               continue;
3468             }
3469         }
3470
3471       if (array_elt_type)
3472         {
3473           /* Do not use bitsizetype for ARRAY_REF indices.  */
3474           if (TYPE_DOMAIN (TREE_TYPE (object)))
3475             purpose = fold_convert (TREE_TYPE (TYPE_DOMAIN (TREE_TYPE (object))),
3476                                     purpose);
3477           cref = build4 (ARRAY_REF, array_elt_type, unshare_expr (object),
3478                          purpose, NULL_TREE, NULL_TREE);
3479         }
3480       else
3481         {
3482           gcc_assert (TREE_CODE (purpose) == FIELD_DECL);
3483           cref = build3 (COMPONENT_REF, TREE_TYPE (purpose),
3484                          unshare_expr (object), purpose, NULL_TREE);
3485         }
3486
3487       if (TREE_CODE (value) == CONSTRUCTOR
3488           && TREE_CODE (TREE_TYPE (value)) != VECTOR_TYPE)
3489         gimplify_init_ctor_eval (cref, CONSTRUCTOR_ELTS (value),
3490                                  pre_p, cleared);
3491       else
3492         {
3493           tree init = build2 (INIT_EXPR, TREE_TYPE (cref), cref, value);
3494           gimplify_and_add (init, pre_p);
3495           ggc_free (init);
3496         }
3497     }
3498 }
3499
3500
3501 /* Returns the appropriate RHS predicate for this LHS.  */
3502
3503 gimple_predicate
3504 rhs_predicate_for (tree lhs)
3505 {
3506   if (is_gimple_reg (lhs))
3507     return is_gimple_reg_rhs_or_call;
3508   else
3509     return is_gimple_mem_rhs_or_call;
3510 }
3511
3512 /* Gimplify a C99 compound literal expression.  This just means adding
3513    the DECL_EXPR before the current statement and using its anonymous
3514    decl instead.  */
3515
3516 static enum gimplify_status
3517 gimplify_compound_literal_expr (tree *expr_p, gimple_seq *pre_p)
3518 {
3519   tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (*expr_p);
3520   tree decl = DECL_EXPR_DECL (decl_s);
3521   /* Mark the decl as addressable if the compound literal
3522      expression is addressable now, otherwise it is marked too late
3523      after we gimplify the initialization expression.  */
3524   if (TREE_ADDRESSABLE (*expr_p))
3525     TREE_ADDRESSABLE (decl) = 1;
3526
3527   /* Preliminarily mark non-addressed complex variables as eligible
3528      for promotion to gimple registers.  We'll transform their uses
3529      as we find them.  */
3530   if ((TREE_CODE (TREE_TYPE (decl)) == COMPLEX_TYPE
3531        || TREE_CODE (TREE_TYPE (decl)) == VECTOR_TYPE)
3532       && !TREE_THIS_VOLATILE (decl)
3533       && !needs_to_live_in_memory (decl))
3534     DECL_GIMPLE_REG_P (decl) = 1;
3535
3536   /* This decl isn't mentioned in the enclosing block, so add it to the
3537      list of temps.  FIXME it seems a bit of a kludge to say that
3538      anonymous artificial vars aren't pushed, but everything else is.  */
3539   if (DECL_NAME (decl) == NULL_TREE && !DECL_SEEN_IN_BIND_EXPR_P (decl))
3540     gimple_add_tmp_var (decl);
3541
3542   gimplify_and_add (decl_s, pre_p);
3543   *expr_p = decl;
3544   return GS_OK;
3545 }
3546
3547 /* Optimize embedded COMPOUND_LITERAL_EXPRs within a CONSTRUCTOR,
3548    return a new CONSTRUCTOR if something changed.  */
3549
3550 static tree
3551 optimize_compound_literals_in_ctor (tree orig_ctor)
3552 {
3553   tree ctor = orig_ctor;
3554   VEC(constructor_elt,gc) *elts = CONSTRUCTOR_ELTS (ctor);
3555   unsigned int idx, num = VEC_length (constructor_elt, elts);
3556
3557   for (idx = 0; idx < num; idx++)
3558     {
3559       tree value = VEC_index (constructor_elt, elts, idx)->value;
3560       tree newval = value;
3561       if (TREE_CODE (value) == CONSTRUCTOR)
3562         newval = optimize_compound_literals_in_ctor (value);
3563       else if (TREE_CODE (value) == COMPOUND_LITERAL_EXPR)
3564         {
3565           tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (value);
3566           tree decl = DECL_EXPR_DECL (decl_s);
3567           tree init = DECL_INITIAL (decl);
3568
3569           if (!TREE_ADDRESSABLE (value)
3570               && !TREE_ADDRESSABLE (decl)
3571               && init)
3572             newval = optimize_compound_literals_in_ctor (init);
3573         }
3574       if (newval == value)
3575         continue;
3576
3577       if (ctor == orig_ctor)
3578         {
3579           ctor = copy_node (orig_ctor);
3580           CONSTRUCTOR_ELTS (ctor) = VEC_copy (constructor_elt, gc, elts);
3581           elts = CONSTRUCTOR_ELTS (ctor);
3582         }
3583       VEC_index (constructor_elt, elts, idx)->value = newval;
3584     }
3585   return ctor;
3586 }
3587
3588
3589
3590 /* A subroutine of gimplify_modify_expr.  Break out elements of a
3591    CONSTRUCTOR used as an initializer into separate MODIFY_EXPRs.
3592
3593    Note that we still need to clear any elements that don't have explicit
3594    initializers, so if not all elements are initialized we keep the
3595    original MODIFY_EXPR, we just remove all of the constructor elements.
3596
3597    If NOTIFY_TEMP_CREATION is true, do not gimplify, just return
3598    GS_ERROR if we would have to create a temporary when gimplifying
3599    this constructor.  Otherwise, return GS_OK.
3600
3601    If NOTIFY_TEMP_CREATION is false, just do the gimplification.  */
3602
3603 static enum gimplify_status
3604 gimplify_init_constructor (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
3605                            bool want_value, bool notify_temp_creation)
3606 {
3607   tree object, ctor, type;
3608   enum gimplify_status ret;
3609   VEC(constructor_elt,gc) *elts;
3610
3611   gcc_assert (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == CONSTRUCTOR);
3612
3613   if (!notify_temp_creation)
3614     {
3615       ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
3616                            is_gimple_lvalue, fb_lvalue);
3617       if (ret == GS_ERROR)
3618         return ret;
3619     }
3620
3621   object = TREE_OPERAND (*expr_p, 0);
3622   ctor = TREE_OPERAND (*expr_p, 1) =
3623     optimize_compound_literals_in_ctor (TREE_OPERAND (*expr_p, 1));
3624   type = TREE_TYPE (ctor);
3625   elts = CONSTRUCTOR_ELTS (ctor);
3626   ret = GS_ALL_DONE;
3627
3628   switch (TREE_CODE (type))
3629     {
3630     case RECORD_TYPE:
3631     case UNION_TYPE:
3632     case QUAL_UNION_TYPE:
3633     case ARRAY_TYPE:
3634       {
3635         struct gimplify_init_ctor_preeval_data preeval_data;
3636         HOST_WIDE_INT num_type_elements, num_ctor_elements;
3637         HOST_WIDE_INT num_nonzero_elements;
3638         bool cleared, valid_const_initializer;
3639
3640         /* Aggregate types must lower constructors to initialization of
3641            individual elements.  The exception is that a CONSTRUCTOR node
3642            with no elements indicates zero-initialization of the whole.  */
3643         if (VEC_empty (constructor_elt, elts))
3644           {
3645             if (notify_temp_creation)
3646               return GS_OK;
3647             break;
3648           }
3649
3650         /* Fetch information about the constructor to direct later processing.
3651            We might want to make static versions of it in various cases, and
3652            can only do so if it known to be a valid constant initializer.  */
3653         valid_const_initializer
3654           = categorize_ctor_elements (ctor, &num_nonzero_elements,
3655                                       &num_ctor_elements, &cleared);
3656
3657         /* If a const aggregate variable is being initialized, then it
3658            should never be a lose to promote the variable to be static.  */
3659         if (valid_const_initializer
3660             && num_nonzero_elements > 1
3661             && TREE_READONLY (object)
3662             && TREE_CODE (object) == VAR_DECL
3663             && (flag_merge_constants >= 2 || !TREE_ADDRESSABLE (object)))
3664           {
3665             if (notify_temp_creation)
3666               return GS_ERROR;
3667             DECL_INITIAL (object) = ctor;
3668             TREE_STATIC (object) = 1;
3669             if (!DECL_NAME (object))
3670               DECL_NAME (object) = create_tmp_var_name ("C");
3671             walk_tree (&DECL_INITIAL (object), force_labels_r, NULL, NULL);
3672
3673             /* ??? C++ doesn't automatically append a .<number> to the
3674                assembler name, and even when it does, it looks a FE private
3675                data structures to figure out what that number should be,
3676                which are not set for this variable.  I suppose this is
3677                important for local statics for inline functions, which aren't
3678                "local" in the object file sense.  So in order to get a unique
3679                TU-local symbol, we must invoke the lhd version now.  */
3680             lhd_set_decl_assembler_name (object);
3681
3682             *expr_p = NULL_TREE;
3683             break;
3684           }
3685
3686         /* If there are "lots" of initialized elements, even discounting
3687            those that are not address constants (and thus *must* be
3688            computed at runtime), then partition the constructor into
3689            constant and non-constant parts.  Block copy the constant
3690            parts in, then generate code for the non-constant parts.  */
3691         /* TODO.  There's code in cp/typeck.c to do this.  */
3692
3693         num_type_elements = count_type_elements (type, true);
3694
3695         /* If count_type_elements could not determine number of type elements
3696            for a constant-sized object, assume clearing is needed.
3697            Don't do this for variable-sized objects, as store_constructor
3698            will ignore the clearing of variable-sized objects.  */
3699         if (num_type_elements < 0 && int_size_in_bytes (type) >= 0)
3700           cleared = true;
3701         /* If there are "lots" of zeros, then block clear the object first.  */
3702         else if (num_type_elements - num_nonzero_elements
3703                  > CLEAR_RATIO (optimize_function_for_speed_p (cfun))
3704                  && num_nonzero_elements < num_type_elements/4)
3705           cleared = true;
3706         /* ??? This bit ought not be needed.  For any element not present
3707            in the initializer, we should simply set them to zero.  Except
3708            we'd need to *find* the elements that are not present, and that
3709            requires trickery to avoid quadratic compile-time behavior in
3710            large cases or excessive memory use in small cases.  */
3711         else if (num_ctor_elements < num_type_elements)
3712           cleared = true;
3713
3714         /* If there are "lots" of initialized elements, and all of them
3715            are valid address constants, then the entire initializer can
3716            be dropped to memory, and then memcpy'd out.  Don't do this
3717            for sparse arrays, though, as it's more efficient to follow
3718            the standard CONSTRUCTOR behavior of memset followed by
3719            individual element initialization.  Also don't do this for small
3720            all-zero initializers (which aren't big enough to merit
3721            clearing), and don't try to make bitwise copies of
3722            TREE_ADDRESSABLE types.  */
3723         if (valid_const_initializer
3724             && !(cleared || num_nonzero_elements == 0)
3725             && !TREE_ADDRESSABLE (type))
3726           {
3727             HOST_WIDE_INT size = int_size_in_bytes (type);
3728             unsigned int align;
3729
3730             /* ??? We can still get unbounded array types, at least
3731                from the C++ front end.  This seems wrong, but attempt
3732                to work around it for now.  */
3733             if (size < 0)
3734               {
3735                 size = int_size_in_bytes (TREE_TYPE (object));
3736                 if (size >= 0)
3737                   TREE_TYPE (ctor) = type = TREE_TYPE (object);
3738               }
3739
3740             /* Find the maximum alignment we can assume for the object.  */
3741             /* ??? Make use of DECL_OFFSET_ALIGN.  */
3742             if (DECL_P (object))
3743               align = DECL_ALIGN (object);
3744             else
3745               align = TYPE_ALIGN (type);
3746
3747             if (size > 0
3748                 && num_nonzero_elements > 1
3749                 && !can_move_by_pieces (size, align))
3750               {
3751                 tree new_tree;
3752
3753                 if (notify_temp_creation)
3754                   return GS_ERROR;
3755
3756                 new_tree = create_tmp_var_raw (type, "C");
3757
3758                 gimple_add_tmp_var (new_tree);
3759                 TREE_STATIC (new_tree) = 1;
3760                 TREE_READONLY (new_tree) = 1;
3761                 DECL_INITIAL (new_tree) = ctor;
3762                 if (align > DECL_ALIGN (new_tree))
3763                   {
3764                     DECL_ALIGN (new_tree) = align;
3765                     DECL_USER_ALIGN (new_tree) = 1;
3766                   }
3767                 walk_tree (&DECL_INITIAL (new_tree), force_labels_r, NULL, NULL);
3768
3769                 TREE_OPERAND (*expr_p, 1) = new_tree;
3770
3771                 /* This is no longer an assignment of a CONSTRUCTOR, but
3772                    we still may have processing to do on the LHS.  So
3773                    pretend we didn't do anything here to let that happen.  */
3774                 return GS_UNHANDLED;
3775               }
3776           }
3777
3778         /* If the target is volatile and we have non-zero elements
3779            initialize the target from a temporary.  */
3780         if (TREE_THIS_VOLATILE (object)
3781             && !TREE_ADDRESSABLE (type)
3782             && num_nonzero_elements > 0)
3783           {
3784             tree temp = create_tmp_var (TYPE_MAIN_VARIANT (type), NULL);
3785             TREE_OPERAND (*expr_p, 0) = temp;
3786             *expr_p = build2 (COMPOUND_EXPR, TREE_TYPE (*expr_p),
3787                               *expr_p,
3788                               build2 (MODIFY_EXPR, void_type_node,
3789                                       object, temp));
3790             return GS_OK;
3791           }
3792
3793         if (notify_temp_creation)
3794           return GS_OK;
3795
3796         /* If there are nonzero elements and if needed, pre-evaluate to capture
3797            elements overlapping with the lhs into temporaries.  We must do this
3798            before clearing to fetch the values before they are zeroed-out.  */
3799         if (num_nonzero_elements > 0 && TREE_CODE (*expr_p) != INIT_EXPR)
3800           {
3801             preeval_data.lhs_base_decl = get_base_address (object);
3802             if (!DECL_P (preeval_data.lhs_base_decl))
3803               preeval_data.lhs_base_decl = NULL;
3804             preeval_data.lhs_alias_set = get_alias_set (object);
3805
3806             gimplify_init_ctor_preeval (&TREE_OPERAND (*expr_p, 1),
3807                                         pre_p, post_p, &preeval_data);
3808           }
3809
3810         if (cleared)
3811           {
3812             /* Zap the CONSTRUCTOR element list, which simplifies this case.
3813                Note that we still have to gimplify, in order to handle the
3814                case of variable sized types.  Avoid shared tree structures.  */
3815             CONSTRUCTOR_ELTS (ctor) = NULL;
3816             TREE_SIDE_EFFECTS (ctor) = 0;
3817             object = unshare_expr (object);
3818             gimplify_stmt (expr_p, pre_p);
3819           }
3820
3821         /* If we have not block cleared the object, or if there are nonzero
3822            elements in the constructor, add assignments to the individual
3823            scalar fields of the object.  */
3824         if (!cleared || num_nonzero_elements > 0)
3825           gimplify_init_ctor_eval (object, elts, pre_p, cleared);
3826
3827         *expr_p = NULL_TREE;
3828       }
3829       break;
3830
3831     case COMPLEX_TYPE:
3832       {
3833         tree r, i;
3834
3835         if (notify_temp_creation)
3836           return GS_OK;
3837
3838         /* Extract the real and imaginary parts out of the ctor.  */
3839         gcc_assert (VEC_length (constructor_elt, elts) == 2);
3840         r = VEC_index (constructor_elt, elts, 0)->value;
3841         i = VEC_index (constructor_elt, elts, 1)->value;
3842         if (r == NULL || i == NULL)
3843           {
3844             tree zero = fold_convert (TREE_TYPE (type), integer_zero_node);
3845             if (r == NULL)
3846               r = zero;
3847             if (i == NULL)
3848               i = zero;
3849           }
3850
3851         /* Complex types have either COMPLEX_CST or COMPLEX_EXPR to
3852            represent creation of a complex value.  */
3853         if (TREE_CONSTANT (r) && TREE_CONSTANT (i))
3854           {
3855             ctor = build_complex (type, r, i);
3856             TREE_OPERAND (*expr_p, 1) = ctor;
3857           }
3858         else
3859           {
3860             ctor = build2 (COMPLEX_EXPR, type, r, i);
3861             TREE_OPERAND (*expr_p, 1) = ctor;
3862             ret = gimplify_expr (&TREE_OPERAND (*expr_p, 1),
3863                                  pre_p,
3864                                  post_p,
3865                                  rhs_predicate_for (TREE_OPERAND (*expr_p, 0)),
3866                                  fb_rvalue);
3867           }
3868       }
3869       break;
3870
3871     case VECTOR_TYPE:
3872       {
3873         unsigned HOST_WIDE_INT ix;
3874         constructor_elt *ce;
3875
3876         if (notify_temp_creation)
3877           return GS_OK;
3878
3879         /* Go ahead and simplify constant constructors to VECTOR_CST.  */
3880         if (TREE_CONSTANT (ctor))
3881           {
3882             bool constant_p = true;
3883             tree value;
3884
3885             /* Even when ctor is constant, it might contain non-*_CST
3886                elements, such as addresses or trapping values like
3887                1.0/0.0 - 1.0/0.0.  Such expressions don't belong
3888                in VECTOR_CST nodes.  */
3889             FOR_EACH_CONSTRUCTOR_VALUE (elts, ix, value)
3890               if (!CONSTANT_CLASS_P (value))
3891                 {
3892                   constant_p = false;
3893                   break;
3894                 }
3895
3896             if (constant_p)
3897               {
3898                 TREE_OPERAND (*expr_p, 1) = build_vector_from_ctor (type, elts);
3899                 break;
3900               }
3901
3902             /* Don't reduce an initializer constant even if we can't
3903                make a VECTOR_CST.  It won't do anything for us, and it'll
3904                prevent us from representing it as a single constant.  */
3905             if (initializer_constant_valid_p (ctor, type))
3906               break;
3907
3908             TREE_CONSTANT (ctor) = 0;
3909           }
3910
3911         /* Vector types use CONSTRUCTOR all the way through gimple
3912           compilation as a general initializer.  */
3913         for (ix = 0; VEC_iterate (constructor_elt, elts, ix, ce); ix++)
3914           {
3915             enum gimplify_status tret;
3916             tret = gimplify_expr (&ce->value, pre_p, post_p, is_gimple_val,
3917                                   fb_rvalue);
3918             if (tret == GS_ERROR)
3919               ret = GS_ERROR;
3920           }
3921         if (!is_gimple_reg (TREE_OPERAND (*expr_p, 0)))
3922           TREE_OPERAND (*expr_p, 1) = get_formal_tmp_var (ctor, pre_p);
3923       }
3924       break;
3925
3926     default:
3927       /* So how did we get a CONSTRUCTOR for a scalar type?  */
3928       gcc_unreachable ();
3929     }
3930
3931   if (ret == GS_ERROR)
3932     return GS_ERROR;
3933   else if (want_value)
3934     {
3935       *expr_p = object;
3936       return GS_OK;
3937     }
3938   else
3939     {
3940       /* If we have gimplified both sides of the initializer but have
3941          not emitted an assignment, do so now.  */
3942       if (*expr_p)
3943         {
3944           tree lhs = TREE_OPERAND (*expr_p, 0);
3945           tree rhs = TREE_OPERAND (*expr_p, 1);
3946           gimple init = gimple_build_assign (lhs, rhs);
3947           gimplify_seq_add_stmt (pre_p, init);
3948           *expr_p = NULL;
3949         }
3950
3951       return GS_ALL_DONE;
3952     }
3953 }
3954
3955 /* Given a pointer value OP0, return a simplified version of an
3956    indirection through OP0, or NULL_TREE if no simplification is
3957    possible.  Note that the resulting type may be different from
3958    the type pointed to in the sense that it is still compatible
3959    from the langhooks point of view. */
3960
3961 tree
3962 gimple_fold_indirect_ref (tree t)
3963 {
3964   tree type = TREE_TYPE (TREE_TYPE (t));
3965   tree sub = t;
3966   tree subtype;
3967
3968   STRIP_NOPS (sub);
3969   subtype = TREE_TYPE (sub);
3970   if (!POINTER_TYPE_P (subtype))
3971     return NULL_TREE;
3972
3973   if (TREE_CODE (sub) == ADDR_EXPR)
3974     {
3975       tree op = TREE_OPERAND (sub, 0);
3976       tree optype = TREE_TYPE (op);
3977       /* *&p => p */
3978       if (useless_type_conversion_p (type, optype))
3979         return op;
3980
3981       /* *(foo *)&fooarray => fooarray[0] */
3982       if (TREE_CODE (optype) == ARRAY_TYPE
3983           && TREE_CODE (TYPE_SIZE (TREE_TYPE (optype))) == INTEGER_CST
3984           && useless_type_conversion_p (type, TREE_TYPE (optype)))
3985        {
3986          tree type_domain = TYPE_DOMAIN (optype);
3987          tree min_val = size_zero_node;
3988          if (type_domain && TYPE_MIN_VALUE (type_domain))
3989            min_val = TYPE_MIN_VALUE (type_domain);
3990          if (TREE_CODE (min_val) == INTEGER_CST)
3991            return build4 (ARRAY_REF, type, op, min_val, NULL_TREE, NULL_TREE);
3992        }
3993       /* *(foo *)&complexfoo => __real__ complexfoo */
3994       else if (TREE_CODE (optype) == COMPLEX_TYPE
3995                && useless_type_conversion_p (type, TREE_TYPE (optype)))
3996         return fold_build1 (REALPART_EXPR, type, op);
3997       /* *(foo *)&vectorfoo => BIT_FIELD_REF<vectorfoo,...> */
3998       else if (TREE_CODE (optype) == VECTOR_TYPE
3999                && useless_type_conversion_p (type, TREE_TYPE (optype)))
4000         {
4001           tree part_width = TYPE_SIZE (type);
4002           tree index = bitsize_int (0);
4003           return fold_build3 (BIT_FIELD_REF, type, op, part_width, index);
4004         }
4005     }
4006
4007   /* ((foo*)&vectorfoo)[1] => BIT_FIELD_REF<vectorfoo,...> */
4008   if (TREE_CODE (sub) == POINTER_PLUS_EXPR
4009       && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
4010     {
4011       tree op00 = TREE_OPERAND (sub, 0);
4012       tree op01 = TREE_OPERAND (sub, 1);
4013       tree op00type;
4014
4015       STRIP_NOPS (op00);
4016       op00type = TREE_TYPE (op00);
4017       if (TREE_CODE (op00) == ADDR_EXPR
4018           && TREE_CODE (TREE_TYPE (op00type)) == VECTOR_TYPE
4019           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (op00type))))
4020         {
4021           HOST_WIDE_INT offset = tree_low_cst (op01, 0);
4022           tree part_width = TYPE_SIZE (type);
4023           unsigned HOST_WIDE_INT part_widthi
4024             = tree_low_cst (part_width, 0) / BITS_PER_UNIT;
4025           unsigned HOST_WIDE_INT indexi = offset * BITS_PER_UNIT;
4026           tree index = bitsize_int (indexi);
4027           if (offset / part_widthi
4028               <= TYPE_VECTOR_SUBPARTS (TREE_TYPE (op00type)))
4029             return fold_build3 (BIT_FIELD_REF, type, TREE_OPERAND (op00, 0),
4030                                 part_width, index);
4031         }
4032     }
4033
4034   /* ((foo*)&complexfoo)[1] => __imag__ complexfoo */
4035   if (TREE_CODE (sub) == POINTER_PLUS_EXPR
4036       && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
4037     {
4038       tree op00 = TREE_OPERAND (sub, 0);
4039       tree op01 = TREE_OPERAND (sub, 1);
4040       tree op00type;
4041
4042       STRIP_NOPS (op00);
4043       op00type = TREE_TYPE (op00);
4044       if (TREE_CODE (op00) == ADDR_EXPR
4045           && TREE_CODE (TREE_TYPE (op00type)) == COMPLEX_TYPE
4046           && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (op00type))))
4047         {
4048           tree size = TYPE_SIZE_UNIT (type);
4049           if (tree_int_cst_equal (size, op01))
4050             return fold_build1 (IMAGPART_EXPR, type, TREE_OPERAND (op00, 0));
4051         }
4052     }
4053
4054   /* *(foo *)fooarrptr => (*fooarrptr)[0] */
4055   if (TREE_CODE (TREE_TYPE (subtype)) == ARRAY_TYPE
4056       && TREE_CODE (TYPE_SIZE (TREE_TYPE (TREE_TYPE (subtype)))) == INTEGER_CST
4057       && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (subtype))))
4058     {
4059       tree type_domain;
4060       tree min_val = size_zero_node;
4061       tree osub = sub;
4062       sub = gimple_fold_indirect_ref (sub);
4063       if (! sub)
4064         sub = build1 (INDIRECT_REF, TREE_TYPE (subtype), osub);
4065       type_domain = TYPE_DOMAIN (TREE_TYPE (sub));
4066       if (type_domain && TYPE_MIN_VALUE (type_domain))
4067         min_val = TYPE_MIN_VALUE (type_domain);
4068       if (TREE_CODE (min_val) == INTEGER_CST)
4069         return build4 (ARRAY_REF, type, sub, min_val, NULL_TREE, NULL_TREE);
4070     }
4071
4072   return NULL_TREE;
4073 }
4074
4075 /* Given a pointer value OP0, return a simplified version of an
4076    indirection through OP0, or NULL_TREE if no simplification is
4077    possible.  This may only be applied to a rhs of an expression.
4078    Note that the resulting type may be different from the type pointed
4079    to in the sense that it is still compatible from the langhooks
4080    point of view. */
4081
4082 static tree
4083 gimple_fold_indirect_ref_rhs (tree t)
4084 {
4085   return gimple_fold_indirect_ref (t);
4086 }
4087
4088 /* Subroutine of gimplify_modify_expr to do simplifications of
4089    MODIFY_EXPRs based on the code of the RHS.  We loop for as long as
4090    something changes.  */
4091
4092 static enum gimplify_status
4093 gimplify_modify_expr_rhs (tree *expr_p, tree *from_p, tree *to_p,
4094                           gimple_seq *pre_p, gimple_seq *post_p,
4095                           bool want_value)
4096 {
4097   enum gimplify_status ret = GS_OK;
4098
4099   while (ret != GS_UNHANDLED)
4100     switch (TREE_CODE (*from_p))
4101       {
4102       case VAR_DECL:
4103         /* If we're assigning from a read-only variable initialized with
4104            a constructor, do the direct assignment from the constructor,
4105            but only if neither source nor target are volatile since this
4106            latter assignment might end up being done on a per-field basis.  */
4107         if (DECL_INITIAL (*from_p)
4108             && TREE_READONLY (*from_p)
4109             && !TREE_THIS_VOLATILE (*from_p)
4110             && !TREE_THIS_VOLATILE (*to_p)
4111             && TREE_CODE (DECL_INITIAL (*from_p)) == CONSTRUCTOR)
4112           {
4113             tree old_from = *from_p;
4114
4115             /* Move the constructor into the RHS.  */
4116             *from_p = unshare_expr (DECL_INITIAL (*from_p));
4117
4118             /* Let's see if gimplify_init_constructor will need to put
4119                it in memory.  If so, revert the change.  */
4120             ret = gimplify_init_constructor (expr_p, NULL, NULL, false, true);
4121             if (ret == GS_ERROR)
4122               {
4123                 *from_p = old_from;
4124                 /* Fall through.  */
4125               }
4126             else
4127               {
4128                 ret = GS_OK;
4129                 break;
4130               }
4131           }
4132         ret = GS_UNHANDLED;
4133         break;
4134       case INDIRECT_REF:
4135         {
4136           /* If we have code like
4137
4138                 *(const A*)(A*)&x
4139
4140              where the type of "x" is a (possibly cv-qualified variant
4141              of "A"), treat the entire expression as identical to "x".
4142              This kind of code arises in C++ when an object is bound
4143              to a const reference, and if "x" is a TARGET_EXPR we want
4144              to take advantage of the optimization below.  */
4145           tree t = gimple_fold_indirect_ref_rhs (TREE_OPERAND (*from_p, 0));
4146           if (t)
4147             {
4148               *from_p = t;
4149               ret = GS_OK;
4150             }
4151           else
4152             ret = GS_UNHANDLED;
4153           break;
4154         }
4155
4156       case TARGET_EXPR:
4157         {
4158           /* If we are initializing something from a TARGET_EXPR, strip the
4159              TARGET_EXPR and initialize it directly, if possible.  This can't
4160              be done if the initializer is void, since that implies that the
4161              temporary is set in some non-trivial way.
4162
4163              ??? What about code that pulls out the temp and uses it
4164              elsewhere? I think that such code never uses the TARGET_EXPR as
4165              an initializer.  If I'm wrong, we'll die because the temp won't
4166              have any RTL.  In that case, I guess we'll need to replace
4167              references somehow.  */
4168           tree init = TARGET_EXPR_INITIAL (*from_p);
4169
4170           if (init
4171               && !VOID_TYPE_P (TREE_TYPE (init)))
4172             {
4173               *from_p = init;
4174               ret = GS_OK;
4175             }
4176           else
4177             ret = GS_UNHANDLED;
4178         }
4179         break;
4180
4181       case COMPOUND_EXPR:
4182         /* Remove any COMPOUND_EXPR in the RHS so the following cases will be
4183            caught.  */
4184         gimplify_compound_expr (from_p, pre_p, true);
4185         ret = GS_OK;
4186         break;
4187
4188       case CONSTRUCTOR:
4189         /* If we're initializing from a CONSTRUCTOR, break this into
4190            individual MODIFY_EXPRs.  */
4191         return gimplify_init_constructor (expr_p, pre_p, post_p, want_value,
4192                                           false);
4193
4194       case COND_EXPR:
4195         /* If we're assigning to a non-register type, push the assignment
4196            down into the branches.  This is mandatory for ADDRESSABLE types,
4197            since we cannot generate temporaries for such, but it saves a
4198            copy in other cases as well.  */
4199         if (!is_gimple_reg_type (TREE_TYPE (*from_p)))
4200           {
4201             /* This code should mirror the code in gimplify_cond_expr. */
4202             enum tree_code code = TREE_CODE (*expr_p);
4203             tree cond = *from_p;
4204             tree result = *to_p;
4205
4206             ret = gimplify_expr (&result, pre_p, post_p,
4207                                  is_gimple_lvalue, fb_lvalue);
4208             if (ret != GS_ERROR)
4209               ret = GS_OK;
4210
4211             if (TREE_TYPE (TREE_OPERAND (cond, 1)) != void_type_node)
4212               TREE_OPERAND (cond, 1)
4213                 = build2 (code, void_type_node, result,
4214                           TREE_OPERAND (cond, 1));
4215             if (TREE_TYPE (TREE_OPERAND (cond, 2)) != void_type_node)
4216               TREE_OPERAND (cond, 2)
4217                 = build2 (code, void_type_node, unshare_expr (result),
4218                           TREE_OPERAND (cond, 2));
4219
4220             TREE_TYPE (cond) = void_type_node;
4221             recalculate_side_effects (cond);
4222
4223             if (want_value)
4224               {
4225                 gimplify_and_add (cond, pre_p);
4226                 *expr_p = unshare_expr (result);
4227               }
4228             else
4229               *expr_p = cond;
4230             return ret;
4231           }
4232         else
4233           ret = GS_UNHANDLED;
4234         break;
4235
4236       case CALL_EXPR:
4237         /* For calls that return in memory, give *to_p as the CALL_EXPR's
4238            return slot so that we don't generate a temporary.  */
4239         if (!CALL_EXPR_RETURN_SLOT_OPT (*from_p)
4240             && aggregate_value_p (*from_p, *from_p))
4241           {
4242             bool use_target;
4243
4244             if (!(rhs_predicate_for (*to_p))(*from_p))
4245               /* If we need a temporary, *to_p isn't accurate.  */
4246               use_target = false;
4247             else if (TREE_CODE (*to_p) == RESULT_DECL
4248                      && DECL_NAME (*to_p) == NULL_TREE
4249                      && needs_to_live_in_memory (*to_p))
4250               /* It's OK to use the return slot directly unless it's an NRV. */
4251               use_target = true;
4252             else if (is_gimple_reg_type (TREE_TYPE (*to_p))
4253                      || (DECL_P (*to_p) && DECL_REGISTER (*to_p)))
4254               /* Don't force regs into memory.  */
4255               use_target = false;
4256             else if (TREE_CODE (*expr_p) == INIT_EXPR)
4257               /* It's OK to use the target directly if it's being
4258                  initialized. */
4259               use_target = true;
4260             else if (!is_gimple_non_addressable (*to_p))
4261               /* Don't use the original target if it's already addressable;
4262                  if its address escapes, and the called function uses the
4263                  NRV optimization, a conforming program could see *to_p
4264                  change before the called function returns; see c++/19317.
4265                  When optimizing, the return_slot pass marks more functions
4266                  as safe after we have escape info.  */
4267               use_target = false;
4268             else
4269               use_target = true;
4270
4271             if (use_target)
4272               {
4273                 CALL_EXPR_RETURN_SLOT_OPT (*from_p) = 1;
4274                 mark_addressable (*to_p);
4275               }
4276           }
4277
4278         ret = GS_UNHANDLED;
4279         break;
4280
4281       case WITH_SIZE_EXPR:
4282         /* Likewise for calls that return an aggregate of non-constant size,
4283            since we would not be able to generate a temporary at all.  */
4284         if (TREE_CODE (TREE_OPERAND (*from_p, 0)) == CALL_EXPR)
4285           {
4286             *from_p = TREE_OPERAND (*from_p, 0);
4287             ret = GS_OK;
4288           }
4289         else
4290           ret = GS_UNHANDLED;
4291         break;
4292
4293         /* If we're initializing from a container, push the initialization
4294            inside it.  */
4295       case CLEANUP_POINT_EXPR:
4296       case BIND_EXPR:
4297       case STATEMENT_LIST:
4298         {
4299           tree wrap = *from_p;
4300           tree t;
4301
4302           ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_min_lval,
4303                                fb_lvalue);
4304           if (ret != GS_ERROR)
4305             ret = GS_OK;
4306
4307           t = voidify_wrapper_expr (wrap, *expr_p);
4308           gcc_assert (t == *expr_p);
4309
4310           if (want_value)
4311             {
4312               gimplify_and_add (wrap, pre_p);
4313               *expr_p = unshare_expr (*to_p);
4314             }
4315           else
4316             *expr_p = wrap;
4317           return GS_OK;
4318         }
4319
4320       case COMPOUND_LITERAL_EXPR:
4321         {
4322           tree complit = TREE_OPERAND (*expr_p, 1);
4323           tree decl_s = COMPOUND_LITERAL_EXPR_DECL_EXPR (complit);
4324           tree decl = DECL_EXPR_DECL (decl_s);
4325           tree init = DECL_INITIAL (decl);
4326
4327           /* struct T x = (struct T) { 0, 1, 2 } can be optimized
4328              into struct T x = { 0, 1, 2 } if the address of the
4329              compound literal has never been taken.  */
4330           if (!TREE_ADDRESSABLE (complit)
4331               && !TREE_ADDRESSABLE (decl)
4332               && init)
4333             {
4334               *expr_p = copy_node (*expr_p);
4335               TREE_OPERAND (*expr_p, 1) = init;
4336               return GS_OK;
4337             }
4338         }
4339
4340       default:
4341         ret = GS_UNHANDLED;
4342         break;
4343       }
4344
4345   return ret;
4346 }
4347
4348
4349 /* Promote partial stores to COMPLEX variables to total stores.  *EXPR_P is
4350    a MODIFY_EXPR with a lhs of a REAL/IMAGPART_EXPR of a variable with
4351    DECL_GIMPLE_REG_P set.
4352
4353    IMPORTANT NOTE: This promotion is performed by introducing a load of the
4354    other, unmodified part of the complex object just before the total store.
4355    As a consequence, if the object is still uninitialized, an undefined value
4356    will be loaded into a register, which may result in a spurious exception
4357    if the register is floating-point and the value happens to be a signaling
4358    NaN for example.  Then the fully-fledged complex operations lowering pass
4359    followed by a DCE pass are necessary in order to fix things up.  */
4360
4361 static enum gimplify_status
4362 gimplify_modify_expr_complex_part (tree *expr_p, gimple_seq *pre_p,
4363                                    bool want_value)
4364 {
4365   enum tree_code code, ocode;
4366   tree lhs, rhs, new_rhs, other, realpart, imagpart;
4367
4368   lhs = TREE_OPERAND (*expr_p, 0);
4369   rhs = TREE_OPERAND (*expr_p, 1);
4370   code = TREE_CODE (lhs);
4371   lhs = TREE_OPERAND (lhs, 0);
4372
4373   ocode = code == REALPART_EXPR ? IMAGPART_EXPR : REALPART_EXPR;
4374   other = build1 (ocode, TREE_TYPE (rhs), lhs);
4375   other = get_formal_tmp_var (other, pre_p);
4376
4377   realpart = code == REALPART_EXPR ? rhs : other;
4378   imagpart = code == REALPART_EXPR ? other : rhs;
4379
4380   if (TREE_CONSTANT (realpart) && TREE_CONSTANT (imagpart))
4381     new_rhs = build_complex (TREE_TYPE (lhs), realpart, imagpart);
4382   else
4383     new_rhs = build2 (COMPLEX_EXPR, TREE_TYPE (lhs), realpart, imagpart);
4384
4385   gimplify_seq_add_stmt (pre_p, gimple_build_assign (lhs, new_rhs));
4386   *expr_p = (want_value) ? rhs : NULL_TREE;
4387
4388   return GS_ALL_DONE;
4389 }
4390
4391
4392 /* Gimplify the MODIFY_EXPR node pointed to by EXPR_P.
4393
4394       modify_expr
4395               : varname '=' rhs
4396               | '*' ID '=' rhs
4397
4398     PRE_P points to the list where side effects that must happen before
4399         *EXPR_P should be stored.
4400
4401     POST_P points to the list where side effects that must happen after
4402         *EXPR_P should be stored.
4403
4404     WANT_VALUE is nonzero iff we want to use the value of this expression
4405         in another expression.  */
4406
4407 static enum gimplify_status
4408 gimplify_modify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
4409                       bool want_value)
4410 {
4411   tree *from_p = &TREE_OPERAND (*expr_p, 1);
4412   tree *to_p = &TREE_OPERAND (*expr_p, 0);
4413   enum gimplify_status ret = GS_UNHANDLED;
4414   gimple assign;
4415   location_t loc = EXPR_LOCATION (*expr_p);
4416
4417   gcc_assert (TREE_CODE (*expr_p) == MODIFY_EXPR
4418               || TREE_CODE (*expr_p) == INIT_EXPR);
4419
4420   /* Insert pointer conversions required by the middle-end that are not
4421      required by the frontend.  This fixes middle-end type checking for
4422      for example gcc.dg/redecl-6.c.  */
4423   if (POINTER_TYPE_P (TREE_TYPE (*to_p)))
4424     {
4425       STRIP_USELESS_TYPE_CONVERSION (*from_p);
4426       if (!useless_type_conversion_p (TREE_TYPE (*to_p), TREE_TYPE (*from_p)))
4427         *from_p = fold_convert_loc (loc, TREE_TYPE (*to_p), *from_p);
4428     }
4429
4430   /* See if any simplifications can be done based on what the RHS is.  */
4431   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4432                                   want_value);
4433   if (ret != GS_UNHANDLED)
4434     return ret;
4435
4436   /* For zero sized types only gimplify the left hand side and right hand
4437      side as statements and throw away the assignment.  Do this after
4438      gimplify_modify_expr_rhs so we handle TARGET_EXPRs of addressable
4439      types properly.  */
4440   if (zero_sized_type (TREE_TYPE (*from_p)) && !want_value)
4441     {
4442       gimplify_stmt (from_p, pre_p);
4443       gimplify_stmt (to_p, pre_p);
4444       *expr_p = NULL_TREE;
4445       return GS_ALL_DONE;
4446     }
4447
4448   /* If the value being copied is of variable width, compute the length
4449      of the copy into a WITH_SIZE_EXPR.   Note that we need to do this
4450      before gimplifying any of the operands so that we can resolve any
4451      PLACEHOLDER_EXPRs in the size.  Also note that the RTL expander uses
4452      the size of the expression to be copied, not of the destination, so
4453      that is what we must do here.  */
4454   maybe_with_size_expr (from_p);
4455
4456   ret = gimplify_expr (to_p, pre_p, post_p, is_gimple_lvalue, fb_lvalue);
4457   if (ret == GS_ERROR)
4458     return ret;
4459
4460   /* As a special case, we have to temporarily allow for assignments
4461      with a CALL_EXPR on the RHS.  Since in GIMPLE a function call is
4462      a toplevel statement, when gimplifying the GENERIC expression
4463      MODIFY_EXPR <a, CALL_EXPR <foo>>, we cannot create the tuple
4464      GIMPLE_ASSIGN <a, GIMPLE_CALL <foo>>.
4465
4466      Instead, we need to create the tuple GIMPLE_CALL <a, foo>.  To
4467      prevent gimplify_expr from trying to create a new temporary for
4468      foo's LHS, we tell it that it should only gimplify until it
4469      reaches the CALL_EXPR.  On return from gimplify_expr, the newly
4470      created GIMPLE_CALL <foo> will be the last statement in *PRE_P
4471      and all we need to do here is set 'a' to be its LHS.  */
4472   ret = gimplify_expr (from_p, pre_p, post_p, rhs_predicate_for (*to_p),
4473                        fb_rvalue);
4474   if (ret == GS_ERROR)
4475     return ret;
4476
4477   /* Now see if the above changed *from_p to something we handle specially.  */
4478   ret = gimplify_modify_expr_rhs (expr_p, from_p, to_p, pre_p, post_p,
4479                                   want_value);
4480   if (ret != GS_UNHANDLED)
4481     return ret;
4482
4483   /* If we've got a variable sized assignment between two lvalues (i.e. does
4484      not involve a call), then we can make things a bit more straightforward
4485      by converting the assignment to memcpy or memset.  */
4486   if (TREE_CODE (*from_p) == WITH_SIZE_EXPR)
4487     {
4488       tree from = TREE_OPERAND (*from_p, 0);
4489       tree size = TREE_OPERAND (*from_p, 1);
4490
4491       if (TREE_CODE (from) == CONSTRUCTOR)
4492         return gimplify_modify_expr_to_memset (expr_p, size, want_value, pre_p);
4493
4494       if (is_gimple_addressable (from))
4495         {
4496           *from_p = from;
4497           return gimplify_modify_expr_to_memcpy (expr_p, size, want_value,
4498                                                  pre_p);
4499         }
4500     }
4501
4502   /* Transform partial stores to non-addressable complex variables into
4503      total stores.  This allows us to use real instead of virtual operands
4504      for these variables, which improves optimization.  */
4505   if ((TREE_CODE (*to_p) == REALPART_EXPR
4506        || TREE_CODE (*to_p) == IMAGPART_EXPR)
4507       && is_gimple_reg (TREE_OPERAND (*to_p, 0)))
4508     return gimplify_modify_expr_complex_part (expr_p, pre_p, want_value);
4509
4510   /* Try to alleviate the effects of the gimplification creating artificial
4511      temporaries (see for example is_gimple_reg_rhs) on the debug info.  */
4512   if (!gimplify_ctxp->into_ssa
4513       && DECL_P (*from_p)
4514       && DECL_IGNORED_P (*from_p)
4515       && DECL_P (*to_p)
4516       && !DECL_IGNORED_P (*to_p))
4517     {
4518       if (!DECL_NAME (*from_p) && DECL_NAME (*to_p))
4519         DECL_NAME (*from_p)
4520           = create_tmp_var_name (IDENTIFIER_POINTER (DECL_NAME (*to_p)));
4521       DECL_DEBUG_EXPR_IS_FROM (*from_p) = 1;
4522       SET_DECL_DEBUG_EXPR (*from_p, *to_p);
4523    }
4524
4525   if (TREE_CODE (*from_p) == CALL_EXPR)
4526     {
4527       /* Since the RHS is a CALL_EXPR, we need to create a GIMPLE_CALL
4528          instead of a GIMPLE_ASSIGN.  */
4529       assign = gimple_build_call_from_tree (*from_p);
4530       if (!gimple_call_noreturn_p (assign))
4531         gimple_call_set_lhs (assign, *to_p);
4532     }
4533   else
4534     {
4535       assign = gimple_build_assign (*to_p, *from_p);
4536       gimple_set_location (assign, EXPR_LOCATION (*expr_p));
4537     }
4538
4539   gimplify_seq_add_stmt (pre_p, assign);
4540
4541   if (gimplify_ctxp->into_ssa && is_gimple_reg (*to_p))
4542     {
4543       /* If we've somehow already got an SSA_NAME on the LHS, then
4544          we've probably modified it twice.  Not good.  */
4545       gcc_assert (TREE_CODE (*to_p) != SSA_NAME);
4546       *to_p = make_ssa_name (*to_p, assign);
4547       gimple_set_lhs (assign, *to_p);
4548     }
4549
4550   if (want_value)
4551     {
4552       *expr_p = unshare_expr (*to_p);
4553       return GS_OK;
4554     }
4555   else
4556     *expr_p = NULL;
4557
4558   return GS_ALL_DONE;
4559 }
4560
4561 /*  Gimplify a comparison between two variable-sized objects.  Do this
4562     with a call to BUILT_IN_MEMCMP.  */
4563
4564 static enum gimplify_status
4565 gimplify_variable_sized_compare (tree *expr_p)
4566 {
4567   tree op0 = TREE_OPERAND (*expr_p, 0);
4568   tree op1 = TREE_OPERAND (*expr_p, 1);
4569   tree t, arg, dest, src;
4570   location_t loc = EXPR_LOCATION (*expr_p);
4571
4572   arg = TYPE_SIZE_UNIT (TREE_TYPE (op0));
4573   arg = unshare_expr (arg);
4574   arg = SUBSTITUTE_PLACEHOLDER_IN_EXPR (arg, op0);
4575   src = build_fold_addr_expr_loc (loc, op1);
4576   dest = build_fold_addr_expr_loc (loc, op0);
4577   t = implicit_built_in_decls[BUILT_IN_MEMCMP];
4578   t = build_call_expr_loc (loc, t, 3, dest, src, arg);
4579   *expr_p
4580     = build2 (TREE_CODE (*expr_p), TREE_TYPE (*expr_p), t, integer_zero_node);
4581
4582   return GS_OK;
4583 }
4584
4585 /*  Gimplify a comparison between two aggregate objects of integral scalar
4586     mode as a comparison between the bitwise equivalent scalar values.  */
4587
4588 static enum gimplify_status
4589 gimplify_scalar_mode_aggregate_compare (tree *expr_p)
4590 {
4591   location_t loc = EXPR_LOCATION (*expr_p);
4592   tree op0 = TREE_OPERAND (*expr_p, 0);
4593   tree op1 = TREE_OPERAND (*expr_p, 1);
4594
4595   tree type = TREE_TYPE (op0);
4596   tree scalar_type = lang_hooks.types.type_for_mode (TYPE_MODE (type), 1);
4597
4598   op0 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op0);
4599   op1 = fold_build1_loc (loc, VIEW_CONVERT_EXPR, scalar_type, op1);
4600
4601   *expr_p
4602     = fold_build2_loc (loc, TREE_CODE (*expr_p), TREE_TYPE (*expr_p), op0, op1);
4603
4604   return GS_OK;
4605 }
4606
4607 /*  Gimplify TRUTH_ANDIF_EXPR and TRUTH_ORIF_EXPR expressions.  EXPR_P
4608     points to the expression to gimplify.
4609
4610     Expressions of the form 'a && b' are gimplified to:
4611
4612         a && b ? true : false
4613
4614     LOCUS is the source location to be put on the generated COND_EXPR.
4615     gimplify_cond_expr will do the rest.  */
4616
4617 static enum gimplify_status
4618 gimplify_boolean_expr (tree *expr_p, location_t locus)
4619 {
4620   /* Preserve the original type of the expression.  */
4621   tree type = TREE_TYPE (*expr_p);
4622
4623   *expr_p = build3 (COND_EXPR, type, *expr_p,
4624                     fold_convert_loc (locus, type, boolean_true_node),
4625                     fold_convert_loc (locus, type, boolean_false_node));
4626
4627   SET_EXPR_LOCATION (*expr_p, locus);
4628
4629   return GS_OK;
4630 }
4631
4632 /* Gimplifies an expression sequence.  This function gimplifies each
4633    expression and re-writes the original expression with the last
4634    expression of the sequence in GIMPLE form.
4635
4636    PRE_P points to the list where the side effects for all the
4637        expressions in the sequence will be emitted.
4638
4639    WANT_VALUE is true when the result of the last COMPOUND_EXPR is used.  */
4640
4641 static enum gimplify_status
4642 gimplify_compound_expr (tree *expr_p, gimple_seq *pre_p, bool want_value)
4643 {
4644   tree t = *expr_p;
4645
4646   do
4647     {
4648       tree *sub_p = &TREE_OPERAND (t, 0);
4649
4650       if (TREE_CODE (*sub_p) == COMPOUND_EXPR)
4651         gimplify_compound_expr (sub_p, pre_p, false);
4652       else
4653         gimplify_stmt (sub_p, pre_p);
4654
4655       t = TREE_OPERAND (t, 1);
4656     }
4657   while (TREE_CODE (t) == COMPOUND_EXPR);
4658
4659   *expr_p = t;
4660   if (want_value)
4661     return GS_OK;
4662   else
4663     {
4664       gimplify_stmt (expr_p, pre_p);
4665       return GS_ALL_DONE;
4666     }
4667 }
4668
4669
4670 /* Gimplify a SAVE_EXPR node.  EXPR_P points to the expression to
4671    gimplify.  After gimplification, EXPR_P will point to a new temporary
4672    that holds the original value of the SAVE_EXPR node.
4673
4674    PRE_P points to the list where side effects that must happen before
4675       *EXPR_P should be stored.  */
4676
4677 static enum gimplify_status
4678 gimplify_save_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4679 {
4680   enum gimplify_status ret = GS_ALL_DONE;
4681   tree val;
4682
4683   gcc_assert (TREE_CODE (*expr_p) == SAVE_EXPR);
4684   val = TREE_OPERAND (*expr_p, 0);
4685
4686   /* If the SAVE_EXPR has not been resolved, then evaluate it once.  */
4687   if (!SAVE_EXPR_RESOLVED_P (*expr_p))
4688     {
4689       /* The operand may be a void-valued expression such as SAVE_EXPRs
4690          generated by the Java frontend for class initialization.  It is
4691          being executed only for its side-effects.  */
4692       if (TREE_TYPE (val) == void_type_node)
4693         {
4694           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
4695                                is_gimple_stmt, fb_none);
4696           val = NULL;
4697         }
4698       else
4699         val = get_initialized_tmp_var (val, pre_p, post_p);
4700
4701       TREE_OPERAND (*expr_p, 0) = val;
4702       SAVE_EXPR_RESOLVED_P (*expr_p) = 1;
4703     }
4704
4705   *expr_p = val;
4706
4707   return ret;
4708 }
4709
4710 /*  Re-write the ADDR_EXPR node pointed to by EXPR_P
4711
4712       unary_expr
4713               : ...
4714               | '&' varname
4715               ...
4716
4717     PRE_P points to the list where side effects that must happen before
4718         *EXPR_P should be stored.
4719
4720     POST_P points to the list where side effects that must happen after
4721         *EXPR_P should be stored.  */
4722
4723 static enum gimplify_status
4724 gimplify_addr_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4725 {
4726   tree expr = *expr_p;
4727   tree op0 = TREE_OPERAND (expr, 0);
4728   enum gimplify_status ret;
4729   location_t loc = EXPR_LOCATION (*expr_p);
4730
4731   switch (TREE_CODE (op0))
4732     {
4733     case INDIRECT_REF:
4734     case MISALIGNED_INDIRECT_REF:
4735     do_indirect_ref:
4736       /* Check if we are dealing with an expression of the form '&*ptr'.
4737          While the front end folds away '&*ptr' into 'ptr', these
4738          expressions may be generated internally by the compiler (e.g.,
4739          builtins like __builtin_va_end).  */
4740       /* Caution: the silent array decomposition semantics we allow for
4741          ADDR_EXPR means we can't always discard the pair.  */
4742       /* Gimplification of the ADDR_EXPR operand may drop
4743          cv-qualification conversions, so make sure we add them if
4744          needed.  */
4745       {
4746         tree op00 = TREE_OPERAND (op0, 0);
4747         tree t_expr = TREE_TYPE (expr);
4748         tree t_op00 = TREE_TYPE (op00);
4749
4750         if (!useless_type_conversion_p (t_expr, t_op00))
4751           op00 = fold_convert_loc (loc, TREE_TYPE (expr), op00);
4752         *expr_p = op00;
4753         ret = GS_OK;
4754       }
4755       break;
4756
4757     case VIEW_CONVERT_EXPR:
4758       /* Take the address of our operand and then convert it to the type of
4759          this ADDR_EXPR.
4760
4761          ??? The interactions of VIEW_CONVERT_EXPR and aliasing is not at
4762          all clear.  The impact of this transformation is even less clear.  */
4763
4764       /* If the operand is a useless conversion, look through it.  Doing so
4765          guarantees that the ADDR_EXPR and its operand will remain of the
4766          same type.  */
4767       if (tree_ssa_useless_type_conversion (TREE_OPERAND (op0, 0)))
4768         op0 = TREE_OPERAND (op0, 0);
4769
4770       *expr_p = fold_convert_loc (loc, TREE_TYPE (expr),
4771                                   build_fold_addr_expr_loc (loc,
4772                                                         TREE_OPERAND (op0, 0)));
4773       ret = GS_OK;
4774       break;
4775
4776     default:
4777       /* We use fb_either here because the C frontend sometimes takes
4778          the address of a call that returns a struct; see
4779          gcc.dg/c99-array-lval-1.c.  The gimplifier will correctly make
4780          the implied temporary explicit.  */
4781
4782       /* Make the operand addressable.  */
4783       ret = gimplify_expr (&TREE_OPERAND (expr, 0), pre_p, post_p,
4784                            is_gimple_addressable, fb_either);
4785       if (ret == GS_ERROR)
4786         break;
4787
4788       /* Then mark it.  Beware that it may not be possible to do so directly
4789          if a temporary has been created by the gimplification.  */
4790       prepare_gimple_addressable (&TREE_OPERAND (expr, 0), pre_p);
4791
4792       op0 = TREE_OPERAND (expr, 0);
4793
4794       /* For various reasons, the gimplification of the expression
4795          may have made a new INDIRECT_REF.  */
4796       if (TREE_CODE (op0) == INDIRECT_REF)
4797         goto do_indirect_ref;
4798
4799       mark_addressable (TREE_OPERAND (expr, 0));
4800
4801       /* The FEs may end up building ADDR_EXPRs early on a decl with
4802          an incomplete type.  Re-build ADDR_EXPRs in canonical form
4803          here.  */
4804       if (!types_compatible_p (TREE_TYPE (op0), TREE_TYPE (TREE_TYPE (expr))))
4805         *expr_p = build_fold_addr_expr (op0);
4806
4807       /* Make sure TREE_CONSTANT and TREE_SIDE_EFFECTS are set properly.  */
4808       recompute_tree_invariant_for_addr_expr (*expr_p);
4809
4810       /* If we re-built the ADDR_EXPR add a conversion to the original type
4811          if required.  */
4812       if (!useless_type_conversion_p (TREE_TYPE (expr), TREE_TYPE (*expr_p)))
4813         *expr_p = fold_convert (TREE_TYPE (expr), *expr_p);
4814
4815       break;
4816     }
4817
4818   return ret;
4819 }
4820
4821 /* Gimplify the operands of an ASM_EXPR.  Input operands should be a gimple
4822    value; output operands should be a gimple lvalue.  */
4823
4824 static enum gimplify_status
4825 gimplify_asm_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
4826 {
4827   tree expr;
4828   int noutputs;
4829   const char **oconstraints;
4830   int i;
4831   tree link;
4832   const char *constraint;
4833   bool allows_mem, allows_reg, is_inout;
4834   enum gimplify_status ret, tret;
4835   gimple stmt;
4836   VEC(tree, gc) *inputs;
4837   VEC(tree, gc) *outputs;
4838   VEC(tree, gc) *clobbers;
4839   VEC(tree, gc) *labels;
4840   tree link_next;
4841
4842   expr = *expr_p;
4843   noutputs = list_length (ASM_OUTPUTS (expr));
4844   oconstraints = (const char **) alloca ((noutputs) * sizeof (const char *));
4845
4846   inputs = outputs = clobbers = labels = NULL;
4847
4848   ret = GS_ALL_DONE;
4849   link_next = NULL_TREE;
4850   for (i = 0, link = ASM_OUTPUTS (expr); link; ++i, link = link_next)
4851     {
4852       bool ok;
4853       size_t constraint_len;
4854
4855       link_next = TREE_CHAIN (link);
4856
4857       oconstraints[i]
4858         = constraint
4859         = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4860       constraint_len = strlen (constraint);
4861       if (constraint_len == 0)
4862         continue;
4863
4864       ok = parse_output_constraint (&constraint, i, 0, 0,
4865                                     &allows_mem, &allows_reg, &is_inout);
4866       if (!ok)
4867         {
4868           ret = GS_ERROR;
4869           is_inout = false;
4870         }
4871
4872       if (!allows_reg && allows_mem)
4873         mark_addressable (TREE_VALUE (link));
4874
4875       tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
4876                             is_inout ? is_gimple_min_lval : is_gimple_lvalue,
4877                             fb_lvalue | fb_mayfail);
4878       if (tret == GS_ERROR)
4879         {
4880           error ("invalid lvalue in asm output %d", i);
4881           ret = tret;
4882         }
4883
4884       VEC_safe_push (tree, gc, outputs, link);
4885       TREE_CHAIN (link) = NULL_TREE;
4886
4887       if (is_inout)
4888         {
4889           /* An input/output operand.  To give the optimizers more
4890              flexibility, split it into separate input and output
4891              operands.  */
4892           tree input;
4893           char buf[10];
4894
4895           /* Turn the in/out constraint into an output constraint.  */
4896           char *p = xstrdup (constraint);
4897           p[0] = '=';
4898           TREE_VALUE (TREE_PURPOSE (link)) = build_string (constraint_len, p);
4899
4900           /* And add a matching input constraint.  */
4901           if (allows_reg)
4902             {
4903               sprintf (buf, "%d", i);
4904
4905               /* If there are multiple alternatives in the constraint,
4906                  handle each of them individually.  Those that allow register
4907                  will be replaced with operand number, the others will stay
4908                  unchanged.  */
4909               if (strchr (p, ',') != NULL)
4910                 {
4911                   size_t len = 0, buflen = strlen (buf);
4912                   char *beg, *end, *str, *dst;
4913
4914                   for (beg = p + 1;;)
4915                     {
4916                       end = strchr (beg, ',');
4917                       if (end == NULL)
4918                         end = strchr (beg, '\0');
4919                       if ((size_t) (end - beg) < buflen)
4920                         len += buflen + 1;
4921                       else
4922                         len += end - beg + 1;
4923                       if (*end)
4924                         beg = end + 1;
4925                       else
4926                         break;
4927                     }
4928
4929                   str = (char *) alloca (len);
4930                   for (beg = p + 1, dst = str;;)
4931                     {
4932                       const char *tem;
4933                       bool mem_p, reg_p, inout_p;
4934
4935                       end = strchr (beg, ',');
4936                       if (end)
4937                         *end = '\0';
4938                       beg[-1] = '=';
4939                       tem = beg - 1;
4940                       parse_output_constraint (&tem, i, 0, 0,
4941                                                &mem_p, &reg_p, &inout_p);
4942                       if (dst != str)
4943                         *dst++ = ',';
4944                       if (reg_p)
4945                         {
4946                           memcpy (dst, buf, buflen);
4947                           dst += buflen;
4948                         }
4949                       else
4950                         {
4951                           if (end)
4952                             len = end - beg;
4953                           else
4954                             len = strlen (beg);
4955                           memcpy (dst, beg, len);
4956                           dst += len;
4957                         }
4958                       if (end)
4959                         beg = end + 1;
4960                       else
4961                         break;
4962                     }
4963                   *dst = '\0';
4964                   input = build_string (dst - str, str);
4965                 }
4966               else
4967                 input = build_string (strlen (buf), buf);
4968             }
4969           else
4970             input = build_string (constraint_len - 1, constraint + 1);
4971
4972           free (p);
4973
4974           input = build_tree_list (build_tree_list (NULL_TREE, input),
4975                                    unshare_expr (TREE_VALUE (link)));
4976           ASM_INPUTS (expr) = chainon (ASM_INPUTS (expr), input);
4977         }
4978     }
4979
4980   link_next = NULL_TREE;
4981   for (link = ASM_INPUTS (expr); link; ++i, link = link_next)
4982     {
4983       link_next = TREE_CHAIN (link);
4984       constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (link)));
4985       parse_input_constraint (&constraint, 0, 0, noutputs, 0,
4986                               oconstraints, &allows_mem, &allows_reg);
4987
4988       /* If we can't make copies, we can only accept memory.  */
4989       if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (link))))
4990         {
4991           if (allows_mem)
4992             allows_reg = 0;
4993           else
4994             {
4995               error ("impossible constraint in %<asm%>");
4996               error ("non-memory input %d must stay in memory", i);
4997               return GS_ERROR;
4998             }
4999         }
5000
5001       /* If the operand is a memory input, it should be an lvalue.  */
5002       if (!allows_reg && allows_mem)
5003         {
5004           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
5005                                 is_gimple_lvalue, fb_lvalue | fb_mayfail);
5006           mark_addressable (TREE_VALUE (link));
5007           if (tret == GS_ERROR)
5008             {
5009               if (EXPR_HAS_LOCATION (TREE_VALUE (link)))
5010                 input_location = EXPR_LOCATION (TREE_VALUE (link));
5011               error ("memory input %d is not directly addressable", i);
5012               ret = tret;
5013             }
5014         }
5015       else
5016         {
5017           tret = gimplify_expr (&TREE_VALUE (link), pre_p, post_p,
5018                                 is_gimple_asm_val, fb_rvalue);
5019           if (tret == GS_ERROR)
5020             ret = tret;
5021         }
5022
5023       TREE_CHAIN (link) = NULL_TREE;
5024       VEC_safe_push (tree, gc, inputs, link);
5025     }
5026
5027   for (link = ASM_CLOBBERS (expr); link; ++i, link = TREE_CHAIN (link))
5028     VEC_safe_push (tree, gc, clobbers, link);
5029
5030   for (link = ASM_LABELS (expr); link; ++i, link = TREE_CHAIN (link))
5031     VEC_safe_push (tree, gc, labels, link);
5032
5033   /* Do not add ASMs with errors to the gimple IL stream.  */
5034   if (ret != GS_ERROR)
5035     {
5036       stmt = gimple_build_asm_vec (TREE_STRING_POINTER (ASM_STRING (expr)),
5037                                    inputs, outputs, clobbers, labels);
5038
5039       gimple_asm_set_volatile (stmt, ASM_VOLATILE_P (expr));
5040       gimple_asm_set_input (stmt, ASM_INPUT_P (expr));
5041
5042       gimplify_seq_add_stmt (pre_p, stmt);
5043     }
5044
5045   return ret;
5046 }
5047
5048 /* Gimplify a CLEANUP_POINT_EXPR.  Currently this works by adding
5049    GIMPLE_WITH_CLEANUP_EXPRs to the prequeue as we encounter cleanups while
5050    gimplifying the body, and converting them to TRY_FINALLY_EXPRs when we
5051    return to this function.
5052
5053    FIXME should we complexify the prequeue handling instead?  Or use flags
5054    for all the cleanups and let the optimizer tighten them up?  The current
5055    code seems pretty fragile; it will break on a cleanup within any
5056    non-conditional nesting.  But any such nesting would be broken, anyway;
5057    we can't write a TRY_FINALLY_EXPR that starts inside a nesting construct
5058    and continues out of it.  We can do that at the RTL level, though, so
5059    having an optimizer to tighten up try/finally regions would be a Good
5060    Thing.  */
5061
5062 static enum gimplify_status
5063 gimplify_cleanup_point_expr (tree *expr_p, gimple_seq *pre_p)
5064 {
5065   gimple_stmt_iterator iter;
5066   gimple_seq body_sequence = NULL;
5067
5068   tree temp = voidify_wrapper_expr (*expr_p, NULL);
5069
5070   /* We only care about the number of conditions between the innermost
5071      CLEANUP_POINT_EXPR and the cleanup.  So save and reset the count and
5072      any cleanups collected outside the CLEANUP_POINT_EXPR.  */
5073   int old_conds = gimplify_ctxp->conditions;
5074   gimple_seq old_cleanups = gimplify_ctxp->conditional_cleanups;
5075   gimplify_ctxp->conditions = 0;
5076   gimplify_ctxp->conditional_cleanups = NULL;
5077
5078   gimplify_stmt (&TREE_OPERAND (*expr_p, 0), &body_sequence);
5079
5080   gimplify_ctxp->conditions = old_conds;
5081   gimplify_ctxp->conditional_cleanups = old_cleanups;
5082
5083   for (iter = gsi_start (body_sequence); !gsi_end_p (iter); )
5084     {
5085       gimple wce = gsi_stmt (iter);
5086
5087       if (gimple_code (wce) == GIMPLE_WITH_CLEANUP_EXPR)
5088         {
5089           if (gsi_one_before_end_p (iter))
5090             {
5091               /* Note that gsi_insert_seq_before and gsi_remove do not
5092                  scan operands, unlike some other sequence mutators.  */
5093               gsi_insert_seq_before_without_update (&iter,
5094                                                     gimple_wce_cleanup (wce),
5095                                                     GSI_SAME_STMT);
5096               gsi_remove (&iter, true);
5097               break;
5098             }
5099           else
5100             {
5101               gimple gtry;
5102               gimple_seq seq;
5103               enum gimple_try_flags kind;
5104
5105               if (gimple_wce_cleanup_eh_only (wce))
5106                 kind = GIMPLE_TRY_CATCH;
5107               else
5108                 kind = GIMPLE_TRY_FINALLY;
5109               seq = gsi_split_seq_after (iter);
5110
5111               gtry = gimple_build_try (seq, gimple_wce_cleanup (wce), kind);
5112               /* Do not use gsi_replace here, as it may scan operands.
5113                  We want to do a simple structural modification only.  */
5114               *gsi_stmt_ptr (&iter) = gtry;
5115               iter = gsi_start (seq);
5116             }
5117         }
5118       else
5119         gsi_next (&iter);
5120     }
5121
5122   gimplify_seq_add_seq (pre_p, body_sequence);
5123   if (temp)
5124     {
5125       *expr_p = temp;
5126       return GS_OK;
5127     }
5128   else
5129     {
5130       *expr_p = NULL;
5131       return GS_ALL_DONE;
5132     }
5133 }
5134
5135 /* Insert a cleanup marker for gimplify_cleanup_point_expr.  CLEANUP
5136    is the cleanup action required.  EH_ONLY is true if the cleanup should
5137    only be executed if an exception is thrown, not on normal exit.  */
5138
5139 static void
5140 gimple_push_cleanup (tree var, tree cleanup, bool eh_only, gimple_seq *pre_p)
5141 {
5142   gimple wce;
5143   gimple_seq cleanup_stmts = NULL;
5144
5145   /* Errors can result in improperly nested cleanups.  Which results in
5146      confusion when trying to resolve the GIMPLE_WITH_CLEANUP_EXPR.  */
5147   if (errorcount || sorrycount)
5148     return;
5149
5150   if (gimple_conditional_context ())
5151     {
5152       /* If we're in a conditional context, this is more complex.  We only
5153          want to run the cleanup if we actually ran the initialization that
5154          necessitates it, but we want to run it after the end of the
5155          conditional context.  So we wrap the try/finally around the
5156          condition and use a flag to determine whether or not to actually
5157          run the destructor.  Thus
5158
5159            test ? f(A()) : 0
5160
5161          becomes (approximately)
5162
5163            flag = 0;
5164            try {
5165              if (test) { A::A(temp); flag = 1; val = f(temp); }
5166              else { val = 0; }
5167            } finally {
5168              if (flag) A::~A(temp);
5169            }
5170            val
5171       */
5172       tree flag = create_tmp_var (boolean_type_node, "cleanup");
5173       gimple ffalse = gimple_build_assign (flag, boolean_false_node);
5174       gimple ftrue = gimple_build_assign (flag, boolean_true_node);
5175
5176       cleanup = build3 (COND_EXPR, void_type_node, flag, cleanup, NULL);
5177       gimplify_stmt (&cleanup, &cleanup_stmts);
5178       wce = gimple_build_wce (cleanup_stmts);
5179
5180       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, ffalse);
5181       gimplify_seq_add_stmt (&gimplify_ctxp->conditional_cleanups, wce);
5182       gimplify_seq_add_stmt (pre_p, ftrue);
5183
5184       /* Because of this manipulation, and the EH edges that jump
5185          threading cannot redirect, the temporary (VAR) will appear
5186          to be used uninitialized.  Don't warn.  */
5187       TREE_NO_WARNING (var) = 1;
5188     }
5189   else
5190     {
5191       gimplify_stmt (&cleanup, &cleanup_stmts);
5192       wce = gimple_build_wce (cleanup_stmts);
5193       gimple_wce_set_cleanup_eh_only (wce, eh_only);
5194       gimplify_seq_add_stmt (pre_p, wce);
5195     }
5196 }
5197
5198 /* Gimplify a TARGET_EXPR which doesn't appear on the rhs of an INIT_EXPR.  */
5199
5200 static enum gimplify_status
5201 gimplify_target_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p)
5202 {
5203   tree targ = *expr_p;
5204   tree temp = TARGET_EXPR_SLOT (targ);
5205   tree init = TARGET_EXPR_INITIAL (targ);
5206   enum gimplify_status ret;
5207
5208   if (init)
5209     {
5210       /* TARGET_EXPR temps aren't part of the enclosing block, so add it
5211          to the temps list.  Handle also variable length TARGET_EXPRs.  */
5212       if (TREE_CODE (DECL_SIZE (temp)) != INTEGER_CST)
5213         {
5214           if (!TYPE_SIZES_GIMPLIFIED (TREE_TYPE (temp)))
5215             gimplify_type_sizes (TREE_TYPE (temp), pre_p);
5216           gimplify_vla_decl (temp, pre_p);
5217         }
5218       else
5219         gimple_add_tmp_var (temp);
5220
5221       /* If TARGET_EXPR_INITIAL is void, then the mere evaluation of the
5222          expression is supposed to initialize the slot.  */
5223       if (VOID_TYPE_P (TREE_TYPE (init)))
5224         ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5225       else
5226         {
5227           tree init_expr = build2 (INIT_EXPR, void_type_node, temp, init);
5228           init = init_expr;
5229           ret = gimplify_expr (&init, pre_p, post_p, is_gimple_stmt, fb_none);
5230           init = NULL;
5231           ggc_free (init_expr);
5232         }
5233       if (ret == GS_ERROR)
5234         {
5235           /* PR c++/28266 Make sure this is expanded only once. */
5236           TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5237           return GS_ERROR;
5238         }
5239       if (init)
5240         gimplify_and_add (init, pre_p);
5241
5242       /* If needed, push the cleanup for the temp.  */
5243       if (TARGET_EXPR_CLEANUP (targ))
5244         gimple_push_cleanup (temp, TARGET_EXPR_CLEANUP (targ),
5245                              CLEANUP_EH_ONLY (targ), pre_p);
5246
5247       /* Only expand this once.  */
5248       TREE_OPERAND (targ, 3) = init;
5249       TARGET_EXPR_INITIAL (targ) = NULL_TREE;
5250     }
5251   else
5252     /* We should have expanded this before.  */
5253     gcc_assert (DECL_SEEN_IN_BIND_EXPR_P (temp));
5254
5255   *expr_p = temp;
5256   return GS_OK;
5257 }
5258
5259 /* Gimplification of expression trees.  */
5260
5261 /* Gimplify an expression which appears at statement context.  The
5262    corresponding GIMPLE statements are added to *SEQ_P.  If *SEQ_P is
5263    NULL, a new sequence is allocated.
5264
5265    Return true if we actually added a statement to the queue.  */
5266
5267 bool
5268 gimplify_stmt (tree *stmt_p, gimple_seq *seq_p)
5269 {
5270   gimple_seq_node last;
5271
5272   if (!*seq_p)
5273     *seq_p = gimple_seq_alloc ();
5274
5275   last = gimple_seq_last (*seq_p);
5276   gimplify_expr (stmt_p, seq_p, NULL, is_gimple_stmt, fb_none);
5277   return last != gimple_seq_last (*seq_p);
5278 }
5279
5280
5281 /* Add FIRSTPRIVATE entries for DECL in the OpenMP the surrounding parallels
5282    to CTX.  If entries already exist, force them to be some flavor of private.
5283    If there is no enclosing parallel, do nothing.  */
5284
5285 void
5286 omp_firstprivatize_variable (struct gimplify_omp_ctx *ctx, tree decl)
5287 {
5288   splay_tree_node n;
5289
5290   if (decl == NULL || !DECL_P (decl))
5291     return;
5292
5293   do
5294     {
5295       n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5296       if (n != NULL)
5297         {
5298           if (n->value & GOVD_SHARED)
5299             n->value = GOVD_FIRSTPRIVATE | (n->value & GOVD_SEEN);
5300           else
5301             return;
5302         }
5303       else if (ctx->region_type != ORT_WORKSHARE)
5304         omp_add_variable (ctx, decl, GOVD_FIRSTPRIVATE);
5305
5306       ctx = ctx->outer_context;
5307     }
5308   while (ctx);
5309 }
5310
5311 /* Similarly for each of the type sizes of TYPE.  */
5312
5313 static void
5314 omp_firstprivatize_type_sizes (struct gimplify_omp_ctx *ctx, tree type)
5315 {
5316   if (type == NULL || type == error_mark_node)
5317     return;
5318   type = TYPE_MAIN_VARIANT (type);
5319
5320   if (pointer_set_insert (ctx->privatized_types, type))
5321     return;
5322
5323   switch (TREE_CODE (type))
5324     {
5325     case INTEGER_TYPE:
5326     case ENUMERAL_TYPE:
5327     case BOOLEAN_TYPE:
5328     case REAL_TYPE:
5329     case FIXED_POINT_TYPE:
5330       omp_firstprivatize_variable (ctx, TYPE_MIN_VALUE (type));
5331       omp_firstprivatize_variable (ctx, TYPE_MAX_VALUE (type));
5332       break;
5333
5334     case ARRAY_TYPE:
5335       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5336       omp_firstprivatize_type_sizes (ctx, TYPE_DOMAIN (type));
5337       break;
5338
5339     case RECORD_TYPE:
5340     case UNION_TYPE:
5341     case QUAL_UNION_TYPE:
5342       {
5343         tree field;
5344         for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
5345           if (TREE_CODE (field) == FIELD_DECL)
5346             {
5347               omp_firstprivatize_variable (ctx, DECL_FIELD_OFFSET (field));
5348               omp_firstprivatize_type_sizes (ctx, TREE_TYPE (field));
5349             }
5350       }
5351       break;
5352
5353     case POINTER_TYPE:
5354     case REFERENCE_TYPE:
5355       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (type));
5356       break;
5357
5358     default:
5359       break;
5360     }
5361
5362   omp_firstprivatize_variable (ctx, TYPE_SIZE (type));
5363   omp_firstprivatize_variable (ctx, TYPE_SIZE_UNIT (type));
5364   lang_hooks.types.omp_firstprivatize_type_sizes (ctx, type);
5365 }
5366
5367 /* Add an entry for DECL in the OpenMP context CTX with FLAGS.  */
5368
5369 static void
5370 omp_add_variable (struct gimplify_omp_ctx *ctx, tree decl, unsigned int flags)
5371 {
5372   splay_tree_node n;
5373   unsigned int nflags;
5374   tree t;
5375
5376   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5377     return;
5378
5379   /* Never elide decls whose type has TREE_ADDRESSABLE set.  This means
5380      there are constructors involved somewhere.  */
5381   if (TREE_ADDRESSABLE (TREE_TYPE (decl))
5382       || TYPE_NEEDS_CONSTRUCTING (TREE_TYPE (decl)))
5383     flags |= GOVD_SEEN;
5384
5385   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5386   if (n != NULL)
5387     {
5388       /* We shouldn't be re-adding the decl with the same data
5389          sharing class.  */
5390       gcc_assert ((n->value & GOVD_DATA_SHARE_CLASS & flags) == 0);
5391       /* The only combination of data sharing classes we should see is
5392          FIRSTPRIVATE and LASTPRIVATE.  */
5393       nflags = n->value | flags;
5394       gcc_assert ((nflags & GOVD_DATA_SHARE_CLASS)
5395                   == (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE));
5396       n->value = nflags;
5397       return;
5398     }
5399
5400   /* When adding a variable-sized variable, we have to handle all sorts
5401      of additional bits of data: the pointer replacement variable, and
5402      the parameters of the type.  */
5403   if (DECL_SIZE (decl) && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5404     {
5405       /* Add the pointer replacement variable as PRIVATE if the variable
5406          replacement is private, else FIRSTPRIVATE since we'll need the
5407          address of the original variable either for SHARED, or for the
5408          copy into or out of the context.  */
5409       if (!(flags & GOVD_LOCAL))
5410         {
5411           nflags = flags & GOVD_PRIVATE ? GOVD_PRIVATE : GOVD_FIRSTPRIVATE;
5412           nflags |= flags & GOVD_SEEN;
5413           t = DECL_VALUE_EXPR (decl);
5414           gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5415           t = TREE_OPERAND (t, 0);
5416           gcc_assert (DECL_P (t));
5417           omp_add_variable (ctx, t, nflags);
5418         }
5419
5420       /* Add all of the variable and type parameters (which should have
5421          been gimplified to a formal temporary) as FIRSTPRIVATE.  */
5422       omp_firstprivatize_variable (ctx, DECL_SIZE_UNIT (decl));
5423       omp_firstprivatize_variable (ctx, DECL_SIZE (decl));
5424       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5425
5426       /* The variable-sized variable itself is never SHARED, only some form
5427          of PRIVATE.  The sharing would take place via the pointer variable
5428          which we remapped above.  */
5429       if (flags & GOVD_SHARED)
5430         flags = GOVD_PRIVATE | GOVD_DEBUG_PRIVATE
5431                 | (flags & (GOVD_SEEN | GOVD_EXPLICIT));
5432
5433       /* We're going to make use of the TYPE_SIZE_UNIT at least in the
5434          alloca statement we generate for the variable, so make sure it
5435          is available.  This isn't automatically needed for the SHARED
5436          case, since we won't be allocating local storage then.
5437          For local variables TYPE_SIZE_UNIT might not be gimplified yet,
5438          in this case omp_notice_variable will be called later
5439          on when it is gimplified.  */
5440       else if (! (flags & GOVD_LOCAL))
5441         omp_notice_variable (ctx, TYPE_SIZE_UNIT (TREE_TYPE (decl)), true);
5442     }
5443   else if (lang_hooks.decls.omp_privatize_by_reference (decl))
5444     {
5445       gcc_assert ((flags & GOVD_LOCAL) == 0);
5446       omp_firstprivatize_type_sizes (ctx, TREE_TYPE (decl));
5447
5448       /* Similar to the direct variable sized case above, we'll need the
5449          size of references being privatized.  */
5450       if ((flags & GOVD_SHARED) == 0)
5451         {
5452           t = TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (decl)));
5453           if (TREE_CODE (t) != INTEGER_CST)
5454             omp_notice_variable (ctx, t, true);
5455         }
5456     }
5457
5458   splay_tree_insert (ctx->variables, (splay_tree_key)decl, flags);
5459 }
5460
5461 /* Record the fact that DECL was used within the OpenMP context CTX.
5462    IN_CODE is true when real code uses DECL, and false when we should
5463    merely emit default(none) errors.  Return true if DECL is going to
5464    be remapped and thus DECL shouldn't be gimplified into its
5465    DECL_VALUE_EXPR (if any).  */
5466
5467 static bool
5468 omp_notice_variable (struct gimplify_omp_ctx *ctx, tree decl, bool in_code)
5469 {
5470   splay_tree_node n;
5471   unsigned flags = in_code ? GOVD_SEEN : 0;
5472   bool ret = false, shared;
5473
5474   if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5475     return false;
5476
5477   /* Threadprivate variables are predetermined.  */
5478   if (is_global_var (decl))
5479     {
5480       if (DECL_THREAD_LOCAL_P (decl))
5481         return false;
5482
5483       if (DECL_HAS_VALUE_EXPR_P (decl))
5484         {
5485           tree value = get_base_address (DECL_VALUE_EXPR (decl));
5486
5487           if (value && DECL_P (value) && DECL_THREAD_LOCAL_P (value))
5488             return false;
5489         }
5490     }
5491
5492   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5493   if (n == NULL)
5494     {
5495       enum omp_clause_default_kind default_kind, kind;
5496       struct gimplify_omp_ctx *octx;
5497
5498       if (ctx->region_type == ORT_WORKSHARE)
5499         goto do_outer;
5500
5501       /* ??? Some compiler-generated variables (like SAVE_EXPRs) could be
5502          remapped firstprivate instead of shared.  To some extent this is
5503          addressed in omp_firstprivatize_type_sizes, but not effectively.  */
5504       default_kind = ctx->default_kind;
5505       kind = lang_hooks.decls.omp_predetermined_sharing (decl);
5506       if (kind != OMP_CLAUSE_DEFAULT_UNSPECIFIED)
5507         default_kind = kind;
5508
5509       switch (default_kind)
5510         {
5511         case OMP_CLAUSE_DEFAULT_NONE:
5512           error ("%qE not specified in enclosing parallel",
5513                  DECL_NAME (decl));
5514           error_at (ctx->location, "enclosing parallel");
5515           /* FALLTHRU */
5516         case OMP_CLAUSE_DEFAULT_SHARED:
5517           flags |= GOVD_SHARED;
5518           break;
5519         case OMP_CLAUSE_DEFAULT_PRIVATE:
5520           flags |= GOVD_PRIVATE;
5521           break;
5522         case OMP_CLAUSE_DEFAULT_FIRSTPRIVATE:
5523           flags |= GOVD_FIRSTPRIVATE;
5524           break;
5525         case OMP_CLAUSE_DEFAULT_UNSPECIFIED:
5526           /* decl will be either GOVD_FIRSTPRIVATE or GOVD_SHARED.  */
5527           gcc_assert (ctx->region_type == ORT_TASK);
5528           if (ctx->outer_context)
5529             omp_notice_variable (ctx->outer_context, decl, in_code);
5530           for (octx = ctx->outer_context; octx; octx = octx->outer_context)
5531             {
5532               splay_tree_node n2;
5533
5534               n2 = splay_tree_lookup (octx->variables, (splay_tree_key) decl);
5535               if (n2 && (n2->value & GOVD_DATA_SHARE_CLASS) != GOVD_SHARED)
5536                 {
5537                   flags |= GOVD_FIRSTPRIVATE;
5538                   break;
5539                 }
5540               if ((octx->region_type & ORT_PARALLEL) != 0)
5541                 break;
5542             }
5543           if (flags & GOVD_FIRSTPRIVATE)
5544             break;
5545           if (octx == NULL
5546               && (TREE_CODE (decl) == PARM_DECL
5547                   || (!is_global_var (decl)
5548                       && DECL_CONTEXT (decl) == current_function_decl)))
5549             {
5550               flags |= GOVD_FIRSTPRIVATE;
5551               break;
5552             }
5553           flags |= GOVD_SHARED;
5554           break;
5555         default:
5556           gcc_unreachable ();
5557         }
5558
5559       if ((flags & GOVD_PRIVATE)
5560           && lang_hooks.decls.omp_private_outer_ref (decl))
5561         flags |= GOVD_PRIVATE_OUTER_REF;
5562
5563       omp_add_variable (ctx, decl, flags);
5564
5565       shared = (flags & GOVD_SHARED) != 0;
5566       ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5567       goto do_outer;
5568     }
5569
5570   if ((n->value & (GOVD_SEEN | GOVD_LOCAL)) == 0
5571       && (flags & (GOVD_SEEN | GOVD_LOCAL)) == GOVD_SEEN
5572       && DECL_SIZE (decl)
5573       && TREE_CODE (DECL_SIZE (decl)) != INTEGER_CST)
5574     {
5575       splay_tree_node n2;
5576       tree t = DECL_VALUE_EXPR (decl);
5577       gcc_assert (TREE_CODE (t) == INDIRECT_REF);
5578       t = TREE_OPERAND (t, 0);
5579       gcc_assert (DECL_P (t));
5580       n2 = splay_tree_lookup (ctx->variables, (splay_tree_key) t);
5581       n2->value |= GOVD_SEEN;
5582     }
5583
5584   shared = ((flags | n->value) & GOVD_SHARED) != 0;
5585   ret = lang_hooks.decls.omp_disregard_value_expr (decl, shared);
5586
5587   /* If nothing changed, there's nothing left to do.  */
5588   if ((n->value & flags) == flags)
5589     return ret;
5590   flags |= n->value;
5591   n->value = flags;
5592
5593  do_outer:
5594   /* If the variable is private in the current context, then we don't
5595      need to propagate anything to an outer context.  */
5596   if ((flags & GOVD_PRIVATE) && !(flags & GOVD_PRIVATE_OUTER_REF))
5597     return ret;
5598   if (ctx->outer_context
5599       && omp_notice_variable (ctx->outer_context, decl, in_code))
5600     return true;
5601   return ret;
5602 }
5603
5604 /* Verify that DECL is private within CTX.  If there's specific information
5605    to the contrary in the innermost scope, generate an error.  */
5606
5607 static bool
5608 omp_is_private (struct gimplify_omp_ctx *ctx, tree decl)
5609 {
5610   splay_tree_node n;
5611
5612   n = splay_tree_lookup (ctx->variables, (splay_tree_key)decl);
5613   if (n != NULL)
5614     {
5615       if (n->value & GOVD_SHARED)
5616         {
5617           if (ctx == gimplify_omp_ctxp)
5618             {
5619               error ("iteration variable %qE should be private",
5620                      DECL_NAME (decl));
5621               n->value = GOVD_PRIVATE;
5622               return true;
5623             }
5624           else
5625             return false;
5626         }
5627       else if ((n->value & GOVD_EXPLICIT) != 0
5628                && (ctx == gimplify_omp_ctxp
5629                    || (ctx->region_type == ORT_COMBINED_PARALLEL
5630                        && gimplify_omp_ctxp->outer_context == ctx)))
5631         {
5632           if ((n->value & GOVD_FIRSTPRIVATE) != 0)
5633             error ("iteration variable %qE should not be firstprivate",
5634                    DECL_NAME (decl));
5635           else if ((n->value & GOVD_REDUCTION) != 0)
5636             error ("iteration variable %qE should not be reduction",
5637                    DECL_NAME (decl));
5638         }
5639       return (ctx == gimplify_omp_ctxp
5640               || (ctx->region_type == ORT_COMBINED_PARALLEL
5641                   && gimplify_omp_ctxp->outer_context == ctx));
5642     }
5643
5644   if (ctx->region_type != ORT_WORKSHARE)
5645     return false;
5646   else if (ctx->outer_context)
5647     return omp_is_private (ctx->outer_context, decl);
5648   return false;
5649 }
5650
5651 /* Return true if DECL is private within a parallel region
5652    that binds to the current construct's context or in parallel
5653    region's REDUCTION clause.  */
5654
5655 static bool
5656 omp_check_private (struct gimplify_omp_ctx *ctx, tree decl)
5657 {
5658   splay_tree_node n;
5659
5660   do
5661     {
5662       ctx = ctx->outer_context;
5663       if (ctx == NULL)
5664         return !(is_global_var (decl)
5665                  /* References might be private, but might be shared too.  */
5666                  || lang_hooks.decls.omp_privatize_by_reference (decl));
5667
5668       n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5669       if (n != NULL)
5670         return (n->value & GOVD_SHARED) == 0;
5671     }
5672   while (ctx->region_type == ORT_WORKSHARE);
5673   return false;
5674 }
5675
5676 /* Scan the OpenMP clauses in *LIST_P, installing mappings into a new
5677    and previous omp contexts.  */
5678
5679 static void
5680 gimplify_scan_omp_clauses (tree *list_p, gimple_seq *pre_p,
5681                            enum omp_region_type region_type)
5682 {
5683   struct gimplify_omp_ctx *ctx, *outer_ctx;
5684   struct gimplify_ctx gctx;
5685   tree c;
5686
5687   ctx = new_omp_context (region_type);
5688   outer_ctx = ctx->outer_context;
5689
5690   while ((c = *list_p) != NULL)
5691     {
5692       bool remove = false;
5693       bool notice_outer = true;
5694       const char *check_non_private = NULL;
5695       unsigned int flags;
5696       tree decl;
5697
5698       switch (OMP_CLAUSE_CODE (c))
5699         {
5700         case OMP_CLAUSE_PRIVATE:
5701           flags = GOVD_PRIVATE | GOVD_EXPLICIT;
5702           if (lang_hooks.decls.omp_private_outer_ref (OMP_CLAUSE_DECL (c)))
5703             {
5704               flags |= GOVD_PRIVATE_OUTER_REF;
5705               OMP_CLAUSE_PRIVATE_OUTER_REF (c) = 1;
5706             }
5707           else
5708             notice_outer = false;
5709           goto do_add;
5710         case OMP_CLAUSE_SHARED:
5711           flags = GOVD_SHARED | GOVD_EXPLICIT;
5712           goto do_add;
5713         case OMP_CLAUSE_FIRSTPRIVATE:
5714           flags = GOVD_FIRSTPRIVATE | GOVD_EXPLICIT;
5715           check_non_private = "firstprivate";
5716           goto do_add;
5717         case OMP_CLAUSE_LASTPRIVATE:
5718           flags = GOVD_LASTPRIVATE | GOVD_SEEN | GOVD_EXPLICIT;
5719           check_non_private = "lastprivate";
5720           goto do_add;
5721         case OMP_CLAUSE_REDUCTION:
5722           flags = GOVD_REDUCTION | GOVD_SEEN | GOVD_EXPLICIT;
5723           check_non_private = "reduction";
5724           goto do_add;
5725
5726         do_add:
5727           decl = OMP_CLAUSE_DECL (c);
5728           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5729             {
5730               remove = true;
5731               break;
5732             }
5733           omp_add_variable (ctx, decl, flags);
5734           if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_REDUCTION
5735               && OMP_CLAUSE_REDUCTION_PLACEHOLDER (c))
5736             {
5737               omp_add_variable (ctx, OMP_CLAUSE_REDUCTION_PLACEHOLDER (c),
5738                                 GOVD_LOCAL | GOVD_SEEN);
5739               gimplify_omp_ctxp = ctx;
5740               push_gimplify_context (&gctx);
5741
5742               OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c) = gimple_seq_alloc ();
5743               OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c) = gimple_seq_alloc ();
5744
5745               gimplify_and_add (OMP_CLAUSE_REDUCTION_INIT (c),
5746                                 &OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c));
5747               pop_gimplify_context
5748                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_INIT (c)));
5749               push_gimplify_context (&gctx);
5750               gimplify_and_add (OMP_CLAUSE_REDUCTION_MERGE (c),
5751                                 &OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c));
5752               pop_gimplify_context
5753                 (gimple_seq_first_stmt (OMP_CLAUSE_REDUCTION_GIMPLE_MERGE (c)));
5754               OMP_CLAUSE_REDUCTION_INIT (c) = NULL_TREE;
5755               OMP_CLAUSE_REDUCTION_MERGE (c) = NULL_TREE;
5756
5757               gimplify_omp_ctxp = outer_ctx;
5758             }
5759           else if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
5760                    && OMP_CLAUSE_LASTPRIVATE_STMT (c))
5761             {
5762               gimplify_omp_ctxp = ctx;
5763               push_gimplify_context (&gctx);
5764               if (TREE_CODE (OMP_CLAUSE_LASTPRIVATE_STMT (c)) != BIND_EXPR)
5765                 {
5766                   tree bind = build3 (BIND_EXPR, void_type_node, NULL,
5767                                       NULL, NULL);
5768                   TREE_SIDE_EFFECTS (bind) = 1;
5769                   BIND_EXPR_BODY (bind) = OMP_CLAUSE_LASTPRIVATE_STMT (c);
5770                   OMP_CLAUSE_LASTPRIVATE_STMT (c) = bind;
5771                 }
5772               gimplify_and_add (OMP_CLAUSE_LASTPRIVATE_STMT (c),
5773                                 &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
5774               pop_gimplify_context
5775                 (gimple_seq_first_stmt (OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c)));
5776               OMP_CLAUSE_LASTPRIVATE_STMT (c) = NULL_TREE;
5777
5778               gimplify_omp_ctxp = outer_ctx;
5779             }
5780           if (notice_outer)
5781             goto do_notice;
5782           break;
5783
5784         case OMP_CLAUSE_COPYIN:
5785         case OMP_CLAUSE_COPYPRIVATE:
5786           decl = OMP_CLAUSE_DECL (c);
5787           if (decl == error_mark_node || TREE_TYPE (decl) == error_mark_node)
5788             {
5789               remove = true;
5790               break;
5791             }
5792         do_notice:
5793           if (outer_ctx)
5794             omp_notice_variable (outer_ctx, decl, true);
5795           if (check_non_private
5796               && region_type == ORT_WORKSHARE
5797               && omp_check_private (ctx, decl))
5798             {
5799               error ("%s variable %qE is private in outer context",
5800                      check_non_private, DECL_NAME (decl));
5801               remove = true;
5802             }
5803           break;
5804
5805         case OMP_CLAUSE_IF:
5806           OMP_CLAUSE_OPERAND (c, 0)
5807             = gimple_boolify (OMP_CLAUSE_OPERAND (c, 0));
5808           /* Fall through.  */
5809
5810         case OMP_CLAUSE_SCHEDULE:
5811         case OMP_CLAUSE_NUM_THREADS:
5812           if (gimplify_expr (&OMP_CLAUSE_OPERAND (c, 0), pre_p, NULL,
5813                              is_gimple_val, fb_rvalue) == GS_ERROR)
5814               remove = true;
5815           break;
5816
5817         case OMP_CLAUSE_NOWAIT:
5818         case OMP_CLAUSE_ORDERED:
5819         case OMP_CLAUSE_UNTIED:
5820         case OMP_CLAUSE_COLLAPSE:
5821           break;
5822
5823         case OMP_CLAUSE_DEFAULT:
5824           ctx->default_kind = OMP_CLAUSE_DEFAULT_KIND (c);
5825           break;
5826
5827         default:
5828           gcc_unreachable ();
5829         }
5830
5831       if (remove)
5832         *list_p = OMP_CLAUSE_CHAIN (c);
5833       else
5834         list_p = &OMP_CLAUSE_CHAIN (c);
5835     }
5836
5837   gimplify_omp_ctxp = ctx;
5838 }
5839
5840 /* For all variables that were not actually used within the context,
5841    remove PRIVATE, SHARED, and FIRSTPRIVATE clauses.  */
5842
5843 static int
5844 gimplify_adjust_omp_clauses_1 (splay_tree_node n, void *data)
5845 {
5846   tree *list_p = (tree *) data;
5847   tree decl = (tree) n->key;
5848   unsigned flags = n->value;
5849   enum omp_clause_code code;
5850   tree clause;
5851   bool private_debug;
5852
5853   if (flags & (GOVD_EXPLICIT | GOVD_LOCAL))
5854     return 0;
5855   if ((flags & GOVD_SEEN) == 0)
5856     return 0;
5857   if (flags & GOVD_DEBUG_PRIVATE)
5858     {
5859       gcc_assert ((flags & GOVD_DATA_SHARE_CLASS) == GOVD_PRIVATE);
5860       private_debug = true;
5861     }
5862   else
5863     private_debug
5864       = lang_hooks.decls.omp_private_debug_clause (decl,
5865                                                    !!(flags & GOVD_SHARED));
5866   if (private_debug)
5867     code = OMP_CLAUSE_PRIVATE;
5868   else if (flags & GOVD_SHARED)
5869     {
5870       if (is_global_var (decl))
5871         {
5872           struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp->outer_context;
5873           while (ctx != NULL)
5874             {
5875               splay_tree_node on
5876                 = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5877               if (on && (on->value & (GOVD_FIRSTPRIVATE | GOVD_LASTPRIVATE
5878                                       | GOVD_PRIVATE | GOVD_REDUCTION)) != 0)
5879                 break;
5880               ctx = ctx->outer_context;
5881             }
5882           if (ctx == NULL)
5883             return 0;
5884         }
5885       code = OMP_CLAUSE_SHARED;
5886     }
5887   else if (flags & GOVD_PRIVATE)
5888     code = OMP_CLAUSE_PRIVATE;
5889   else if (flags & GOVD_FIRSTPRIVATE)
5890     code = OMP_CLAUSE_FIRSTPRIVATE;
5891   else
5892     gcc_unreachable ();
5893
5894   clause = build_omp_clause (input_location, code);
5895   OMP_CLAUSE_DECL (clause) = decl;
5896   OMP_CLAUSE_CHAIN (clause) = *list_p;
5897   if (private_debug)
5898     OMP_CLAUSE_PRIVATE_DEBUG (clause) = 1;
5899   else if (code == OMP_CLAUSE_PRIVATE && (flags & GOVD_PRIVATE_OUTER_REF))
5900     OMP_CLAUSE_PRIVATE_OUTER_REF (clause) = 1;
5901   *list_p = clause;
5902   lang_hooks.decls.omp_finish_clause (clause);
5903
5904   return 0;
5905 }
5906
5907 static void
5908 gimplify_adjust_omp_clauses (tree *list_p)
5909 {
5910   struct gimplify_omp_ctx *ctx = gimplify_omp_ctxp;
5911   tree c, decl;
5912
5913   while ((c = *list_p) != NULL)
5914     {
5915       splay_tree_node n;
5916       bool remove = false;
5917
5918       switch (OMP_CLAUSE_CODE (c))
5919         {
5920         case OMP_CLAUSE_PRIVATE:
5921         case OMP_CLAUSE_SHARED:
5922         case OMP_CLAUSE_FIRSTPRIVATE:
5923           decl = OMP_CLAUSE_DECL (c);
5924           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5925           remove = !(n->value & GOVD_SEEN);
5926           if (! remove)
5927             {
5928               bool shared = OMP_CLAUSE_CODE (c) == OMP_CLAUSE_SHARED;
5929               if ((n->value & GOVD_DEBUG_PRIVATE)
5930                   || lang_hooks.decls.omp_private_debug_clause (decl, shared))
5931                 {
5932                   gcc_assert ((n->value & GOVD_DEBUG_PRIVATE) == 0
5933                               || ((n->value & GOVD_DATA_SHARE_CLASS)
5934                                   == GOVD_PRIVATE));
5935                   OMP_CLAUSE_SET_CODE (c, OMP_CLAUSE_PRIVATE);
5936                   OMP_CLAUSE_PRIVATE_DEBUG (c) = 1;
5937                 }
5938             }
5939           break;
5940
5941         case OMP_CLAUSE_LASTPRIVATE:
5942           /* Make sure OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE is set to
5943              accurately reflect the presence of a FIRSTPRIVATE clause.  */
5944           decl = OMP_CLAUSE_DECL (c);
5945           n = splay_tree_lookup (ctx->variables, (splay_tree_key) decl);
5946           OMP_CLAUSE_LASTPRIVATE_FIRSTPRIVATE (c)
5947             = (n->value & GOVD_FIRSTPRIVATE) != 0;
5948           break;
5949
5950         case OMP_CLAUSE_REDUCTION:
5951         case OMP_CLAUSE_COPYIN:
5952         case OMP_CLAUSE_COPYPRIVATE:
5953         case OMP_CLAUSE_IF:
5954         case OMP_CLAUSE_NUM_THREADS:
5955         case OMP_CLAUSE_SCHEDULE:
5956         case OMP_CLAUSE_NOWAIT:
5957         case OMP_CLAUSE_ORDERED:
5958         case OMP_CLAUSE_DEFAULT:
5959         case OMP_CLAUSE_UNTIED:
5960         case OMP_CLAUSE_COLLAPSE:
5961           break;
5962
5963         default:
5964           gcc_unreachable ();
5965         }
5966
5967       if (remove)
5968         *list_p = OMP_CLAUSE_CHAIN (c);
5969       else
5970         list_p = &OMP_CLAUSE_CHAIN (c);
5971     }
5972
5973   /* Add in any implicit data sharing.  */
5974   splay_tree_foreach (ctx->variables, gimplify_adjust_omp_clauses_1, list_p);
5975
5976   gimplify_omp_ctxp = ctx->outer_context;
5977   delete_omp_context (ctx);
5978 }
5979
5980 /* Gimplify the contents of an OMP_PARALLEL statement.  This involves
5981    gimplification of the body, as well as scanning the body for used
5982    variables.  We need to do this scan now, because variable-sized
5983    decls will be decomposed during gimplification.  */
5984
5985 static void
5986 gimplify_omp_parallel (tree *expr_p, gimple_seq *pre_p)
5987 {
5988   tree expr = *expr_p;
5989   gimple g;
5990   gimple_seq body = NULL;
5991   struct gimplify_ctx gctx;
5992
5993   gimplify_scan_omp_clauses (&OMP_PARALLEL_CLAUSES (expr), pre_p,
5994                              OMP_PARALLEL_COMBINED (expr)
5995                              ? ORT_COMBINED_PARALLEL
5996                              : ORT_PARALLEL);
5997
5998   push_gimplify_context (&gctx);
5999
6000   g = gimplify_and_return_first (OMP_PARALLEL_BODY (expr), &body);
6001   if (gimple_code (g) == GIMPLE_BIND)
6002     pop_gimplify_context (g);
6003   else
6004     pop_gimplify_context (NULL);
6005
6006   gimplify_adjust_omp_clauses (&OMP_PARALLEL_CLAUSES (expr));
6007
6008   g = gimple_build_omp_parallel (body,
6009                                  OMP_PARALLEL_CLAUSES (expr),
6010                                  NULL_TREE, NULL_TREE);
6011   if (OMP_PARALLEL_COMBINED (expr))
6012     gimple_omp_set_subcode (g, GF_OMP_PARALLEL_COMBINED);
6013   gimplify_seq_add_stmt (pre_p, g);
6014   *expr_p = NULL_TREE;
6015 }
6016
6017 /* Gimplify the contents of an OMP_TASK statement.  This involves
6018    gimplification of the body, as well as scanning the body for used
6019    variables.  We need to do this scan now, because variable-sized
6020    decls will be decomposed during gimplification.  */
6021
6022 static void
6023 gimplify_omp_task (tree *expr_p, gimple_seq *pre_p)
6024 {
6025   tree expr = *expr_p;
6026   gimple g;
6027   gimple_seq body = NULL;
6028   struct gimplify_ctx gctx;
6029
6030   gimplify_scan_omp_clauses (&OMP_TASK_CLAUSES (expr), pre_p, ORT_TASK);
6031
6032   push_gimplify_context (&gctx);
6033
6034   g = gimplify_and_return_first (OMP_TASK_BODY (expr), &body);
6035   if (gimple_code (g) == GIMPLE_BIND)
6036     pop_gimplify_context (g);
6037   else
6038     pop_gimplify_context (NULL);
6039
6040   gimplify_adjust_omp_clauses (&OMP_TASK_CLAUSES (expr));
6041
6042   g = gimple_build_omp_task (body,
6043                              OMP_TASK_CLAUSES (expr),
6044                              NULL_TREE, NULL_TREE,
6045                              NULL_TREE, NULL_TREE, NULL_TREE);
6046   gimplify_seq_add_stmt (pre_p, g);
6047   *expr_p = NULL_TREE;
6048 }
6049
6050 /* Gimplify the gross structure of an OMP_FOR statement.  */
6051
6052 static enum gimplify_status
6053 gimplify_omp_for (tree *expr_p, gimple_seq *pre_p)
6054 {
6055   tree for_stmt, decl, var, t;
6056   enum gimplify_status ret = GS_ALL_DONE;
6057   enum gimplify_status tret;
6058   gimple gfor;
6059   gimple_seq for_body, for_pre_body;
6060   int i;
6061
6062   for_stmt = *expr_p;
6063
6064   gimplify_scan_omp_clauses (&OMP_FOR_CLAUSES (for_stmt), pre_p,
6065                              ORT_WORKSHARE);
6066
6067   /* Handle OMP_FOR_INIT.  */
6068   for_pre_body = NULL;
6069   gimplify_and_add (OMP_FOR_PRE_BODY (for_stmt), &for_pre_body);
6070   OMP_FOR_PRE_BODY (for_stmt) = NULL_TREE;
6071
6072   for_body = gimple_seq_alloc ();
6073   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6074               == TREE_VEC_LENGTH (OMP_FOR_COND (for_stmt)));
6075   gcc_assert (TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt))
6076               == TREE_VEC_LENGTH (OMP_FOR_INCR (for_stmt)));
6077   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6078     {
6079       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6080       gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6081       decl = TREE_OPERAND (t, 0);
6082       gcc_assert (DECL_P (decl));
6083       gcc_assert (INTEGRAL_TYPE_P (TREE_TYPE (decl))
6084                   || POINTER_TYPE_P (TREE_TYPE (decl)));
6085
6086       /* Make sure the iteration variable is private.  */
6087       if (omp_is_private (gimplify_omp_ctxp, decl))
6088         omp_notice_variable (gimplify_omp_ctxp, decl, true);
6089       else
6090         omp_add_variable (gimplify_omp_ctxp, decl, GOVD_PRIVATE | GOVD_SEEN);
6091
6092       /* If DECL is not a gimple register, create a temporary variable to act
6093          as an iteration counter.  This is valid, since DECL cannot be
6094          modified in the body of the loop.  */
6095       if (!is_gimple_reg (decl))
6096         {
6097           var = create_tmp_var (TREE_TYPE (decl), get_name (decl));
6098           TREE_OPERAND (t, 0) = var;
6099
6100           gimplify_seq_add_stmt (&for_body, gimple_build_assign (decl, var));
6101
6102           omp_add_variable (gimplify_omp_ctxp, var, GOVD_PRIVATE | GOVD_SEEN);
6103         }
6104       else
6105         var = decl;
6106
6107       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6108                             is_gimple_val, fb_rvalue);
6109       ret = MIN (ret, tret);
6110       if (ret == GS_ERROR)
6111         return ret;
6112
6113       /* Handle OMP_FOR_COND.  */
6114       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6115       gcc_assert (COMPARISON_CLASS_P (t));
6116       gcc_assert (TREE_OPERAND (t, 0) == decl);
6117
6118       tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6119                             is_gimple_val, fb_rvalue);
6120       ret = MIN (ret, tret);
6121
6122       /* Handle OMP_FOR_INCR.  */
6123       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6124       switch (TREE_CODE (t))
6125         {
6126         case PREINCREMENT_EXPR:
6127         case POSTINCREMENT_EXPR:
6128           t = build_int_cst (TREE_TYPE (decl), 1);
6129           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6130           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6131           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6132           break;
6133
6134         case PREDECREMENT_EXPR:
6135         case POSTDECREMENT_EXPR:
6136           t = build_int_cst (TREE_TYPE (decl), -1);
6137           t = build2 (PLUS_EXPR, TREE_TYPE (decl), var, t);
6138           t = build2 (MODIFY_EXPR, TREE_TYPE (var), var, t);
6139           TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i) = t;
6140           break;
6141
6142         case MODIFY_EXPR:
6143           gcc_assert (TREE_OPERAND (t, 0) == decl);
6144           TREE_OPERAND (t, 0) = var;
6145
6146           t = TREE_OPERAND (t, 1);
6147           switch (TREE_CODE (t))
6148             {
6149             case PLUS_EXPR:
6150               if (TREE_OPERAND (t, 1) == decl)
6151                 {
6152                   TREE_OPERAND (t, 1) = TREE_OPERAND (t, 0);
6153                   TREE_OPERAND (t, 0) = var;
6154                   break;
6155                 }
6156
6157               /* Fallthru.  */
6158             case MINUS_EXPR:
6159             case POINTER_PLUS_EXPR:
6160               gcc_assert (TREE_OPERAND (t, 0) == decl);
6161               TREE_OPERAND (t, 0) = var;
6162               break;
6163             default:
6164               gcc_unreachable ();
6165             }
6166
6167           tret = gimplify_expr (&TREE_OPERAND (t, 1), &for_pre_body, NULL,
6168                                 is_gimple_val, fb_rvalue);
6169           ret = MIN (ret, tret);
6170           break;
6171
6172         default:
6173           gcc_unreachable ();
6174         }
6175
6176       if (var != decl || TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)) > 1)
6177         {
6178           tree c;
6179           for (c = OMP_FOR_CLAUSES (for_stmt); c ; c = OMP_CLAUSE_CHAIN (c))
6180             if (OMP_CLAUSE_CODE (c) == OMP_CLAUSE_LASTPRIVATE
6181                 && OMP_CLAUSE_DECL (c) == decl
6182                 && OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c) == NULL)
6183               {
6184                 t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6185                 gcc_assert (TREE_CODE (t) == MODIFY_EXPR);
6186                 gcc_assert (TREE_OPERAND (t, 0) == var);
6187                 t = TREE_OPERAND (t, 1);
6188                 gcc_assert (TREE_CODE (t) == PLUS_EXPR
6189                             || TREE_CODE (t) == MINUS_EXPR
6190                             || TREE_CODE (t) == POINTER_PLUS_EXPR);
6191                 gcc_assert (TREE_OPERAND (t, 0) == var);
6192                 t = build2 (TREE_CODE (t), TREE_TYPE (decl), decl,
6193                             TREE_OPERAND (t, 1));
6194                 gimplify_assign (decl, t,
6195                                  &OMP_CLAUSE_LASTPRIVATE_GIMPLE_SEQ (c));
6196             }
6197         }
6198     }
6199
6200   gimplify_and_add (OMP_FOR_BODY (for_stmt), &for_body);
6201
6202   gimplify_adjust_omp_clauses (&OMP_FOR_CLAUSES (for_stmt));
6203
6204   gfor = gimple_build_omp_for (for_body, OMP_FOR_CLAUSES (for_stmt),
6205                                TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)),
6206                                for_pre_body);
6207
6208   for (i = 0; i < TREE_VEC_LENGTH (OMP_FOR_INIT (for_stmt)); i++)
6209     {
6210       t = TREE_VEC_ELT (OMP_FOR_INIT (for_stmt), i);
6211       gimple_omp_for_set_index (gfor, i, TREE_OPERAND (t, 0));
6212       gimple_omp_for_set_initial (gfor, i, TREE_OPERAND (t, 1));
6213       t = TREE_VEC_ELT (OMP_FOR_COND (for_stmt), i);
6214       gimple_omp_for_set_cond (gfor, i, TREE_CODE (t));
6215       gimple_omp_for_set_final (gfor, i, TREE_OPERAND (t, 1));
6216       t = TREE_VEC_ELT (OMP_FOR_INCR (for_stmt), i);
6217       gimple_omp_for_set_incr (gfor, i, TREE_OPERAND (t, 1));
6218     }
6219
6220   gimplify_seq_add_stmt (pre_p, gfor);
6221   return ret == GS_ALL_DONE ? GS_ALL_DONE : GS_ERROR;
6222 }
6223
6224 /* Gimplify the gross structure of other OpenMP worksharing constructs.
6225    In particular, OMP_SECTIONS and OMP_SINGLE.  */
6226
6227 static void
6228 gimplify_omp_workshare (tree *expr_p, gimple_seq *pre_p)
6229 {
6230   tree expr = *expr_p;
6231   gimple stmt;
6232   gimple_seq body = NULL;
6233
6234   gimplify_scan_omp_clauses (&OMP_CLAUSES (expr), pre_p, ORT_WORKSHARE);
6235   gimplify_and_add (OMP_BODY (expr), &body);
6236   gimplify_adjust_omp_clauses (&OMP_CLAUSES (expr));
6237
6238   if (TREE_CODE (expr) == OMP_SECTIONS)
6239     stmt = gimple_build_omp_sections (body, OMP_CLAUSES (expr));
6240   else if (TREE_CODE (expr) == OMP_SINGLE)
6241     stmt = gimple_build_omp_single (body, OMP_CLAUSES (expr));
6242   else
6243     gcc_unreachable ();
6244
6245   gimplify_seq_add_stmt (pre_p, stmt);
6246 }
6247
6248 /* A subroutine of gimplify_omp_atomic.  The front end is supposed to have
6249    stabilized the lhs of the atomic operation as *ADDR.  Return true if
6250    EXPR is this stabilized form.  */
6251
6252 static bool
6253 goa_lhs_expr_p (tree expr, tree addr)
6254 {
6255   /* Also include casts to other type variants.  The C front end is fond
6256      of adding these for e.g. volatile variables.  This is like
6257      STRIP_TYPE_NOPS but includes the main variant lookup.  */
6258   STRIP_USELESS_TYPE_CONVERSION (expr);
6259
6260   if (TREE_CODE (expr) == INDIRECT_REF)
6261     {
6262       expr = TREE_OPERAND (expr, 0);
6263       while (expr != addr
6264              && (CONVERT_EXPR_P (expr)
6265                  || TREE_CODE (expr) == NON_LVALUE_EXPR)
6266              && TREE_CODE (expr) == TREE_CODE (addr)
6267              && types_compatible_p (TREE_TYPE (expr), TREE_TYPE (addr)))
6268         {
6269           expr = TREE_OPERAND (expr, 0);
6270           addr = TREE_OPERAND (addr, 0);
6271         }
6272       if (expr == addr)
6273         return true;
6274       return (TREE_CODE (addr) == ADDR_EXPR
6275               && TREE_CODE (expr) == ADDR_EXPR
6276               && TREE_OPERAND (addr, 0) == TREE_OPERAND (expr, 0));
6277     }
6278   if (TREE_CODE (addr) == ADDR_EXPR && expr == TREE_OPERAND (addr, 0))
6279     return true;
6280   return false;
6281 }
6282
6283 /* Walk *EXPR_P and replace
6284    appearances of *LHS_ADDR with LHS_VAR.  If an expression does not involve
6285    the lhs, evaluate it into a temporary.  Return 1 if the lhs appeared as
6286    a subexpression, 0 if it did not, or -1 if an error was encountered.  */
6287
6288 static int
6289 goa_stabilize_expr (tree *expr_p, gimple_seq *pre_p, tree lhs_addr,
6290                     tree lhs_var)
6291 {
6292   tree expr = *expr_p;
6293   int saw_lhs;
6294
6295   if (goa_lhs_expr_p (expr, lhs_addr))
6296     {
6297       *expr_p = lhs_var;
6298       return 1;
6299     }
6300   if (is_gimple_val (expr))
6301     return 0;
6302
6303   saw_lhs = 0;
6304   switch (TREE_CODE_CLASS (TREE_CODE (expr)))
6305     {
6306     case tcc_binary:
6307     case tcc_comparison:
6308       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p, lhs_addr,
6309                                      lhs_var);
6310     case tcc_unary:
6311       saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p, lhs_addr,
6312                                      lhs_var);
6313       break;
6314     case tcc_expression:
6315       switch (TREE_CODE (expr))
6316         {
6317         case TRUTH_ANDIF_EXPR:
6318         case TRUTH_ORIF_EXPR:
6319           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 1), pre_p,
6320                                          lhs_addr, lhs_var);
6321           saw_lhs |= goa_stabilize_expr (&TREE_OPERAND (expr, 0), pre_p,
6322                                          lhs_addr, lhs_var);
6323           break;
6324         default:
6325           break;
6326         }
6327       break;
6328     default:
6329       break;
6330     }
6331
6332   if (saw_lhs == 0)
6333     {
6334       enum gimplify_status gs;
6335       gs = gimplify_expr (expr_p, pre_p, NULL, is_gimple_val, fb_rvalue);
6336       if (gs != GS_ALL_DONE)
6337         saw_lhs = -1;
6338     }
6339
6340   return saw_lhs;
6341 }
6342
6343
6344 /* Gimplify an OMP_ATOMIC statement.  */
6345
6346 static enum gimplify_status
6347 gimplify_omp_atomic (tree *expr_p, gimple_seq *pre_p)
6348 {
6349   tree addr = TREE_OPERAND (*expr_p, 0);
6350   tree rhs = TREE_OPERAND (*expr_p, 1);
6351   tree type = TYPE_MAIN_VARIANT (TREE_TYPE (TREE_TYPE (addr)));
6352   tree tmp_load;
6353
6354    tmp_load = create_tmp_var (type, NULL);
6355    if (TREE_CODE (type) == COMPLEX_TYPE || TREE_CODE (type) == VECTOR_TYPE)
6356      DECL_GIMPLE_REG_P (tmp_load) = 1;
6357    if (goa_stabilize_expr (&rhs, pre_p, addr, tmp_load) < 0)
6358      return GS_ERROR;
6359
6360    if (gimplify_expr (&addr, pre_p, NULL, is_gimple_val, fb_rvalue)
6361        != GS_ALL_DONE)
6362      return GS_ERROR;
6363
6364    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_load (tmp_load, addr));
6365    if (gimplify_expr (&rhs, pre_p, NULL, is_gimple_val, fb_rvalue)
6366        != GS_ALL_DONE)
6367      return GS_ERROR;
6368    gimplify_seq_add_stmt (pre_p, gimple_build_omp_atomic_store (rhs));
6369    *expr_p = NULL;
6370
6371    return GS_ALL_DONE;
6372 }
6373
6374
6375 /* Converts the GENERIC expression tree *EXPR_P to GIMPLE.  If the
6376    expression produces a value to be used as an operand inside a GIMPLE
6377    statement, the value will be stored back in *EXPR_P.  This value will
6378    be a tree of class tcc_declaration, tcc_constant, tcc_reference or
6379    an SSA_NAME.  The corresponding sequence of GIMPLE statements is
6380    emitted in PRE_P and POST_P.
6381
6382    Additionally, this process may overwrite parts of the input
6383    expression during gimplification.  Ideally, it should be
6384    possible to do non-destructive gimplification.
6385
6386    EXPR_P points to the GENERIC expression to convert to GIMPLE.  If
6387       the expression needs to evaluate to a value to be used as
6388       an operand in a GIMPLE statement, this value will be stored in
6389       *EXPR_P on exit.  This happens when the caller specifies one
6390       of fb_lvalue or fb_rvalue fallback flags.
6391
6392    PRE_P will contain the sequence of GIMPLE statements corresponding
6393        to the evaluation of EXPR and all the side-effects that must
6394        be executed before the main expression.  On exit, the last
6395        statement of PRE_P is the core statement being gimplified.  For
6396        instance, when gimplifying 'if (++a)' the last statement in
6397        PRE_P will be 'if (t.1)' where t.1 is the result of
6398        pre-incrementing 'a'.
6399
6400    POST_P will contain the sequence of GIMPLE statements corresponding
6401        to the evaluation of all the side-effects that must be executed
6402        after the main expression.  If this is NULL, the post
6403        side-effects are stored at the end of PRE_P.
6404
6405        The reason why the output is split in two is to handle post
6406        side-effects explicitly.  In some cases, an expression may have
6407        inner and outer post side-effects which need to be emitted in
6408        an order different from the one given by the recursive
6409        traversal.  For instance, for the expression (*p--)++ the post
6410        side-effects of '--' must actually occur *after* the post
6411        side-effects of '++'.  However, gimplification will first visit
6412        the inner expression, so if a separate POST sequence was not
6413        used, the resulting sequence would be:
6414
6415             1   t.1 = *p
6416             2   p = p - 1
6417             3   t.2 = t.1 + 1
6418             4   *p = t.2
6419
6420        However, the post-decrement operation in line #2 must not be
6421        evaluated until after the store to *p at line #4, so the
6422        correct sequence should be:
6423
6424             1   t.1 = *p
6425             2   t.2 = t.1 + 1
6426             3   *p = t.2
6427             4   p = p - 1
6428
6429        So, by specifying a separate post queue, it is possible
6430        to emit the post side-effects in the correct order.
6431        If POST_P is NULL, an internal queue will be used.  Before
6432        returning to the caller, the sequence POST_P is appended to
6433        the main output sequence PRE_P.
6434
6435    GIMPLE_TEST_F points to a function that takes a tree T and
6436        returns nonzero if T is in the GIMPLE form requested by the
6437        caller.  The GIMPLE predicates are in tree-gimple.c.
6438
6439    FALLBACK tells the function what sort of a temporary we want if
6440        gimplification cannot produce an expression that complies with
6441        GIMPLE_TEST_F.
6442
6443        fb_none means that no temporary should be generated
6444        fb_rvalue means that an rvalue is OK to generate
6445        fb_lvalue means that an lvalue is OK to generate
6446        fb_either means that either is OK, but an lvalue is preferable.
6447        fb_mayfail means that gimplification may fail (in which case
6448        GS_ERROR will be returned)
6449
6450    The return value is either GS_ERROR or GS_ALL_DONE, since this
6451    function iterates until EXPR is completely gimplified or an error
6452    occurs.  */
6453
6454 enum gimplify_status
6455 gimplify_expr (tree *expr_p, gimple_seq *pre_p, gimple_seq *post_p,
6456                bool (*gimple_test_f) (tree), fallback_t fallback)
6457 {
6458   tree tmp;
6459   gimple_seq internal_pre = NULL;
6460   gimple_seq internal_post = NULL;
6461   tree save_expr;
6462   bool is_statement;
6463   location_t saved_location;
6464   enum gimplify_status ret;
6465   gimple_stmt_iterator pre_last_gsi, post_last_gsi;
6466
6467   save_expr = *expr_p;
6468   if (save_expr == NULL_TREE)
6469     return GS_ALL_DONE;
6470
6471   /* If we are gimplifying a top-level statement, PRE_P must be valid.  */
6472   is_statement = gimple_test_f == is_gimple_stmt;
6473   if (is_statement)
6474     gcc_assert (pre_p);
6475
6476   /* Consistency checks.  */
6477   if (gimple_test_f == is_gimple_reg)
6478     gcc_assert (fallback & (fb_rvalue | fb_lvalue));
6479   else if (gimple_test_f == is_gimple_val
6480            || gimple_test_f == is_gimple_call_addr
6481            || gimple_test_f == is_gimple_condexpr
6482            || gimple_test_f == is_gimple_mem_rhs
6483            || gimple_test_f == is_gimple_mem_rhs_or_call
6484            || gimple_test_f == is_gimple_reg_rhs
6485            || gimple_test_f == is_gimple_reg_rhs_or_call
6486            || gimple_test_f == is_gimple_asm_val)
6487     gcc_assert (fallback & fb_rvalue);
6488   else if (gimple_test_f == is_gimple_min_lval
6489            || gimple_test_f == is_gimple_lvalue)
6490     gcc_assert (fallback & fb_lvalue);
6491   else if (gimple_test_f == is_gimple_addressable)
6492     gcc_assert (fallback & fb_either);
6493   else if (gimple_test_f == is_gimple_stmt)
6494     gcc_assert (fallback == fb_none);
6495   else
6496     {
6497       /* We should have recognized the GIMPLE_TEST_F predicate to
6498          know what kind of fallback to use in case a temporary is
6499          needed to hold the value or address of *EXPR_P.  */
6500       gcc_unreachable ();
6501     }
6502
6503   /* We used to check the predicate here and return immediately if it
6504      succeeds.  This is wrong; the design is for gimplification to be
6505      idempotent, and for the predicates to only test for valid forms, not
6506      whether they are fully simplified.  */
6507   if (pre_p == NULL)
6508     pre_p = &internal_pre;
6509
6510   if (post_p == NULL)
6511     post_p = &internal_post;
6512
6513   /* Remember the last statements added to PRE_P and POST_P.  Every
6514      new statement added by the gimplification helpers needs to be
6515      annotated with location information.  To centralize the
6516      responsibility, we remember the last statement that had been
6517      added to both queues before gimplifying *EXPR_P.  If
6518      gimplification produces new statements in PRE_P and POST_P, those
6519      statements will be annotated with the same location information
6520      as *EXPR_P.  */
6521   pre_last_gsi = gsi_last (*pre_p);
6522   post_last_gsi = gsi_last (*post_p);
6523
6524   saved_location = input_location;
6525   if (save_expr != error_mark_node
6526       && EXPR_HAS_LOCATION (*expr_p))
6527     input_location = EXPR_LOCATION (*expr_p);
6528
6529   /* Loop over the specific gimplifiers until the toplevel node
6530      remains the same.  */
6531   do
6532     {
6533       /* Strip away as many useless type conversions as possible
6534          at the toplevel.  */
6535       STRIP_USELESS_TYPE_CONVERSION (*expr_p);
6536
6537       /* Remember the expr.  */
6538       save_expr = *expr_p;
6539
6540       /* Die, die, die, my darling.  */
6541       if (save_expr == error_mark_node
6542           || (TREE_TYPE (save_expr)
6543               && TREE_TYPE (save_expr) == error_mark_node))
6544         {
6545           ret = GS_ERROR;
6546           break;
6547         }
6548
6549       /* Do any language-specific gimplification.  */
6550       ret = ((enum gimplify_status)
6551              lang_hooks.gimplify_expr (expr_p, pre_p, post_p));
6552       if (ret == GS_OK)
6553         {
6554           if (*expr_p == NULL_TREE)
6555             break;
6556           if (*expr_p != save_expr)
6557             continue;
6558         }
6559       else if (ret != GS_UNHANDLED)
6560         break;
6561
6562       ret = GS_OK;
6563       switch (TREE_CODE (*expr_p))
6564         {
6565           /* First deal with the special cases.  */
6566
6567         case POSTINCREMENT_EXPR:
6568         case POSTDECREMENT_EXPR:
6569         case PREINCREMENT_EXPR:
6570         case PREDECREMENT_EXPR:
6571           ret = gimplify_self_mod_expr (expr_p, pre_p, post_p,
6572                                         fallback != fb_none);
6573           break;
6574
6575         case ARRAY_REF:
6576         case ARRAY_RANGE_REF:
6577         case REALPART_EXPR:
6578         case IMAGPART_EXPR:
6579         case COMPONENT_REF:
6580         case VIEW_CONVERT_EXPR:
6581           ret = gimplify_compound_lval (expr_p, pre_p, post_p,
6582                                         fallback ? fallback : fb_rvalue);
6583           break;
6584
6585         case COND_EXPR:
6586           ret = gimplify_cond_expr (expr_p, pre_p, fallback);
6587
6588           /* C99 code may assign to an array in a structure value of a
6589              conditional expression, and this has undefined behavior
6590              only on execution, so create a temporary if an lvalue is
6591              required.  */
6592           if (fallback == fb_lvalue)
6593             {
6594               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6595               mark_addressable (*expr_p);
6596             }
6597           break;
6598
6599         case CALL_EXPR:
6600           ret = gimplify_call_expr (expr_p, pre_p, fallback != fb_none);
6601
6602           /* C99 code may assign to an array in a structure returned
6603              from a function, and this has undefined behavior only on
6604              execution, so create a temporary if an lvalue is
6605              required.  */
6606           if (fallback == fb_lvalue)
6607             {
6608               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6609               mark_addressable (*expr_p);
6610             }
6611           break;
6612
6613         case TREE_LIST:
6614           gcc_unreachable ();
6615
6616         case COMPOUND_EXPR:
6617           ret = gimplify_compound_expr (expr_p, pre_p, fallback != fb_none);
6618           break;
6619
6620         case COMPOUND_LITERAL_EXPR:
6621           ret = gimplify_compound_literal_expr (expr_p, pre_p);
6622           break;
6623
6624         case MODIFY_EXPR:
6625         case INIT_EXPR:
6626           ret = gimplify_modify_expr (expr_p, pre_p, post_p,
6627                                       fallback != fb_none);
6628           break;
6629
6630         case TRUTH_ANDIF_EXPR:
6631         case TRUTH_ORIF_EXPR:
6632           /* Pass the source location of the outer expression.  */
6633           ret = gimplify_boolean_expr (expr_p, saved_location);
6634           break;
6635
6636         case TRUTH_NOT_EXPR:
6637           if (TREE_CODE (TREE_TYPE (*expr_p)) != BOOLEAN_TYPE)
6638             {
6639               tree type = TREE_TYPE (*expr_p);
6640               *expr_p = fold_convert (type, gimple_boolify (*expr_p));
6641               ret = GS_OK;
6642               break;
6643             }
6644
6645           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6646                                is_gimple_val, fb_rvalue);
6647           recalculate_side_effects (*expr_p);
6648           break;
6649
6650         case ADDR_EXPR:
6651           ret = gimplify_addr_expr (expr_p, pre_p, post_p);
6652           break;
6653
6654         case VA_ARG_EXPR:
6655           ret = gimplify_va_arg_expr (expr_p, pre_p, post_p);
6656           break;
6657
6658         CASE_CONVERT:
6659           if (IS_EMPTY_STMT (*expr_p))
6660             {
6661               ret = GS_ALL_DONE;
6662               break;
6663             }
6664
6665           if (VOID_TYPE_P (TREE_TYPE (*expr_p))
6666               || fallback == fb_none)
6667             {
6668               /* Just strip a conversion to void (or in void context) and
6669                  try again.  */
6670               *expr_p = TREE_OPERAND (*expr_p, 0);
6671               break;
6672             }
6673
6674           ret = gimplify_conversion (expr_p);
6675           if (ret == GS_ERROR)
6676             break;
6677           if (*expr_p != save_expr)
6678             break;
6679           /* FALLTHRU */
6680
6681         case FIX_TRUNC_EXPR:
6682           /* unary_expr: ... | '(' cast ')' val | ...  */
6683           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6684                                is_gimple_val, fb_rvalue);
6685           recalculate_side_effects (*expr_p);
6686           break;
6687
6688         case INDIRECT_REF:
6689           *expr_p = fold_indirect_ref_loc (input_location, *expr_p);
6690           if (*expr_p != save_expr)
6691             break;
6692           /* else fall through.  */
6693         case ALIGN_INDIRECT_REF:
6694         case MISALIGNED_INDIRECT_REF:
6695           ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
6696                                is_gimple_reg, fb_rvalue);
6697           recalculate_side_effects (*expr_p);
6698           break;
6699
6700           /* Constants need not be gimplified.  */
6701         case INTEGER_CST:
6702         case REAL_CST:
6703         case FIXED_CST:
6704         case STRING_CST:
6705         case COMPLEX_CST:
6706         case VECTOR_CST:
6707           ret = GS_ALL_DONE;
6708           break;
6709
6710         case CONST_DECL:
6711           /* If we require an lvalue, such as for ADDR_EXPR, retain the
6712              CONST_DECL node.  Otherwise the decl is replaceable by its
6713              value.  */
6714           /* ??? Should be == fb_lvalue, but ADDR_EXPR passes fb_either.  */
6715           if (fallback & fb_lvalue)
6716             ret = GS_ALL_DONE;
6717           else
6718             *expr_p = DECL_INITIAL (*expr_p);
6719           break;
6720
6721         case DECL_EXPR:
6722           ret = gimplify_decl_expr (expr_p, pre_p);
6723           break;
6724
6725         case BIND_EXPR:
6726           ret = gimplify_bind_expr (expr_p, pre_p);
6727           break;
6728
6729         case LOOP_EXPR:
6730           ret = gimplify_loop_expr (expr_p, pre_p);
6731           break;
6732
6733         case SWITCH_EXPR:
6734           ret = gimplify_switch_expr (expr_p, pre_p);
6735           break;
6736
6737         case EXIT_EXPR:
6738           ret = gimplify_exit_expr (expr_p);
6739           break;
6740
6741         case GOTO_EXPR:
6742           /* If the target is not LABEL, then it is a computed jump
6743              and the target needs to be gimplified.  */
6744           if (TREE_CODE (GOTO_DESTINATION (*expr_p)) != LABEL_DECL)
6745             {
6746               ret = gimplify_expr (&GOTO_DESTINATION (*expr_p), pre_p,
6747                                    NULL, is_gimple_val, fb_rvalue);
6748               if (ret == GS_ERROR)
6749                 break;
6750             }
6751           gimplify_seq_add_stmt (pre_p,
6752                           gimple_build_goto (GOTO_DESTINATION (*expr_p)));
6753           break;
6754
6755         case PREDICT_EXPR:
6756           gimplify_seq_add_stmt (pre_p,
6757                         gimple_build_predict (PREDICT_EXPR_PREDICTOR (*expr_p),
6758                                               PREDICT_EXPR_OUTCOME (*expr_p)));
6759           ret = GS_ALL_DONE;
6760           break;
6761
6762         case LABEL_EXPR:
6763           ret = GS_ALL_DONE;
6764           gcc_assert (decl_function_context (LABEL_EXPR_LABEL (*expr_p))
6765                       == current_function_decl);
6766           gimplify_seq_add_stmt (pre_p,
6767                           gimple_build_label (LABEL_EXPR_LABEL (*expr_p)));
6768           break;
6769
6770         case CASE_LABEL_EXPR:
6771           ret = gimplify_case_label_expr (expr_p, pre_p);
6772           break;
6773
6774         case RETURN_EXPR:
6775           ret = gimplify_return_expr (*expr_p, pre_p);
6776           break;
6777
6778         case CONSTRUCTOR:
6779           /* Don't reduce this in place; let gimplify_init_constructor work its
6780              magic.  Buf if we're just elaborating this for side effects, just
6781              gimplify any element that has side-effects.  */
6782           if (fallback == fb_none)
6783             {
6784               unsigned HOST_WIDE_INT ix;
6785               constructor_elt *ce;
6786               tree temp = NULL_TREE;
6787               for (ix = 0;
6788                    VEC_iterate (constructor_elt, CONSTRUCTOR_ELTS (*expr_p),
6789                                 ix, ce);
6790                    ix++)
6791                 if (TREE_SIDE_EFFECTS (ce->value))
6792                   append_to_statement_list (ce->value, &temp);
6793
6794               *expr_p = temp;
6795               ret = GS_OK;
6796             }
6797           /* C99 code may assign to an array in a constructed
6798              structure or union, and this has undefined behavior only
6799              on execution, so create a temporary if an lvalue is
6800              required.  */
6801           else if (fallback == fb_lvalue)
6802             {
6803               *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
6804               mark_addressable (*expr_p);
6805             }
6806           else
6807             ret = GS_ALL_DONE;
6808           break;
6809
6810           /* The following are special cases that are not handled by the
6811              original GIMPLE grammar.  */
6812
6813           /* SAVE_EXPR nodes are converted into a GIMPLE identifier and
6814              eliminated.  */
6815         case SAVE_EXPR:
6816           ret = gimplify_save_expr (expr_p, pre_p, post_p);
6817           break;
6818
6819         case BIT_FIELD_REF:
6820           {
6821             enum gimplify_status r0, r1, r2;
6822
6823             r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
6824                                 post_p, is_gimple_lvalue, fb_either);
6825             r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
6826                                 post_p, is_gimple_val, fb_rvalue);
6827             r2 = gimplify_expr (&TREE_OPERAND (*expr_p, 2), pre_p,
6828                                 post_p, is_gimple_val, fb_rvalue);
6829             recalculate_side_effects (*expr_p);
6830
6831             ret = MIN (r0, MIN (r1, r2));
6832           }
6833           break;
6834
6835         case TARGET_MEM_REF:
6836           {
6837             enum gimplify_status r0 = GS_ALL_DONE, r1 = GS_ALL_DONE;
6838
6839             if (TMR_SYMBOL (*expr_p))
6840               r0 = gimplify_expr (&TMR_SYMBOL (*expr_p), pre_p,
6841                                   post_p, is_gimple_lvalue, fb_either);
6842             else if (TMR_BASE (*expr_p))
6843               r0 = gimplify_expr (&TMR_BASE (*expr_p), pre_p,
6844                                   post_p, is_gimple_val, fb_either);
6845             if (TMR_INDEX (*expr_p))
6846               r1 = gimplify_expr (&TMR_INDEX (*expr_p), pre_p,
6847                                   post_p, is_gimple_val, fb_rvalue);
6848             /* TMR_STEP and TMR_OFFSET are always integer constants.  */
6849             ret = MIN (r0, r1);
6850           }
6851           break;
6852
6853         case NON_LVALUE_EXPR:
6854           /* This should have been stripped above.  */
6855           gcc_unreachable ();
6856
6857         case ASM_EXPR:
6858           ret = gimplify_asm_expr (expr_p, pre_p, post_p);
6859           break;
6860
6861         case TRY_FINALLY_EXPR:
6862         case TRY_CATCH_EXPR:
6863           {
6864             gimple_seq eval, cleanup;
6865             gimple try_;
6866
6867             eval = cleanup = NULL;
6868             gimplify_and_add (TREE_OPERAND (*expr_p, 0), &eval);
6869             gimplify_and_add (TREE_OPERAND (*expr_p, 1), &cleanup);
6870             /* Don't create bogus GIMPLE_TRY with empty cleanup.  */
6871             if (gimple_seq_empty_p (cleanup))
6872               {
6873                 gimple_seq_add_seq (pre_p, eval);
6874                 ret = GS_ALL_DONE;
6875                 break;
6876               }
6877             try_ = gimple_build_try (eval, cleanup,
6878                                      TREE_CODE (*expr_p) == TRY_FINALLY_EXPR
6879                                      ? GIMPLE_TRY_FINALLY
6880                                      : GIMPLE_TRY_CATCH);
6881             if (TREE_CODE (*expr_p) == TRY_CATCH_EXPR)
6882               gimple_try_set_catch_is_cleanup (try_,
6883                                                TRY_CATCH_IS_CLEANUP (*expr_p));
6884             gimplify_seq_add_stmt (pre_p, try_);
6885             ret = GS_ALL_DONE;
6886             break;
6887           }
6888
6889         case CLEANUP_POINT_EXPR:
6890           ret = gimplify_cleanup_point_expr (expr_p, pre_p);
6891           break;
6892
6893         case TARGET_EXPR:
6894           ret = gimplify_target_expr (expr_p, pre_p, post_p);
6895           break;
6896
6897         case CATCH_EXPR:
6898           {
6899             gimple c;
6900             gimple_seq handler = NULL;
6901             gimplify_and_add (CATCH_BODY (*expr_p), &handler);
6902             c = gimple_build_catch (CATCH_TYPES (*expr_p), handler);
6903             gimplify_seq_add_stmt (pre_p, c);
6904             ret = GS_ALL_DONE;
6905             break;
6906           }
6907
6908         case EH_FILTER_EXPR:
6909           {
6910             gimple ehf;
6911             gimple_seq failure = NULL;
6912
6913             gimplify_and_add (EH_FILTER_FAILURE (*expr_p), &failure);
6914             ehf = gimple_build_eh_filter (EH_FILTER_TYPES (*expr_p), failure);
6915             gimple_set_no_warning (ehf, TREE_NO_WARNING (*expr_p));
6916             gimplify_seq_add_stmt (pre_p, ehf);
6917             ret = GS_ALL_DONE;
6918             break;
6919           }
6920
6921         case OBJ_TYPE_REF:
6922           {
6923             enum gimplify_status r0, r1;
6924             r0 = gimplify_expr (&OBJ_TYPE_REF_OBJECT (*expr_p), pre_p,
6925                                 post_p, is_gimple_val, fb_rvalue);
6926             r1 = gimplify_expr (&OBJ_TYPE_REF_EXPR (*expr_p), pre_p,
6927                                 post_p, is_gimple_val, fb_rvalue);
6928             TREE_SIDE_EFFECTS (*expr_p) = 0;
6929             ret = MIN (r0, r1);
6930           }
6931           break;
6932
6933         case LABEL_DECL:
6934           /* We get here when taking the address of a label.  We mark
6935              the label as "forced"; meaning it can never be removed and
6936              it is a potential target for any computed goto.  */
6937           FORCED_LABEL (*expr_p) = 1;
6938           ret = GS_ALL_DONE;
6939           break;
6940
6941         case STATEMENT_LIST:
6942           ret = gimplify_statement_list (expr_p, pre_p);
6943           break;
6944
6945         case WITH_SIZE_EXPR:
6946           {
6947             gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
6948                            post_p == &internal_post ? NULL : post_p,
6949                            gimple_test_f, fallback);
6950             gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
6951                            is_gimple_val, fb_rvalue);
6952           }
6953           break;
6954
6955         case VAR_DECL:
6956         case PARM_DECL:
6957           ret = gimplify_var_or_parm_decl (expr_p);
6958           break;
6959
6960         case RESULT_DECL:
6961           /* When within an OpenMP context, notice uses of variables.  */
6962           if (gimplify_omp_ctxp)
6963             omp_notice_variable (gimplify_omp_ctxp, *expr_p, true);
6964           ret = GS_ALL_DONE;
6965           break;
6966
6967         case SSA_NAME:
6968           /* Allow callbacks into the gimplifier during optimization.  */
6969           ret = GS_ALL_DONE;
6970           break;
6971
6972         case OMP_PARALLEL:
6973           gimplify_omp_parallel (expr_p, pre_p);
6974           ret = GS_ALL_DONE;
6975           break;
6976
6977         case OMP_TASK:
6978           gimplify_omp_task (expr_p, pre_p);
6979           ret = GS_ALL_DONE;
6980           break;
6981
6982         case OMP_FOR:
6983           ret = gimplify_omp_for (expr_p, pre_p);
6984           break;
6985
6986         case OMP_SECTIONS:
6987         case OMP_SINGLE:
6988           gimplify_omp_workshare (expr_p, pre_p);
6989           ret = GS_ALL_DONE;
6990           break;
6991
6992         case OMP_SECTION:
6993         case OMP_MASTER:
6994         case OMP_ORDERED:
6995         case OMP_CRITICAL:
6996           {
6997             gimple_seq body = NULL;
6998             gimple g;
6999
7000             gimplify_and_add (OMP_BODY (*expr_p), &body);
7001             switch (TREE_CODE (*expr_p))
7002               {
7003               case OMP_SECTION:
7004                 g = gimple_build_omp_section (body);
7005                 break;
7006               case OMP_MASTER:
7007                 g = gimple_build_omp_master (body);
7008                 break;
7009               case OMP_ORDERED:
7010                 g = gimple_build_omp_ordered (body);
7011                 break;
7012               case OMP_CRITICAL:
7013                 g = gimple_build_omp_critical (body,
7014                                                OMP_CRITICAL_NAME (*expr_p));
7015                 break;
7016               default:
7017                 gcc_unreachable ();
7018               }
7019             gimplify_seq_add_stmt (pre_p, g);
7020             ret = GS_ALL_DONE;
7021             break;
7022           }
7023
7024         case OMP_ATOMIC:
7025           ret = gimplify_omp_atomic (expr_p, pre_p);
7026           break;
7027
7028         case POINTER_PLUS_EXPR:
7029           /* Convert ((type *)A)+offset into &A->field_of_type_and_offset.
7030              The second is gimple immediate saving a need for extra statement.
7031            */
7032           if (TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7033               && (tmp = maybe_fold_offset_to_address
7034                   (EXPR_LOCATION (*expr_p),
7035                    TREE_OPERAND (*expr_p, 0), TREE_OPERAND (*expr_p, 1),
7036                    TREE_TYPE (*expr_p))))
7037             {
7038               *expr_p = tmp;
7039               break;
7040             }
7041           /* Convert (void *)&a + 4 into (void *)&a[1].  */
7042           if (TREE_CODE (TREE_OPERAND (*expr_p, 0)) == NOP_EXPR
7043               && TREE_CODE (TREE_OPERAND (*expr_p, 1)) == INTEGER_CST
7044               && POINTER_TYPE_P (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p,
7045                                                                         0),0)))
7046               && (tmp = maybe_fold_offset_to_address
7047                   (EXPR_LOCATION (*expr_p),
7048                    TREE_OPERAND (TREE_OPERAND (*expr_p, 0), 0),
7049                    TREE_OPERAND (*expr_p, 1),
7050                    TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*expr_p, 0),
7051                                             0)))))
7052              {
7053                *expr_p = fold_convert (TREE_TYPE (*expr_p), tmp);
7054                break;
7055              }
7056           /* FALLTHRU */
7057
7058         default:
7059           switch (TREE_CODE_CLASS (TREE_CODE (*expr_p)))
7060             {
7061             case tcc_comparison:
7062               /* Handle comparison of objects of non scalar mode aggregates
7063                  with a call to memcmp.  It would be nice to only have to do
7064                  this for variable-sized objects, but then we'd have to allow
7065                  the same nest of reference nodes we allow for MODIFY_EXPR and
7066                  that's too complex.
7067
7068                  Compare scalar mode aggregates as scalar mode values.  Using
7069                  memcmp for them would be very inefficient at best, and is
7070                  plain wrong if bitfields are involved.  */
7071                 {
7072                   tree type = TREE_TYPE (TREE_OPERAND (*expr_p, 1));
7073
7074                   if (!AGGREGATE_TYPE_P (type))
7075                     goto expr_2;
7076                   else if (TYPE_MODE (type) != BLKmode)
7077                     ret = gimplify_scalar_mode_aggregate_compare (expr_p);
7078                   else
7079                     ret = gimplify_variable_sized_compare (expr_p);
7080
7081                   break;
7082                 }
7083
7084             /* If *EXPR_P does not need to be special-cased, handle it
7085                according to its class.  */
7086             case tcc_unary:
7087               ret = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7088                                    post_p, is_gimple_val, fb_rvalue);
7089               break;
7090
7091             case tcc_binary:
7092             expr_2:
7093               {
7094                 enum gimplify_status r0, r1;
7095
7096                 r0 = gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p,
7097                                     post_p, is_gimple_val, fb_rvalue);
7098                 r1 = gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p,
7099                                     post_p, is_gimple_val, fb_rvalue);
7100
7101                 ret = MIN (r0, r1);
7102                 break;
7103               }
7104
7105             case tcc_declaration:
7106             case tcc_constant:
7107               ret = GS_ALL_DONE;
7108               goto dont_recalculate;
7109
7110             default:
7111               gcc_assert (TREE_CODE (*expr_p) == TRUTH_AND_EXPR
7112                           || TREE_CODE (*expr_p) == TRUTH_OR_EXPR
7113                           || TREE_CODE (*expr_p) == TRUTH_XOR_EXPR);
7114               goto expr_2;
7115             }
7116
7117           recalculate_side_effects (*expr_p);
7118
7119         dont_recalculate:
7120           break;
7121         }
7122
7123       /* If we replaced *expr_p, gimplify again.  */
7124       if (ret == GS_OK && (*expr_p == NULL || *expr_p == save_expr))
7125         ret = GS_ALL_DONE;
7126     }
7127   while (ret == GS_OK);
7128
7129   /* If we encountered an error_mark somewhere nested inside, either
7130      stub out the statement or propagate the error back out.  */
7131   if (ret == GS_ERROR)
7132     {
7133       if (is_statement)
7134         *expr_p = NULL;
7135       goto out;
7136     }
7137
7138   /* This was only valid as a return value from the langhook, which
7139      we handled.  Make sure it doesn't escape from any other context.  */
7140   gcc_assert (ret != GS_UNHANDLED);
7141
7142   if (fallback == fb_none && *expr_p && !is_gimple_stmt (*expr_p))
7143     {
7144       /* We aren't looking for a value, and we don't have a valid
7145          statement.  If it doesn't have side-effects, throw it away.  */
7146       if (!TREE_SIDE_EFFECTS (*expr_p))
7147         *expr_p = NULL;
7148       else if (!TREE_THIS_VOLATILE (*expr_p))
7149         {
7150           /* This is probably a _REF that contains something nested that
7151              has side effects.  Recurse through the operands to find it.  */
7152           enum tree_code code = TREE_CODE (*expr_p);
7153
7154           switch (code)
7155             {
7156             case COMPONENT_REF:
7157             case REALPART_EXPR:
7158             case IMAGPART_EXPR:
7159             case VIEW_CONVERT_EXPR:
7160               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7161                              gimple_test_f, fallback);
7162               break;
7163
7164             case ARRAY_REF:
7165             case ARRAY_RANGE_REF:
7166               gimplify_expr (&TREE_OPERAND (*expr_p, 0), pre_p, post_p,
7167                              gimple_test_f, fallback);
7168               gimplify_expr (&TREE_OPERAND (*expr_p, 1), pre_p, post_p,
7169                              gimple_test_f, fallback);
7170               break;
7171
7172             default:
7173                /* Anything else with side-effects must be converted to
7174                   a valid statement before we get here.  */
7175               gcc_unreachable ();
7176             }
7177
7178           *expr_p = NULL;
7179         }
7180       else if (COMPLETE_TYPE_P (TREE_TYPE (*expr_p))
7181                && TYPE_MODE (TREE_TYPE (*expr_p)) != BLKmode)
7182         {
7183           /* Historically, the compiler has treated a bare reference
7184              to a non-BLKmode volatile lvalue as forcing a load.  */
7185           tree type = TYPE_MAIN_VARIANT (TREE_TYPE (*expr_p));
7186
7187           /* Normally, we do not want to create a temporary for a
7188              TREE_ADDRESSABLE type because such a type should not be
7189              copied by bitwise-assignment.  However, we make an
7190              exception here, as all we are doing here is ensuring that
7191              we read the bytes that make up the type.  We use
7192              create_tmp_var_raw because create_tmp_var will abort when
7193              given a TREE_ADDRESSABLE type.  */
7194           tree tmp = create_tmp_var_raw (type, "vol");
7195           gimple_add_tmp_var (tmp);
7196           gimplify_assign (tmp, *expr_p, pre_p);
7197           *expr_p = NULL;
7198         }
7199       else
7200         /* We can't do anything useful with a volatile reference to
7201            an incomplete type, so just throw it away.  Likewise for
7202            a BLKmode type, since any implicit inner load should
7203            already have been turned into an explicit one by the
7204            gimplification process.  */
7205         *expr_p = NULL;
7206     }
7207
7208   /* If we are gimplifying at the statement level, we're done.  Tack
7209      everything together and return.  */
7210   if (fallback == fb_none || is_statement)
7211     {
7212       /* Since *EXPR_P has been converted into a GIMPLE tuple, clear
7213          it out for GC to reclaim it.  */
7214       *expr_p = NULL_TREE;
7215
7216       if (!gimple_seq_empty_p (internal_pre)
7217           || !gimple_seq_empty_p (internal_post))
7218         {
7219           gimplify_seq_add_seq (&internal_pre, internal_post);
7220           gimplify_seq_add_seq (pre_p, internal_pre);
7221         }
7222
7223       /* The result of gimplifying *EXPR_P is going to be the last few
7224          statements in *PRE_P and *POST_P.  Add location information
7225          to all the statements that were added by the gimplification
7226          helpers.  */
7227       if (!gimple_seq_empty_p (*pre_p))
7228         annotate_all_with_location_after (*pre_p, pre_last_gsi, input_location);
7229
7230       if (!gimple_seq_empty_p (*post_p))
7231         annotate_all_with_location_after (*post_p, post_last_gsi,
7232                                           input_location);
7233
7234       goto out;
7235     }
7236
7237 #ifdef ENABLE_GIMPLE_CHECKING
7238   if (*expr_p)
7239     {
7240       enum tree_code code = TREE_CODE (*expr_p);
7241       /* These expressions should already be in gimple IR form.  */
7242       gcc_assert (code != MODIFY_EXPR
7243                   && code != ASM_EXPR
7244                   && code != BIND_EXPR
7245                   && code != CATCH_EXPR
7246                   && (code != COND_EXPR || gimplify_ctxp->allow_rhs_cond_expr)
7247                   && code != EH_FILTER_EXPR
7248                   && code != GOTO_EXPR
7249                   && code != LABEL_EXPR
7250                   && code != LOOP_EXPR
7251                   && code != SWITCH_EXPR
7252                   && code != TRY_FINALLY_EXPR
7253                   && code != OMP_CRITICAL
7254                   && code != OMP_FOR
7255                   && code != OMP_MASTER
7256                   && code != OMP_ORDERED
7257                   && code != OMP_PARALLEL
7258                   && code != OMP_SECTIONS
7259                   && code != OMP_SECTION
7260                   && code != OMP_SINGLE);
7261     }
7262 #endif
7263
7264   /* Otherwise we're gimplifying a subexpression, so the resulting
7265      value is interesting.  If it's a valid operand that matches
7266      GIMPLE_TEST_F, we're done. Unless we are handling some
7267      post-effects internally; if that's the case, we need to copy into
7268      a temporary before adding the post-effects to POST_P.  */
7269   if (gimple_seq_empty_p (internal_post) && (*gimple_test_f) (*expr_p))
7270     goto out;
7271
7272   /* Otherwise, we need to create a new temporary for the gimplified
7273      expression.  */
7274
7275   /* We can't return an lvalue if we have an internal postqueue.  The
7276      object the lvalue refers to would (probably) be modified by the
7277      postqueue; we need to copy the value out first, which means an
7278      rvalue.  */
7279   if ((fallback & fb_lvalue)
7280       && gimple_seq_empty_p (internal_post)
7281       && is_gimple_addressable (*expr_p))
7282     {
7283       /* An lvalue will do.  Take the address of the expression, store it
7284          in a temporary, and replace the expression with an INDIRECT_REF of
7285          that temporary.  */
7286       tmp = build_fold_addr_expr_loc (input_location, *expr_p);
7287       gimplify_expr (&tmp, pre_p, post_p, is_gimple_reg, fb_rvalue);
7288       *expr_p = build1 (INDIRECT_REF, TREE_TYPE (TREE_TYPE (tmp)), tmp);
7289     }
7290   else if ((fallback & fb_rvalue) && is_gimple_reg_rhs_or_call (*expr_p))
7291     {
7292       /* An rvalue will do.  Assign the gimplified expression into a
7293          new temporary TMP and replace the original expression with
7294          TMP.  First, make sure that the expression has a type so that
7295          it can be assigned into a temporary.  */
7296       gcc_assert (!VOID_TYPE_P (TREE_TYPE (*expr_p)));
7297
7298       if (!gimple_seq_empty_p (internal_post) || (fallback & fb_lvalue))
7299         /* The postqueue might change the value of the expression between
7300            the initialization and use of the temporary, so we can't use a
7301            formal temp.  FIXME do we care?  */
7302         {
7303           *expr_p = get_initialized_tmp_var (*expr_p, pre_p, post_p);
7304           if (TREE_CODE (TREE_TYPE (*expr_p)) == COMPLEX_TYPE
7305               || TREE_CODE (TREE_TYPE (*expr_p)) == VECTOR_TYPE)
7306             DECL_GIMPLE_REG_P (*expr_p) = 1;
7307         }
7308       else
7309         *expr_p = get_formal_tmp_var (*expr_p, pre_p);
7310     }
7311   else
7312     {
7313 #ifdef ENABLE_GIMPLE_CHECKING
7314       if (!(fallback & fb_mayfail))
7315         {
7316           fprintf (stderr, "gimplification failed:\n");
7317           print_generic_expr (stderr, *expr_p, 0);
7318           debug_tree (*expr_p);
7319           internal_error ("gimplification failed");
7320         }
7321 #endif
7322       gcc_assert (fallback & fb_mayfail);
7323
7324       /* If this is an asm statement, and the user asked for the
7325          impossible, don't die.  Fail and let gimplify_asm_expr
7326          issue an error.  */
7327       ret = GS_ERROR;
7328       goto out;
7329     }
7330
7331   /* Make sure the temporary matches our predicate.  */
7332   gcc_assert ((*gimple_test_f) (*expr_p));
7333
7334   if (!gimple_seq_empty_p (internal_post))
7335     {
7336       annotate_all_with_location (internal_post, input_location);
7337       gimplify_seq_add_seq (pre_p, internal_post);
7338     }
7339
7340  out:
7341   input_location = saved_location;
7342   return ret;
7343 }
7344
7345 /* Look through TYPE for variable-sized objects and gimplify each such
7346    size that we find.  Add to LIST_P any statements generated.  */
7347
7348 void
7349 gimplify_type_sizes (tree type, gimple_seq *list_p)
7350 {
7351   tree field, t;
7352
7353   if (type == NULL || type == error_mark_node)
7354     return;
7355
7356   /* We first do the main variant, then copy into any other variants.  */
7357   type = TYPE_MAIN_VARIANT (type);
7358
7359   /* Avoid infinite recursion.  */
7360   if (TYPE_SIZES_GIMPLIFIED (type))
7361     return;
7362
7363   TYPE_SIZES_GIMPLIFIED (type) = 1;
7364
7365   switch (TREE_CODE (type))
7366     {
7367     case INTEGER_TYPE:
7368     case ENUMERAL_TYPE:
7369     case BOOLEAN_TYPE:
7370     case REAL_TYPE:
7371     case FIXED_POINT_TYPE:
7372       gimplify_one_sizepos (&TYPE_MIN_VALUE (type), list_p);
7373       gimplify_one_sizepos (&TYPE_MAX_VALUE (type), list_p);
7374
7375       for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7376         {
7377           TYPE_MIN_VALUE (t) = TYPE_MIN_VALUE (type);
7378           TYPE_MAX_VALUE (t) = TYPE_MAX_VALUE (type);
7379         }
7380       break;
7381
7382     case ARRAY_TYPE:
7383       /* These types may not have declarations, so handle them here.  */
7384       gimplify_type_sizes (TREE_TYPE (type), list_p);
7385       gimplify_type_sizes (TYPE_DOMAIN (type), list_p);
7386       /* Ensure VLA bounds aren't removed, for -O0 they should be variables
7387          with assigned stack slots, for -O1+ -g they should be tracked
7388          by VTA.  */
7389       if (TYPE_DOMAIN (type)
7390           && INTEGRAL_TYPE_P (TYPE_DOMAIN (type)))
7391         {
7392           t = TYPE_MIN_VALUE (TYPE_DOMAIN (type));
7393           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7394             DECL_IGNORED_P (t) = 0;
7395           t = TYPE_MAX_VALUE (TYPE_DOMAIN (type));
7396           if (t && TREE_CODE (t) == VAR_DECL && DECL_ARTIFICIAL (t))
7397             DECL_IGNORED_P (t) = 0;
7398         }
7399       break;
7400
7401     case RECORD_TYPE:
7402     case UNION_TYPE:
7403     case QUAL_UNION_TYPE:
7404       for (field = TYPE_FIELDS (type); field; field = TREE_CHAIN (field))
7405         if (TREE_CODE (field) == FIELD_DECL)
7406           {
7407             gimplify_one_sizepos (&DECL_FIELD_OFFSET (field), list_p);
7408             gimplify_one_sizepos (&DECL_SIZE (field), list_p);
7409             gimplify_one_sizepos (&DECL_SIZE_UNIT (field), list_p);
7410             gimplify_type_sizes (TREE_TYPE (field), list_p);
7411           }
7412       break;
7413
7414     case POINTER_TYPE:
7415     case REFERENCE_TYPE:
7416         /* We used to recurse on the pointed-to type here, which turned out to
7417            be incorrect because its definition might refer to variables not
7418            yet initialized at this point if a forward declaration is involved.
7419
7420            It was actually useful for anonymous pointed-to types to ensure
7421            that the sizes evaluation dominates every possible later use of the
7422            values.  Restricting to such types here would be safe since there
7423            is no possible forward declaration around, but would introduce an
7424            undesirable middle-end semantic to anonymity.  We then defer to
7425            front-ends the responsibility of ensuring that the sizes are
7426            evaluated both early and late enough, e.g. by attaching artificial
7427            type declarations to the tree.  */
7428       break;
7429
7430     default:
7431       break;
7432     }
7433
7434   gimplify_one_sizepos (&TYPE_SIZE (type), list_p);
7435   gimplify_one_sizepos (&TYPE_SIZE_UNIT (type), list_p);
7436
7437   for (t = TYPE_NEXT_VARIANT (type); t; t = TYPE_NEXT_VARIANT (t))
7438     {
7439       TYPE_SIZE (t) = TYPE_SIZE (type);
7440       TYPE_SIZE_UNIT (t) = TYPE_SIZE_UNIT (type);
7441       TYPE_SIZES_GIMPLIFIED (t) = 1;
7442     }
7443 }
7444
7445 /* A subroutine of gimplify_type_sizes to make sure that *EXPR_P,
7446    a size or position, has had all of its SAVE_EXPRs evaluated.
7447    We add any required statements to *STMT_P.  */
7448
7449 void
7450 gimplify_one_sizepos (tree *expr_p, gimple_seq *stmt_p)
7451 {
7452   tree type, expr = *expr_p;
7453
7454   /* We don't do anything if the value isn't there, is constant, or contains
7455      A PLACEHOLDER_EXPR.  We also don't want to do anything if it's already
7456      a VAR_DECL.  If it's a VAR_DECL from another function, the gimplifier
7457      will want to replace it with a new variable, but that will cause problems
7458      if this type is from outside the function.  It's OK to have that here.  */
7459   if (expr == NULL_TREE || TREE_CONSTANT (expr)
7460       || TREE_CODE (expr) == VAR_DECL
7461       || CONTAINS_PLACEHOLDER_P (expr))
7462     return;
7463
7464   type = TREE_TYPE (expr);
7465   *expr_p = unshare_expr (expr);
7466
7467   gimplify_expr (expr_p, stmt_p, NULL, is_gimple_val, fb_rvalue);
7468   expr = *expr_p;
7469
7470   /* Verify that we've an exact type match with the original expression.
7471      In particular, we do not wish to drop a "sizetype" in favour of a
7472      type of similar dimensions.  We don't want to pollute the generic
7473      type-stripping code with this knowledge because it doesn't matter
7474      for the bulk of GENERIC/GIMPLE.  It only matters that TYPE_SIZE_UNIT
7475      and friends retain their "sizetype-ness".  */
7476   if (TREE_TYPE (expr) != type
7477       && TREE_CODE (type) == INTEGER_TYPE
7478       && TYPE_IS_SIZETYPE (type))
7479     {
7480       tree tmp;
7481       gimple stmt;
7482
7483       *expr_p = create_tmp_var (type, NULL);
7484       tmp = build1 (NOP_EXPR, type, expr);
7485       stmt = gimplify_assign (*expr_p, tmp, stmt_p);
7486       if (EXPR_HAS_LOCATION (expr))
7487         gimple_set_location (stmt, EXPR_LOCATION (expr));
7488       else
7489         gimple_set_location (stmt, input_location);
7490     }
7491 }
7492
7493
7494 /* Gimplify the body of statements pointed to by BODY_P and return a
7495    GIMPLE_BIND containing the sequence of GIMPLE statements
7496    corresponding to BODY_P.  FNDECL is the function decl containing
7497    *BODY_P.  */
7498
7499 gimple
7500 gimplify_body (tree *body_p, tree fndecl, bool do_parms)
7501 {
7502   location_t saved_location = input_location;
7503   gimple_seq parm_stmts, seq;
7504   gimple outer_bind;
7505   struct gimplify_ctx gctx;
7506
7507   timevar_push (TV_TREE_GIMPLIFY);
7508
7509   /* Initialize for optimize_insn_for_s{ize,peed}_p possibly called during
7510      gimplification.  */
7511   default_rtl_profile ();
7512
7513   gcc_assert (gimplify_ctxp == NULL);
7514   push_gimplify_context (&gctx);
7515
7516   /* Unshare most shared trees in the body and in that of any nested functions.
7517      It would seem we don't have to do this for nested functions because
7518      they are supposed to be output and then the outer function gimplified
7519      first, but the g++ front end doesn't always do it that way.  */
7520   unshare_body (body_p, fndecl);
7521   unvisit_body (body_p, fndecl);
7522
7523   if (cgraph_node (fndecl)->origin)
7524     nonlocal_vlas = pointer_set_create ();
7525
7526   /* Make sure input_location isn't set to something weird.  */
7527   input_location = DECL_SOURCE_LOCATION (fndecl);
7528
7529   /* Resolve callee-copies.  This has to be done before processing
7530      the body so that DECL_VALUE_EXPR gets processed correctly.  */
7531   parm_stmts = (do_parms) ? gimplify_parameters () : NULL;
7532
7533   /* Gimplify the function's body.  */
7534   seq = NULL;
7535   gimplify_stmt (body_p, &seq);
7536   outer_bind = gimple_seq_first_stmt (seq);
7537   if (!outer_bind)
7538     {
7539       outer_bind = gimple_build_nop ();
7540       gimplify_seq_add_stmt (&seq, outer_bind);
7541     }
7542
7543   /* The body must contain exactly one statement, a GIMPLE_BIND.  If this is
7544      not the case, wrap everything in a GIMPLE_BIND to make it so.  */
7545   if (gimple_code (outer_bind) == GIMPLE_BIND
7546       && gimple_seq_first (seq) == gimple_seq_last (seq))
7547     ;
7548   else
7549     outer_bind = gimple_build_bind (NULL_TREE, seq, NULL);
7550
7551   *body_p = NULL_TREE;
7552
7553   /* If we had callee-copies statements, insert them at the beginning
7554      of the function and clear DECL_VALUE_EXPR_P on the parameters.  */
7555   if (!gimple_seq_empty_p (parm_stmts))
7556     {
7557       tree parm;
7558
7559       gimplify_seq_add_seq (&parm_stmts, gimple_bind_body (outer_bind));
7560       gimple_bind_set_body (outer_bind, parm_stmts);
7561
7562       for (parm = DECL_ARGUMENTS (current_function_decl);
7563            parm; parm = TREE_CHAIN (parm))
7564         if (DECL_HAS_VALUE_EXPR_P (parm))
7565           {
7566             DECL_HAS_VALUE_EXPR_P (parm) = 0;
7567             DECL_IGNORED_P (parm) = 0;
7568           }
7569     }
7570
7571   if (nonlocal_vlas)
7572     {
7573       pointer_set_destroy (nonlocal_vlas);
7574       nonlocal_vlas = NULL;
7575     }
7576
7577   pop_gimplify_context (outer_bind);
7578   gcc_assert (gimplify_ctxp == NULL);
7579
7580 #ifdef ENABLE_TYPES_CHECKING
7581   if (!errorcount && !sorrycount)
7582     verify_types_in_gimple_seq (gimple_bind_body (outer_bind));
7583 #endif
7584
7585   timevar_pop (TV_TREE_GIMPLIFY);
7586   input_location = saved_location;
7587
7588   return outer_bind;
7589 }
7590
7591 /* Entry point to the gimplification pass.  FNDECL is the FUNCTION_DECL
7592    node for the function we want to gimplify.
7593
7594    Returns the sequence of GIMPLE statements corresponding to the body
7595    of FNDECL.  */
7596
7597 void
7598 gimplify_function_tree (tree fndecl)
7599 {
7600   tree oldfn, parm, ret;
7601   gimple_seq seq;
7602   gimple bind;
7603
7604   gcc_assert (!gimple_body (fndecl));
7605
7606   oldfn = current_function_decl;
7607   current_function_decl = fndecl;
7608   if (DECL_STRUCT_FUNCTION (fndecl))
7609     push_cfun (DECL_STRUCT_FUNCTION (fndecl));
7610   else
7611     push_struct_function (fndecl);
7612
7613   for (parm = DECL_ARGUMENTS (fndecl); parm ; parm = TREE_CHAIN (parm))
7614     {
7615       /* Preliminarily mark non-addressed complex variables as eligible
7616          for promotion to gimple registers.  We'll transform their uses
7617          as we find them.  */
7618       if ((TREE_CODE (TREE_TYPE (parm)) == COMPLEX_TYPE
7619            || TREE_CODE (TREE_TYPE (parm)) == VECTOR_TYPE)
7620           && !TREE_THIS_VOLATILE (parm)
7621           && !needs_to_live_in_memory (parm))
7622         DECL_GIMPLE_REG_P (parm) = 1;
7623     }
7624
7625   ret = DECL_RESULT (fndecl);
7626   if ((TREE_CODE (TREE_TYPE (ret)) == COMPLEX_TYPE
7627        || TREE_CODE (TREE_TYPE (ret)) == VECTOR_TYPE)
7628       && !needs_to_live_in_memory (ret))
7629     DECL_GIMPLE_REG_P (ret) = 1;
7630
7631   bind = gimplify_body (&DECL_SAVED_TREE (fndecl), fndecl, true);
7632
7633   /* The tree body of the function is no longer needed, replace it
7634      with the new GIMPLE body.  */
7635   seq = gimple_seq_alloc ();
7636   gimple_seq_add_stmt (&seq, bind);
7637   gimple_set_body (fndecl, seq);
7638
7639   /* If we're instrumenting function entry/exit, then prepend the call to
7640      the entry hook and wrap the whole function in a TRY_FINALLY_EXPR to
7641      catch the exit hook.  */
7642   /* ??? Add some way to ignore exceptions for this TFE.  */
7643   if (flag_instrument_function_entry_exit
7644       && !DECL_NO_INSTRUMENT_FUNCTION_ENTRY_EXIT (fndecl)
7645       && !flag_instrument_functions_exclude_p (fndecl))
7646     {
7647       tree x;
7648       gimple new_bind;
7649       gimple tf;
7650       gimple_seq cleanup = NULL, body = NULL;
7651
7652       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_EXIT];
7653       gimplify_seq_add_stmt (&cleanup, gimple_build_call (x, 0));
7654       tf = gimple_build_try (seq, cleanup, GIMPLE_TRY_FINALLY);
7655
7656       x = implicit_built_in_decls[BUILT_IN_PROFILE_FUNC_ENTER];
7657       gimplify_seq_add_stmt (&body, gimple_build_call (x, 0));
7658       gimplify_seq_add_stmt (&body, tf);
7659       new_bind = gimple_build_bind (NULL, body, gimple_bind_block (bind));
7660       /* Clear the block for BIND, since it is no longer directly inside
7661          the function, but within a try block.  */
7662       gimple_bind_set_block (bind, NULL);
7663
7664       /* Replace the current function body with the body
7665          wrapped in the try/finally TF.  */
7666       seq = gimple_seq_alloc ();
7667       gimple_seq_add_stmt (&seq, new_bind);
7668       gimple_set_body (fndecl, seq);
7669     }
7670
7671   DECL_SAVED_TREE (fndecl) = NULL_TREE;
7672   cfun->curr_properties = PROP_gimple_any;
7673
7674   current_function_decl = oldfn;
7675   pop_cfun ();
7676 }
7677
7678
7679 /* Some transformations like inlining may invalidate the GIMPLE form
7680    for operands.  This function traverses all the operands in STMT and
7681    gimplifies anything that is not a valid gimple operand.  Any new
7682    GIMPLE statements are inserted before *GSI_P.  */
7683
7684 void
7685 gimple_regimplify_operands (gimple stmt, gimple_stmt_iterator *gsi_p)
7686 {
7687   size_t i, num_ops;
7688   tree orig_lhs = NULL_TREE, lhs, t;
7689   gimple_seq pre = NULL;
7690   gimple post_stmt = NULL;
7691   struct gimplify_ctx gctx;
7692
7693   push_gimplify_context (&gctx);
7694   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
7695
7696   switch (gimple_code (stmt))
7697     {
7698     case GIMPLE_COND:
7699       gimplify_expr (gimple_cond_lhs_ptr (stmt), &pre, NULL,
7700                      is_gimple_val, fb_rvalue);
7701       gimplify_expr (gimple_cond_rhs_ptr (stmt), &pre, NULL,
7702                      is_gimple_val, fb_rvalue);
7703       break;
7704     case GIMPLE_SWITCH:
7705       gimplify_expr (gimple_switch_index_ptr (stmt), &pre, NULL,
7706                      is_gimple_val, fb_rvalue);
7707       break;
7708     case GIMPLE_OMP_ATOMIC_LOAD:
7709       gimplify_expr (gimple_omp_atomic_load_rhs_ptr (stmt), &pre, NULL,
7710                      is_gimple_val, fb_rvalue);
7711       break;
7712     case GIMPLE_ASM:
7713       {
7714         size_t i, noutputs = gimple_asm_noutputs (stmt);
7715         const char *constraint, **oconstraints;
7716         bool allows_mem, allows_reg, is_inout;
7717
7718         oconstraints
7719           = (const char **) alloca ((noutputs) * sizeof (const char *));
7720         for (i = 0; i < noutputs; i++)
7721           {
7722             tree op = gimple_asm_output_op (stmt, i);
7723             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7724             oconstraints[i] = constraint;
7725             parse_output_constraint (&constraint, i, 0, 0, &allows_mem,
7726                                      &allows_reg, &is_inout);
7727             gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7728                            is_inout ? is_gimple_min_lval : is_gimple_lvalue,
7729                            fb_lvalue | fb_mayfail);
7730           }
7731         for (i = 0; i < gimple_asm_ninputs (stmt); i++)
7732           {
7733             tree op = gimple_asm_input_op (stmt, i);
7734             constraint = TREE_STRING_POINTER (TREE_VALUE (TREE_PURPOSE (op)));
7735             parse_input_constraint (&constraint, 0, 0, noutputs, 0,
7736                                     oconstraints, &allows_mem, &allows_reg);
7737             if (TREE_ADDRESSABLE (TREE_TYPE (TREE_VALUE (op))) && allows_mem)
7738               allows_reg = 0;
7739             if (!allows_reg && allows_mem)
7740               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7741                              is_gimple_lvalue, fb_lvalue | fb_mayfail);
7742             else
7743               gimplify_expr (&TREE_VALUE (op), &pre, NULL,
7744                              is_gimple_asm_val, fb_rvalue);
7745           }
7746       }
7747       break;
7748     default:
7749       /* NOTE: We start gimplifying operands from last to first to
7750          make sure that side-effects on the RHS of calls, assignments
7751          and ASMs are executed before the LHS.  The ordering is not
7752          important for other statements.  */
7753       num_ops = gimple_num_ops (stmt);
7754       orig_lhs = gimple_get_lhs (stmt);
7755       for (i = num_ops; i > 0; i--)
7756         {
7757           tree op = gimple_op (stmt, i - 1);
7758           if (op == NULL_TREE)
7759             continue;
7760           if (i == 1 && (is_gimple_call (stmt) || is_gimple_assign (stmt)))
7761             gimplify_expr (&op, &pre, NULL, is_gimple_lvalue, fb_lvalue);
7762           else if (i == 2
7763                    && is_gimple_assign (stmt)
7764                    && num_ops == 2
7765                    && get_gimple_rhs_class (gimple_expr_code (stmt))
7766                       == GIMPLE_SINGLE_RHS)
7767             gimplify_expr (&op, &pre, NULL,
7768                            rhs_predicate_for (gimple_assign_lhs (stmt)),
7769                            fb_rvalue);
7770           else if (i == 2 && is_gimple_call (stmt))
7771             {
7772               if (TREE_CODE (op) == FUNCTION_DECL)
7773                 continue;
7774               gimplify_expr (&op, &pre, NULL, is_gimple_call_addr, fb_rvalue);
7775             }
7776           else
7777             gimplify_expr (&op, &pre, NULL, is_gimple_val, fb_rvalue);
7778           gimple_set_op (stmt, i - 1, op);
7779         }
7780
7781       lhs = gimple_get_lhs (stmt);
7782       /* If the LHS changed it in a way that requires a simple RHS,
7783          create temporary.  */
7784       if (lhs && !is_gimple_reg (lhs))
7785         {
7786           bool need_temp = false;
7787
7788           if (is_gimple_assign (stmt)
7789               && num_ops == 2
7790               && get_gimple_rhs_class (gimple_expr_code (stmt))
7791                  == GIMPLE_SINGLE_RHS)
7792             gimplify_expr (gimple_assign_rhs1_ptr (stmt), &pre, NULL,
7793                            rhs_predicate_for (gimple_assign_lhs (stmt)),
7794                            fb_rvalue);
7795           else if (is_gimple_reg (lhs))
7796             {
7797               if (is_gimple_reg_type (TREE_TYPE (lhs)))
7798                 {
7799                   if (is_gimple_call (stmt))
7800                     {
7801                       i = gimple_call_flags (stmt);
7802                       if ((i & ECF_LOOPING_CONST_OR_PURE)
7803                           || !(i & (ECF_CONST | ECF_PURE)))
7804                         need_temp = true;
7805                     }
7806                   if (stmt_can_throw_internal (stmt))
7807                     need_temp = true;
7808                 }
7809             }
7810           else
7811             {
7812               if (is_gimple_reg_type (TREE_TYPE (lhs)))
7813                 need_temp = true;
7814               else if (TYPE_MODE (TREE_TYPE (lhs)) != BLKmode)
7815                 {
7816                   if (is_gimple_call (stmt))
7817                     {
7818                       tree fndecl = gimple_call_fndecl (stmt);
7819
7820                       if (!aggregate_value_p (TREE_TYPE (lhs), fndecl)
7821                           && !(fndecl && DECL_RESULT (fndecl)
7822                                && DECL_BY_REFERENCE (DECL_RESULT (fndecl))))
7823                         need_temp = true;
7824                     }
7825                   else
7826                     need_temp = true;
7827                 }
7828             }
7829           if (need_temp)
7830             {
7831               tree temp = create_tmp_var (TREE_TYPE (lhs), NULL);
7832
7833               if (TREE_CODE (TREE_TYPE (lhs)) == COMPLEX_TYPE
7834                   || TREE_CODE (TREE_TYPE (lhs)) == VECTOR_TYPE)
7835                 DECL_GIMPLE_REG_P (temp) = 1;
7836               if (TREE_CODE (orig_lhs) == SSA_NAME)
7837                 orig_lhs = SSA_NAME_VAR (orig_lhs);
7838
7839               if (gimple_in_ssa_p (cfun))
7840                 temp = make_ssa_name (temp, NULL);
7841               gimple_set_lhs (stmt, temp);
7842               post_stmt = gimple_build_assign (lhs, temp);
7843               if (TREE_CODE (lhs) == SSA_NAME)
7844                 SSA_NAME_DEF_STMT (lhs) = post_stmt;
7845             }
7846         }
7847       break;
7848     }
7849
7850   if (gimple_referenced_vars (cfun))
7851     for (t = gimplify_ctxp->temps; t ; t = TREE_CHAIN (t))
7852       add_referenced_var (t);
7853
7854   if (!gimple_seq_empty_p (pre))
7855     {
7856       if (gimple_in_ssa_p (cfun))
7857         {
7858           gimple_stmt_iterator i;
7859
7860           for (i = gsi_start (pre); !gsi_end_p (i); gsi_next (&i))
7861             mark_symbols_for_renaming (gsi_stmt (i));
7862         }
7863       gsi_insert_seq_before (gsi_p, pre, GSI_SAME_STMT);
7864     }
7865   if (post_stmt)
7866     gsi_insert_after (gsi_p, post_stmt, GSI_NEW_STMT);
7867
7868   pop_gimplify_context (NULL);
7869 }
7870
7871
7872 /* Expands EXPR to list of gimple statements STMTS.  If SIMPLE is true,
7873    force the result to be either ssa_name or an invariant, otherwise
7874    just force it to be a rhs expression.  If VAR is not NULL, make the
7875    base variable of the final destination be VAR if suitable.  */
7876
7877 tree
7878 force_gimple_operand (tree expr, gimple_seq *stmts, bool simple, tree var)
7879 {
7880   tree t;
7881   enum gimplify_status ret;
7882   gimple_predicate gimple_test_f;
7883   struct gimplify_ctx gctx;
7884
7885   *stmts = NULL;
7886
7887   if (is_gimple_val (expr))
7888     return expr;
7889
7890   gimple_test_f = simple ? is_gimple_val : is_gimple_reg_rhs;
7891
7892   push_gimplify_context (&gctx);
7893   gimplify_ctxp->into_ssa = gimple_in_ssa_p (cfun);
7894   gimplify_ctxp->allow_rhs_cond_expr = true;
7895
7896   if (var)
7897     expr = build2 (MODIFY_EXPR, TREE_TYPE (var), var, expr);
7898
7899   if (TREE_CODE (expr) != MODIFY_EXPR
7900       && TREE_TYPE (expr) == void_type_node)
7901     {
7902       gimplify_and_add (expr, stmts);
7903       expr = NULL_TREE;
7904     }
7905   else
7906     {
7907       ret = gimplify_expr (&expr, stmts, NULL, gimple_test_f, fb_rvalue);
7908       gcc_assert (ret != GS_ERROR);
7909     }
7910
7911   if (gimple_referenced_vars (cfun))
7912     for (t = gimplify_ctxp->temps; t ; t = TREE_CHAIN (t))
7913       add_referenced_var (t);
7914
7915   pop_gimplify_context (NULL);
7916
7917   return expr;
7918 }
7919
7920 /* Invokes force_gimple_operand for EXPR with parameters SIMPLE_P and VAR.  If
7921    some statements are produced, emits them at GSI.  If BEFORE is true.
7922    the statements are appended before GSI, otherwise they are appended after
7923    it.  M specifies the way GSI moves after insertion (GSI_SAME_STMT or
7924    GSI_CONTINUE_LINKING are the usual values).  */
7925
7926 tree
7927 force_gimple_operand_gsi (gimple_stmt_iterator *gsi, tree expr,
7928                           bool simple_p, tree var, bool before,
7929                           enum gsi_iterator_update m)
7930 {
7931   gimple_seq stmts;
7932
7933   expr = force_gimple_operand (expr, &stmts, simple_p, var);
7934
7935   if (!gimple_seq_empty_p (stmts))
7936     {
7937       if (gimple_in_ssa_p (cfun))
7938         {
7939           gimple_stmt_iterator i;
7940
7941           for (i = gsi_start (stmts); !gsi_end_p (i); gsi_next (&i))
7942             mark_symbols_for_renaming (gsi_stmt (i));
7943         }
7944
7945       if (before)
7946         gsi_insert_seq_before (gsi, stmts, m);
7947       else
7948         gsi_insert_seq_after (gsi, stmts, m);
7949     }
7950
7951   return expr;
7952 }
7953
7954 #include "gt-gimplify.h"