OSDN Git Service

* gcc.c (getenv_spec_function): New function.
[pf3gnuchains/gcc-fork.git] / gcc / cgraphunit.c
1 /* Callgraph based interprocedural optimizations.
2    Copyright (C) 2003, 2004, 2005, 2006 Free Software Foundation, Inc.
3    Contributed by Jan Hubicka
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 2, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING.  If not, write to the Free
19 Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
20 02110-1301, USA.  */
21
22 /* This module implements main driver of compilation process as well as
23    few basic interprocedural optimizers.
24
25    The main scope of this file is to act as an interface in between
26    tree based frontends and the backend (and middle end)
27
28    The front-end is supposed to use following functionality:
29
30     - cgraph_finalize_function
31
32       This function is called once front-end has parsed whole body of function
33       and it is certain that the function body nor the declaration will change.
34
35       (There is one exception needed for implementing GCC extern inline
36         function.)
37
38     - varpool_finalize_variable
39
40       This function has same behavior as the above but is used for static
41       variables.
42
43     - cgraph_finalize_compilation_unit
44
45       This function is called once (source level) compilation unit is finalized
46       and it will no longer change.
47
48       In the unit-at-a-time the call-graph construction and local function
49       analysis takes place here.  Bodies of unreachable functions are released
50       to conserve memory usage.
51
52       The function can be called multiple times when multiple source level
53       compilation units are combined (such as in C frontend)
54
55     - cgraph_optimize
56
57       In this unit-at-a-time compilation the intra procedural analysis takes
58       place here.  In particular the static functions whose address is never
59       taken are marked as local.  Backend can then use this information to
60       modify calling conventions, do better inlining or similar optimizations.
61
62     - cgraph_mark_needed_node
63     - varpool_mark_needed_node
64
65       When function or variable is referenced by some hidden way the call-graph
66       data structure must be updated accordingly by this function.
67       There should be little need to call this function and all the references
68       should be made explicit to cgraph code.  At present these functions are
69       used by C++ frontend to explicitly mark the keyed methods.
70
71     - analyze_expr callback
72
73       This function is responsible for lowering tree nodes not understood by
74       generic code into understandable ones or alternatively marking
75       callgraph and varpool nodes referenced by the as needed.
76
77       ??? On the tree-ssa genericizing should take place here and we will avoid
78       need for these hooks (replacing them by genericizing hook)
79
80     - expand_function callback
81
82       This function is used to expand function and pass it into RTL back-end.
83       Front-end should not make any assumptions about when this function can be
84       called.  In particular cgraph_assemble_pending_functions,
85       varpool_assemble_pending_variables, cgraph_finalize_function,
86       varpool_finalize_function, cgraph_optimize can cause arbitrarily
87       previously finalized functions to be expanded.
88
89     We implement two compilation modes.
90
91       - unit-at-a-time:  In this mode analyzing of all functions is deferred
92         to cgraph_finalize_compilation_unit and expansion into cgraph_optimize.
93
94         In cgraph_finalize_compilation_unit the reachable functions are
95         analyzed.  During analysis the call-graph edges from reachable
96         functions are constructed and their destinations are marked as
97         reachable.  References to functions and variables are discovered too
98         and variables found to be needed output to the assembly file.  Via
99         mark_referenced call in assemble_variable functions referenced by
100         static variables are noticed too.
101
102         The intra-procedural information is produced and its existence
103         indicated by global_info_ready.  Once this flag is set it is impossible
104         to change function from !reachable to reachable and thus
105         assemble_variable no longer call mark_referenced.
106
107         Finally the call-graph is topologically sorted and all reachable functions
108         that has not been completely inlined or are not external are output.
109
110         ??? It is possible that reference to function or variable is optimized
111         out.  We can not deal with this nicely because topological order is not
112         suitable for it.  For tree-ssa we may consider another pass doing
113         optimization and re-discovering reachable functions.
114
115         ??? Reorganize code so variables are output very last and only if they
116         really has been referenced by produced code, so we catch more cases
117         where reference has been optimized out.
118
119       - non-unit-at-a-time
120
121         All functions are variables are output as early as possible to conserve
122         memory consumption.  This may or may not result in less memory used but
123         it is still needed for some legacy code that rely on particular ordering
124         of things output from the compiler.
125
126         Varpool data structures are not used and variables are output directly.
127
128         Functions are output early using call of
129         cgraph_assemble_pending_function from cgraph_finalize_function.  The
130         decision on whether function is needed is made more conservative so
131         uninlininable static functions are needed too.  During the call-graph
132         construction the edge destinations are not marked as reachable and it
133         is completely relied upn assemble_variable to mark them.  */
134
135
136 #include "config.h"
137 #include "system.h"
138 #include "coretypes.h"
139 #include "tm.h"
140 #include "tree.h"
141 #include "rtl.h"
142 #include "tree-flow.h"
143 #include "tree-inline.h"
144 #include "langhooks.h"
145 #include "pointer-set.h"
146 #include "toplev.h"
147 #include "flags.h"
148 #include "ggc.h"
149 #include "debug.h"
150 #include "target.h"
151 #include "cgraph.h"
152 #include "diagnostic.h"
153 #include "timevar.h"
154 #include "params.h"
155 #include "fibheap.h"
156 #include "c-common.h"
157 #include "intl.h"
158 #include "function.h"
159 #include "ipa-prop.h"
160 #include "tree-gimple.h"
161 #include "tree-pass.h"
162 #include "output.h"
163
164 static void cgraph_expand_all_functions (void);
165 static void cgraph_mark_functions_to_output (void);
166 static void cgraph_expand_function (struct cgraph_node *);
167 static void cgraph_output_pending_asms (void);
168
169 static FILE *cgraph_dump_file;
170
171 /* Determine if function DECL is needed.  That is, visible to something
172    either outside this translation unit, something magic in the system
173    configury, or (if not doing unit-at-a-time) to something we havn't
174    seen yet.  */
175
176 static bool
177 decide_is_function_needed (struct cgraph_node *node, tree decl)
178 {
179   tree origin;
180   if (MAIN_NAME_P (DECL_NAME (decl))
181       && TREE_PUBLIC (decl))
182     {
183       node->local.externally_visible = true;
184       return true;
185     }
186
187   /* If the user told us it is used, then it must be so.  */
188   if (node->local.externally_visible)
189     return true;
190
191   if (!flag_unit_at_a_time && lookup_attribute ("used", DECL_ATTRIBUTES (decl)))
192     return true;
193
194   /* ??? If the assembler name is set by hand, it is possible to assemble
195      the name later after finalizing the function and the fact is noticed
196      in assemble_name then.  This is arguably a bug.  */
197   if (DECL_ASSEMBLER_NAME_SET_P (decl)
198       && TREE_SYMBOL_REFERENCED (DECL_ASSEMBLER_NAME (decl)))
199     return true;
200
201   /* If we decided it was needed before, but at the time we didn't have
202      the body of the function available, then it's still needed.  We have
203      to go back and re-check its dependencies now.  */
204   if (node->needed)
205     return true;
206
207   /* Externally visible functions must be output.  The exception is
208      COMDAT functions that must be output only when they are needed.
209
210      When not optimizing, also output the static functions. (see
211      PR24561), but don't do so for always_inline functions, functions
212      declared inline and nested functions.  These was optimized out
213      in the original implementation and it is unclear whether we want
214      to change the behavior here.  */
215   if (((TREE_PUBLIC (decl)
216         || (!optimize && !node->local.disregard_inline_limits
217             && !DECL_DECLARED_INLINE_P (decl)
218             && !node->origin))
219       && !flag_whole_program)
220       && !DECL_COMDAT (decl) && !DECL_EXTERNAL (decl))
221     return true;
222
223   /* Constructors and destructors are reachable from the runtime by
224      some mechanism.  */
225   if (DECL_STATIC_CONSTRUCTOR (decl) || DECL_STATIC_DESTRUCTOR (decl))
226     return true;
227
228   if (flag_unit_at_a_time)
229     return false;
230
231   /* If not doing unit at a time, then we'll only defer this function
232      if its marked for inlining.  Otherwise we want to emit it now.  */
233
234   /* "extern inline" functions are never output locally.  */
235   if (DECL_EXTERNAL (decl))
236     return false;
237   /* Nested functions of extern inline function shall not be emit unless
238      we inlined the origin.  */
239   for (origin = decl_function_context (decl); origin;
240        origin = decl_function_context (origin))
241     if (DECL_EXTERNAL (origin))
242       return false;
243   /* We want to emit COMDAT functions only when absolutely necessary.  */
244   if (DECL_COMDAT (decl))
245     return false;
246   if (!DECL_INLINE (decl)
247       || (!node->local.disregard_inline_limits
248           /* When declared inline, defer even the uninlinable functions.
249              This allows them to be eliminated when unused.  */
250           && !DECL_DECLARED_INLINE_P (decl)
251           && (!node->local.inlinable || !cgraph_default_inline_p (node, NULL))))
252     return true;
253
254   return false;
255 }
256
257 /* Process CGRAPH_NEW_FUNCTIONS and perform actions necessary to add these
258    functions into callgraph in a way so they look like ordinary reachable
259    functions inserted into callgraph already at construction time.  */
260
261 bool
262 cgraph_process_new_functions (void)
263 {
264   bool output = false;
265   tree fndecl;
266   struct cgraph_node *node;
267
268   /*  Note that this queue may grow as its being processed, as the new
269       functions may generate new ones.  */
270   while (cgraph_new_nodes)
271     {
272       node = cgraph_new_nodes;
273       fndecl = node->decl;
274       cgraph_new_nodes = cgraph_new_nodes->next_needed;
275       switch (cgraph_state)
276         {
277         case CGRAPH_STATE_CONSTRUCTION:
278           /* At construction time we just need to finalize function and move
279              it into reachable functions list.  */
280
281           node->next_needed = NULL;
282           node->needed = node->reachable = false;
283           cgraph_finalize_function (fndecl, false);
284           cgraph_mark_reachable_node (node);
285           output = true;
286           break;
287
288         case CGRAPH_STATE_IPA:
289         case CGRAPH_STATE_IPA_SSA:
290           /* When IPA optimization already started, do all essential
291              transformations that has been already performed on the whole
292              cgraph but not on this function.  */
293
294           tree_register_cfg_hooks ();
295           if (!node->analyzed)
296             cgraph_analyze_function (node);
297           push_cfun (DECL_STRUCT_FUNCTION (fndecl));
298           current_function_decl = fndecl;
299           node->local.inlinable = tree_inlinable_function_p (fndecl);
300           node->local.self_insns = estimate_num_insns (fndecl,
301                                                        &eni_inlining_weights);
302           node->local.disregard_inline_limits
303             = lang_hooks.tree_inlining.disregard_inline_limits (fndecl);
304           /* Inlining characteristics are maintained by the
305              cgraph_mark_inline.  */
306           node->global.insns = node->local.self_insns;
307           if (flag_really_no_inline && !node->local.disregard_inline_limits)
308              node->local.inlinable = 0;
309           if ((cgraph_state == CGRAPH_STATE_IPA_SSA
310               && !gimple_in_ssa_p (DECL_STRUCT_FUNCTION (fndecl)))
311               /* When not optimizing, be sure we run early local passes anyway
312                  to expand OMP.  */
313               || !optimize)
314             execute_pass_list (pass_early_local_passes.sub);
315           free_dominance_info (CDI_POST_DOMINATORS);
316           free_dominance_info (CDI_DOMINATORS);
317           pop_cfun ();
318           current_function_decl = NULL;
319           break;
320
321         case CGRAPH_STATE_EXPANSION:
322           /* Functions created during expansion shall be compiled
323              directly.  */
324           node->output = 0;
325           cgraph_expand_function (node);
326           break;
327
328         default:
329           gcc_unreachable ();
330           break;
331         }
332     }
333   return output;
334 }
335
336 /* When not doing unit-at-a-time, output all functions enqueued.
337    Return true when such a functions were found.  */
338
339 static bool
340 cgraph_assemble_pending_functions (void)
341 {
342   bool output = false;
343
344   if (flag_unit_at_a_time)
345     return false;
346
347   cgraph_output_pending_asms ();
348
349   while (cgraph_nodes_queue)
350     {
351       struct cgraph_node *n = cgraph_nodes_queue;
352
353       cgraph_nodes_queue = cgraph_nodes_queue->next_needed;
354       n->next_needed = NULL;
355       if (!n->global.inlined_to
356           && !n->alias
357           && !DECL_EXTERNAL (n->decl))
358         {
359           cgraph_expand_function (n);
360           output = true;
361         }
362       output |= cgraph_process_new_functions ();
363     }
364
365   return output;
366 }
367
368
369 /* As an GCC extension we allow redefinition of the function.  The
370    semantics when both copies of bodies differ is not well defined.
371    We replace the old body with new body so in unit at a time mode
372    we always use new body, while in normal mode we may end up with
373    old body inlined into some functions and new body expanded and
374    inlined in others.
375
376    ??? It may make more sense to use one body for inlining and other
377    body for expanding the function but this is difficult to do.  */
378
379 static void
380 cgraph_reset_node (struct cgraph_node *node)
381 {
382   /* If node->output is set, then this is a unit-at-a-time compilation
383      and we have already begun whole-unit analysis.  This is *not*
384      testing for whether we've already emitted the function.  That
385      case can be sort-of legitimately seen with real function
386      redefinition errors.  I would argue that the front end should
387      never present us with such a case, but don't enforce that for now.  */
388   gcc_assert (!node->output);
389
390   /* Reset our data structures so we can analyze the function again.  */
391   memset (&node->local, 0, sizeof (node->local));
392   memset (&node->global, 0, sizeof (node->global));
393   memset (&node->rtl, 0, sizeof (node->rtl));
394   node->analyzed = false;
395   node->local.redefined_extern_inline = true;
396   node->local.finalized = false;
397
398   if (!flag_unit_at_a_time)
399     {
400       struct cgraph_node *n, *next;
401
402       for (n = cgraph_nodes; n; n = next)
403         {
404           next = n->next;
405           if (n->global.inlined_to == node)
406             cgraph_remove_node (n);
407         }
408     }
409
410   cgraph_node_remove_callees (node);
411
412   /* We may need to re-queue the node for assembling in case
413      we already proceeded it and ignored as not needed.  */
414   if (node->reachable && !flag_unit_at_a_time)
415     {
416       struct cgraph_node *n;
417
418       for (n = cgraph_nodes_queue; n; n = n->next_needed)
419         if (n == node)
420           break;
421       if (!n)
422         node->reachable = 0;
423     }
424 }
425
426 static void
427 cgraph_lower_function (struct cgraph_node *node)
428 {
429   if (node->lowered)
430     return;
431   tree_lowering_passes (node->decl);
432   node->lowered = true;
433 }
434
435 /* DECL has been parsed.  Take it, queue it, compile it at the whim of the
436    logic in effect.  If NESTED is true, then our caller cannot stand to have
437    the garbage collector run at the moment.  We would need to either create
438    a new GC context, or just not compile right now.  */
439
440 void
441 cgraph_finalize_function (tree decl, bool nested)
442 {
443   struct cgraph_node *node = cgraph_node (decl);
444
445   if (node->local.finalized)
446     cgraph_reset_node (node);
447
448   node->pid = cgraph_max_pid ++;
449   notice_global_symbol (decl);
450   node->decl = decl;
451   node->local.finalized = true;
452   node->lowered = DECL_STRUCT_FUNCTION (decl)->cfg != NULL;
453   if (node->nested)
454     lower_nested_functions (decl);
455   gcc_assert (!node->nested);
456
457   /* If not unit at a time, then we need to create the call graph
458      now, so that called functions can be queued and emitted now.  */
459   if (!flag_unit_at_a_time)
460     cgraph_analyze_function (node);
461
462   if (decide_is_function_needed (node, decl))
463     cgraph_mark_needed_node (node);
464
465   /* Since we reclaim unreachable nodes at the end of every language
466      level unit, we need to be conservative about possible entry points
467      there.  */
468   if ((TREE_PUBLIC (decl) && !DECL_COMDAT (decl) && !DECL_EXTERNAL (decl)))
469     cgraph_mark_reachable_node (node);
470
471   /* If not unit at a time, go ahead and emit everything we've found
472      to be reachable at this time.  */
473   if (!nested)
474     {
475       if (!cgraph_assemble_pending_functions ())
476         ggc_collect ();
477     }
478
479   /* If we've not yet emitted decl, tell the debug info about it.  */
480   if (!TREE_ASM_WRITTEN (decl))
481     (*debug_hooks->deferred_inline_function) (decl);
482
483   /* Possibly warn about unused parameters.  */
484   if (warn_unused_parameter)
485     do_warn_unused_parameter (decl);
486 }
487
488 /* Verify cgraph nodes of given cgraph node.  */
489 void
490 verify_cgraph_node (struct cgraph_node *node)
491 {
492   struct cgraph_edge *e;
493   struct cgraph_node *main_clone;
494   struct function *this_cfun = DECL_STRUCT_FUNCTION (node->decl);
495   basic_block this_block;
496   block_stmt_iterator bsi;
497   bool error_found = false;
498
499   if (errorcount || sorrycount)
500     return;
501
502   timevar_push (TV_CGRAPH_VERIFY);
503   for (e = node->callees; e; e = e->next_callee)
504     if (e->aux)
505       {
506         error ("aux field set for edge %s->%s",
507                cgraph_node_name (e->caller), cgraph_node_name (e->callee));
508         error_found = true;
509       }
510   if (node->count < 0)
511     {
512       error ("Execution count is negative");
513       error_found = true;
514     }
515   for (e = node->callers; e; e = e->next_caller)
516     {
517       if (e->count < 0)
518         {
519           error ("caller edge count is negative");
520           error_found = true;
521         }
522       if (e->frequency < 0)
523         {
524           error ("caller edge frequency is negative");
525           error_found = true;
526         }
527       if (e->frequency > CGRAPH_FREQ_MAX)
528         {
529           error ("caller edge frequency is too large");
530           error_found = true;
531         }
532       if (!e->inline_failed)
533         {
534           if (node->global.inlined_to
535               != (e->caller->global.inlined_to
536                   ? e->caller->global.inlined_to : e->caller))
537             {
538               error ("inlined_to pointer is wrong");
539               error_found = true;
540             }
541           if (node->callers->next_caller)
542             {
543               error ("multiple inline callers");
544               error_found = true;
545             }
546         }
547       else
548         if (node->global.inlined_to)
549           {
550             error ("inlined_to pointer set for noninline callers");
551             error_found = true;
552           }
553     }
554   if (!node->callers && node->global.inlined_to)
555     {
556       error ("inlined_to pointer is set but no predecessors found");
557       error_found = true;
558     }
559   if (node->global.inlined_to == node)
560     {
561       error ("inlined_to pointer refers to itself");
562       error_found = true;
563     }
564
565   for (main_clone = cgraph_node (node->decl); main_clone;
566        main_clone = main_clone->next_clone)
567     if (main_clone == node)
568       break;
569   if (!cgraph_node (node->decl))
570     {
571       error ("node not found in cgraph_hash");
572       error_found = true;
573     }
574
575   if (node->analyzed
576       && DECL_SAVED_TREE (node->decl) && !TREE_ASM_WRITTEN (node->decl)
577       && (!DECL_EXTERNAL (node->decl) || node->global.inlined_to))
578     {
579       if (this_cfun->cfg)
580         {
581           /* The nodes we're interested in are never shared, so walk
582              the tree ignoring duplicates.  */
583           struct pointer_set_t *visited_nodes = pointer_set_create ();
584           /* Reach the trees by walking over the CFG, and note the
585              enclosing basic-blocks in the call edges.  */
586           FOR_EACH_BB_FN (this_block, this_cfun)
587             for (bsi = bsi_start (this_block); !bsi_end_p (bsi); bsi_next (&bsi))
588               {
589                 tree stmt = bsi_stmt (bsi);
590                 tree call = get_call_expr_in (stmt);
591                 tree decl;
592                 if (call && (decl = get_callee_fndecl (call)))
593                   {
594                     struct cgraph_edge *e = cgraph_edge (node, stmt);
595                     if (e)
596                       {
597                         if (e->aux)
598                           {
599                             error ("shared call_stmt:");
600                             debug_generic_stmt (stmt);
601                             error_found = true;
602                           }
603                         if (e->callee->decl != cgraph_node (decl)->decl
604                             && e->inline_failed)
605                           {
606                             error ("edge points to wrong declaration:");
607                             debug_tree (e->callee->decl);
608                             fprintf (stderr," Instead of:");
609                             debug_tree (decl);
610                           }
611                         e->aux = (void *)1;
612                       }
613                     else
614                       {
615                         error ("missing callgraph edge for call stmt:");
616                         debug_generic_stmt (stmt);
617                         error_found = true;
618                       }
619                   }
620               }
621           pointer_set_destroy (visited_nodes);
622         }
623       else
624         /* No CFG available?!  */
625         gcc_unreachable ();
626
627       for (e = node->callees; e; e = e->next_callee)
628         {
629           if (!e->aux)
630             {
631               error ("edge %s->%s has no corresponding call_stmt",
632                      cgraph_node_name (e->caller),
633                      cgraph_node_name (e->callee));
634               debug_generic_stmt (e->call_stmt);
635               error_found = true;
636             }
637           e->aux = 0;
638         }
639     }
640   if (error_found)
641     {
642       dump_cgraph_node (stderr, node);
643       internal_error ("verify_cgraph_node failed");
644     }
645   timevar_pop (TV_CGRAPH_VERIFY);
646 }
647
648 /* Verify whole cgraph structure.  */
649 void
650 verify_cgraph (void)
651 {
652   struct cgraph_node *node;
653
654   if (sorrycount || errorcount)
655     return;
656
657   for (node = cgraph_nodes; node; node = node->next)
658     verify_cgraph_node (node);
659 }
660
661 /* Output all asm statements we have stored up to be output.  */
662
663 static void
664 cgraph_output_pending_asms (void)
665 {
666   struct cgraph_asm_node *can;
667
668   if (errorcount || sorrycount)
669     return;
670
671   for (can = cgraph_asm_nodes; can; can = can->next)
672     assemble_asm (can->asm_str);
673   cgraph_asm_nodes = NULL;
674 }
675
676 /* Analyze the function scheduled to be output.  */
677 void
678 cgraph_analyze_function (struct cgraph_node *node)
679 {
680   tree decl = node->decl;
681
682   current_function_decl = decl;
683   push_cfun (DECL_STRUCT_FUNCTION (decl));
684   cgraph_lower_function (node);
685
686   node->local.estimated_self_stack_size = estimated_stack_frame_size ();
687   node->global.estimated_stack_size = node->local.estimated_self_stack_size;
688   node->global.stack_frame_offset = 0;
689   node->local.inlinable = tree_inlinable_function_p (decl);
690   if (!flag_unit_at_a_time)
691     node->local.self_insns = estimate_num_insns (decl, &eni_inlining_weights);
692   if (node->local.inlinable)
693     node->local.disregard_inline_limits
694       = lang_hooks.tree_inlining.disregard_inline_limits (decl);
695   if (flag_really_no_inline && !node->local.disregard_inline_limits)
696     node->local.inlinable = 0;
697   /* Inlining characteristics are maintained by the cgraph_mark_inline.  */
698   node->global.insns = node->local.self_insns;
699   if (!flag_unit_at_a_time)
700     {
701       bitmap_obstack_initialize (NULL);
702       tree_register_cfg_hooks ();
703       execute_pass_list (pass_early_local_passes.sub);
704       free_dominance_info (CDI_POST_DOMINATORS);
705       free_dominance_info (CDI_DOMINATORS);
706       bitmap_obstack_release (NULL);
707     }
708
709   node->analyzed = true;
710   pop_cfun ();
711   current_function_decl = NULL;
712 }
713
714 /* Look for externally_visible and used attributes and mark cgraph nodes
715    accordingly.
716
717    We cannot mark the nodes at the point the attributes are processed (in
718    handle_*_attribute) because the copy of the declarations available at that
719    point may not be canonical.  For example, in:
720
721     void f();
722     void f() __attribute__((used));
723
724    the declaration we see in handle_used_attribute will be the second
725    declaration -- but the front end will subsequently merge that declaration
726    with the original declaration and discard the second declaration.
727
728    Furthermore, we can't mark these nodes in cgraph_finalize_function because:
729
730     void f() {}
731     void f() __attribute__((externally_visible));
732
733    is valid.
734
735    So, we walk the nodes at the end of the translation unit, applying the
736    attributes at that point.  */
737
738 static void
739 process_function_and_variable_attributes (struct cgraph_node *first,
740                                           struct varpool_node *first_var)
741 {
742   struct cgraph_node *node;
743   struct varpool_node *vnode;
744
745   for (node = cgraph_nodes; node != first; node = node->next)
746     {
747       tree decl = node->decl;
748       if (lookup_attribute ("used", DECL_ATTRIBUTES (decl)))
749         {
750           mark_decl_referenced (decl);
751           if (node->local.finalized)
752              cgraph_mark_needed_node (node);
753         }
754       if (lookup_attribute ("externally_visible", DECL_ATTRIBUTES (decl)))
755         {
756           if (! TREE_PUBLIC (node->decl))
757             warning (OPT_Wattributes,
758                      "%J%<externally_visible%> attribute have effect only on public objects",
759                      node->decl);
760           else
761             {
762               if (node->local.finalized)
763                 cgraph_mark_needed_node (node);
764               node->local.externally_visible = true;
765             }
766         }
767     }
768   for (vnode = varpool_nodes; vnode != first_var; vnode = vnode->next)
769     {
770       tree decl = vnode->decl;
771       if (lookup_attribute ("used", DECL_ATTRIBUTES (decl)))
772         {
773           mark_decl_referenced (decl);
774           if (vnode->finalized)
775             varpool_mark_needed_node (vnode);
776         }
777       if (lookup_attribute ("externally_visible", DECL_ATTRIBUTES (decl)))
778         {
779           if (! TREE_PUBLIC (vnode->decl))
780             warning (OPT_Wattributes,
781                      "%J%<externally_visible%> attribute have effect only on public objects",
782                      vnode->decl);
783           else
784             {
785               if (vnode->finalized)
786                 varpool_mark_needed_node (vnode);
787               vnode->externally_visible = true;
788             }
789         }
790     }
791 }
792
793 /* Process CGRAPH_NODES_NEEDED queue, analyze each function (and transitively
794    each reachable functions) and build cgraph.
795    The function can be called multiple times after inserting new nodes
796    into beginning of queue.  Just the new part of queue is re-scanned then.  */
797
798 static void
799 cgraph_analyze_functions (void)
800 {
801   /* Keep track of already processed nodes when called multiple times for
802      intermodule optimization.  */
803   static struct cgraph_node *first_analyzed;
804   struct cgraph_node *first_processed = first_analyzed;
805   static struct varpool_node *first_analyzed_var;
806   struct cgraph_node *node, *next;
807
808   process_function_and_variable_attributes (first_processed,
809                                             first_analyzed_var);
810   first_processed = cgraph_nodes;
811   first_analyzed_var = varpool_nodes;
812   varpool_analyze_pending_decls ();
813   if (cgraph_dump_file)
814     {
815       fprintf (cgraph_dump_file, "Initial entry points:");
816       for (node = cgraph_nodes; node != first_analyzed; node = node->next)
817         if (node->needed && DECL_SAVED_TREE (node->decl))
818           fprintf (cgraph_dump_file, " %s", cgraph_node_name (node));
819       fprintf (cgraph_dump_file, "\n");
820     }
821   cgraph_process_new_functions ();
822
823   /* Propagate reachability flag and lower representation of all reachable
824      functions.  In the future, lowering will introduce new functions and
825      new entry points on the way (by template instantiation and virtual
826      method table generation for instance).  */
827   while (cgraph_nodes_queue)
828     {
829       struct cgraph_edge *edge;
830       tree decl = cgraph_nodes_queue->decl;
831
832       node = cgraph_nodes_queue;
833       cgraph_nodes_queue = cgraph_nodes_queue->next_needed;
834       node->next_needed = NULL;
835
836       /* ??? It is possible to create extern inline function and later using
837          weak alias attribute to kill its body. See
838          gcc.c-torture/compile/20011119-1.c  */
839       if (!DECL_SAVED_TREE (decl))
840         {
841           cgraph_reset_node (node);
842           continue;
843         }
844
845       gcc_assert (!node->analyzed && node->reachable);
846       gcc_assert (DECL_SAVED_TREE (decl));
847
848       cgraph_analyze_function (node);
849
850       for (edge = node->callees; edge; edge = edge->next_callee)
851         if (!edge->callee->reachable)
852           cgraph_mark_reachable_node (edge->callee);
853
854       /* We finalize local static variables during constructing callgraph
855          edges.  Process their attributes too.  */
856       process_function_and_variable_attributes (first_processed,
857                                                 first_analyzed_var);
858       first_processed = cgraph_nodes;
859       first_analyzed_var = varpool_nodes;
860       varpool_analyze_pending_decls ();
861       cgraph_process_new_functions ();
862     }
863
864   /* Collect entry points to the unit.  */
865   if (cgraph_dump_file)
866     {
867       fprintf (cgraph_dump_file, "Unit entry points:");
868       for (node = cgraph_nodes; node != first_analyzed; node = node->next)
869         if (node->needed && DECL_SAVED_TREE (node->decl))
870           fprintf (cgraph_dump_file, " %s", cgraph_node_name (node));
871       fprintf (cgraph_dump_file, "\n\nInitial ");
872       dump_cgraph (cgraph_dump_file);
873     }
874
875   if (cgraph_dump_file)
876     fprintf (cgraph_dump_file, "\nReclaiming functions:");
877
878   for (node = cgraph_nodes; node != first_analyzed; node = next)
879     {
880       tree decl = node->decl;
881       next = node->next;
882
883       if (node->local.finalized && !DECL_SAVED_TREE (decl))
884         cgraph_reset_node (node);
885
886       if (!node->reachable && DECL_SAVED_TREE (decl))
887         {
888           if (cgraph_dump_file)
889             fprintf (cgraph_dump_file, " %s", cgraph_node_name (node));
890           cgraph_remove_node (node);
891           continue;
892         }
893       else
894         node->next_needed = NULL;
895       gcc_assert (!node->local.finalized || DECL_SAVED_TREE (decl));
896       gcc_assert (node->analyzed == node->local.finalized);
897     }
898   if (cgraph_dump_file)
899     {
900       fprintf (cgraph_dump_file, "\n\nReclaimed ");
901       dump_cgraph (cgraph_dump_file);
902     }
903   first_analyzed = cgraph_nodes;
904   ggc_collect ();
905 }
906
907 /* Analyze the whole compilation unit once it is parsed completely.  */
908
909 void
910 cgraph_finalize_compilation_unit (void)
911 {
912   if (errorcount || sorrycount)
913     return;
914
915   finish_aliases_1 ();
916
917   if (!flag_unit_at_a_time)
918     {
919       cgraph_output_pending_asms ();
920       cgraph_assemble_pending_functions ();
921       varpool_output_debug_info ();
922       return;
923     }
924
925   if (!quiet_flag)
926     {
927       fprintf (stderr, "\nAnalyzing compilation unit\n");
928       fflush (stderr);
929     }
930
931   timevar_push (TV_CGRAPH);
932   cgraph_analyze_functions ();
933   timevar_pop (TV_CGRAPH);
934 }
935 /* Figure out what functions we want to assemble.  */
936
937 static void
938 cgraph_mark_functions_to_output (void)
939 {
940   struct cgraph_node *node;
941
942   for (node = cgraph_nodes; node; node = node->next)
943     {
944       tree decl = node->decl;
945       struct cgraph_edge *e;
946
947       gcc_assert (!node->output);
948
949       for (e = node->callers; e; e = e->next_caller)
950         if (e->inline_failed)
951           break;
952
953       /* We need to output all local functions that are used and not
954          always inlined, as well as those that are reachable from
955          outside the current compilation unit.  */
956       if (DECL_SAVED_TREE (decl)
957           && !node->global.inlined_to
958           && (node->needed
959               || (e && node->reachable))
960           && !TREE_ASM_WRITTEN (decl)
961           && !DECL_EXTERNAL (decl))
962         node->output = 1;
963       else
964         {
965           /* We should've reclaimed all functions that are not needed.  */
966 #ifdef ENABLE_CHECKING
967           if (!node->global.inlined_to && DECL_SAVED_TREE (decl)
968               && !DECL_EXTERNAL (decl))
969             {
970               dump_cgraph_node (stderr, node);
971               internal_error ("failed to reclaim unneeded function");
972             }
973 #endif
974           gcc_assert (node->global.inlined_to || !DECL_SAVED_TREE (decl)
975                       || DECL_EXTERNAL (decl));
976
977         }
978
979     }
980 }
981
982 /* Expand function specified by NODE.  */
983
984 static void
985 cgraph_expand_function (struct cgraph_node *node)
986 {
987   enum debug_info_type save_write_symbols = NO_DEBUG;
988   const struct gcc_debug_hooks *save_debug_hooks = NULL;
989   tree decl = node->decl;
990
991   /* We ought to not compile any inline clones.  */
992   gcc_assert (!node->global.inlined_to);
993
994   if (flag_unit_at_a_time)
995     announce_function (decl);
996
997   gcc_assert (node->lowered);
998
999   if (DECL_IGNORED_P (decl))
1000     {
1001       save_write_symbols = write_symbols;
1002       write_symbols = NO_DEBUG;
1003       save_debug_hooks = debug_hooks;
1004       debug_hooks = &do_nothing_debug_hooks;
1005     }
1006
1007   /* Generate RTL for the body of DECL.  */
1008   lang_hooks.callgraph.expand_function (decl);
1009
1010   /* Make sure that BE didn't give up on compiling.  */
1011   /* ??? Can happen with nested function of extern inline.  */
1012   gcc_assert (TREE_ASM_WRITTEN (node->decl));
1013
1014   if (DECL_IGNORED_P (decl))
1015     {
1016       write_symbols = save_write_symbols;
1017       debug_hooks = save_debug_hooks;
1018     }
1019
1020   current_function_decl = NULL;
1021   if (!cgraph_preserve_function_body_p (node->decl))
1022     {
1023       cgraph_release_function_body (node);
1024       /* Eliminate all call edges.  This is important so the call_expr no longer
1025          points to the dead function body.  */
1026       cgraph_node_remove_callees (node);
1027     }
1028
1029   cgraph_function_flags_ready = true;
1030 }
1031
1032 /* Return true when CALLER_DECL should be inlined into CALLEE_DECL.  */
1033
1034 bool
1035 cgraph_inline_p (struct cgraph_edge *e, const char **reason)
1036 {
1037   *reason = e->inline_failed;
1038   return !e->inline_failed;
1039 }
1040
1041
1042
1043 /* Expand all functions that must be output.
1044
1045    Attempt to topologically sort the nodes so function is output when
1046    all called functions are already assembled to allow data to be
1047    propagated across the callgraph.  Use a stack to get smaller distance
1048    between a function and its callees (later we may choose to use a more
1049    sophisticated algorithm for function reordering; we will likely want
1050    to use subsections to make the output functions appear in top-down
1051    order).  */
1052
1053 static void
1054 cgraph_expand_all_functions (void)
1055 {
1056   struct cgraph_node *node;
1057   struct cgraph_node **order = XCNEWVEC (struct cgraph_node *, cgraph_n_nodes);
1058   int order_pos = 0, new_order_pos = 0;
1059   int i;
1060
1061   order_pos = cgraph_postorder (order);
1062   gcc_assert (order_pos == cgraph_n_nodes);
1063
1064   /* Garbage collector may remove inline clones we eliminate during
1065      optimization.  So we must be sure to not reference them.  */
1066   for (i = 0; i < order_pos; i++)
1067     if (order[i]->output)
1068       order[new_order_pos++] = order[i];
1069
1070   for (i = new_order_pos - 1; i >= 0; i--)
1071     {
1072       node = order[i];
1073       if (node->output)
1074         {
1075           gcc_assert (node->reachable);
1076           node->output = 0;
1077           cgraph_expand_function (node);
1078         }
1079     }
1080   cgraph_process_new_functions ();
1081
1082   free (order);
1083
1084 }
1085
1086 /* This is used to sort the node types by the cgraph order number.  */
1087
1088 struct cgraph_order_sort
1089 {
1090   enum { ORDER_UNDEFINED = 0, ORDER_FUNCTION, ORDER_VAR, ORDER_ASM } kind;
1091   union
1092   {
1093     struct cgraph_node *f;
1094     struct varpool_node *v;
1095     struct cgraph_asm_node *a;
1096   } u;
1097 };
1098
1099 /* Output all functions, variables, and asm statements in the order
1100    according to their order fields, which is the order in which they
1101    appeared in the file.  This implements -fno-toplevel-reorder.  In
1102    this mode we may output functions and variables which don't really
1103    need to be output.  */
1104
1105 static void
1106 cgraph_output_in_order (void)
1107 {
1108   int max;
1109   size_t size;
1110   struct cgraph_order_sort *nodes;
1111   int i;
1112   struct cgraph_node *pf;
1113   struct varpool_node *pv;
1114   struct cgraph_asm_node *pa;
1115
1116   max = cgraph_order;
1117   size = max * sizeof (struct cgraph_order_sort);
1118   nodes = (struct cgraph_order_sort *) alloca (size);
1119   memset (nodes, 0, size);
1120
1121   varpool_analyze_pending_decls ();
1122
1123   for (pf = cgraph_nodes; pf; pf = pf->next)
1124     {
1125       if (pf->output)
1126         {
1127           i = pf->order;
1128           gcc_assert (nodes[i].kind == ORDER_UNDEFINED);
1129           nodes[i].kind = ORDER_FUNCTION;
1130           nodes[i].u.f = pf;
1131         }
1132     }
1133
1134   for (pv = varpool_nodes_queue; pv; pv = pv->next_needed)
1135     {
1136       i = pv->order;
1137       gcc_assert (nodes[i].kind == ORDER_UNDEFINED);
1138       nodes[i].kind = ORDER_VAR;
1139       nodes[i].u.v = pv;
1140     }
1141
1142   for (pa = cgraph_asm_nodes; pa; pa = pa->next)
1143     {
1144       i = pa->order;
1145       gcc_assert (nodes[i].kind == ORDER_UNDEFINED);
1146       nodes[i].kind = ORDER_ASM;
1147       nodes[i].u.a = pa;
1148     }
1149
1150   for (i = 0; i < max; ++i)
1151     {
1152       switch (nodes[i].kind)
1153         {
1154         case ORDER_FUNCTION:
1155           nodes[i].u.f->output = 0;
1156           cgraph_expand_function (nodes[i].u.f);
1157           break;
1158
1159         case ORDER_VAR:
1160           varpool_assemble_decl (nodes[i].u.v);
1161           break;
1162
1163         case ORDER_ASM:
1164           assemble_asm (nodes[i].u.a->asm_str);
1165           break;
1166
1167         case ORDER_UNDEFINED:
1168           break;
1169
1170         default:
1171           gcc_unreachable ();
1172         }
1173     }
1174
1175   cgraph_asm_nodes = NULL;
1176 }
1177
1178 /* Return true when function body of DECL still needs to be kept around
1179    for later re-use.  */
1180 bool
1181 cgraph_preserve_function_body_p (tree decl)
1182 {
1183   struct cgraph_node *node;
1184   if (!cgraph_global_info_ready)
1185     return (flag_really_no_inline
1186             ? lang_hooks.tree_inlining.disregard_inline_limits (decl)
1187             : DECL_INLINE (decl));
1188   /* Look if there is any clone around.  */
1189   for (node = cgraph_node (decl); node; node = node->next_clone)
1190     if (node->global.inlined_to)
1191       return true;
1192   return false;
1193 }
1194
1195 static void
1196 ipa_passes (void)
1197 {
1198   cfun = NULL;
1199   current_function_decl = NULL;
1200   tree_register_cfg_hooks ();
1201   bitmap_obstack_initialize (NULL);
1202   execute_ipa_pass_list (all_ipa_passes);
1203   bitmap_obstack_release (NULL);
1204 }
1205
1206 /* Perform simple optimizations based on callgraph.  */
1207
1208 void
1209 cgraph_optimize (void)
1210 {
1211   if (errorcount || sorrycount)
1212     return;
1213
1214 #ifdef ENABLE_CHECKING
1215   verify_cgraph ();
1216 #endif
1217   if (!flag_unit_at_a_time)
1218     {
1219       cgraph_assemble_pending_functions ();
1220       cgraph_process_new_functions ();
1221       cgraph_state = CGRAPH_STATE_FINISHED;
1222       cgraph_output_pending_asms ();
1223       varpool_assemble_pending_decls ();
1224       varpool_output_debug_info ();
1225       return;
1226     }
1227
1228   /* Frontend may output common variables after the unit has been finalized.
1229      It is safe to deal with them here as they are always zero initialized.  */
1230   varpool_analyze_pending_decls ();
1231   cgraph_analyze_functions ();
1232
1233   timevar_push (TV_CGRAPHOPT);
1234   if (pre_ipa_mem_report)
1235     {
1236       fprintf (stderr, "Memory consumption before IPA\n");
1237       dump_memory_report (false);
1238     }
1239   if (!quiet_flag)
1240     fprintf (stderr, "Performing interprocedural optimizations\n");
1241   cgraph_state = CGRAPH_STATE_IPA;
1242     
1243   /* Don't run the IPA passes if there was any error or sorry messages.  */
1244   if (errorcount == 0 && sorrycount == 0)
1245     ipa_passes ();
1246
1247   /* This pass remove bodies of extern inline functions we never inlined.
1248      Do this later so other IPA passes see what is really going on.  */
1249   cgraph_remove_unreachable_nodes (false, dump_file);
1250   cgraph_global_info_ready = true;
1251   if (cgraph_dump_file)
1252     {
1253       fprintf (cgraph_dump_file, "Optimized ");
1254       dump_cgraph (cgraph_dump_file);
1255       dump_varpool (cgraph_dump_file);
1256     }
1257   if (post_ipa_mem_report)
1258     {
1259       fprintf (stderr, "Memory consumption after IPA\n");
1260       dump_memory_report (false);
1261     }
1262   timevar_pop (TV_CGRAPHOPT);
1263
1264   /* Output everything.  */
1265   if (!quiet_flag)
1266     fprintf (stderr, "Assembling functions:\n");
1267 #ifdef ENABLE_CHECKING
1268   verify_cgraph ();
1269 #endif
1270
1271   cgraph_mark_functions_to_output ();
1272
1273   cgraph_state = CGRAPH_STATE_EXPANSION;
1274   if (!flag_toplevel_reorder)
1275     cgraph_output_in_order ();
1276   else
1277     {
1278       cgraph_output_pending_asms ();
1279
1280       cgraph_expand_all_functions ();
1281       varpool_remove_unreferenced_decls ();
1282
1283       varpool_assemble_pending_decls ();
1284       varpool_output_debug_info ();
1285     }
1286   cgraph_process_new_functions ();
1287   cgraph_state = CGRAPH_STATE_FINISHED;
1288
1289   if (cgraph_dump_file)
1290     {
1291       fprintf (cgraph_dump_file, "\nFinal ");
1292       dump_cgraph (cgraph_dump_file);
1293     }
1294 #ifdef ENABLE_CHECKING
1295   verify_cgraph ();
1296   /* Double check that all inline clones are gone and that all
1297      function bodies have been released from memory.  */
1298   if (flag_unit_at_a_time
1299       && !(sorrycount || errorcount))
1300     {
1301       struct cgraph_node *node;
1302       bool error_found = false;
1303
1304       for (node = cgraph_nodes; node; node = node->next)
1305         if (node->analyzed
1306             && (node->global.inlined_to
1307                 || DECL_SAVED_TREE (node->decl)))
1308           {
1309             error_found = true;
1310             dump_cgraph_node (stderr, node);
1311           }
1312       if (error_found)
1313         internal_error ("nodes with no released memory found");
1314     }
1315 #endif
1316 }
1317 /* Generate and emit a static constructor or destructor.  WHICH must be
1318    one of 'I' or 'D'.  BODY should be a STATEMENT_LIST containing
1319    GENERIC statements.  */
1320
1321 void
1322 cgraph_build_static_cdtor (char which, tree body, int priority)
1323 {
1324   static int counter = 0;
1325   char which_buf[16];
1326   tree decl, name, resdecl;
1327
1328   sprintf (which_buf, "%c_%d", which, counter++);
1329   name = get_file_function_name (which_buf);
1330
1331   decl = build_decl (FUNCTION_DECL, name,
1332                      build_function_type (void_type_node, void_list_node));
1333   current_function_decl = decl;
1334
1335   resdecl = build_decl (RESULT_DECL, NULL_TREE, void_type_node);
1336   DECL_ARTIFICIAL (resdecl) = 1;
1337   DECL_IGNORED_P (resdecl) = 1;
1338   DECL_RESULT (decl) = resdecl;
1339
1340   allocate_struct_function (decl);
1341
1342   TREE_STATIC (decl) = 1;
1343   TREE_USED (decl) = 1;
1344   DECL_ARTIFICIAL (decl) = 1;
1345   DECL_IGNORED_P (decl) = 1;
1346   DECL_NO_INSTRUMENT_FUNCTION_ENTRY_EXIT (decl) = 1;
1347   DECL_SAVED_TREE (decl) = body;
1348   TREE_PUBLIC (decl) = ! targetm.have_ctors_dtors;
1349   DECL_UNINLINABLE (decl) = 1;
1350
1351   DECL_INITIAL (decl) = make_node (BLOCK);
1352   TREE_USED (DECL_INITIAL (decl)) = 1;
1353
1354   DECL_SOURCE_LOCATION (decl) = input_location;
1355   cfun->function_end_locus = input_location;
1356
1357   switch (which)
1358     {
1359     case 'I':
1360       DECL_STATIC_CONSTRUCTOR (decl) = 1;
1361       break;
1362     case 'D':
1363       DECL_STATIC_DESTRUCTOR (decl) = 1;
1364       break;
1365     default:
1366       gcc_unreachable ();
1367     }
1368
1369   gimplify_function_tree (decl);
1370
1371   cgraph_add_new_function (decl, false);
1372   cgraph_mark_needed_node (cgraph_node (decl));
1373
1374   if (targetm.have_ctors_dtors)
1375     {
1376       void (*fn) (rtx, int);
1377
1378       if (which == 'I')
1379         fn = targetm.asm_out.constructor;
1380       else
1381         fn = targetm.asm_out.destructor;
1382       fn (XEXP (DECL_RTL (decl), 0), priority);
1383     }
1384 }
1385
1386 void
1387 init_cgraph (void)
1388 {
1389   cgraph_dump_file = dump_begin (TDI_cgraph, NULL);
1390 }
1391
1392 /* The edges representing the callers of the NEW_VERSION node were
1393    fixed by cgraph_function_versioning (), now the call_expr in their
1394    respective tree code should be updated to call the NEW_VERSION.  */
1395
1396 static void
1397 update_call_expr (struct cgraph_node *new_version)
1398 {
1399   struct cgraph_edge *e;
1400
1401   gcc_assert (new_version);
1402   for (e = new_version->callers; e; e = e->next_caller)
1403     /* Update the call expr on the edges
1404        to call the new version.  */
1405     TREE_OPERAND (CALL_EXPR_FN (get_call_expr_in (e->call_stmt)), 0) = new_version->decl;
1406 }
1407
1408
1409 /* Create a new cgraph node which is the new version of
1410    OLD_VERSION node.  REDIRECT_CALLERS holds the callers
1411    edges which should be redirected to point to
1412    NEW_VERSION.  ALL the callees edges of OLD_VERSION
1413    are cloned to the new version node.  Return the new
1414    version node.  */
1415
1416 static struct cgraph_node *
1417 cgraph_copy_node_for_versioning (struct cgraph_node *old_version,
1418                                  tree new_decl,
1419                                  VEC(cgraph_edge_p,heap) *redirect_callers)
1420  {
1421    struct cgraph_node *new_version;
1422    struct cgraph_edge *e, *new_e;
1423    struct cgraph_edge *next_callee;
1424    unsigned i;
1425
1426    gcc_assert (old_version);
1427
1428    new_version = cgraph_node (new_decl);
1429
1430    new_version->analyzed = true;
1431    new_version->local = old_version->local;
1432    new_version->global = old_version->global;
1433    new_version->rtl = new_version->rtl;
1434    new_version->reachable = true;
1435    new_version->count = old_version->count;
1436
1437    /* Clone the old node callees.  Recursive calls are
1438       also cloned.  */
1439    for (e = old_version->callees;e; e=e->next_callee)
1440      {
1441        new_e = cgraph_clone_edge (e, new_version, e->call_stmt, 0, e->frequency,
1442                                   e->loop_nest, true);
1443        new_e->count = e->count;
1444      }
1445    /* Fix recursive calls.
1446       If OLD_VERSION has a recursive call after the
1447       previous edge cloning, the new version will have an edge
1448       pointing to the old version, which is wrong;
1449       Redirect it to point to the new version. */
1450    for (e = new_version->callees ; e; e = next_callee)
1451      {
1452        next_callee = e->next_callee;
1453        if (e->callee == old_version)
1454          cgraph_redirect_edge_callee (e, new_version);
1455
1456        if (!next_callee)
1457          break;
1458      }
1459    for (i = 0; VEC_iterate (cgraph_edge_p, redirect_callers, i, e); i++)
1460      {
1461        /* Redirect calls to the old version node to point to its new
1462           version.  */
1463        cgraph_redirect_edge_callee (e, new_version);
1464      }
1465
1466    return new_version;
1467  }
1468
1469  /* Perform function versioning.
1470     Function versioning includes copying of the tree and
1471     a callgraph update (creating a new cgraph node and updating
1472     its callees and callers).
1473
1474     REDIRECT_CALLERS varray includes the edges to be redirected
1475     to the new version.
1476
1477     TREE_MAP is a mapping of tree nodes we want to replace with
1478     new ones (according to results of prior analysis).
1479     OLD_VERSION_NODE is the node that is versioned.
1480     It returns the new version's cgraph node.  */
1481
1482 struct cgraph_node *
1483 cgraph_function_versioning (struct cgraph_node *old_version_node,
1484                             VEC(cgraph_edge_p,heap) *redirect_callers,
1485                             varray_type tree_map)
1486 {
1487   tree old_decl = old_version_node->decl;
1488   struct cgraph_node *new_version_node = NULL;
1489   tree new_decl;
1490
1491   if (!tree_versionable_function_p (old_decl))
1492     return NULL;
1493
1494   /* Make a new FUNCTION_DECL tree node for the
1495      new version. */
1496   new_decl = copy_node (old_decl);
1497
1498   /* Create the new version's call-graph node.
1499      and update the edges of the new node. */
1500   new_version_node =
1501     cgraph_copy_node_for_versioning (old_version_node, new_decl,
1502                                      redirect_callers);
1503
1504   /* Copy the OLD_VERSION_NODE function tree to the new version.  */
1505   tree_function_versioning (old_decl, new_decl, tree_map, false);
1506   /* Update the call_expr on the edges to call the new version node. */
1507   update_call_expr (new_version_node);
1508
1509   /* Update the new version's properties.
1510      Make The new version visible only within this translation unit.
1511      ??? We cannot use COMDAT linkage because there is no
1512      ABI support for this.  */
1513   DECL_EXTERNAL (new_version_node->decl) = 0;
1514   DECL_ONE_ONLY (new_version_node->decl) = 0;
1515   TREE_PUBLIC (new_version_node->decl) = 0;
1516   DECL_COMDAT (new_version_node->decl) = 0;
1517   new_version_node->local.externally_visible = 0;
1518   new_version_node->local.local = 1;
1519   new_version_node->lowered = true;
1520   return new_version_node;
1521 }
1522
1523 /* Produce separate function body for inline clones so the offline copy can be
1524    modified without affecting them.  */
1525 struct cgraph_node *
1526 save_inline_function_body (struct cgraph_node *node)
1527 {
1528   struct cgraph_node *first_clone;
1529
1530   gcc_assert (node == cgraph_node (node->decl));
1531
1532   cgraph_lower_function (node);
1533
1534   /* In non-unit-at-a-time we construct full fledged clone we never output to
1535      assembly file.  This clone is pointed out by inline_decl of original function
1536      and inlining infrastructure knows how to deal with this.  */
1537   if (!flag_unit_at_a_time)
1538     {
1539       struct cgraph_edge *e;
1540
1541       first_clone = cgraph_clone_node (node, node->count, 0, CGRAPH_FREQ_BASE,
1542                                        false);
1543       first_clone->needed = 0;
1544       first_clone->reachable = 1;
1545       /* Recursively clone all bodies.  */
1546       for (e = first_clone->callees; e; e = e->next_callee)
1547         if (!e->inline_failed)
1548           cgraph_clone_inlined_nodes (e, true, false);
1549     }
1550   else
1551     first_clone = node->next_clone;
1552
1553   first_clone->decl = copy_node (node->decl);
1554   node->next_clone = NULL;
1555   if (!flag_unit_at_a_time)
1556     node->inline_decl = first_clone->decl;
1557   first_clone->prev_clone = NULL;
1558   cgraph_insert_node_to_hashtable (first_clone);
1559   gcc_assert (first_clone == cgraph_node (first_clone->decl));
1560
1561   /* Copy the OLD_VERSION_NODE function tree to the new version.  */
1562   tree_function_versioning (node->decl, first_clone->decl, NULL, true);
1563
1564   DECL_EXTERNAL (first_clone->decl) = 0;
1565   DECL_ONE_ONLY (first_clone->decl) = 0;
1566   TREE_PUBLIC (first_clone->decl) = 0;
1567   DECL_COMDAT (first_clone->decl) = 0;
1568
1569   for (node = first_clone->next_clone; node; node = node->next_clone)
1570     node->decl = first_clone->decl;
1571 #ifdef ENABLE_CHECKING
1572   verify_cgraph_node (first_clone);
1573 #endif
1574   return first_clone;
1575 }