OSDN Git Service

PR tree-optimization/46367
[pf3gnuchains/gcc-fork.git] / gcc / ipa-prop.c
1 /* Interprocedural analyses.
2    Copyright (C) 2005, 2007, 2008, 2009, 2010
3    Free Software Foundation, Inc.
4
5 This file is part of GCC.
6
7 GCC is free software; you can redistribute it and/or modify it under
8 the terms of the GNU General Public License as published by the Free
9 Software Foundation; either version 3, or (at your option) any later
10 version.
11
12 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
13 WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
15 for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GCC; see the file COPYING3.  If not see
19 <http://www.gnu.org/licenses/>.  */
20
21 #include "config.h"
22 #include "system.h"
23 #include "coretypes.h"
24 #include "tree.h"
25 #include "langhooks.h"
26 #include "ggc.h"
27 #include "target.h"
28 #include "cgraph.h"
29 #include "ipa-prop.h"
30 #include "tree-flow.h"
31 #include "tree-pass.h"
32 #include "tree-inline.h"
33 #include "gimple.h"
34 #include "flags.h"
35 #include "timevar.h"
36 #include "flags.h"
37 #include "diagnostic.h"
38 #include "tree-pretty-print.h"
39 #include "gimple-pretty-print.h"
40 #include "lto-streamer.h"
41
42
43 /* Intermediate information about a parameter that is only useful during the
44    run of ipa_analyze_node and is not kept afterwards.  */
45
46 struct param_analysis_info
47 {
48   bool modified;
49   bitmap visited_statements;
50 };
51
52 /* Vector where the parameter infos are actually stored. */
53 VEC (ipa_node_params_t, heap) *ipa_node_params_vector;
54 /* Vector where the parameter infos are actually stored. */
55 VEC (ipa_edge_args_t, gc) *ipa_edge_args_vector;
56
57 /* Bitmap with all UIDs of call graph edges that have been already processed
58    by indirect inlining.  */
59 static bitmap iinlining_processed_edges;
60
61 /* Holders of ipa cgraph hooks: */
62 static struct cgraph_edge_hook_list *edge_removal_hook_holder;
63 static struct cgraph_node_hook_list *node_removal_hook_holder;
64 static struct cgraph_2edge_hook_list *edge_duplication_hook_holder;
65 static struct cgraph_2node_hook_list *node_duplication_hook_holder;
66
67 /* Add cgraph NODE described by INFO to the worklist WL regardless of whether
68    it is in one or not.  It should almost never be used directly, as opposed to
69    ipa_push_func_to_list.  */
70
71 void
72 ipa_push_func_to_list_1 (struct ipa_func_list **wl,
73                          struct cgraph_node *node,
74                          struct ipa_node_params *info)
75 {
76   struct ipa_func_list *temp;
77
78   info->node_enqueued = 1;
79   temp = XCNEW (struct ipa_func_list);
80   temp->node = node;
81   temp->next = *wl;
82   *wl = temp;
83 }
84
85 /* Initialize worklist to contain all functions.  */
86
87 struct ipa_func_list *
88 ipa_init_func_list (void)
89 {
90   struct cgraph_node *node;
91   struct ipa_func_list * wl;
92
93   wl = NULL;
94   for (node = cgraph_nodes; node; node = node->next)
95     if (node->analyzed)
96       {
97         struct ipa_node_params *info = IPA_NODE_REF (node);
98         /* Unreachable nodes should have been eliminated before ipcp and
99            inlining.  */
100         gcc_assert (node->needed || node->reachable);
101         ipa_push_func_to_list_1 (&wl, node, info);
102       }
103
104   return wl;
105 }
106
107 /* Remove a function from the worklist WL and return it.  */
108
109 struct cgraph_node *
110 ipa_pop_func_from_list (struct ipa_func_list **wl)
111 {
112   struct ipa_node_params *info;
113   struct ipa_func_list *first;
114   struct cgraph_node *node;
115
116   first = *wl;
117   *wl = (*wl)->next;
118   node = first->node;
119   free (first);
120
121   info = IPA_NODE_REF (node);
122   info->node_enqueued = 0;
123   return node;
124 }
125
126 /* Return index of the formal whose tree is PTREE in function which corresponds
127    to INFO.  */
128
129 static int
130 ipa_get_param_decl_index (struct ipa_node_params *info, tree ptree)
131 {
132   int i, count;
133
134   count = ipa_get_param_count (info);
135   for (i = 0; i < count; i++)
136     if (ipa_get_param(info, i) == ptree)
137       return i;
138
139   return -1;
140 }
141
142 /* Populate the param_decl field in parameter descriptors of INFO that
143    corresponds to NODE.  */
144
145 static void
146 ipa_populate_param_decls (struct cgraph_node *node,
147                           struct ipa_node_params *info)
148 {
149   tree fndecl;
150   tree fnargs;
151   tree parm;
152   int param_num;
153
154   fndecl = node->decl;
155   fnargs = DECL_ARGUMENTS (fndecl);
156   param_num = 0;
157   for (parm = fnargs; parm; parm = DECL_CHAIN (parm))
158     {
159       info->params[param_num].decl = parm;
160       param_num++;
161     }
162 }
163
164 /* Return how many formal parameters FNDECL has.  */
165
166 static inline int
167 count_formal_params_1 (tree fndecl)
168 {
169   tree parm;
170   int count = 0;
171
172   for (parm = DECL_ARGUMENTS (fndecl); parm; parm = DECL_CHAIN (parm))
173     count++;
174
175   return count;
176 }
177
178 /* Count number of formal parameters in NOTE. Store the result to the
179    appropriate field of INFO.  */
180
181 static void
182 ipa_count_formal_params (struct cgraph_node *node,
183                          struct ipa_node_params *info)
184 {
185   int param_num;
186
187   param_num = count_formal_params_1 (node->decl);
188   ipa_set_param_count (info, param_num);
189 }
190
191 /* Initialize the ipa_node_params structure associated with NODE by counting
192    the function parameters, creating the descriptors and populating their
193    param_decls.  */
194
195 void
196 ipa_initialize_node_params (struct cgraph_node *node)
197 {
198   struct ipa_node_params *info = IPA_NODE_REF (node);
199
200   if (!info->params)
201     {
202       ipa_count_formal_params (node, info);
203       info->params = XCNEWVEC (struct ipa_param_descriptor,
204                                     ipa_get_param_count (info));
205       ipa_populate_param_decls (node, info);
206     }
207 }
208
209 /* Count number of arguments callsite CS has and store it in
210    ipa_edge_args structure corresponding to this callsite.  */
211
212 static void
213 ipa_count_arguments (struct cgraph_edge *cs)
214 {
215   gimple stmt;
216   int arg_num;
217
218   stmt = cs->call_stmt;
219   gcc_assert (is_gimple_call (stmt));
220   arg_num = gimple_call_num_args (stmt);
221   if (VEC_length (ipa_edge_args_t, ipa_edge_args_vector)
222       <= (unsigned) cgraph_edge_max_uid)
223     VEC_safe_grow_cleared (ipa_edge_args_t, gc,
224                            ipa_edge_args_vector, cgraph_edge_max_uid + 1);
225   ipa_set_cs_argument_count (IPA_EDGE_REF (cs), arg_num);
226 }
227
228 /* Print the jump functions associated with call graph edge CS to file F.  */
229
230 static void
231 ipa_print_node_jump_functions_for_edge (FILE *f, struct cgraph_edge *cs)
232 {
233   int i, count;
234
235   count = ipa_get_cs_argument_count (IPA_EDGE_REF (cs));
236   for (i = 0; i < count; i++)
237     {
238       struct ipa_jump_func *jump_func;
239       enum jump_func_type type;
240
241       jump_func = ipa_get_ith_jump_func (IPA_EDGE_REF (cs), i);
242       type = jump_func->type;
243
244       fprintf (f, "       param %d: ", i);
245       if (type == IPA_JF_UNKNOWN)
246         fprintf (f, "UNKNOWN\n");
247       else if (type == IPA_JF_KNOWN_TYPE)
248         {
249           tree binfo_type = TREE_TYPE (jump_func->value.base_binfo);
250           fprintf (f, "KNOWN TYPE, type in binfo is: ");
251           print_generic_expr (f, binfo_type, 0);
252           fprintf (f, " (%u)\n", TYPE_UID (binfo_type));
253         }
254       else if (type == IPA_JF_CONST)
255         {
256           tree val = jump_func->value.constant;
257           fprintf (f, "CONST: ");
258           print_generic_expr (f, val, 0);
259           if (TREE_CODE (val) == ADDR_EXPR
260               && TREE_CODE (TREE_OPERAND (val, 0)) == CONST_DECL)
261             {
262               fprintf (f, " -> ");
263               print_generic_expr (f, DECL_INITIAL (TREE_OPERAND (val, 0)),
264                                   0);
265             }
266           fprintf (f, "\n");
267         }
268       else if (type == IPA_JF_CONST_MEMBER_PTR)
269         {
270           fprintf (f, "CONST MEMBER PTR: ");
271           print_generic_expr (f, jump_func->value.member_cst.pfn, 0);
272           fprintf (f, ", ");
273           print_generic_expr (f, jump_func->value.member_cst.delta, 0);
274           fprintf (f, "\n");
275         }
276       else if (type == IPA_JF_PASS_THROUGH)
277         {
278           fprintf (f, "PASS THROUGH: ");
279           fprintf (f, "%d, op %s ",
280                    jump_func->value.pass_through.formal_id,
281                    tree_code_name[(int)
282                                   jump_func->value.pass_through.operation]);
283           if (jump_func->value.pass_through.operation != NOP_EXPR)
284             print_generic_expr (dump_file,
285                                 jump_func->value.pass_through.operand, 0);
286           fprintf (dump_file, "\n");
287         }
288       else if (type == IPA_JF_ANCESTOR)
289         {
290           fprintf (f, "ANCESTOR: ");
291           fprintf (f, "%d, offset "HOST_WIDE_INT_PRINT_DEC", ",
292                    jump_func->value.ancestor.formal_id,
293                    jump_func->value.ancestor.offset);
294           print_generic_expr (f, jump_func->value.ancestor.type, 0);
295           fprintf (dump_file, "\n");
296         }
297     }
298 }
299
300
301 /* Print the jump functions of all arguments on all call graph edges going from
302    NODE to file F.  */
303
304 void
305 ipa_print_node_jump_functions (FILE *f, struct cgraph_node *node)
306 {
307   struct cgraph_edge *cs;
308   int i;
309
310   fprintf (f, "  Jump functions of caller  %s:\n", cgraph_node_name (node));
311   for (cs = node->callees; cs; cs = cs->next_callee)
312     {
313       if (!ipa_edge_args_info_available_for_edge_p (cs))
314         continue;
315
316       fprintf (f, "    callsite  %s/%i -> %s/%i : \n",
317                cgraph_node_name (node), node->uid,
318                cgraph_node_name (cs->callee), cs->callee->uid);
319       ipa_print_node_jump_functions_for_edge (f, cs);
320     }
321
322   for (cs = node->indirect_calls, i = 0; cs; cs = cs->next_callee, i++)
323     {
324       if (!ipa_edge_args_info_available_for_edge_p (cs))
325         continue;
326
327       if (cs->call_stmt)
328         {
329           fprintf (f, "    indirect callsite %d for stmt ", i);
330           print_gimple_stmt (f, cs->call_stmt, 0, TDF_SLIM);
331         }
332       else
333         fprintf (f, "    indirect callsite %d :\n", i);
334       ipa_print_node_jump_functions_for_edge (f, cs);
335
336     }
337 }
338
339 /* Print ipa_jump_func data structures of all nodes in the call graph to F.  */
340
341 void
342 ipa_print_all_jump_functions (FILE *f)
343 {
344   struct cgraph_node *node;
345
346   fprintf (f, "\nJump functions:\n");
347   for (node = cgraph_nodes; node; node = node->next)
348     {
349       ipa_print_node_jump_functions (f, node);
350     }
351 }
352
353 /* Given that an actual argument is an SSA_NAME (given in NAME) and is a result
354    of an assignment statement STMT, try to find out whether NAME can be
355    described by a (possibly polynomial) pass-through jump-function or an
356    ancestor jump function and if so, write the appropriate function into
357    JFUNC */
358
359 static void
360 compute_complex_assign_jump_func (struct ipa_node_params *info,
361                                   struct ipa_jump_func *jfunc,
362                                   gimple stmt, tree name)
363 {
364   HOST_WIDE_INT offset, size, max_size;
365   tree op1, op2, base, type;
366   int index;
367
368   op1 = gimple_assign_rhs1 (stmt);
369   op2 = gimple_assign_rhs2 (stmt);
370
371   if (TREE_CODE (op1) == SSA_NAME
372       && SSA_NAME_IS_DEFAULT_DEF (op1))
373     {
374       index = ipa_get_param_decl_index (info, SSA_NAME_VAR (op1));
375       if (index < 0)
376         return;
377
378       if (op2)
379         {
380           if (!is_gimple_ip_invariant (op2)
381               || (TREE_CODE_CLASS (gimple_expr_code (stmt)) != tcc_comparison
382                   && !useless_type_conversion_p (TREE_TYPE (name),
383                                                  TREE_TYPE (op1))))
384             return;
385
386           jfunc->type = IPA_JF_PASS_THROUGH;
387           jfunc->value.pass_through.formal_id = index;
388           jfunc->value.pass_through.operation = gimple_assign_rhs_code (stmt);
389           jfunc->value.pass_through.operand = op2;
390         }
391       else if (gimple_assign_unary_nop_p (stmt))
392         {
393           jfunc->type = IPA_JF_PASS_THROUGH;
394           jfunc->value.pass_through.formal_id = index;
395           jfunc->value.pass_through.operation = NOP_EXPR;
396         }
397       return;
398     }
399
400   if (TREE_CODE (op1) != ADDR_EXPR)
401     return;
402
403   op1 = TREE_OPERAND (op1, 0);
404   type = TREE_TYPE (op1);
405   if (TREE_CODE (type) != RECORD_TYPE)
406     return;
407   base = get_ref_base_and_extent (op1, &offset, &size, &max_size);
408   if (TREE_CODE (base) != MEM_REF
409       /* If this is a varying address, punt.  */
410       || max_size == -1
411       || max_size != size)
412     return;
413   offset += mem_ref_offset (base).low * BITS_PER_UNIT;
414   base = TREE_OPERAND (base, 0);
415   if (TREE_CODE (base) != SSA_NAME
416       || !SSA_NAME_IS_DEFAULT_DEF (base)
417       || offset < 0)
418     return;
419
420   /* Dynamic types are changed only in constructors and destructors and  */
421   index = ipa_get_param_decl_index (info, SSA_NAME_VAR (base));
422   if (index >= 0)
423     {
424       jfunc->type = IPA_JF_ANCESTOR;
425       jfunc->value.ancestor.formal_id = index;
426       jfunc->value.ancestor.offset = offset;
427       jfunc->value.ancestor.type = type;
428     }
429 }
430
431
432 /* Given that an actual argument is an SSA_NAME that is a result of a phi
433    statement PHI, try to find out whether NAME is in fact a
434    multiple-inheritance typecast from a descendant into an ancestor of a formal
435    parameter and thus can be described by an ancestor jump function and if so,
436    write the appropriate function into JFUNC.
437
438    Essentially we want to match the following pattern:
439
440      if (obj_2(D) != 0B)
441        goto <bb 3>;
442      else
443        goto <bb 4>;
444
445    <bb 3>:
446      iftmp.1_3 = &obj_2(D)->D.1762;
447
448    <bb 4>:
449      # iftmp.1_1 = PHI <iftmp.1_3(3), 0B(2)>
450      D.1879_6 = middleman_1 (iftmp.1_1, i_5(D));
451      return D.1879_6;  */
452
453 static void
454 compute_complex_ancestor_jump_func (struct ipa_node_params *info,
455                                     struct ipa_jump_func *jfunc,
456                                     gimple phi)
457 {
458   HOST_WIDE_INT offset, size, max_size;
459   gimple assign, cond;
460   basic_block phi_bb, assign_bb, cond_bb;
461   tree tmp, parm, expr;
462   int index, i;
463
464   if (gimple_phi_num_args (phi) != 2)
465     return;
466
467   if (integer_zerop (PHI_ARG_DEF (phi, 1)))
468     tmp = PHI_ARG_DEF (phi, 0);
469   else if (integer_zerop (PHI_ARG_DEF (phi, 0)))
470     tmp = PHI_ARG_DEF (phi, 1);
471   else
472     return;
473   if (TREE_CODE (tmp) != SSA_NAME
474       || SSA_NAME_IS_DEFAULT_DEF (tmp)
475       || !POINTER_TYPE_P (TREE_TYPE (tmp))
476       || TREE_CODE (TREE_TYPE (TREE_TYPE (tmp))) != RECORD_TYPE)
477     return;
478
479   assign = SSA_NAME_DEF_STMT (tmp);
480   assign_bb = gimple_bb (assign);
481   if (!single_pred_p (assign_bb)
482       || !gimple_assign_single_p (assign))
483     return;
484   expr = gimple_assign_rhs1 (assign);
485
486   if (TREE_CODE (expr) != ADDR_EXPR)
487     return;
488   expr = TREE_OPERAND (expr, 0);
489   expr = get_ref_base_and_extent (expr, &offset, &size, &max_size);
490
491   if (TREE_CODE (expr) != MEM_REF
492       /* If this is a varying address, punt.  */
493       || max_size == -1
494       || max_size != size)
495     return;
496   offset += mem_ref_offset (expr).low * BITS_PER_UNIT;
497   parm = TREE_OPERAND (expr, 0);
498   if (TREE_CODE (parm) != SSA_NAME
499       || !SSA_NAME_IS_DEFAULT_DEF (parm)
500       || offset < 0)
501     return;
502
503   index = ipa_get_param_decl_index (info, SSA_NAME_VAR (parm));
504   if (index < 0)
505     return;
506
507   cond_bb = single_pred (assign_bb);
508   cond = last_stmt (cond_bb);
509   if (!cond
510       || gimple_code (cond) != GIMPLE_COND
511       || gimple_cond_code (cond) != NE_EXPR
512       || gimple_cond_lhs (cond) != parm
513       || !integer_zerop (gimple_cond_rhs (cond)))
514     return;
515
516
517   phi_bb = gimple_bb (phi);
518   for (i = 0; i < 2; i++)
519     {
520       basic_block pred = EDGE_PRED (phi_bb, i)->src;
521       if (pred != assign_bb && pred != cond_bb)
522         return;
523     }
524
525   jfunc->type = IPA_JF_ANCESTOR;
526   jfunc->value.ancestor.formal_id = index;
527   jfunc->value.ancestor.offset = offset;
528   jfunc->value.ancestor.type = TREE_TYPE (TREE_TYPE (tmp));
529 }
530
531 /* Given OP whch is passed as an actual argument to a called function,
532    determine if it is possible to construct a KNOWN_TYPE jump function for it
533    and if so, create one and store it to JFUNC.  */
534
535 static void
536 compute_known_type_jump_func (tree op, struct ipa_jump_func *jfunc)
537 {
538   HOST_WIDE_INT offset, size, max_size;
539   tree base, binfo;
540
541   if (TREE_CODE (op) != ADDR_EXPR
542       || TREE_CODE (TREE_TYPE (TREE_TYPE (op))) != RECORD_TYPE)
543     return;
544
545   op = TREE_OPERAND (op, 0);
546   base = get_ref_base_and_extent (op, &offset, &size, &max_size);
547   if (!DECL_P (base)
548       || max_size == -1
549       || max_size != size
550       || TREE_CODE (TREE_TYPE (base)) != RECORD_TYPE
551       || is_global_var (base))
552     return;
553
554   binfo = TYPE_BINFO (TREE_TYPE (base));
555   if (!binfo)
556     return;
557   binfo = get_binfo_at_offset (binfo, offset, TREE_TYPE (op));
558   if (binfo)
559     {
560       jfunc->type = IPA_JF_KNOWN_TYPE;
561       jfunc->value.base_binfo = binfo;
562     }
563 }
564
565
566 /* Determine the jump functions of scalar arguments.  Scalar means SSA names
567    and constants of a number of selected types.  INFO is the ipa_node_params
568    structure associated with the caller, FUNCTIONS is a pointer to an array of
569    jump function structures associated with CALL which is the call statement
570    being examined.*/
571
572 static void
573 compute_scalar_jump_functions (struct ipa_node_params *info,
574                                struct ipa_jump_func *functions,
575                                gimple call)
576 {
577   tree arg;
578   unsigned num = 0;
579
580   for (num = 0; num < gimple_call_num_args (call); num++)
581     {
582       arg = gimple_call_arg (call, num);
583
584       if (is_gimple_ip_invariant (arg))
585         {
586           functions[num].type = IPA_JF_CONST;
587           functions[num].value.constant = arg;
588         }
589       else if (TREE_CODE (arg) == SSA_NAME)
590         {
591           if (SSA_NAME_IS_DEFAULT_DEF (arg))
592             {
593               int index = ipa_get_param_decl_index (info, SSA_NAME_VAR (arg));
594
595               if (index >= 0)
596                 {
597                   functions[num].type = IPA_JF_PASS_THROUGH;
598                   functions[num].value.pass_through.formal_id = index;
599                   functions[num].value.pass_through.operation = NOP_EXPR;
600                 }
601             }
602           else
603             {
604               gimple stmt = SSA_NAME_DEF_STMT (arg);
605               if (is_gimple_assign (stmt))
606                 compute_complex_assign_jump_func (info, &functions[num],
607                                                   stmt, arg);
608               else if (gimple_code (stmt) == GIMPLE_PHI)
609                 compute_complex_ancestor_jump_func (info, &functions[num],
610                                                     stmt);
611             }
612         }
613       else
614         compute_known_type_jump_func (arg, &functions[num]);
615     }
616 }
617
618 /* Inspect the given TYPE and return true iff it has the same structure (the
619    same number of fields of the same types) as a C++ member pointer.  If
620    METHOD_PTR and DELTA are non-NULL, store the trees representing the
621    corresponding fields there.  */
622
623 static bool
624 type_like_member_ptr_p (tree type, tree *method_ptr, tree *delta)
625 {
626   tree fld;
627
628   if (TREE_CODE (type) != RECORD_TYPE)
629     return false;
630
631   fld = TYPE_FIELDS (type);
632   if (!fld || !POINTER_TYPE_P (TREE_TYPE (fld))
633       || TREE_CODE (TREE_TYPE (TREE_TYPE (fld))) != METHOD_TYPE)
634     return false;
635
636   if (method_ptr)
637     *method_ptr = fld;
638
639   fld = DECL_CHAIN (fld);
640   if (!fld || INTEGRAL_TYPE_P (fld))
641     return false;
642   if (delta)
643     *delta = fld;
644
645   if (DECL_CHAIN (fld))
646     return false;
647
648   return true;
649 }
650
651 /* Callback of walk_aliased_vdefs.  Flags that it has been invoked to the
652    boolean variable pointed to by DATA.  */
653
654 static bool
655 mark_modified (ao_ref *ao ATTRIBUTE_UNUSED, tree vdef ATTRIBUTE_UNUSED,
656                      void *data)
657 {
658   bool *b = (bool *) data;
659   *b = true;
660   return true;
661 }
662
663 /* Return true if the formal parameter PARM might have been modified in this
664    function before reaching the statement CALL.  PARM_INFO is a pointer to a
665    structure containing intermediate information about PARM.  */
666
667 static bool
668 is_parm_modified_before_call (struct param_analysis_info *parm_info,
669                               gimple call, tree parm)
670 {
671   bool modified = false;
672   ao_ref refd;
673
674   if (parm_info->modified)
675     return true;
676
677   ao_ref_init (&refd, parm);
678   walk_aliased_vdefs (&refd, gimple_vuse (call), mark_modified,
679                       &modified, &parm_info->visited_statements);
680   if (modified)
681     {
682       parm_info->modified = true;
683       return true;
684     }
685   return false;
686 }
687
688 /* Go through arguments of the CALL and for every one that looks like a member
689    pointer, check whether it can be safely declared pass-through and if so,
690    mark that to the corresponding item of jump FUNCTIONS.  Return true iff
691    there are non-pass-through member pointers within the arguments.  INFO
692    describes formal parameters of the caller.  PARMS_INFO is a pointer to a
693    vector containing intermediate information about each formal parameter.  */
694
695 static bool
696 compute_pass_through_member_ptrs (struct ipa_node_params *info,
697                                   struct param_analysis_info *parms_info,
698                                   struct ipa_jump_func *functions,
699                                   gimple call)
700 {
701   bool undecided_members = false;
702   unsigned num;
703   tree arg;
704
705   for (num = 0; num < gimple_call_num_args (call); num++)
706     {
707       arg = gimple_call_arg (call, num);
708
709       if (type_like_member_ptr_p (TREE_TYPE (arg), NULL, NULL))
710         {
711           if (TREE_CODE (arg) == PARM_DECL)
712             {
713               int index = ipa_get_param_decl_index (info, arg);
714
715               gcc_assert (index >=0);
716               if (!is_parm_modified_before_call (&parms_info[index], call, arg))
717                 {
718                   functions[num].type = IPA_JF_PASS_THROUGH;
719                   functions[num].value.pass_through.formal_id = index;
720                   functions[num].value.pass_through.operation = NOP_EXPR;
721                 }
722               else
723                 undecided_members = true;
724             }
725           else
726             undecided_members = true;
727         }
728     }
729
730   return undecided_members;
731 }
732
733 /* Simple function filling in a member pointer constant jump function (with PFN
734    and DELTA as the constant value) into JFUNC.  */
735
736 static void
737 fill_member_ptr_cst_jump_function (struct ipa_jump_func *jfunc,
738                                    tree pfn, tree delta)
739 {
740   jfunc->type = IPA_JF_CONST_MEMBER_PTR;
741   jfunc->value.member_cst.pfn = pfn;
742   jfunc->value.member_cst.delta = delta;
743 }
744
745 /* If RHS is an SSA_NAMe and it is defined by a simple copy assign statement,
746    return the rhs of its defining statement.  */
747
748 static inline tree
749 get_ssa_def_if_simple_copy (tree rhs)
750 {
751   while (TREE_CODE (rhs) == SSA_NAME && !SSA_NAME_IS_DEFAULT_DEF (rhs))
752     {
753       gimple def_stmt = SSA_NAME_DEF_STMT (rhs);
754
755       if (gimple_assign_single_p (def_stmt))
756         rhs = gimple_assign_rhs1 (def_stmt);
757       else
758         break;
759     }
760   return rhs;
761 }
762
763 /* Traverse statements from CALL backwards, scanning whether the argument ARG
764    which is a member pointer is filled in with constant values.  If it is, fill
765    the jump function JFUNC in appropriately.  METHOD_FIELD and DELTA_FIELD are
766    fields of the record type of the member pointer.  To give an example, we
767    look for a pattern looking like the following:
768
769      D.2515.__pfn ={v} printStuff;
770      D.2515.__delta ={v} 0;
771      i_1 = doprinting (D.2515);  */
772
773 static void
774 determine_cst_member_ptr (gimple call, tree arg, tree method_field,
775                           tree delta_field, struct ipa_jump_func *jfunc)
776 {
777   gimple_stmt_iterator gsi;
778   tree method = NULL_TREE;
779   tree delta = NULL_TREE;
780
781   gsi = gsi_for_stmt (call);
782
783   gsi_prev (&gsi);
784   for (; !gsi_end_p (gsi); gsi_prev (&gsi))
785     {
786       gimple stmt = gsi_stmt (gsi);
787       tree lhs, rhs, fld;
788
789       if (!stmt_may_clobber_ref_p (stmt, arg))
790         continue;
791       if (!gimple_assign_single_p (stmt))
792         return;
793
794       lhs = gimple_assign_lhs (stmt);
795       rhs = gimple_assign_rhs1 (stmt);
796
797       if (TREE_CODE (lhs) != COMPONENT_REF
798           || TREE_OPERAND (lhs, 0) != arg)
799         return;
800
801       fld = TREE_OPERAND (lhs, 1);
802       if (!method && fld == method_field)
803         {
804           rhs = get_ssa_def_if_simple_copy (rhs);
805           if (TREE_CODE (rhs) == ADDR_EXPR
806               && TREE_CODE (TREE_OPERAND (rhs, 0)) == FUNCTION_DECL
807               && TREE_CODE (TREE_TYPE (TREE_OPERAND (rhs, 0))) == METHOD_TYPE)
808             {
809               method = TREE_OPERAND (rhs, 0);
810               if (delta)
811                 {
812                   fill_member_ptr_cst_jump_function (jfunc, rhs, delta);
813                   return;
814                 }
815             }
816           else
817             return;
818         }
819
820       if (!delta && fld == delta_field)
821         {
822           rhs = get_ssa_def_if_simple_copy (rhs);
823           if (TREE_CODE (rhs) == INTEGER_CST)
824             {
825               delta = rhs;
826               if (method)
827                 {
828                   fill_member_ptr_cst_jump_function (jfunc, rhs, delta);
829                   return;
830                 }
831             }
832           else
833             return;
834         }
835     }
836
837   return;
838 }
839
840 /* Go through the arguments of the CALL and for every member pointer within
841    tries determine whether it is a constant.  If it is, create a corresponding
842    constant jump function in FUNCTIONS which is an array of jump functions
843    associated with the call.  */
844
845 static void
846 compute_cst_member_ptr_arguments (struct ipa_jump_func *functions,
847                                   gimple call)
848 {
849   unsigned num;
850   tree arg, method_field, delta_field;
851
852   for (num = 0; num < gimple_call_num_args (call); num++)
853     {
854       arg = gimple_call_arg (call, num);
855
856       if (functions[num].type == IPA_JF_UNKNOWN
857           && type_like_member_ptr_p (TREE_TYPE (arg), &method_field,
858                                      &delta_field))
859         determine_cst_member_ptr (call, arg, method_field, delta_field,
860                                   &functions[num]);
861     }
862 }
863
864 /* Compute jump function for all arguments of callsite CS and insert the
865    information in the jump_functions array in the ipa_edge_args corresponding
866    to this callsite.  */
867
868 static void
869 ipa_compute_jump_functions_for_edge (struct param_analysis_info *parms_info,
870                                      struct cgraph_edge *cs)
871 {
872   struct ipa_node_params *info = IPA_NODE_REF (cs->caller);
873   struct ipa_edge_args *arguments = IPA_EDGE_REF (cs);
874   gimple call;
875
876   if (ipa_get_cs_argument_count (arguments) == 0 || arguments->jump_functions)
877     return;
878   arguments->jump_functions = ggc_alloc_cleared_vec_ipa_jump_func
879     (ipa_get_cs_argument_count (arguments));
880
881   call = cs->call_stmt;
882   gcc_assert (is_gimple_call (call));
883
884   /* We will deal with constants and SSA scalars first:  */
885   compute_scalar_jump_functions (info, arguments->jump_functions, call);
886
887   /* Let's check whether there are any potential member pointers and if so,
888      whether we can determine their functions as pass_through.  */
889   if (!compute_pass_through_member_ptrs (info, parms_info,
890                                          arguments->jump_functions, call))
891     return;
892
893   /* Finally, let's check whether we actually pass a new constant member
894      pointer here...  */
895   compute_cst_member_ptr_arguments (arguments->jump_functions, call);
896 }
897
898 /* Compute jump functions for all edges - both direct and indirect - outgoing
899    from NODE.  Also count the actual arguments in the process.  */
900
901 static void
902 ipa_compute_jump_functions (struct cgraph_node *node,
903                             struct param_analysis_info *parms_info)
904 {
905   struct cgraph_edge *cs;
906
907   for (cs = node->callees; cs; cs = cs->next_callee)
908     {
909       /* We do not need to bother analyzing calls to unknown
910          functions unless they may become known during lto/whopr.  */
911       if (!cs->callee->analyzed && !flag_lto)
912         continue;
913       ipa_count_arguments (cs);
914       /* If the descriptor of the callee is not initialized yet, we have to do
915          it now. */
916       if (cs->callee->analyzed)
917         ipa_initialize_node_params (cs->callee);
918       if (ipa_get_cs_argument_count (IPA_EDGE_REF (cs))
919           != ipa_get_param_count (IPA_NODE_REF (cs->callee)))
920         ipa_set_called_with_variable_arg (IPA_NODE_REF (cs->callee));
921       ipa_compute_jump_functions_for_edge (parms_info, cs);
922     }
923
924   for (cs = node->indirect_calls; cs; cs = cs->next_callee)
925     {
926       ipa_count_arguments (cs);
927       ipa_compute_jump_functions_for_edge (parms_info, cs);
928     }
929 }
930
931 /* If RHS looks like a rhs of a statement loading pfn from a member
932    pointer formal parameter, return the parameter, otherwise return
933    NULL.  If USE_DELTA, then we look for a use of the delta field
934    rather than the pfn.  */
935
936 static tree
937 ipa_get_member_ptr_load_param (tree rhs, bool use_delta)
938 {
939   tree rec, ref_field, ref_offset, fld, fld_offset, ptr_field, delta_field;
940
941   if (TREE_CODE (rhs) == COMPONENT_REF)
942     {
943       ref_field = TREE_OPERAND (rhs, 1);
944       rhs = TREE_OPERAND (rhs, 0);
945     }
946   else
947     ref_field = NULL_TREE;
948   if (TREE_CODE (rhs) != MEM_REF)
949     return NULL_TREE;
950   rec = TREE_OPERAND (rhs, 0);
951   if (TREE_CODE (rec) != ADDR_EXPR)
952     return NULL_TREE;
953   rec = TREE_OPERAND (rec, 0);
954   if (TREE_CODE (rec) != PARM_DECL
955       || !type_like_member_ptr_p (TREE_TYPE (rec), &ptr_field, &delta_field))
956     return NULL_TREE;
957
958   ref_offset = TREE_OPERAND (rhs, 1);
959
960   if (ref_field)
961     {
962       if (integer_nonzerop (ref_offset))
963         return NULL_TREE;
964
965       if (use_delta)
966         fld = delta_field;
967       else
968         fld = ptr_field;
969
970       return ref_field == fld ? rec : NULL_TREE;
971     }
972
973   if (use_delta)
974     fld_offset = byte_position (delta_field);
975   else
976     fld_offset = byte_position (ptr_field);
977
978   return tree_int_cst_equal (ref_offset, fld_offset) ? rec : NULL_TREE;
979 }
980
981 /* If STMT looks like a statement loading a value from a member pointer formal
982    parameter, this function returns that parameter.  */
983
984 static tree
985 ipa_get_stmt_member_ptr_load_param (gimple stmt, bool use_delta)
986 {
987   tree rhs;
988
989   if (!gimple_assign_single_p (stmt))
990     return NULL_TREE;
991
992   rhs = gimple_assign_rhs1 (stmt);
993   return ipa_get_member_ptr_load_param (rhs, use_delta);
994 }
995
996 /* Returns true iff T is an SSA_NAME defined by a statement.  */
997
998 static bool
999 ipa_is_ssa_with_stmt_def (tree t)
1000 {
1001   if (TREE_CODE (t) == SSA_NAME
1002       && !SSA_NAME_IS_DEFAULT_DEF (t))
1003     return true;
1004   else
1005     return false;
1006 }
1007
1008 /* Find the indirect call graph edge corresponding to STMT and add to it all
1009    information necessary to describe a call to a parameter number PARAM_INDEX.
1010    NODE is the caller.  POLYMORPHIC should be set to true iff the call is a
1011    virtual one.  */
1012
1013 static void
1014 ipa_note_param_call (struct cgraph_node *node, int param_index, gimple stmt,
1015                      bool polymorphic)
1016 {
1017   struct cgraph_edge *cs;
1018
1019   cs = cgraph_edge (node, stmt);
1020   cs->indirect_info->param_index = param_index;
1021   cs->indirect_info->anc_offset = 0;
1022   cs->indirect_info->polymorphic = polymorphic;
1023   if (polymorphic)
1024     {
1025       tree otr = gimple_call_fn (stmt);
1026       tree type, token = OBJ_TYPE_REF_TOKEN (otr);
1027       cs->indirect_info->otr_token = tree_low_cst (token, 1);
1028       type = TREE_TYPE (TREE_TYPE (OBJ_TYPE_REF_OBJECT (otr)));
1029       cs->indirect_info->otr_type = type;
1030     }
1031 }
1032
1033 /* Analyze the CALL and examine uses of formal parameters of the caller NODE
1034    (described by INFO).  PARMS_INFO is a pointer to a vector containing
1035    intermediate information about each formal parameter.  Currently it checks
1036    whether the call calls a pointer that is a formal parameter and if so, the
1037    parameter is marked with the called flag and an indirect call graph edge
1038    describing the call is created.  This is very simple for ordinary pointers
1039    represented in SSA but not-so-nice when it comes to member pointers.  The
1040    ugly part of this function does nothing more than trying to match the
1041    pattern of such a call.  An example of such a pattern is the gimple dump
1042    below, the call is on the last line:
1043
1044      <bb 2>:
1045        f$__delta_5 = f.__delta;
1046        f$__pfn_24 = f.__pfn;
1047
1048    or
1049      <bb 2>:
1050        f$__delta_5 = MEM[(struct  *)&f];
1051        f$__pfn_24 = MEM[(struct  *)&f + 4B];
1052
1053    and a few lines below:
1054
1055      <bb 5>
1056        D.2496_3 = (int) f$__pfn_24;
1057        D.2497_4 = D.2496_3 & 1;
1058        if (D.2497_4 != 0)
1059          goto <bb 3>;
1060        else
1061          goto <bb 4>;
1062
1063      <bb 6>:
1064        D.2500_7 = (unsigned int) f$__delta_5;
1065        D.2501_8 = &S + D.2500_7;
1066        D.2502_9 = (int (*__vtbl_ptr_type) (void) * *) D.2501_8;
1067        D.2503_10 = *D.2502_9;
1068        D.2504_12 = f$__pfn_24 + -1;
1069        D.2505_13 = (unsigned int) D.2504_12;
1070        D.2506_14 = D.2503_10 + D.2505_13;
1071        D.2507_15 = *D.2506_14;
1072        iftmp.11_16 = (String:: *) D.2507_15;
1073
1074      <bb 7>:
1075        # iftmp.11_1 = PHI <iftmp.11_16(3), f$__pfn_24(2)>
1076        D.2500_19 = (unsigned int) f$__delta_5;
1077        D.2508_20 = &S + D.2500_19;
1078        D.2493_21 = iftmp.11_1 (D.2508_20, 4);
1079
1080    Such patterns are results of simple calls to a member pointer:
1081
1082      int doprinting (int (MyString::* f)(int) const)
1083      {
1084        MyString S ("somestring");
1085
1086        return (S.*f)(4);
1087      }
1088 */
1089
1090 static void
1091 ipa_analyze_indirect_call_uses (struct cgraph_node *node,
1092                                 struct ipa_node_params *info,
1093                                 struct param_analysis_info *parms_info,
1094                                 gimple call, tree target)
1095 {
1096   gimple def;
1097   tree n1, n2;
1098   gimple d1, d2;
1099   tree rec, rec2, cond;
1100   gimple branch;
1101   int index;
1102   basic_block bb, virt_bb, join;
1103
1104   if (SSA_NAME_IS_DEFAULT_DEF (target))
1105     {
1106       tree var = SSA_NAME_VAR (target);
1107       index = ipa_get_param_decl_index (info, var);
1108       if (index >= 0)
1109         ipa_note_param_call (node, index, call, false);
1110       return;
1111     }
1112
1113   /* Now we need to try to match the complex pattern of calling a member
1114      pointer. */
1115
1116   if (!POINTER_TYPE_P (TREE_TYPE (target))
1117       || TREE_CODE (TREE_TYPE (TREE_TYPE (target))) != METHOD_TYPE)
1118     return;
1119
1120   def = SSA_NAME_DEF_STMT (target);
1121   if (gimple_code (def) != GIMPLE_PHI)
1122     return;
1123
1124   if (gimple_phi_num_args (def) != 2)
1125     return;
1126
1127   /* First, we need to check whether one of these is a load from a member
1128      pointer that is a parameter to this function. */
1129   n1 = PHI_ARG_DEF (def, 0);
1130   n2 = PHI_ARG_DEF (def, 1);
1131   if (!ipa_is_ssa_with_stmt_def (n1) || !ipa_is_ssa_with_stmt_def (n2))
1132     return;
1133   d1 = SSA_NAME_DEF_STMT (n1);
1134   d2 = SSA_NAME_DEF_STMT (n2);
1135
1136   join = gimple_bb (def);
1137   if ((rec = ipa_get_stmt_member_ptr_load_param (d1, false)))
1138     {
1139       if (ipa_get_stmt_member_ptr_load_param (d2, false))
1140         return;
1141
1142       bb = EDGE_PRED (join, 0)->src;
1143       virt_bb = gimple_bb (d2);
1144     }
1145   else if ((rec = ipa_get_stmt_member_ptr_load_param (d2, false)))
1146     {
1147       bb = EDGE_PRED (join, 1)->src;
1148       virt_bb = gimple_bb (d1);
1149     }
1150   else
1151     return;
1152
1153   /* Second, we need to check that the basic blocks are laid out in the way
1154      corresponding to the pattern. */
1155
1156   if (!single_pred_p (virt_bb) || !single_succ_p (virt_bb)
1157       || single_pred (virt_bb) != bb
1158       || single_succ (virt_bb) != join)
1159     return;
1160
1161   /* Third, let's see that the branching is done depending on the least
1162      significant bit of the pfn. */
1163
1164   branch = last_stmt (bb);
1165   if (!branch || gimple_code (branch) != GIMPLE_COND)
1166     return;
1167
1168   if (gimple_cond_code (branch) != NE_EXPR
1169       || !integer_zerop (gimple_cond_rhs (branch)))
1170     return;
1171
1172   cond = gimple_cond_lhs (branch);
1173   if (!ipa_is_ssa_with_stmt_def (cond))
1174     return;
1175
1176   def = SSA_NAME_DEF_STMT (cond);
1177   if (!is_gimple_assign (def)
1178       || gimple_assign_rhs_code (def) != BIT_AND_EXPR
1179       || !integer_onep (gimple_assign_rhs2 (def)))
1180     return;
1181
1182   cond = gimple_assign_rhs1 (def);
1183   if (!ipa_is_ssa_with_stmt_def (cond))
1184     return;
1185
1186   def = SSA_NAME_DEF_STMT (cond);
1187
1188   if (is_gimple_assign (def)
1189       && CONVERT_EXPR_CODE_P (gimple_assign_rhs_code (def)))
1190     {
1191       cond = gimple_assign_rhs1 (def);
1192       if (!ipa_is_ssa_with_stmt_def (cond))
1193         return;
1194       def = SSA_NAME_DEF_STMT (cond);
1195     }
1196
1197   rec2 = ipa_get_stmt_member_ptr_load_param (def,
1198                                              (TARGET_PTRMEMFUNC_VBIT_LOCATION
1199                                               == ptrmemfunc_vbit_in_delta));
1200
1201   if (rec != rec2)
1202     return;
1203
1204   index = ipa_get_param_decl_index (info, rec);
1205   if (index >= 0 && !is_parm_modified_before_call (&parms_info[index],
1206                                                    call, rec))
1207     ipa_note_param_call (node, index, call, false);
1208
1209   return;
1210 }
1211
1212 /* Analyze a CALL to an OBJ_TYPE_REF which is passed in TARGET and if the
1213    object referenced in the expression is a formal parameter of the caller
1214    (described by INFO), create a call note for the statement. */
1215
1216 static void
1217 ipa_analyze_virtual_call_uses (struct cgraph_node *node,
1218                                struct ipa_node_params *info, gimple call,
1219                                tree target)
1220 {
1221   tree obj = OBJ_TYPE_REF_OBJECT (target);
1222   tree var;
1223   int index;
1224
1225   if (TREE_CODE (obj) == ADDR_EXPR)
1226     {
1227       do
1228         {
1229           obj = TREE_OPERAND (obj, 0);
1230         }
1231       while (TREE_CODE (obj) == COMPONENT_REF);
1232       if (TREE_CODE (obj) != MEM_REF)
1233         return;
1234       obj = TREE_OPERAND (obj, 0);
1235     }
1236
1237   if (TREE_CODE (obj) != SSA_NAME
1238       || !SSA_NAME_IS_DEFAULT_DEF (obj))
1239     return;
1240
1241   var = SSA_NAME_VAR (obj);
1242   index = ipa_get_param_decl_index (info, var);
1243
1244   if (index >= 0)
1245     ipa_note_param_call (node, index, call, true);
1246 }
1247
1248 /* Analyze a call statement CALL whether and how it utilizes formal parameters
1249    of the caller (described by INFO).  PARMS_INFO is a pointer to a vector
1250    containing intermediate information about each formal parameter.  */
1251
1252 static void
1253 ipa_analyze_call_uses (struct cgraph_node *node,
1254                        struct ipa_node_params *info,
1255                        struct param_analysis_info *parms_info, gimple call)
1256 {
1257   tree target = gimple_call_fn (call);
1258
1259   if (TREE_CODE (target) == SSA_NAME)
1260     ipa_analyze_indirect_call_uses (node, info, parms_info, call, target);
1261   else if (TREE_CODE (target) == OBJ_TYPE_REF)
1262     ipa_analyze_virtual_call_uses (node, info, call, target);
1263 }
1264
1265
1266 /* Analyze the call statement STMT with respect to formal parameters (described
1267    in INFO) of caller given by NODE.  Currently it only checks whether formal
1268    parameters are called.  PARMS_INFO is a pointer to a vector containing
1269    intermediate information about each formal parameter.  */
1270
1271 static void
1272 ipa_analyze_stmt_uses (struct cgraph_node *node, struct ipa_node_params *info,
1273                        struct param_analysis_info *parms_info, gimple stmt)
1274 {
1275   if (is_gimple_call (stmt))
1276     ipa_analyze_call_uses (node, info, parms_info, stmt);
1277 }
1278
1279 /* Callback of walk_stmt_load_store_addr_ops for the visit_load.
1280    If OP is a parameter declaration, mark it as used in the info structure
1281    passed in DATA.  */
1282
1283 static bool
1284 visit_ref_for_mod_analysis (gimple stmt ATTRIBUTE_UNUSED,
1285                              tree op, void *data)
1286 {
1287   struct ipa_node_params *info = (struct ipa_node_params *) data;
1288
1289   op = get_base_address (op);
1290   if (op
1291       && TREE_CODE (op) == PARM_DECL)
1292     {
1293       int index = ipa_get_param_decl_index (info, op);
1294       gcc_assert (index >= 0);
1295       info->params[index].used = true;
1296     }
1297
1298   return false;
1299 }
1300
1301 /* Scan the function body of NODE and inspect the uses of formal parameters.
1302    Store the findings in various structures of the associated ipa_node_params
1303    structure, such as parameter flags, notes etc.  PARMS_INFO is a pointer to a
1304    vector containing intermediate information about each formal parameter.   */
1305
1306 static void
1307 ipa_analyze_params_uses (struct cgraph_node *node,
1308                          struct param_analysis_info *parms_info)
1309 {
1310   tree decl = node->decl;
1311   basic_block bb;
1312   struct function *func;
1313   gimple_stmt_iterator gsi;
1314   struct ipa_node_params *info = IPA_NODE_REF (node);
1315   int i;
1316
1317   if (ipa_get_param_count (info) == 0 || info->uses_analysis_done)
1318     return;
1319
1320   for (i = 0; i < ipa_get_param_count (info); i++)
1321     {
1322       tree parm = ipa_get_param (info, i);
1323       /* For SSA regs see if parameter is used.  For non-SSA we compute
1324          the flag during modification analysis.  */
1325       if (is_gimple_reg (parm)
1326           && gimple_default_def (DECL_STRUCT_FUNCTION (node->decl), parm))
1327         info->params[i].used = true;
1328     }
1329
1330   func = DECL_STRUCT_FUNCTION (decl);
1331   FOR_EACH_BB_FN (bb, func)
1332     {
1333       for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
1334         {
1335           gimple stmt = gsi_stmt (gsi);
1336
1337           if (is_gimple_debug (stmt))
1338             continue;
1339
1340           ipa_analyze_stmt_uses (node, info, parms_info, stmt);
1341           walk_stmt_load_store_addr_ops (stmt, info,
1342                                          visit_ref_for_mod_analysis,
1343                                          visit_ref_for_mod_analysis,
1344                                          visit_ref_for_mod_analysis);
1345         }
1346       for (gsi = gsi_start (phi_nodes (bb)); !gsi_end_p (gsi); gsi_next (&gsi))
1347         walk_stmt_load_store_addr_ops (gsi_stmt (gsi), info,
1348                                        visit_ref_for_mod_analysis,
1349                                        visit_ref_for_mod_analysis,
1350                                        visit_ref_for_mod_analysis);
1351     }
1352
1353   info->uses_analysis_done = 1;
1354 }
1355
1356 /* Initialize the array describing properties of of formal parameters of NODE,
1357    analyze their uses and and compute jump functions associated witu actual
1358    arguments of calls from within NODE.  */
1359
1360 void
1361 ipa_analyze_node (struct cgraph_node *node)
1362 {
1363   struct ipa_node_params *info = IPA_NODE_REF (node);
1364   struct param_analysis_info *parms_info;
1365   int i, param_count;
1366
1367   ipa_initialize_node_params (node);
1368
1369   param_count = ipa_get_param_count (info);
1370   parms_info = XALLOCAVEC (struct param_analysis_info, param_count);
1371   memset (parms_info, 0, sizeof (struct param_analysis_info) * param_count);
1372
1373   ipa_analyze_params_uses (node, parms_info);
1374   ipa_compute_jump_functions (node, parms_info);
1375
1376   for (i = 0; i < param_count; i++)
1377     if (parms_info[i].visited_statements)
1378       BITMAP_FREE (parms_info[i].visited_statements);
1379 }
1380
1381
1382 /* Update the jump function DST when the call graph edge correspondng to SRC is
1383    is being inlined, knowing that DST is of type ancestor and src of known
1384    type.  */
1385
1386 static void
1387 combine_known_type_and_ancestor_jfs (struct ipa_jump_func *src,
1388                                      struct ipa_jump_func *dst)
1389 {
1390   tree new_binfo;
1391
1392   new_binfo = get_binfo_at_offset (src->value.base_binfo,
1393                                    dst->value.ancestor.offset,
1394                                    dst->value.ancestor.type);
1395   if (new_binfo)
1396     {
1397       dst->type = IPA_JF_KNOWN_TYPE;
1398       dst->value.base_binfo = new_binfo;
1399     }
1400   else
1401     dst->type = IPA_JF_UNKNOWN;
1402 }
1403
1404 /* Update the jump functions associated with call graph edge E when the call
1405    graph edge CS is being inlined, assuming that E->caller is already (possibly
1406    indirectly) inlined into CS->callee and that E has not been inlined.  */
1407
1408 static void
1409 update_jump_functions_after_inlining (struct cgraph_edge *cs,
1410                                       struct cgraph_edge *e)
1411 {
1412   struct ipa_edge_args *top = IPA_EDGE_REF (cs);
1413   struct ipa_edge_args *args = IPA_EDGE_REF (e);
1414   int count = ipa_get_cs_argument_count (args);
1415   int i;
1416
1417   for (i = 0; i < count; i++)
1418     {
1419       struct ipa_jump_func *dst = ipa_get_ith_jump_func (args, i);
1420
1421       if (dst->type == IPA_JF_ANCESTOR)
1422         {
1423           struct ipa_jump_func *src;
1424
1425           /* Variable number of arguments can cause havoc if we try to access
1426              one that does not exist in the inlined edge.  So make sure we
1427              don't.  */
1428           if (dst->value.ancestor.formal_id >= ipa_get_cs_argument_count (top))
1429             {
1430               dst->type = IPA_JF_UNKNOWN;
1431               continue;
1432             }
1433
1434           src = ipa_get_ith_jump_func (top, dst->value.ancestor.formal_id);
1435           if (src->type == IPA_JF_KNOWN_TYPE)
1436             combine_known_type_and_ancestor_jfs (src, dst);
1437           else if (src->type == IPA_JF_PASS_THROUGH
1438                    && src->value.pass_through.operation == NOP_EXPR)
1439             dst->value.ancestor.formal_id = src->value.pass_through.formal_id;
1440           else if (src->type == IPA_JF_ANCESTOR)
1441             {
1442               dst->value.ancestor.formal_id = src->value.ancestor.formal_id;
1443               dst->value.ancestor.offset += src->value.ancestor.offset;
1444             }
1445           else
1446             dst->type = IPA_JF_UNKNOWN;
1447         }
1448       else if (dst->type == IPA_JF_PASS_THROUGH)
1449         {
1450           struct ipa_jump_func *src;
1451           /* We must check range due to calls with variable number of arguments
1452              and we cannot combine jump functions with operations.  */
1453           if (dst->value.pass_through.operation == NOP_EXPR
1454               && (dst->value.pass_through.formal_id
1455                   < ipa_get_cs_argument_count (top)))
1456             {
1457               src = ipa_get_ith_jump_func (top,
1458                                            dst->value.pass_through.formal_id);
1459               *dst = *src;
1460             }
1461           else
1462             dst->type = IPA_JF_UNKNOWN;
1463         }
1464     }
1465 }
1466
1467 /* If TARGET is an addr_expr of a function declaration, make it the destination
1468    of an indirect edge IE and return the edge.  Otherwise, return NULL.  Delta,
1469    if non-NULL, is an integer constant that must be added to this pointer
1470    (first parameter).  */
1471
1472 struct cgraph_edge *
1473 ipa_make_edge_direct_to_target (struct cgraph_edge *ie, tree target, tree delta)
1474 {
1475   struct cgraph_node *callee;
1476
1477   if (TREE_CODE (target) == ADDR_EXPR)
1478     target = TREE_OPERAND (target, 0);
1479   if (TREE_CODE (target) != FUNCTION_DECL)
1480     return NULL;
1481   callee = cgraph_node (target);
1482   if (!callee)
1483     return NULL;
1484   ipa_check_create_node_params ();
1485
1486   /* We can not make edges to inline clones.  It is bug that someone removed the cgraph
1487      node too early.  */
1488   gcc_assert (!callee->global.inlined_to);
1489
1490   cgraph_make_edge_direct (ie, callee, delta ? tree_low_cst (delta, 0) : 0);
1491   if (dump_file)
1492     {
1493       fprintf (dump_file, "ipa-prop: Discovered %s call to a known target "
1494                "(%s/%i -> %s/%i), for stmt ",
1495                ie->indirect_info->polymorphic ? "a virtual" : "an indirect",
1496                cgraph_node_name (ie->caller), ie->caller->uid,
1497                cgraph_node_name (ie->callee), ie->callee->uid);
1498       if (ie->call_stmt)
1499         print_gimple_stmt (dump_file, ie->call_stmt, 2, TDF_SLIM);
1500       else
1501         fprintf (dump_file, "with uid %i\n", ie->lto_stmt_uid);
1502
1503       if (delta)
1504         {
1505           fprintf (dump_file, "          Thunk delta is ");
1506           print_generic_expr (dump_file, delta, 0);
1507           fprintf (dump_file, "\n");
1508         }
1509     }
1510
1511   if (ipa_get_cs_argument_count (IPA_EDGE_REF (ie))
1512       != ipa_get_param_count (IPA_NODE_REF (callee)))
1513     ipa_set_called_with_variable_arg (IPA_NODE_REF (callee));
1514
1515   return ie;
1516 }
1517
1518 /* Try to find a destination for indirect edge IE that corresponds to a simple
1519    call or a call of a member function pointer and where the destination is a
1520    pointer formal parameter described by jump function JFUNC.  If it can be
1521    determined, return the newly direct edge, otherwise return NULL.  */
1522
1523 static struct cgraph_edge *
1524 try_make_edge_direct_simple_call (struct cgraph_edge *ie,
1525                                   struct ipa_jump_func *jfunc)
1526 {
1527   tree target;
1528
1529   if (jfunc->type == IPA_JF_CONST)
1530     target = jfunc->value.constant;
1531   else if (jfunc->type == IPA_JF_CONST_MEMBER_PTR)
1532     target = jfunc->value.member_cst.pfn;
1533   else
1534     return NULL;
1535
1536   return ipa_make_edge_direct_to_target (ie, target, NULL_TREE);
1537 }
1538
1539 /* Try to find a destination for indirect edge IE that corresponds to a
1540    virtuall call based on a formal parameter which is described by jump
1541    function JFUNC and if it can be determined, make it direct and return the
1542    direct edge.  Otherwise, return NULL.  */
1543
1544 static struct cgraph_edge *
1545 try_make_edge_direct_virtual_call (struct cgraph_edge *ie,
1546                                    struct ipa_jump_func *jfunc)
1547 {
1548   tree binfo, type, target, delta;
1549   HOST_WIDE_INT token;
1550
1551   if (jfunc->type == IPA_JF_KNOWN_TYPE)
1552     binfo = jfunc->value.base_binfo;
1553   else
1554     return NULL;
1555
1556   if (!binfo)
1557     return NULL;
1558
1559   token = ie->indirect_info->otr_token;
1560   type = ie->indirect_info->otr_type;
1561   binfo = get_binfo_at_offset (binfo, ie->indirect_info->anc_offset, type);
1562   if (binfo)
1563     target = gimple_get_virt_mehtod_for_binfo (token, binfo, &delta, true);
1564   else
1565     return NULL;
1566
1567   if (target)
1568     return ipa_make_edge_direct_to_target (ie, target, delta);
1569   else
1570     return NULL;
1571 }
1572
1573 /* Update the param called notes associated with NODE when CS is being inlined,
1574    assuming NODE is (potentially indirectly) inlined into CS->callee.
1575    Moreover, if the callee is discovered to be constant, create a new cgraph
1576    edge for it.  Newly discovered indirect edges will be added to *NEW_EDGES,
1577    unless NEW_EDGES is NULL.  Return true iff a new edge(s) were created.  */
1578
1579 static bool
1580 update_indirect_edges_after_inlining (struct cgraph_edge *cs,
1581                                       struct cgraph_node *node,
1582                                       VEC (cgraph_edge_p, heap) **new_edges)
1583 {
1584   struct ipa_edge_args *top;
1585   struct cgraph_edge *ie, *next_ie, *new_direct_edge;
1586   bool res = false;
1587
1588   ipa_check_create_edge_args ();
1589   top = IPA_EDGE_REF (cs);
1590
1591   for (ie = node->indirect_calls; ie; ie = next_ie)
1592     {
1593       struct cgraph_indirect_call_info *ici = ie->indirect_info;
1594       struct ipa_jump_func *jfunc;
1595
1596       next_ie = ie->next_callee;
1597       if (bitmap_bit_p (iinlining_processed_edges, ie->uid))
1598         continue;
1599
1600       /* If we ever use indirect edges for anything other than indirect
1601          inlining, we will need to skip those with negative param_indices. */
1602       if (ici->param_index == -1)
1603         continue;
1604
1605       /* We must check range due to calls with variable number of arguments:  */
1606       if (ici->param_index >= ipa_get_cs_argument_count (top))
1607         {
1608           bitmap_set_bit (iinlining_processed_edges, ie->uid);
1609           continue;
1610         }
1611
1612       jfunc = ipa_get_ith_jump_func (top, ici->param_index);
1613       if (jfunc->type == IPA_JF_PASS_THROUGH
1614           && jfunc->value.pass_through.operation == NOP_EXPR)
1615         ici->param_index = jfunc->value.pass_through.formal_id;
1616       else if (jfunc->type == IPA_JF_ANCESTOR)
1617         {
1618           ici->param_index = jfunc->value.ancestor.formal_id;
1619           ici->anc_offset += jfunc->value.ancestor.offset;
1620         }
1621       else
1622         /* Either we can find a destination for this edge now or never. */
1623         bitmap_set_bit (iinlining_processed_edges, ie->uid);
1624
1625       if (ici->polymorphic)
1626         new_direct_edge = try_make_edge_direct_virtual_call (ie, jfunc);
1627       else
1628         new_direct_edge = try_make_edge_direct_simple_call (ie, jfunc);
1629
1630       if (new_direct_edge)
1631         {
1632           new_direct_edge->indirect_inlining_edge = 1;
1633           if (new_edges)
1634             {
1635               VEC_safe_push (cgraph_edge_p, heap, *new_edges,
1636                              new_direct_edge);
1637               top = IPA_EDGE_REF (cs);
1638               res = true;
1639             }
1640         }
1641     }
1642
1643   return res;
1644 }
1645
1646 /* Recursively traverse subtree of NODE (including node) made of inlined
1647    cgraph_edges when CS has been inlined and invoke
1648    update_indirect_edges_after_inlining on all nodes and
1649    update_jump_functions_after_inlining on all non-inlined edges that lead out
1650    of this subtree.  Newly discovered indirect edges will be added to
1651    *NEW_EDGES, unless NEW_EDGES is NULL.  Return true iff a new edge(s) were
1652    created.  */
1653
1654 static bool
1655 propagate_info_to_inlined_callees (struct cgraph_edge *cs,
1656                                    struct cgraph_node *node,
1657                                    VEC (cgraph_edge_p, heap) **new_edges)
1658 {
1659   struct cgraph_edge *e;
1660   bool res;
1661
1662   res = update_indirect_edges_after_inlining (cs, node, new_edges);
1663
1664   for (e = node->callees; e; e = e->next_callee)
1665     if (!e->inline_failed)
1666       res |= propagate_info_to_inlined_callees (cs, e->callee, new_edges);
1667     else
1668       update_jump_functions_after_inlining (cs, e);
1669
1670   return res;
1671 }
1672
1673 /* Update jump functions and call note functions on inlining the call site CS.
1674    CS is expected to lead to a node already cloned by
1675    cgraph_clone_inline_nodes.  Newly discovered indirect edges will be added to
1676    *NEW_EDGES, unless NEW_EDGES is NULL.  Return true iff a new edge(s) were +
1677    created.  */
1678
1679 bool
1680 ipa_propagate_indirect_call_infos (struct cgraph_edge *cs,
1681                                    VEC (cgraph_edge_p, heap) **new_edges)
1682 {
1683   /* FIXME lto: We do not stream out indirect call information.  */
1684   if (flag_wpa)
1685     return false;
1686
1687   /* Do nothing if the preparation phase has not been carried out yet
1688      (i.e. during early inlining).  */
1689   if (!ipa_node_params_vector)
1690     return false;
1691   gcc_assert (ipa_edge_args_vector);
1692
1693   return propagate_info_to_inlined_callees (cs, cs->callee, new_edges);
1694 }
1695
1696 /* Frees all dynamically allocated structures that the argument info points
1697    to.  */
1698
1699 void
1700 ipa_free_edge_args_substructures (struct ipa_edge_args *args)
1701 {
1702   if (args->jump_functions)
1703     ggc_free (args->jump_functions);
1704
1705   memset (args, 0, sizeof (*args));
1706 }
1707
1708 /* Free all ipa_edge structures.  */
1709
1710 void
1711 ipa_free_all_edge_args (void)
1712 {
1713   int i;
1714   struct ipa_edge_args *args;
1715
1716   FOR_EACH_VEC_ELT (ipa_edge_args_t, ipa_edge_args_vector, i, args)
1717     ipa_free_edge_args_substructures (args);
1718
1719   VEC_free (ipa_edge_args_t, gc, ipa_edge_args_vector);
1720   ipa_edge_args_vector = NULL;
1721 }
1722
1723 /* Frees all dynamically allocated structures that the param info points
1724    to.  */
1725
1726 void
1727 ipa_free_node_params_substructures (struct ipa_node_params *info)
1728 {
1729   if (info->params)
1730     free (info->params);
1731
1732   memset (info, 0, sizeof (*info));
1733 }
1734
1735 /* Free all ipa_node_params structures.  */
1736
1737 void
1738 ipa_free_all_node_params (void)
1739 {
1740   int i;
1741   struct ipa_node_params *info;
1742
1743   FOR_EACH_VEC_ELT (ipa_node_params_t, ipa_node_params_vector, i, info)
1744     ipa_free_node_params_substructures (info);
1745
1746   VEC_free (ipa_node_params_t, heap, ipa_node_params_vector);
1747   ipa_node_params_vector = NULL;
1748 }
1749
1750 /* Hook that is called by cgraph.c when an edge is removed.  */
1751
1752 static void
1753 ipa_edge_removal_hook (struct cgraph_edge *cs, void *data ATTRIBUTE_UNUSED)
1754 {
1755   /* During IPA-CP updating we can be called on not-yet analyze clones.  */
1756   if (VEC_length (ipa_edge_args_t, ipa_edge_args_vector)
1757       <= (unsigned)cs->uid)
1758     return;
1759   ipa_free_edge_args_substructures (IPA_EDGE_REF (cs));
1760 }
1761
1762 /* Hook that is called by cgraph.c when a node is removed.  */
1763
1764 static void
1765 ipa_node_removal_hook (struct cgraph_node *node, void *data ATTRIBUTE_UNUSED)
1766 {
1767   /* During IPA-CP updating we can be called on not-yet analyze clones.  */
1768   if (VEC_length (ipa_node_params_t, ipa_node_params_vector)
1769       <= (unsigned)node->uid)
1770     return;
1771   ipa_free_node_params_substructures (IPA_NODE_REF (node));
1772 }
1773
1774 /* Helper function to duplicate an array of size N that is at SRC and store a
1775    pointer to it to DST.  Nothing is done if SRC is NULL.  */
1776
1777 static void *
1778 duplicate_array (void *src, size_t n)
1779 {
1780   void *p;
1781
1782   if (!src)
1783     return NULL;
1784
1785   p = xmalloc (n);
1786   memcpy (p, src, n);
1787   return p;
1788 }
1789
1790 static struct ipa_jump_func *
1791 duplicate_ipa_jump_func_array (const struct ipa_jump_func * src, size_t n)
1792 {
1793   struct ipa_jump_func *p;
1794
1795   if (!src)
1796     return NULL;
1797
1798   p = ggc_alloc_vec_ipa_jump_func (n);
1799   memcpy (p, src, n * sizeof (struct ipa_jump_func));
1800   return p;
1801 }
1802
1803 /* Hook that is called by cgraph.c when a node is duplicated.  */
1804
1805 static void
1806 ipa_edge_duplication_hook (struct cgraph_edge *src, struct cgraph_edge *dst,
1807                            __attribute__((unused)) void *data)
1808 {
1809   struct ipa_edge_args *old_args, *new_args;
1810   int arg_count;
1811
1812   ipa_check_create_edge_args ();
1813
1814   old_args = IPA_EDGE_REF (src);
1815   new_args = IPA_EDGE_REF (dst);
1816
1817   arg_count = ipa_get_cs_argument_count (old_args);
1818   ipa_set_cs_argument_count (new_args, arg_count);
1819   new_args->jump_functions =
1820     duplicate_ipa_jump_func_array (old_args->jump_functions, arg_count);
1821
1822   if (iinlining_processed_edges
1823       && bitmap_bit_p (iinlining_processed_edges, src->uid))
1824     bitmap_set_bit (iinlining_processed_edges, dst->uid);
1825 }
1826
1827 /* Hook that is called by cgraph.c when a node is duplicated.  */
1828
1829 static void
1830 ipa_node_duplication_hook (struct cgraph_node *src, struct cgraph_node *dst,
1831                            __attribute__((unused)) void *data)
1832 {
1833   struct ipa_node_params *old_info, *new_info;
1834   int param_count, i;
1835
1836   ipa_check_create_node_params ();
1837   old_info = IPA_NODE_REF (src);
1838   new_info = IPA_NODE_REF (dst);
1839   param_count = ipa_get_param_count (old_info);
1840
1841   ipa_set_param_count (new_info, param_count);
1842   new_info->params = (struct ipa_param_descriptor *)
1843     duplicate_array (old_info->params,
1844                      sizeof (struct ipa_param_descriptor) * param_count);
1845   for (i = 0; i < param_count; i++)
1846     new_info->params[i].types = VEC_copy (tree, heap,
1847                                           old_info->params[i].types);
1848   new_info->ipcp_orig_node = old_info->ipcp_orig_node;
1849   new_info->count_scale = old_info->count_scale;
1850
1851   new_info->called_with_var_arguments = old_info->called_with_var_arguments;
1852   new_info->uses_analysis_done = old_info->uses_analysis_done;
1853   new_info->node_enqueued = old_info->node_enqueued;
1854 }
1855
1856 /* Register our cgraph hooks if they are not already there.  */
1857
1858 void
1859 ipa_register_cgraph_hooks (void)
1860 {
1861   if (!edge_removal_hook_holder)
1862     edge_removal_hook_holder =
1863       cgraph_add_edge_removal_hook (&ipa_edge_removal_hook, NULL);
1864   if (!node_removal_hook_holder)
1865     node_removal_hook_holder =
1866       cgraph_add_node_removal_hook (&ipa_node_removal_hook, NULL);
1867   if (!edge_duplication_hook_holder)
1868     edge_duplication_hook_holder =
1869       cgraph_add_edge_duplication_hook (&ipa_edge_duplication_hook, NULL);
1870   if (!node_duplication_hook_holder)
1871     node_duplication_hook_holder =
1872       cgraph_add_node_duplication_hook (&ipa_node_duplication_hook, NULL);
1873 }
1874
1875 /* Unregister our cgraph hooks if they are not already there.  */
1876
1877 static void
1878 ipa_unregister_cgraph_hooks (void)
1879 {
1880   cgraph_remove_edge_removal_hook (edge_removal_hook_holder);
1881   edge_removal_hook_holder = NULL;
1882   cgraph_remove_node_removal_hook (node_removal_hook_holder);
1883   node_removal_hook_holder = NULL;
1884   cgraph_remove_edge_duplication_hook (edge_duplication_hook_holder);
1885   edge_duplication_hook_holder = NULL;
1886   cgraph_remove_node_duplication_hook (node_duplication_hook_holder);
1887   node_duplication_hook_holder = NULL;
1888 }
1889
1890 /* Allocate all necessary data strucutures necessary for indirect inlining.  */
1891
1892 void
1893 ipa_create_all_structures_for_iinln (void)
1894 {
1895   iinlining_processed_edges = BITMAP_ALLOC (NULL);
1896 }
1897
1898 /* Free all ipa_node_params and all ipa_edge_args structures if they are no
1899    longer needed after ipa-cp.  */
1900
1901 void
1902 ipa_free_all_structures_after_ipa_cp (void)
1903 {
1904   if (!flag_indirect_inlining)
1905     {
1906       ipa_free_all_edge_args ();
1907       ipa_free_all_node_params ();
1908       ipa_unregister_cgraph_hooks ();
1909     }
1910 }
1911
1912 /* Free all ipa_node_params and all ipa_edge_args structures if they are no
1913    longer needed after indirect inlining.  */
1914
1915 void
1916 ipa_free_all_structures_after_iinln (void)
1917 {
1918   BITMAP_FREE (iinlining_processed_edges);
1919
1920   ipa_free_all_edge_args ();
1921   ipa_free_all_node_params ();
1922   ipa_unregister_cgraph_hooks ();
1923 }
1924
1925 /* Print ipa_tree_map data structures of all functions in the
1926    callgraph to F.  */
1927
1928 void
1929 ipa_print_node_params (FILE * f, struct cgraph_node *node)
1930 {
1931   int i, count;
1932   tree temp;
1933   struct ipa_node_params *info;
1934
1935   if (!node->analyzed)
1936     return;
1937   info = IPA_NODE_REF (node);
1938   fprintf (f, "  function  %s parameter descriptors:\n",
1939            cgraph_node_name (node));
1940   count = ipa_get_param_count (info);
1941   for (i = 0; i < count; i++)
1942     {
1943       temp = ipa_get_param (info, i);
1944       if (TREE_CODE (temp) == PARM_DECL)
1945         fprintf (f, "    param %d : %s", i,
1946                  (DECL_NAME (temp)
1947                   ? (*lang_hooks.decl_printable_name) (temp, 2)
1948                   : "(unnamed)"));
1949       if (ipa_is_param_used (info, i))
1950         fprintf (f, " used");
1951       fprintf (f, "\n");
1952     }
1953 }
1954
1955 /* Print ipa_tree_map data structures of all functions in the
1956    callgraph to F.  */
1957
1958 void
1959 ipa_print_all_params (FILE * f)
1960 {
1961   struct cgraph_node *node;
1962
1963   fprintf (f, "\nFunction parameters:\n");
1964   for (node = cgraph_nodes; node; node = node->next)
1965     ipa_print_node_params (f, node);
1966 }
1967
1968 /* Return a heap allocated vector containing formal parameters of FNDECL.  */
1969
1970 VEC(tree, heap) *
1971 ipa_get_vector_of_formal_parms (tree fndecl)
1972 {
1973   VEC(tree, heap) *args;
1974   int count;
1975   tree parm;
1976
1977   count = count_formal_params_1 (fndecl);
1978   args = VEC_alloc (tree, heap, count);
1979   for (parm = DECL_ARGUMENTS (fndecl); parm; parm = DECL_CHAIN (parm))
1980     VEC_quick_push (tree, args, parm);
1981
1982   return args;
1983 }
1984
1985 /* Return a heap allocated vector containing types of formal parameters of
1986    function type FNTYPE.  */
1987
1988 static inline VEC(tree, heap) *
1989 get_vector_of_formal_parm_types (tree fntype)
1990 {
1991   VEC(tree, heap) *types;
1992   int count = 0;
1993   tree t;
1994
1995   for (t = TYPE_ARG_TYPES (fntype); t; t = TREE_CHAIN (t))
1996     count++;
1997
1998   types = VEC_alloc (tree, heap, count);
1999   for (t = TYPE_ARG_TYPES (fntype); t; t = TREE_CHAIN (t))
2000     VEC_quick_push (tree, types, TREE_VALUE (t));
2001
2002   return types;
2003 }
2004
2005 /* Modify the function declaration FNDECL and its type according to the plan in
2006    ADJUSTMENTS.  It also sets base fields of individual adjustments structures
2007    to reflect the actual parameters being modified which are determined by the
2008    base_index field.  */
2009
2010 void
2011 ipa_modify_formal_parameters (tree fndecl, ipa_parm_adjustment_vec adjustments,
2012                               const char *synth_parm_prefix)
2013 {
2014   VEC(tree, heap) *oparms, *otypes;
2015   tree orig_type, new_type = NULL;
2016   tree old_arg_types, t, new_arg_types = NULL;
2017   tree parm, *link = &DECL_ARGUMENTS (fndecl);
2018   int i, len = VEC_length (ipa_parm_adjustment_t, adjustments);
2019   tree new_reversed = NULL;
2020   bool care_for_types, last_parm_void;
2021
2022   if (!synth_parm_prefix)
2023     synth_parm_prefix = "SYNTH";
2024
2025   oparms = ipa_get_vector_of_formal_parms (fndecl);
2026   orig_type = TREE_TYPE (fndecl);
2027   old_arg_types = TYPE_ARG_TYPES (orig_type);
2028
2029   /* The following test is an ugly hack, some functions simply don't have any
2030      arguments in their type.  This is probably a bug but well... */
2031   care_for_types = (old_arg_types != NULL_TREE);
2032   if (care_for_types)
2033     {
2034       last_parm_void = (TREE_VALUE (tree_last (old_arg_types))
2035                         == void_type_node);
2036       otypes = get_vector_of_formal_parm_types (orig_type);
2037       if (last_parm_void)
2038         gcc_assert (VEC_length (tree, oparms) + 1 == VEC_length (tree, otypes));
2039       else
2040         gcc_assert (VEC_length (tree, oparms) == VEC_length (tree, otypes));
2041     }
2042   else
2043     {
2044       last_parm_void = false;
2045       otypes = NULL;
2046     }
2047
2048   for (i = 0; i < len; i++)
2049     {
2050       struct ipa_parm_adjustment *adj;
2051       gcc_assert (link);
2052
2053       adj = VEC_index (ipa_parm_adjustment_t, adjustments, i);
2054       parm = VEC_index (tree, oparms, adj->base_index);
2055       adj->base = parm;
2056
2057       if (adj->copy_param)
2058         {
2059           if (care_for_types)
2060             new_arg_types = tree_cons (NULL_TREE, VEC_index (tree, otypes,
2061                                                              adj->base_index),
2062                                        new_arg_types);
2063           *link = parm;
2064           link = &DECL_CHAIN (parm);
2065         }
2066       else if (!adj->remove_param)
2067         {
2068           tree new_parm;
2069           tree ptype;
2070
2071           if (adj->by_ref)
2072             ptype = build_pointer_type (adj->type);
2073           else
2074             ptype = adj->type;
2075
2076           if (care_for_types)
2077             new_arg_types = tree_cons (NULL_TREE, ptype, new_arg_types);
2078
2079           new_parm = build_decl (UNKNOWN_LOCATION, PARM_DECL, NULL_TREE,
2080                                  ptype);
2081           DECL_NAME (new_parm) = create_tmp_var_name (synth_parm_prefix);
2082
2083           DECL_ARTIFICIAL (new_parm) = 1;
2084           DECL_ARG_TYPE (new_parm) = ptype;
2085           DECL_CONTEXT (new_parm) = fndecl;
2086           TREE_USED (new_parm) = 1;
2087           DECL_IGNORED_P (new_parm) = 1;
2088           layout_decl (new_parm, 0);
2089
2090           add_referenced_var (new_parm);
2091           mark_sym_for_renaming (new_parm);
2092           adj->base = parm;
2093           adj->reduction = new_parm;
2094
2095           *link = new_parm;
2096
2097           link = &DECL_CHAIN (new_parm);
2098         }
2099     }
2100
2101   *link = NULL_TREE;
2102
2103   if (care_for_types)
2104     {
2105       new_reversed = nreverse (new_arg_types);
2106       if (last_parm_void)
2107         {
2108           if (new_reversed)
2109             TREE_CHAIN (new_arg_types) = void_list_node;
2110           else
2111             new_reversed = void_list_node;
2112         }
2113     }
2114
2115   /* Use copy_node to preserve as much as possible from original type
2116      (debug info, attribute lists etc.)
2117      Exception is METHOD_TYPEs must have THIS argument.
2118      When we are asked to remove it, we need to build new FUNCTION_TYPE
2119      instead.  */
2120   if (TREE_CODE (orig_type) != METHOD_TYPE
2121        || (VEC_index (ipa_parm_adjustment_t, adjustments, 0)->copy_param
2122          && VEC_index (ipa_parm_adjustment_t, adjustments, 0)->base_index == 0))
2123     {
2124       new_type = build_distinct_type_copy (orig_type);
2125       TYPE_ARG_TYPES (new_type) = new_reversed;
2126     }
2127   else
2128     {
2129       new_type
2130         = build_distinct_type_copy (build_function_type (TREE_TYPE (orig_type),
2131                                                          new_reversed));
2132       TYPE_CONTEXT (new_type) = TYPE_CONTEXT (orig_type);
2133       DECL_VINDEX (fndecl) = NULL_TREE;
2134     }
2135
2136   /* When signature changes, we need to clear builtin info.  */
2137   if (DECL_BUILT_IN (fndecl))
2138     {
2139       DECL_BUILT_IN_CLASS (fndecl) = NOT_BUILT_IN;
2140       DECL_FUNCTION_CODE (fndecl) = (enum built_in_function) 0;
2141     }
2142
2143   /* This is a new type, not a copy of an old type.  Need to reassociate
2144      variants.  We can handle everything except the main variant lazily.  */
2145   t = TYPE_MAIN_VARIANT (orig_type);
2146   if (orig_type != t)
2147     {
2148       TYPE_MAIN_VARIANT (new_type) = t;
2149       TYPE_NEXT_VARIANT (new_type) = TYPE_NEXT_VARIANT (t);
2150       TYPE_NEXT_VARIANT (t) = new_type;
2151     }
2152   else
2153     {
2154       TYPE_MAIN_VARIANT (new_type) = new_type;
2155       TYPE_NEXT_VARIANT (new_type) = NULL;
2156     }
2157
2158   TREE_TYPE (fndecl) = new_type;
2159   DECL_VIRTUAL_P (fndecl) = 0;
2160   if (otypes)
2161     VEC_free (tree, heap, otypes);
2162   VEC_free (tree, heap, oparms);
2163 }
2164
2165 /* Modify actual arguments of a function call CS as indicated in ADJUSTMENTS.
2166    If this is a directly recursive call, CS must be NULL.  Otherwise it must
2167    contain the corresponding call graph edge.  */
2168
2169 void
2170 ipa_modify_call_arguments (struct cgraph_edge *cs, gimple stmt,
2171                            ipa_parm_adjustment_vec adjustments)
2172 {
2173   VEC(tree, heap) *vargs;
2174   gimple new_stmt;
2175   gimple_stmt_iterator gsi;
2176   tree callee_decl;
2177   int i, len;
2178
2179   len = VEC_length (ipa_parm_adjustment_t, adjustments);
2180   vargs = VEC_alloc (tree, heap, len);
2181
2182   gsi = gsi_for_stmt (stmt);
2183   for (i = 0; i < len; i++)
2184     {
2185       struct ipa_parm_adjustment *adj;
2186
2187       adj = VEC_index (ipa_parm_adjustment_t, adjustments, i);
2188
2189       if (adj->copy_param)
2190         {
2191           tree arg = gimple_call_arg (stmt, adj->base_index);
2192
2193           VEC_quick_push (tree, vargs, arg);
2194         }
2195       else if (!adj->remove_param)
2196         {
2197           tree expr, base, off;
2198           location_t loc;
2199
2200           /* We create a new parameter out of the value of the old one, we can
2201              do the following kind of transformations:
2202
2203              - A scalar passed by reference is converted to a scalar passed by
2204                value.  (adj->by_ref is false and the type of the original
2205                actual argument is a pointer to a scalar).
2206
2207              - A part of an aggregate is passed instead of the whole aggregate.
2208                The part can be passed either by value or by reference, this is
2209                determined by value of adj->by_ref.  Moreover, the code below
2210                handles both situations when the original aggregate is passed by
2211                value (its type is not a pointer) and when it is passed by
2212                reference (it is a pointer to an aggregate).
2213
2214              When the new argument is passed by reference (adj->by_ref is true)
2215              it must be a part of an aggregate and therefore we form it by
2216              simply taking the address of a reference inside the original
2217              aggregate.  */
2218
2219           gcc_checking_assert (adj->offset % BITS_PER_UNIT == 0);
2220           base = gimple_call_arg (stmt, adj->base_index);
2221           loc = EXPR_LOCATION (base);
2222
2223           if (TREE_CODE (base) != ADDR_EXPR
2224               && POINTER_TYPE_P (TREE_TYPE (base)))
2225             off = build_int_cst (adj->alias_ptr_type,
2226                                  adj->offset / BITS_PER_UNIT);
2227           else
2228             {
2229               HOST_WIDE_INT base_offset;
2230               tree prev_base;
2231
2232               if (TREE_CODE (base) == ADDR_EXPR)
2233                 base = TREE_OPERAND (base, 0);
2234               prev_base = base;
2235               base = get_addr_base_and_unit_offset (base, &base_offset);
2236               /* Aggregate arguments can have non-invariant addresses.  */
2237               if (!base)
2238                 {
2239                   base = build_fold_addr_expr (prev_base);
2240                   off = build_int_cst (adj->alias_ptr_type,
2241                                        adj->offset / BITS_PER_UNIT);
2242                 }
2243               else if (TREE_CODE (base) == MEM_REF)
2244                 {
2245                   off = build_int_cst (adj->alias_ptr_type,
2246                                        base_offset
2247                                        + adj->offset / BITS_PER_UNIT);
2248                   off = int_const_binop (PLUS_EXPR, TREE_OPERAND (base, 1),
2249                                          off, 0);
2250                   base = TREE_OPERAND (base, 0);
2251                 }
2252               else
2253                 {
2254                   off = build_int_cst (adj->alias_ptr_type,
2255                                        base_offset
2256                                        + adj->offset / BITS_PER_UNIT);
2257                   base = build_fold_addr_expr (base);
2258                 }
2259             }
2260
2261           expr = fold_build2_loc (loc, MEM_REF, adj->type, base, off);
2262           if (adj->by_ref)
2263             expr = build_fold_addr_expr (expr);
2264
2265           expr = force_gimple_operand_gsi (&gsi, expr,
2266                                            adj->by_ref
2267                                            || is_gimple_reg_type (adj->type),
2268                                            NULL, true, GSI_SAME_STMT);
2269           VEC_quick_push (tree, vargs, expr);
2270         }
2271     }
2272
2273   if (dump_file && (dump_flags & TDF_DETAILS))
2274     {
2275       fprintf (dump_file, "replacing stmt:");
2276       print_gimple_stmt (dump_file, gsi_stmt (gsi), 0, 0);
2277     }
2278
2279   callee_decl = !cs ? gimple_call_fndecl (stmt) : cs->callee->decl;
2280   new_stmt = gimple_build_call_vec (callee_decl, vargs);
2281   VEC_free (tree, heap, vargs);
2282   if (gimple_call_lhs (stmt))
2283     gimple_call_set_lhs (new_stmt, gimple_call_lhs (stmt));
2284
2285   gimple_set_block (new_stmt, gimple_block (stmt));
2286   if (gimple_has_location (stmt))
2287     gimple_set_location (new_stmt, gimple_location (stmt));
2288   gimple_call_copy_flags (new_stmt, stmt);
2289   gimple_call_set_chain (new_stmt, gimple_call_chain (stmt));
2290
2291   if (dump_file && (dump_flags & TDF_DETAILS))
2292     {
2293       fprintf (dump_file, "with stmt:");
2294       print_gimple_stmt (dump_file, new_stmt, 0, 0);
2295       fprintf (dump_file, "\n");
2296     }
2297   gsi_replace (&gsi, new_stmt, true);
2298   if (cs)
2299     cgraph_set_call_stmt (cs, new_stmt);
2300   update_ssa (TODO_update_ssa);
2301   free_dominance_info (CDI_DOMINATORS);
2302 }
2303
2304 /* Return true iff BASE_INDEX is in ADJUSTMENTS more than once.  */
2305
2306 static bool
2307 index_in_adjustments_multiple_times_p (int base_index,
2308                                        ipa_parm_adjustment_vec adjustments)
2309 {
2310   int i, len = VEC_length (ipa_parm_adjustment_t, adjustments);
2311   bool one = false;
2312
2313   for (i = 0; i < len; i++)
2314     {
2315       struct ipa_parm_adjustment *adj;
2316       adj = VEC_index (ipa_parm_adjustment_t, adjustments, i);
2317
2318       if (adj->base_index == base_index)
2319         {
2320           if (one)
2321             return true;
2322           else
2323             one = true;
2324         }
2325     }
2326   return false;
2327 }
2328
2329
2330 /* Return adjustments that should have the same effect on function parameters
2331    and call arguments as if they were first changed according to adjustments in
2332    INNER and then by adjustments in OUTER.  */
2333
2334 ipa_parm_adjustment_vec
2335 ipa_combine_adjustments (ipa_parm_adjustment_vec inner,
2336                          ipa_parm_adjustment_vec outer)
2337 {
2338   int i, outlen = VEC_length (ipa_parm_adjustment_t, outer);
2339   int inlen = VEC_length (ipa_parm_adjustment_t, inner);
2340   int removals = 0;
2341   ipa_parm_adjustment_vec adjustments, tmp;
2342
2343   tmp = VEC_alloc (ipa_parm_adjustment_t, heap, inlen);
2344   for (i = 0; i < inlen; i++)
2345     {
2346       struct ipa_parm_adjustment *n;
2347       n = VEC_index (ipa_parm_adjustment_t, inner, i);
2348
2349       if (n->remove_param)
2350         removals++;
2351       else
2352         VEC_quick_push (ipa_parm_adjustment_t, tmp, n);
2353     }
2354
2355   adjustments = VEC_alloc (ipa_parm_adjustment_t, heap, outlen + removals);
2356   for (i = 0; i < outlen; i++)
2357     {
2358       struct ipa_parm_adjustment *r;
2359       struct ipa_parm_adjustment *out = VEC_index (ipa_parm_adjustment_t,
2360                                                    outer, i);
2361       struct ipa_parm_adjustment *in = VEC_index (ipa_parm_adjustment_t, tmp,
2362                                                   out->base_index);
2363
2364       gcc_assert (!in->remove_param);
2365       if (out->remove_param)
2366         {
2367           if (!index_in_adjustments_multiple_times_p (in->base_index, tmp))
2368             {
2369               r = VEC_quick_push (ipa_parm_adjustment_t, adjustments, NULL);
2370               memset (r, 0, sizeof (*r));
2371               r->remove_param = true;
2372             }
2373           continue;
2374         }
2375
2376       r = VEC_quick_push (ipa_parm_adjustment_t, adjustments, NULL);
2377       memset (r, 0, sizeof (*r));
2378       r->base_index = in->base_index;
2379       r->type = out->type;
2380
2381       /* FIXME:  Create nonlocal value too.  */
2382
2383       if (in->copy_param && out->copy_param)
2384         r->copy_param = true;
2385       else if (in->copy_param)
2386         r->offset = out->offset;
2387       else if (out->copy_param)
2388         r->offset = in->offset;
2389       else
2390         r->offset = in->offset + out->offset;
2391     }
2392
2393   for (i = 0; i < inlen; i++)
2394     {
2395       struct ipa_parm_adjustment *n = VEC_index (ipa_parm_adjustment_t,
2396                                                  inner, i);
2397
2398       if (n->remove_param)
2399         VEC_quick_push (ipa_parm_adjustment_t, adjustments, n);
2400     }
2401
2402   VEC_free (ipa_parm_adjustment_t, heap, tmp);
2403   return adjustments;
2404 }
2405
2406 /* Dump the adjustments in the vector ADJUSTMENTS to dump_file in a human
2407    friendly way, assuming they are meant to be applied to FNDECL.  */
2408
2409 void
2410 ipa_dump_param_adjustments (FILE *file, ipa_parm_adjustment_vec adjustments,
2411                             tree fndecl)
2412 {
2413   int i, len = VEC_length (ipa_parm_adjustment_t, adjustments);
2414   bool first = true;
2415   VEC(tree, heap) *parms = ipa_get_vector_of_formal_parms (fndecl);
2416
2417   fprintf (file, "IPA param adjustments: ");
2418   for (i = 0; i < len; i++)
2419     {
2420       struct ipa_parm_adjustment *adj;
2421       adj = VEC_index (ipa_parm_adjustment_t, adjustments, i);
2422
2423       if (!first)
2424         fprintf (file, "                 ");
2425       else
2426         first = false;
2427
2428       fprintf (file, "%i. base_index: %i - ", i, adj->base_index);
2429       print_generic_expr (file, VEC_index (tree, parms, adj->base_index), 0);
2430       if (adj->base)
2431         {
2432           fprintf (file, ", base: ");
2433           print_generic_expr (file, adj->base, 0);
2434         }
2435       if (adj->reduction)
2436         {
2437           fprintf (file, ", reduction: ");
2438           print_generic_expr (file, adj->reduction, 0);
2439         }
2440       if (adj->new_ssa_base)
2441         {
2442           fprintf (file, ", new_ssa_base: ");
2443           print_generic_expr (file, adj->new_ssa_base, 0);
2444         }
2445
2446       if (adj->copy_param)
2447         fprintf (file, ", copy_param");
2448       else if (adj->remove_param)
2449         fprintf (file, ", remove_param");
2450       else
2451         fprintf (file, ", offset %li", (long) adj->offset);
2452       if (adj->by_ref)
2453         fprintf (file, ", by_ref");
2454       print_node_brief (file, ", type: ", adj->type, 0);
2455       fprintf (file, "\n");
2456     }
2457   VEC_free (tree, heap, parms);
2458 }
2459
2460 /* Stream out jump function JUMP_FUNC to OB.  */
2461
2462 static void
2463 ipa_write_jump_function (struct output_block *ob,
2464                          struct ipa_jump_func *jump_func)
2465 {
2466   lto_output_uleb128_stream (ob->main_stream,
2467                              jump_func->type);
2468
2469   switch (jump_func->type)
2470     {
2471     case IPA_JF_UNKNOWN:
2472       break;
2473     case IPA_JF_KNOWN_TYPE:
2474       lto_output_tree (ob, jump_func->value.base_binfo, true);
2475       break;
2476     case IPA_JF_CONST:
2477       lto_output_tree (ob, jump_func->value.constant, true);
2478       break;
2479     case IPA_JF_PASS_THROUGH:
2480       lto_output_tree (ob, jump_func->value.pass_through.operand, true);
2481       lto_output_uleb128_stream (ob->main_stream,
2482                                  jump_func->value.pass_through.formal_id);
2483       lto_output_uleb128_stream (ob->main_stream,
2484                                  jump_func->value.pass_through.operation);
2485       break;
2486     case IPA_JF_ANCESTOR:
2487       lto_output_uleb128_stream (ob->main_stream,
2488                                  jump_func->value.ancestor.offset);
2489       lto_output_tree (ob, jump_func->value.ancestor.type, true);
2490       lto_output_uleb128_stream (ob->main_stream,
2491                                  jump_func->value.ancestor.formal_id);
2492       break;
2493     case IPA_JF_CONST_MEMBER_PTR:
2494       lto_output_tree (ob, jump_func->value.member_cst.pfn, true);
2495       lto_output_tree (ob, jump_func->value.member_cst.delta, false);
2496       break;
2497     }
2498 }
2499
2500 /* Read in jump function JUMP_FUNC from IB.  */
2501
2502 static void
2503 ipa_read_jump_function (struct lto_input_block *ib,
2504                         struct ipa_jump_func *jump_func,
2505                         struct data_in *data_in)
2506 {
2507   jump_func->type = (enum jump_func_type) lto_input_uleb128 (ib);
2508
2509   switch (jump_func->type)
2510     {
2511     case IPA_JF_UNKNOWN:
2512       break;
2513     case IPA_JF_KNOWN_TYPE:
2514       jump_func->value.base_binfo = lto_input_tree (ib, data_in);
2515       break;
2516     case IPA_JF_CONST:
2517       jump_func->value.constant = lto_input_tree (ib, data_in);
2518       break;
2519     case IPA_JF_PASS_THROUGH:
2520       jump_func->value.pass_through.operand = lto_input_tree (ib, data_in);
2521       jump_func->value.pass_through.formal_id = lto_input_uleb128 (ib);
2522       jump_func->value.pass_through.operation = (enum tree_code) lto_input_uleb128 (ib);
2523       break;
2524     case IPA_JF_ANCESTOR:
2525       jump_func->value.ancestor.offset = lto_input_uleb128 (ib);
2526       jump_func->value.ancestor.type = lto_input_tree (ib, data_in);
2527       jump_func->value.ancestor.formal_id = lto_input_uleb128 (ib);
2528       break;
2529     case IPA_JF_CONST_MEMBER_PTR:
2530       jump_func->value.member_cst.pfn = lto_input_tree (ib, data_in);
2531       jump_func->value.member_cst.delta = lto_input_tree (ib, data_in);
2532       break;
2533     }
2534 }
2535
2536 /* Stream out parts of cgraph_indirect_call_info corresponding to CS that are
2537    relevant to indirect inlining to OB.  */
2538
2539 static void
2540 ipa_write_indirect_edge_info (struct output_block *ob,
2541                               struct cgraph_edge *cs)
2542 {
2543   struct cgraph_indirect_call_info *ii = cs->indirect_info;
2544   struct bitpack_d bp;
2545
2546   lto_output_sleb128_stream (ob->main_stream, ii->param_index);
2547   lto_output_sleb128_stream (ob->main_stream, ii->anc_offset);
2548   bp = bitpack_create (ob->main_stream);
2549   bp_pack_value (&bp, ii->polymorphic, 1);
2550   lto_output_bitpack (&bp);
2551
2552   if (ii->polymorphic)
2553     {
2554       lto_output_sleb128_stream (ob->main_stream, ii->otr_token);
2555       lto_output_tree (ob, ii->otr_type, true);
2556     }
2557 }
2558
2559 /* Read in parts of cgraph_indirect_call_info corresponding to CS that are
2560    relevant to indirect inlining from IB.  */
2561
2562 static void
2563 ipa_read_indirect_edge_info (struct lto_input_block *ib,
2564                              struct data_in *data_in ATTRIBUTE_UNUSED,
2565                              struct cgraph_edge *cs)
2566 {
2567   struct cgraph_indirect_call_info *ii = cs->indirect_info;
2568   struct bitpack_d bp;
2569
2570   ii->param_index = (int) lto_input_sleb128 (ib);
2571   ii->anc_offset = (HOST_WIDE_INT) lto_input_sleb128 (ib);
2572   bp = lto_input_bitpack (ib);
2573   ii->polymorphic = bp_unpack_value (&bp, 1);
2574   if (ii->polymorphic)
2575     {
2576       ii->otr_token = (HOST_WIDE_INT) lto_input_sleb128 (ib);
2577       ii->otr_type = lto_input_tree (ib, data_in);
2578     }
2579 }
2580
2581 /* Stream out NODE info to OB.  */
2582
2583 static void
2584 ipa_write_node_info (struct output_block *ob, struct cgraph_node *node)
2585 {
2586   int node_ref;
2587   lto_cgraph_encoder_t encoder;
2588   struct ipa_node_params *info = IPA_NODE_REF (node);
2589   int j;
2590   struct cgraph_edge *e;
2591   struct bitpack_d bp;
2592
2593   encoder = ob->decl_state->cgraph_node_encoder;
2594   node_ref = lto_cgraph_encoder_encode (encoder, node);
2595   lto_output_uleb128_stream (ob->main_stream, node_ref);
2596
2597   bp = bitpack_create (ob->main_stream);
2598   bp_pack_value (&bp, info->called_with_var_arguments, 1);
2599   gcc_assert (info->uses_analysis_done
2600               || ipa_get_param_count (info) == 0);
2601   gcc_assert (!info->node_enqueued);
2602   gcc_assert (!info->ipcp_orig_node);
2603   for (j = 0; j < ipa_get_param_count (info); j++)
2604     bp_pack_value (&bp, info->params[j].used, 1);
2605   lto_output_bitpack (&bp);
2606   for (e = node->callees; e; e = e->next_callee)
2607     {
2608       struct ipa_edge_args *args = IPA_EDGE_REF (e);
2609
2610       lto_output_uleb128_stream (ob->main_stream,
2611                                  ipa_get_cs_argument_count (args));
2612       for (j = 0; j < ipa_get_cs_argument_count (args); j++)
2613         ipa_write_jump_function (ob, ipa_get_ith_jump_func (args, j));
2614     }
2615   for (e = node->indirect_calls; e; e = e->next_callee)
2616     ipa_write_indirect_edge_info (ob, e);
2617 }
2618
2619 /* Srtream in NODE info from IB.  */
2620
2621 static void
2622 ipa_read_node_info (struct lto_input_block *ib, struct cgraph_node *node,
2623                     struct data_in *data_in)
2624 {
2625   struct ipa_node_params *info = IPA_NODE_REF (node);
2626   int k;
2627   struct cgraph_edge *e;
2628   struct bitpack_d bp;
2629
2630   ipa_initialize_node_params (node);
2631
2632   bp = lto_input_bitpack (ib);
2633   info->called_with_var_arguments = bp_unpack_value (&bp, 1);
2634   if (ipa_get_param_count (info) != 0)
2635     info->uses_analysis_done = true;
2636   info->node_enqueued = false;
2637   for (k = 0; k < ipa_get_param_count (info); k++)
2638     info->params[k].used = bp_unpack_value (&bp, 1);
2639   for (e = node->callees; e; e = e->next_callee)
2640     {
2641       struct ipa_edge_args *args = IPA_EDGE_REF (e);
2642       int count = lto_input_uleb128 (ib);
2643
2644       ipa_set_cs_argument_count (args, count);
2645       if (!count)
2646         continue;
2647
2648       args->jump_functions = ggc_alloc_cleared_vec_ipa_jump_func
2649         (ipa_get_cs_argument_count (args));
2650       for (k = 0; k < ipa_get_cs_argument_count (args); k++)
2651         ipa_read_jump_function (ib, ipa_get_ith_jump_func (args, k), data_in);
2652     }
2653   for (e = node->indirect_calls; e; e = e->next_callee)
2654     ipa_read_indirect_edge_info (ib, data_in, e);
2655 }
2656
2657 /* Write jump functions for nodes in SET.  */
2658
2659 void
2660 ipa_prop_write_jump_functions (cgraph_node_set set)
2661 {
2662   struct cgraph_node *node;
2663   struct output_block *ob = create_output_block (LTO_section_jump_functions);
2664   unsigned int count = 0;
2665   cgraph_node_set_iterator csi;
2666
2667   ob->cgraph_node = NULL;
2668
2669   for (csi = csi_start (set); !csi_end_p (csi); csi_next (&csi))
2670     {
2671       node = csi_node (csi);
2672       if (node->analyzed && IPA_NODE_REF (node) != NULL)
2673         count++;
2674     }
2675
2676   lto_output_uleb128_stream (ob->main_stream, count);
2677
2678   /* Process all of the functions.  */
2679   for (csi = csi_start (set); !csi_end_p (csi); csi_next (&csi))
2680     {
2681       node = csi_node (csi);
2682       if (node->analyzed && IPA_NODE_REF (node) != NULL)
2683         ipa_write_node_info (ob, node);
2684     }
2685   lto_output_1_stream (ob->main_stream, 0);
2686   produce_asm (ob, NULL);
2687   destroy_output_block (ob);
2688 }
2689
2690 /* Read section in file FILE_DATA of length LEN with data DATA.  */
2691
2692 static void
2693 ipa_prop_read_section (struct lto_file_decl_data *file_data, const char *data,
2694                        size_t len)
2695 {
2696   const struct lto_function_header *header =
2697     (const struct lto_function_header *) data;
2698   const int32_t cfg_offset = sizeof (struct lto_function_header);
2699   const int32_t main_offset = cfg_offset + header->cfg_size;
2700   const int32_t string_offset = main_offset + header->main_size;
2701   struct data_in *data_in;
2702   struct lto_input_block ib_main;
2703   unsigned int i;
2704   unsigned int count;
2705
2706   LTO_INIT_INPUT_BLOCK (ib_main, (const char *) data + main_offset, 0,
2707                         header->main_size);
2708
2709   data_in =
2710     lto_data_in_create (file_data, (const char *) data + string_offset,
2711                         header->string_size, NULL);
2712   count = lto_input_uleb128 (&ib_main);
2713
2714   for (i = 0; i < count; i++)
2715     {
2716       unsigned int index;
2717       struct cgraph_node *node;
2718       lto_cgraph_encoder_t encoder;
2719
2720       index = lto_input_uleb128 (&ib_main);
2721       encoder = file_data->cgraph_node_encoder;
2722       node = lto_cgraph_encoder_deref (encoder, index);
2723       gcc_assert (node->analyzed);
2724       ipa_read_node_info (&ib_main, node, data_in);
2725     }
2726   lto_free_section_data (file_data, LTO_section_jump_functions, NULL, data,
2727                          len);
2728   lto_data_in_delete (data_in);
2729 }
2730
2731 /* Read ipcp jump functions.  */
2732
2733 void
2734 ipa_prop_read_jump_functions (void)
2735 {
2736   struct lto_file_decl_data **file_data_vec = lto_get_file_decl_data ();
2737   struct lto_file_decl_data *file_data;
2738   unsigned int j = 0;
2739
2740   ipa_check_create_node_params ();
2741   ipa_check_create_edge_args ();
2742   ipa_register_cgraph_hooks ();
2743
2744   while ((file_data = file_data_vec[j++]))
2745     {
2746       size_t len;
2747       const char *data = lto_get_section_data (file_data, LTO_section_jump_functions, NULL, &len);
2748
2749       if (data)
2750         ipa_prop_read_section (file_data, data, len);
2751     }
2752 }
2753
2754 /* After merging units, we can get mismatch in argument counts.
2755    Also decl merging might've rendered parameter lists obsolette.
2756    Also compute called_with_variable_arg info.  */
2757
2758 void
2759 ipa_update_after_lto_read (void)
2760 {
2761   struct cgraph_node *node;
2762   struct cgraph_edge *cs;
2763
2764   ipa_check_create_node_params ();
2765   ipa_check_create_edge_args ();
2766
2767   for (node = cgraph_nodes; node; node = node->next)
2768     if (node->analyzed)
2769       ipa_initialize_node_params (node);
2770
2771   for (node = cgraph_nodes; node; node = node->next)
2772     if (node->analyzed)
2773       for (cs = node->callees; cs; cs = cs->next_callee)
2774         {
2775           if (ipa_get_cs_argument_count (IPA_EDGE_REF (cs))
2776               != ipa_get_param_count (IPA_NODE_REF (cs->callee)))
2777             ipa_set_called_with_variable_arg (IPA_NODE_REF (cs->callee));
2778         }
2779 }