OSDN Git Service

* doc/invoke.texi (RS/6000 and PowerPC Options): Add -m to the
[pf3gnuchains/gcc-fork.git] / gcc / ipa-inline.c
index fa91cbd..638fdef 100644 (file)
@@ -243,24 +243,31 @@ cgraph_estimate_growth (struct cgraph_node *node)
 }
 
 /* Return false when inlining WHAT into TO is not good idea
-   as it would cause too large growth of function bodies.  */
+   as it would cause too large growth of function bodies.  
+   When ONE_ONLY is true, assume that only one call site is going
+   to be inlined, otherwise figure out how many call sites in
+   TO calls WHAT and verify that all can be inlined.
+   */
 
 static bool
 cgraph_check_inline_limits (struct cgraph_node *to, struct cgraph_node *what,
-                           const char **reason)
+                           const char **reason, bool one_only)
 {
   int times = 0;
   struct cgraph_edge *e;
   int newsize;
   int limit;
 
+  if (one_only)
+    times = 1;
+  else
+    for (e = to->callees; e; e = e->next_callee)
+      if (e->callee == what)
+       times++;
+
   if (to->global.inlined_to)
     to = to->global.inlined_to;
 
-  for (e = to->callees; e; e = e->next_callee)
-    if (e->callee == what)
-      times++;
-
   /* When inlining large function body called once into small function,
      take the inlined function as base for limiting the growth.  */
   if (to->local.self_insns > what->local.self_insns)
@@ -270,8 +277,11 @@ cgraph_check_inline_limits (struct cgraph_node *to, struct cgraph_node *what,
 
   limit += limit * PARAM_VALUE (PARAM_LARGE_FUNCTION_GROWTH) / 100;
 
+  /* Check the size after inlining against the function limits.  But allow
+     the function to shrink if it went over the limits by forced inlining.  */
   newsize = cgraph_estimate_size_after_inlining (times, to, what);
-  if (newsize > PARAM_VALUE (PARAM_LARGE_FUNCTION_INSNS)
+  if (newsize >= to->global.insns
+      && newsize > PARAM_VALUE (PARAM_LARGE_FUNCTION_INSNS)
       && newsize > limit)
     {
       if (reason)
@@ -410,6 +420,7 @@ update_caller_keys (fibheap_t heap, struct cgraph_node *node,
                    bitmap updated_nodes)
 {
   struct cgraph_edge *edge;
+  const char *failed_reason;
 
   if (!node->local.inlinable || node->local.disregard_inline_limits
       || node->global.inlined_to)
@@ -419,6 +430,22 @@ update_caller_keys (fibheap_t heap, struct cgraph_node *node,
   bitmap_set_bit (updated_nodes, node->uid);
   node->global.estimated_growth = INT_MIN;
 
+  if (!node->local.inlinable)
+    return;
+  /* Prune out edges we won't inline into anymore.  */
+  if (!cgraph_default_inline_p (node, &failed_reason))
+    {
+      for (edge = node->callers; edge; edge = edge->next_caller)
+       if (edge->aux)
+         {
+           fibheap_delete_node (heap, edge->aux);
+           edge->aux = NULL;
+           if (edge->inline_failed)
+             edge->inline_failed = failed_reason;
+         }
+      return;
+    }
+
   for (edge = node->callers; edge; edge = edge->next_caller)
     if (edge->inline_failed)
       {
@@ -550,7 +577,7 @@ cgraph_decide_recursive_inlining (struct cgraph_node *node)
   int probability = PARAM_VALUE (PARAM_MIN_INLINE_RECURSIVE_PROBABILITY);
   fibheap_t heap;
   struct cgraph_edge *e;
-  struct cgraph_node *master_clone;
+  struct cgraph_node *master_clone, *next;
   int depth = 0;
   int n = 0;
 
@@ -651,9 +678,12 @@ cgraph_decide_recursive_inlining (struct cgraph_node *node)
      into master clone gets queued just before master clone so we don't
      need recursion.  */
   for (node = cgraph_nodes; node != master_clone;
-       node = node->next)
-    if (node->global.inlined_to == master_clone)
-      cgraph_remove_node (node);
+       node = next)
+    {
+      next = node->next;
+      if (node->global.inlined_to == master_clone)
+       cgraph_remove_node (node);
+    }
   cgraph_remove_node (master_clone);
   /* FIXME: Recursive inlining actually reduces number of calls of the
      function.  At this place we should probably walk the function and
@@ -813,7 +843,7 @@ cgraph_decide_inlining_of_small_functions (void)
        {
          struct cgraph_node *callee;
          if (!cgraph_check_inline_limits (edge->caller, edge->callee,
-                                          &edge->inline_failed))
+                                          &edge->inline_failed, true))
            {
              if (dump_file)
                fprintf (dump_file, " Not inlining into %s:%s.\n",
@@ -863,26 +893,36 @@ cgraph_decide_inlining_of_small_functions (void)
 /* Decide on the inlining.  We do so in the topological order to avoid
    expenses on updating data structures.  */
 
-static void
+static unsigned int
 cgraph_decide_inlining (void)
 {
   struct cgraph_node *node;
   int nnodes;
   struct cgraph_node **order =
-    xcalloc (cgraph_n_nodes, sizeof (struct cgraph_node *));
+    XCNEWVEC (struct cgraph_node *, cgraph_n_nodes);
   int old_insns = 0;
   int i;
 
   timevar_push (TV_INLINE_HEURISTICS);
   max_count = 0;
   for (node = cgraph_nodes; node; node = node->next)
-    {
-      struct cgraph_edge *e;
-      initial_insns += node->local.self_insns;
-      for (e = node->callees; e; e = e->next_callee)
-       if (max_count < e->count)
-         max_count = e->count;
-    }
+    if (node->analyzed && (node->needed || node->reachable))
+      {
+       struct cgraph_edge *e;
+
+       /* At the moment, no IPA passes change function bodies before inlining.
+          Save some time by not recomputing function body sizes if early inlining
+          already did so.  */
+       if (!flag_early_inlining)
+         node->local.self_insns = node->global.insns
+            = estimate_num_insns (node->decl);
+
+       initial_insns += node->local.self_insns;
+       gcc_assert (node->local.self_insns == node->global.insns);
+       for (e = node->callees; e; e = e->next_callee)
+         if (max_count < e->count)
+           max_count = e->count;
+      }
   overall_insns = initial_insns;
   gcc_assert (!max_count || (profile_info && flag_branch_probabilities));
 
@@ -1004,7 +1044,7 @@ cgraph_decide_inlining (void)
                  old_insns = overall_insns;
 
                  if (cgraph_check_inline_limits (node->callers->caller, node,
-                                                 NULL))
+                                                 NULL, false))
                    {
                      cgraph_mark_inline (node->callers);
                      if (dump_file)
@@ -1034,6 +1074,7 @@ cgraph_decide_inlining (void)
             overall_insns);
   free (order);
   timevar_pop (TV_INLINE_HEURISTICS);
+  return 0;
 }
 
 /* Decide on the inlining.  We do so in the topological order to avoid
@@ -1073,9 +1114,10 @@ cgraph_decide_inlining_incrementally (struct cgraph_node *node, bool early)
          && !e->callee->local.disregard_inline_limits
          && !cgraph_recursive_inlining_p (node, e->callee, &e->inline_failed)
          && (!early
-             || (cgraph_estimate_size_after_inlining (1, e->caller, node)
+             || (cgraph_estimate_size_after_inlining (1, e->caller, e->callee)
                  <= e->caller->global.insns))
-         && cgraph_check_inline_limits (node, e->callee, &e->inline_failed)
+         && cgraph_check_inline_limits (node, e->callee, &e->inline_failed,
+                                        false)
          && (DECL_SAVED_TREE (e->callee->decl) || e->callee->inline_decl))
        {
          if (cgraph_default_inline_p (e->callee, &failed_reason))
@@ -1129,40 +1171,57 @@ struct tree_opt_pass pass_ipa_inline =
   0                                    /* letter */
 };
 
+/* Because inlining might remove no-longer reachable nodes, we need to
+   keep the array visible to garbage collector to avoid reading collected
+   out nodes.  */
+static int nnodes;
+static GTY ((length ("nnodes"))) struct cgraph_node **order;
+
 /* Do inlining of small functions.  Doing so early helps profiling and other
    passes to be somewhat more effective and avoids some code duplication in
    later real inlining pass for testcases with very many function calls.  */
-static void
+static unsigned int
 cgraph_early_inlining (void)
 {
   struct cgraph_node *node;
-  int nnodes;
-  struct cgraph_node **order =
-    xcalloc (cgraph_n_nodes, sizeof (struct cgraph_node *));
   int i;
 
   if (sorrycount || errorcount)
-    return;
+    return 0;
 #ifdef ENABLE_CHECKING
   for (node = cgraph_nodes; node; node = node->next)
     gcc_assert (!node->aux);
 #endif
 
+  order = ggc_alloc (sizeof (*order) * cgraph_n_nodes);
   nnodes = cgraph_postorder (order);
   for (i = nnodes - 1; i >= 0; i--)
     {
       node = order[i];
+      if (node->analyzed && (node->needed || node->reachable))
+        node->local.self_insns = node->global.insns
+         = estimate_num_insns (node->decl);
+    }
+  for (i = nnodes - 1; i >= 0; i--)
+    {
+      node = order[i];
       if (node->analyzed && node->local.inlinable
          && (node->needed || node->reachable)
          && node->callers)
-       cgraph_decide_inlining_incrementally (node, true);
+       {
+         if (cgraph_decide_inlining_incrementally (node, true))
+           ggc_collect ();
+       }
     }
   cgraph_remove_unreachable_nodes (true, dump_file);
 #ifdef ENABLE_CHECKING
   for (node = cgraph_nodes; node; node = node->next)
     gcc_assert (!node->global.inlined_to);
 #endif
-  free (order);
+  ggc_free (order);
+  order = NULL;
+  nnodes = 0;
+  return 0;
 }
 
 /* When inlining shall be performed.  */
@@ -1188,3 +1247,5 @@ struct tree_opt_pass pass_early_ipa_inline =
   TODO_dump_cgraph | TODO_dump_func,   /* todo_flags_finish */
   0                                    /* letter */
 };
+
+#include "gt-ipa-inline.h"