OSDN Git Service

libunwind related patch from David Mosberger
[pf3gnuchains/gcc-fork.git] / gcc / cgraphunit.c
index c01bba6..d2d4d4c 100644 (file)
@@ -1,4 +1,4 @@
-/* Callgraph handling code.
+/* Callgraph based intraprocedural optimizations.
    Copyright (C) 2003 Free Software Foundation, Inc.
    Contributed by Jan Hubicka
 
@@ -34,168 +34,381 @@ Software Foundation, 59 Temple Place - Suite 330, Boston, MA
 #include "target.h"
 #include "cgraph.h"
 #include "diagnostic.h"
+#include "timevar.h"
+#include "params.h"
+#include "fibheap.h"
+#include "c-common.h"
 
-static void cgraph_expand_functions PARAMS ((void));
-static void cgraph_mark_functions_to_output PARAMS ((void));
-static void cgraph_expand_function PARAMS ((struct cgraph_node *));
-static tree record_call_1 PARAMS ((tree *, int *, void *));
-static void cgraph_mark_local_functions PARAMS ((void));
-static void cgraph_mark_functions_to_inline_once PARAMS ((void));
-static void cgraph_optimize_function PARAMS ((struct cgraph_node *));
+#define INSNS_PER_CALL 10
 
-/* Analyze function once it is parsed.  Set up the local information
-   available - create cgraph edges for function calles via BODY.  */
+static void cgraph_expand_all_functions (void);
+static void cgraph_mark_functions_to_output (void);
+static void cgraph_expand_function (struct cgraph_node *);
+static tree record_call_1 (tree *, int *, void *);
+static void cgraph_mark_local_functions (void);
+static void cgraph_optimize_function (struct cgraph_node *);
+static bool cgraph_default_inline_p (struct cgraph_node *n);
+static void cgraph_analyze_function (struct cgraph_node *node);
+static void cgraph_decide_inlining_incrementally (struct cgraph_node *);
 
-void
-cgraph_finalize_function (decl, body)
-     tree decl;
-     tree body ATTRIBUTE_UNUSED;
+/* Statistics we collect about inlining algorithm.  */
+static int ncalls_inlined;
+static int nfunctions_inlined;
+static int initial_insns;
+static int overall_insns;
+
+/* Records tree nodes seen in cgraph_create_edges.  Simply using
+   walk_tree_without_duplicates doesn't guarantee each node is visited
+   once because it gets a new htab upon each recursive call from
+   record_calls_1.  */
+static htab_t visited_nodes;
+
+/* Determine if function DECL is needed.  That is, visible to something
+   either outside this translation unit, something magic in the system
+   configury, or (if not doing unit-at-a-time) to something we havn't
+   seen yet.  */
+
+static bool
+decide_is_function_needed (struct cgraph_node *node, tree decl)
 {
-  struct cgraph_node *node = cgraph_node (decl);
+  /* If we decided it was needed before, but at the time we didn't have
+     the body of the function available, then it's still needed.  We have
+     to go back and re-check its dependencies now.  */
+  if (node->needed)
+    return true;
 
-  node->decl = decl;
+  /* Externally visible functions must be output.  The exception is
+     COMDAT functions that must be output only when they are needed.  */
+  if (TREE_PUBLIC (decl) && !DECL_COMDAT (decl) && !DECL_EXTERNAL (decl))
+    return true;
 
-  node->local.can_inline_once = tree_inlinable_function_p (decl, 1);
-  if (flag_inline_trees)
-    node->local.inline_many = tree_inlinable_function_p (decl, 0);
-  else
-    node->local.inline_many = 0;
+  /* Constructors and destructors are reachable from the runtime by
+     some mechanism.  */
+  if (DECL_STATIC_CONSTRUCTOR (decl) || DECL_STATIC_DESTRUCTOR (decl))
+    return true;
+
+  /* If the user told us it is used, then it must be so.  */
+  if (lookup_attribute ("used", DECL_ATTRIBUTES (decl)))
+    return true;
+
+  /* ??? If the assembler name is set by hand, it is possible to assemble
+     the name later after finalizing the function and the fact is noticed
+     in assemble_name then.  This is arguably a bug.  */
+  if (DECL_ASSEMBLER_NAME_SET_P (decl)
+      && TREE_SYMBOL_REFERENCED (DECL_ASSEMBLER_NAME (decl)))
+    return true;
+
+  if (flag_unit_at_a_time)
+    return false;
+
+  /* If not doing unit at a time, then we'll only defer this function
+     if its marked for inlining.  Otherwise we want to emit it now.  */
 
-  (*debug_hooks->deferred_inline_function) (decl);
+  /* "extern inline" functions are never output locally.  */
+  if (DECL_EXTERNAL (decl))
+    return false;
+  /* We want to emit COMDAT functions only when absolutely necessary.  */
+  if (DECL_COMDAT (decl))
+    return false;
+  if (!DECL_INLINE (decl)
+      || (!node->local.disregard_inline_limits
+         /* When declared inline, defer even the uninlinable functions.
+            This allows them to be eliminated when unused.  */
+         && !DECL_DECLARED_INLINE_P (decl) 
+         && (!node->local.inlinable || !cgraph_default_inline_p (node))))
+    return true;
+
+  return false;
 }
 
-static struct cgraph_node *queue = NULL;
+/* When not doing unit-at-a-time, output all functions enqueued.
+   Return true when such a functions were found.  */
 
-/* Notify finalize_compilation_unit that given node is reachable
-   or needed.  */
-void
-cgraph_mark_needed_node (node, needed)
-     struct cgraph_node *node;
-     int needed;
+bool
+cgraph_assemble_pending_functions (void)
 {
-  if (needed)
+  bool output = false;
+
+  if (flag_unit_at_a_time)
+    return false;
+
+  while (cgraph_nodes_queue)
     {
-      if (DECL_SAVED_TREE (node->decl))
-        announce_function (node->decl);
-      node->needed = 1;
+      struct cgraph_node *n = cgraph_nodes_queue;
+
+      cgraph_nodes_queue = cgraph_nodes_queue->next_needed;
+      if (!n->origin && !DECL_EXTERNAL (n->decl))
+       {
+         cgraph_expand_function (n);
+         output = true;
+       }
     }
-  if (!node->reachable)
+
+  return output;
+}
+
+/* DECL has been parsed.  Take it, queue it, compile it at the whim of the
+   logic in effect.  If NESTED is true, then our caller cannot stand to have
+   the garbage collector run at the moment.  We would need to either create
+   a new GC context, or just not compile right now.  */
+
+void
+cgraph_finalize_function (tree decl, bool nested)
+{
+  struct cgraph_node *node = cgraph_node (decl);
+
+  if (node->local.finalized)
     {
-      node->reachable = 1;
-      if (DECL_SAVED_TREE (node->decl))
+      /* As an GCC extension we allow redefinition of the function.  The
+        semantics when both copies of bodies differ is not well defined.
+        We replace the old body with new body so in unit at a time mode
+        we always use new body, while in normal mode we may end up with
+        old body inlined into some functions and new body expanded and
+        inlined in others.
+        
+        ??? It may make more sense to use one body for inlining and other
+        body for expanding the function but this is difficult to do.  */
+
+      /* If node->output is set, then this is a unit-at-a-time compilation
+        and we have already begun whole-unit analysis.  This is *not*
+        testing for whether we've already emitted the function.  That
+        case can be sort-of legitimately seen with real function 
+        redefinition errors.  I would argue that the front end should
+        never present us with such a case, but don't enforce that for now.  */
+      if (node->output)
+       abort ();
+
+      /* Reset our datastructures so we can analyze the function again.  */
+      memset (&node->local, 0, sizeof (node->local));
+      memset (&node->global, 0, sizeof (node->global));
+      memset (&node->rtl, 0, sizeof (node->rtl));
+      node->analyzed = false;
+      while (node->callees)
+       cgraph_remove_edge (node, node->callees->callee);
+
+      /* We may need to re-queue the node for assembling in case
+         we already proceeded it and ignored as not needed.  */
+      if (node->reachable && !flag_unit_at_a_time)
        {
-         node->aux = queue;
-         queue = node;
-        }
+         struct cgraph_node *n;
+
+         for (n = cgraph_nodes_queue; n; n = n->next_needed)
+           if (n == node)
+             break;
+         if (!n)
+           node->reachable = 0;
+       }
     }
+
+  notice_global_symbol (decl);
+  node->decl = decl;
+  node->local.finalized = true;
+
+  /* If not unit at a time, then we need to create the call graph
+     now, so that called functions can be queued and emitted now.  */
+  if (!flag_unit_at_a_time)
+    {
+      cgraph_analyze_function (node);
+      cgraph_decide_inlining_incrementally (node);
+    }
+
+  if (decide_is_function_needed (node, decl))
+    cgraph_mark_needed_node (node);
+
+  /* If not unit at a time, go ahead and emit everything we've found
+     to be reachable at this time.  */
+  if (!nested)
+    cgraph_assemble_pending_functions ();
+
+  /* If we've not yet emitted decl, tell the debug info about it.  */
+  if (!TREE_ASM_WRITTEN (decl))
+    (*debug_hooks->deferred_inline_function) (decl);
 }
 
 /* Walk tree and record all calls.  Called via walk_tree.  */
 static tree
-record_call_1 (tp, walk_subtrees, data)
-     tree *tp;
-     int *walk_subtrees;
-     void *data;
+record_call_1 (tree *tp, int *walk_subtrees, void *data)
 {
-  /* Record dereferences to the functions.  This makes the functions
-     reachable unconditionally.  */
-  if (TREE_CODE (*tp) == ADDR_EXPR)
-    {
-      tree decl = TREE_OPERAND (*tp, 0);
-      if (TREE_CODE (decl) == FUNCTION_DECL)
-        cgraph_mark_needed_node (cgraph_node (decl), 1);
-    }
-  else if (TREE_CODE (*tp) == CALL_EXPR)
+  tree t = *tp;
+
+  switch (TREE_CODE (t))
     {
-      tree decl = TREE_OPERAND (*tp, 0);
-      if (TREE_CODE (decl) == ADDR_EXPR)
-       decl = TREE_OPERAND (decl, 0);
-      if (TREE_CODE (decl) == FUNCTION_DECL)
+    case VAR_DECL:
+      /* ??? Really, we should mark this decl as *potentially* referenced
+        by this function and re-examine whether the decl is actually used
+        after rtl has been generated.  */
+      if (TREE_STATIC (t))
+        cgraph_varpool_mark_needed_node (cgraph_varpool_node (t));
+      break;
+
+    case ADDR_EXPR:
+      if (flag_unit_at_a_time)
+       {
+         /* Record dereferences to the functions.  This makes the
+            functions reachable unconditionally.  */
+         tree decl = TREE_OPERAND (*tp, 0);
+         if (TREE_CODE (decl) == FUNCTION_DECL)
+           cgraph_mark_needed_node (cgraph_node (decl));
+       }
+      break;
+
+    case CALL_EXPR:
+      {
+       tree decl = get_callee_fndecl (*tp);
+       if (decl && TREE_CODE (decl) == FUNCTION_DECL)
+         {
+           if (DECL_BUILT_IN (decl))
+             return NULL;
+           cgraph_record_call (data, decl);
+
+           /* When we see a function call, we don't want to look at the
+              function reference in the ADDR_EXPR that is hanging from
+              the CALL_EXPR we're examining here, because we would
+              conclude incorrectly that the function's address could be
+              taken by something that is not a function call.  So only
+              walk the function parameter list, skip the other subtrees.  */
+
+           walk_tree (&TREE_OPERAND (*tp, 1), record_call_1, data,
+                      visited_nodes);
+           *walk_subtrees = 0;
+         }
+       break;
+      }
+
+    default:
+      /* Save some cycles by not walking types and declaration as we
+        won't find anything useful there anyway.  */
+      if (DECL_P (*tp) || TYPE_P (*tp))
        {
-         if (DECL_BUILT_IN (decl))
-           return NULL;
-         cgraph_record_call (data, decl);
-         walk_tree (&TREE_OPERAND (*tp, 1), record_call_1, data, NULL);
          *walk_subtrees = 0;
+         break;
        }
+
+      if ((unsigned int) TREE_CODE (t) >= LAST_AND_UNUSED_TREE_CODE)
+       return (*lang_hooks.callgraph.analyze_expr) (tp, walk_subtrees, data);
+      break;
     }
+
   return NULL;
 }
 
-/* Create cgraph edges for function calles via BODY.  */
+/* Create cgraph edges for function calls inside BODY from DECL.  */
 
 void
-cgraph_create_edges (decl, body)
-     tree decl;
-     tree body;
+cgraph_create_edges (tree decl, tree body)
+{
+  /* The nodes we're interested in are never shared, so walk
+     the tree ignoring duplicates.  */
+  visited_nodes = htab_create (37, htab_hash_pointer,
+                                   htab_eq_pointer, NULL);
+  walk_tree (&body, record_call_1, decl, visited_nodes);
+  htab_delete (visited_nodes);
+  visited_nodes = NULL;
+}
+
+/* Analyze the function scheduled to be output.  */
+static void
+cgraph_analyze_function (struct cgraph_node *node)
 {
-  walk_tree (&body, record_call_1, decl, NULL);
+  tree decl = node->decl;
+
+  current_function_decl = decl;
+
+  /* First kill forward declaration so reverse inlining works properly.  */
+  cgraph_create_edges (decl, DECL_SAVED_TREE (decl));
+
+  node->local.inlinable = tree_inlinable_function_p (decl);
+  if (!DECL_ESTIMATED_INSNS (decl))
+    DECL_ESTIMATED_INSNS (decl)
+      = (*lang_hooks.tree_inlining.estimate_num_insns) (decl);
+  node->local.self_insns = DECL_ESTIMATED_INSNS (decl);
+  if (node->local.inlinable)
+    node->local.disregard_inline_limits
+      = (*lang_hooks.tree_inlining.disregard_inline_limits) (decl);
+
+  /* Inlining characteristics are maintained by the cgraph_mark_inline.  */
+  node->global.insns = node->local.self_insns;
+  if (!DECL_EXTERNAL (decl))
+    {
+      node->global.cloned_times = 1;
+      node->global.will_be_output = true;
+    }
+
+  node->analyzed = true;
+  current_function_decl = NULL;
 }
 
 /* Analyze the whole compilation unit once it is parsed completely.  */
 
 void
-cgraph_finalize_compilation_unit ()
+cgraph_finalize_compilation_unit (void)
 {
   struct cgraph_node *node;
-  struct cgraph_edge *edge;
 
-  /* Collect entry points to the unit.  */
+  if (!flag_unit_at_a_time)
+    {
+      cgraph_assemble_pending_functions ();
+      return;
+    }
 
+  cgraph_varpool_assemble_pending_decls ();
   if (!quiet_flag)
-    fprintf (stderr, "\n\nUnit entry points:");
+    fprintf (stderr, "\nAnalyzing compilation unit\n");
 
-  for (node = cgraph_nodes; node; node = node->next)
+  timevar_push (TV_CGRAPH);
+  if (cgraph_dump_file)
     {
-      tree decl = node->decl;
-
-      if (!DECL_SAVED_TREE (decl))
-       continue;
-      if ((TREE_PUBLIC (decl) && !DECL_COMDAT (decl) && !DECL_EXTERNAL (decl))
-         || (DECL_ASSEMBLER_NAME_SET_P (decl)
-             && TREE_SYMBOL_REFERENCED (DECL_ASSEMBLER_NAME (decl))))
-       {
-          cgraph_mark_needed_node (node, 1);
-       }
+      fprintf (cgraph_dump_file, "Initial entry points:");
+      for (node = cgraph_nodes; node; node = node->next)
+       if (node->needed && DECL_SAVED_TREE (node->decl))
+         fprintf (cgraph_dump_file, " %s", cgraph_node_name (node));
+      fprintf (cgraph_dump_file, "\n");
     }
 
-  /*  Propagate reachability flag and lower representation of all reachable
-      functions.  In the future, lowering will introduce new functions and
-      new entry points on the way (by template instantiation and virtual
-      method table generation for instance).  */
-  while (queue)
+  /* Propagate reachability flag and lower representation of all reachable
+     functions.  In the future, lowering will introduce new functions and
+     new entry points on the way (by template instantiation and virtual
+     method table generation for instance).  */
+  while (cgraph_nodes_queue)
     {
-      tree decl = queue->decl;
+      struct cgraph_edge *edge;
+      tree decl = cgraph_nodes_queue->decl;
 
-      node = queue;
-      queue = queue->aux;
-      if (node->lowered || !node->reachable || !DECL_SAVED_TREE (decl))
-       abort ();
+      node = cgraph_nodes_queue;
+      cgraph_nodes_queue = cgraph_nodes_queue->next_needed;
 
-      /* At the moment frontend automatically emits all nested functions.  */
-      if (node->nested)
-       {
-         struct cgraph_node *node2;
+      /* ??? It is possible to create extern inline function and later using
+        weak alas attribute to kill it's body. See
+        gcc.c-torture/compile/20011119-1.c  */
+      if (!DECL_SAVED_TREE (decl))
+       continue;
 
-         for (node2 = node->nested; node2; node2 = node2->next_nested)
-           if (!node2->reachable)
-             cgraph_mark_needed_node (node2, 0);
-       }
+      if (node->analyzed || !node->reachable || !DECL_SAVED_TREE (decl))
+       abort ();
 
-      if (lang_hooks.callgraph.lower_function)
-       (*lang_hooks.callgraph.lower_function) (decl);
-      /* First kill forward declaration so reverse inling works properly.  */
-      cgraph_create_edges (decl, DECL_SAVED_TREE (decl));
+      cgraph_analyze_function (node);
 
       for (edge = node->callees; edge; edge = edge->next_callee)
-       {
-         if (!edge->callee->reachable)
-            cgraph_mark_needed_node (edge->callee, 0);
-       }
-      node->lowered = true;
+       if (!edge->callee->reachable)
+         cgraph_mark_reachable_node (edge->callee);
+
+      cgraph_varpool_assemble_pending_decls ();
     }
-  if (!quiet_flag)
-    fprintf (stderr, "\n\nReclaiming functions:");
+
+  /* Collect entry points to the unit.  */
+
+  if (cgraph_dump_file)
+    {
+      fprintf (cgraph_dump_file, "Unit entry points:");
+      for (node = cgraph_nodes; node; node = node->next)
+       if (node->needed && DECL_SAVED_TREE (node->decl))
+         fprintf (cgraph_dump_file, " %s", cgraph_node_name (node));
+      fprintf (cgraph_dump_file, "\n\nInitial ");
+      dump_cgraph (cgraph_dump_file);
+    }
+
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file, "\nReclaiming functions:");
 
   for (node = cgraph_nodes; node; node = node->next)
     {
@@ -204,29 +417,43 @@ cgraph_finalize_compilation_unit ()
       if (!node->reachable && DECL_SAVED_TREE (decl))
        {
          cgraph_remove_node (node);
-         announce_function (decl);
+         if (cgraph_dump_file)
+           fprintf (cgraph_dump_file, " %s", cgraph_node_name (node));
        }
     }
+  if (cgraph_dump_file)
+    {
+      fprintf (cgraph_dump_file, "\n\nReclaimed ");
+      dump_cgraph (cgraph_dump_file);
+    }
   ggc_collect ();
+  timevar_pop (TV_CGRAPH);
 }
 
 /* Figure out what functions we want to assemble.  */
 
 static void
-cgraph_mark_functions_to_output ()
+cgraph_mark_functions_to_output (void)
 {
   struct cgraph_node *node;
 
-  /* Figure out functions we want to assemble.  */
   for (node = cgraph_nodes; node; node = node->next)
     {
       tree decl = node->decl;
+      struct cgraph_edge *e;
+      if (node->output)
+       abort ();
+
+      for (e = node->callers; e; e = e->next_caller)
+       if (!e->inline_call)
+         break;
 
+      /* We need to output all local functions that are used and not
+        always inlined, as well as those that are reachable from
+        outside the current compilation unit.  */
       if (DECL_SAVED_TREE (decl)
          && (node->needed
-             || (!node->local.inline_many && !node->global.inline_once
-                 && node->reachable)
-             || TREE_SYMBOL_REFERENCED (DECL_ASSEMBLER_NAME (decl)))
+             || (e && node->reachable))
          && !TREE_ASM_WRITTEN (decl) && !node->origin
          && !DECL_EXTERNAL (decl))
        node->output = 1;
@@ -234,12 +461,15 @@ cgraph_mark_functions_to_output ()
 }
 
 /* Optimize the function before expansion.  */
+
 static void
-cgraph_optimize_function (node)
-     struct cgraph_node *node;
+cgraph_optimize_function (struct cgraph_node *node)
 {
   tree decl = node->decl;
 
+  timevar_push (TV_INTEGRATION);
+  /* optimize_inline_calls avoids inlining of current_function_decl.  */
+  current_function_decl = decl;
   if (flag_inline_trees)
     optimize_inline_calls (decl);
   if (node->nested)
@@ -247,65 +477,51 @@ cgraph_optimize_function (node)
       for (node = node->nested; node; node = node->next_nested)
        cgraph_optimize_function (node);
     }
+  timevar_pop (TV_INTEGRATION);
 }
 
 /* Expand function specified by NODE.  */
+
 static void
-cgraph_expand_function (node)
-     struct cgraph_node *node;
+cgraph_expand_function (struct cgraph_node *node)
 {
   tree decl = node->decl;
 
-  announce_function (decl);
+  if (flag_unit_at_a_time)
+    announce_function (decl);
 
   cgraph_optimize_function (node);
 
-  /* Avoid RTL inlining from taking place.  */
+  /* Generate RTL for the body of DECL.  Nested functions are expanded
+     via lang_expand_decl_stmt.  */
   (*lang_hooks.callgraph.expand_function) (decl);
 
-  /* When we decided to inline the function once, we never ever should need to
-     output it separately.  */
-  if (node->global.inline_once)
-    abort ();
-  if (!node->local.inline_many
-      || !node->callers)
+  if (!cgraph_function_possibly_inlined_p (decl))
     DECL_SAVED_TREE (decl) = NULL;
   current_function_decl = NULL;
 }
 
-
-/* Expand all functions that must be output. 
-  
-   Attempt to topologically sort the nodes so function is output when
-   all called functions are already assembled to allow data to be propagated
-   accross the callgraph.  Use stack to get smaller distance between function
-   and it's callees (later we may use more sophisticated algorithm for
-   function reordering, we will likely want to use subsections to make output
-   functions to appear in top-down order, not bottom-up they are assembled).  */
-
-static void
-cgraph_expand_functions ()
+/* Fill array order with all nodes with output flag set in the reverse
+   topological order.  */
+static int
+cgraph_postorder (struct cgraph_node **order)
 {
   struct cgraph_node *node, *node2;
-  struct cgraph_node **stack =
-    xcalloc (sizeof (struct cgraph_node *), cgraph_n_nodes);
-  struct cgraph_node **order =
-    xcalloc (sizeof (struct cgraph_node *), cgraph_n_nodes);
   int stack_size = 0;
   int order_pos = 0;
   struct cgraph_edge *edge, last;
-  int i;
 
-  cgraph_mark_functions_to_output ();
+  struct cgraph_node **stack =
+    xcalloc (cgraph_n_nodes, sizeof (struct cgraph_node *));
 
-  /*  We have to deal with cycles nicely, so use depth first traversal
-      algorithm.  Ignore the fact that some functions won't need to be output
-      and put them into order as well, so we get dependencies right trought inlined
-      functions.  */
+  /* We have to deal with cycles nicely, so use a depth first traversal
+     output algorithm.  Ignore the fact that some functions won't need
+     to be output and put them into order as well, so we get dependencies
+     right through intline functions.  */
   for (node = cgraph_nodes; node; node = node->next)
     node->aux = NULL;
   for (node = cgraph_nodes; node; node = node->next)
-    if (node->output && !node->aux)
+    if (!node->aux)
       {
        node2 = node;
        if (!node->callers)
@@ -342,127 +558,830 @@ cgraph_expand_functions ()
              }
          }
       }
-  for (i = order_pos - 1; i >=0; i--)
+  free (stack);
+  return order_pos;
+}
+
+#define INLINED_TIMES(node) ((size_t)(node)->aux)
+#define SET_INLINED_TIMES(node,times) ((node)->aux = (void *)(times))
+
+/* Return list of nodes we decided to inline NODE into, set their output
+   flag and compute INLINED_TIMES.
+
+   We do simple backtracing to get INLINED_TIMES right.  This should not be
+   expensive as we limit the amount of inlining.  Alternatively we may first
+   discover set of nodes, topologically sort these and propagate
+   INLINED_TIMES  */
+
+static int
+cgraph_inlined_into (struct cgraph_node *node, struct cgraph_node **array)
+{
+  int nfound = 0;
+  struct cgraph_edge **stack;
+  struct cgraph_edge *e, *e1;
+  int sp;
+  int i;
+
+  /* Fast path: since we traverse in mostly topological order, we will likely
+     find no edges.  */
+  for (e = node->callers; e; e = e->next_caller)
+    if (e->inline_call)
+      break;
+
+  if (!e)
+    return 0;
+
+  /* Allocate stack for back-tracking up callgraph.  */
+  stack = xmalloc ((cgraph_n_nodes + 1) * sizeof (struct cgraph_edge));
+  sp = 0;
+
+  /* Push the first edge on to the stack.  */
+  stack[sp++] = e;
+
+  while (sp)
     {
-      node = order[i];
-      if (node->output)
+      struct cgraph_node *caller;
+
+      /* Look at the edge on the top of the stack.  */
+      e = stack[sp - 1];
+      caller = e->caller;
+
+      /* Check if the caller destination has been visited yet.  */
+      if (!caller->output)
        {
-         if (!node->reachable)
-           abort ();
-         node->output = 0;
-         cgraph_expand_function (node);
+         array[nfound++] = e->caller;
+         /* Mark that we have visited the destination.  */
+         caller->output = true;
+         SET_INLINED_TIMES (caller, 0);
+       }
+      SET_INLINED_TIMES (caller, INLINED_TIMES (caller) + 1);
+
+      for (e1 = caller->callers; e1; e1 = e1->next_caller)
+       if (e1->inline_call)
+         break;
+      if (e1)
+       stack[sp++] = e1;
+      else
+       {
+         while (true)
+           {
+             for (e1 = e->next_caller; e1; e1 = e1->next_caller)
+               if (e1->inline_call)
+                 break;
+
+             if (e1)
+               {
+                 stack[sp - 1] = e1;
+                 break;
+               }
+             else
+               {
+                 sp--;
+                 if (!sp)
+                   break;
+                 e = stack[sp - 1];
+               }
+           }
        }
     }
+
   free (stack);
-  free (order);
+
+
+  if (cgraph_dump_file)
+    {
+      fprintf (cgraph_dump_file, " Found inline predecesors of %s:",
+              cgraph_node_name (node));
+      for (i = 0; i < nfound; i++)
+       {
+         fprintf (cgraph_dump_file, " %s", cgraph_node_name (array[i]));
+         if (INLINED_TIMES (array[i]) != 1)
+           fprintf (cgraph_dump_file, " (%i times)",
+                    (int)INLINED_TIMES (array[i]));
+       }
+      fprintf (cgraph_dump_file, "\n");
+    }
+
+  return nfound;
 }
 
-/* Mark all local functions.
-   We can not use node->needed directly as it is modified during
-   execution of cgraph_optimize.  */
+/* Return list of nodes we decided to inline into NODE, set their output
+   flag and compute INLINED_TIMES.
+
+   This function is identical to cgraph_inlined_into with callers and callees
+   nodes swapped.  */
+
+static int
+cgraph_inlined_callees (struct cgraph_node *node, struct cgraph_node **array)
+{
+  int nfound = 0;
+  struct cgraph_edge **stack;
+  struct cgraph_edge *e, *e1;
+  int sp;
+  int i;
+
+  /* Fast path: since we traverse in mostly topological order, we will likely
+     find no edges.  */
+  for (e = node->callees; e; e = e->next_callee)
+    if (e->inline_call)
+      break;
+
+  if (!e)
+    return 0;
+
+  /* Allocate stack for back-tracking up callgraph.  */
+  stack = xmalloc ((cgraph_n_nodes + 1) * sizeof (struct cgraph_edge));
+  sp = 0;
+
+  /* Push the first edge on to the stack.  */
+  stack[sp++] = e;
+
+  while (sp)
+    {
+      struct cgraph_node *callee;
+
+      /* Look at the edge on the top of the stack.  */
+      e = stack[sp - 1];
+      callee = e->callee;
+
+      /* Check if the callee destination has been visited yet.  */
+      if (!callee->output)
+       {
+         array[nfound++] = e->callee;
+         /* Mark that we have visited the destination.  */
+         callee->output = true;
+         SET_INLINED_TIMES (callee, 0);
+       }
+      SET_INLINED_TIMES (callee, INLINED_TIMES (callee) + 1);
+
+      for (e1 = callee->callees; e1; e1 = e1->next_callee)
+       if (e1->inline_call)
+         break;
+      if (e1)
+       stack[sp++] = e1;
+      else
+       {
+         while (true)
+           {
+             for (e1 = e->next_callee; e1; e1 = e1->next_callee)
+               if (e1->inline_call)
+                 break;
+
+             if (e1)
+               {
+                 stack[sp - 1] = e1;
+                 break;
+               }
+             else
+               {
+                 sp--;
+                 if (!sp)
+                   break;
+                 e = stack[sp - 1];
+               }
+           }
+       }
+    }
+
+  free (stack);
+
+  if (cgraph_dump_file)
+    {
+      fprintf (cgraph_dump_file, " Found inline successors of %s:",
+              cgraph_node_name (node));
+      for (i = 0; i < nfound; i++)
+       {
+         fprintf (cgraph_dump_file, " %s", cgraph_node_name (array[i]));
+         if (INLINED_TIMES (array[i]) != 1)
+           fprintf (cgraph_dump_file, " (%i times)",
+                    (int)INLINED_TIMES (array[i]));
+       }
+      fprintf (cgraph_dump_file, "\n");
+    }
+
+  return nfound;
+}
+
+/* Estimate size of the function after inlining WHAT into TO.  */
+
+static int
+cgraph_estimate_size_after_inlining (int times, struct cgraph_node *to,
+                                    struct cgraph_node *what)
+{
+  return (what->global.insns - INSNS_PER_CALL) * times + to->global.insns;
+}
+
+/* Estimate the growth caused by inlining NODE into all callees.  */
+
+static int
+cgraph_estimate_growth (struct cgraph_node *node)
+{
+  int growth = 0;
+  int calls_saved = 0;
+  int clones_added = 0;
+  struct cgraph_edge *e;
+
+  for (e = node->callers; e; e = e->next_caller)
+    if (!e->inline_call)
+      {
+       growth += ((cgraph_estimate_size_after_inlining (1, e->caller, node)
+                   -
+                   e->caller->global.insns) *e->caller->global.cloned_times);
+       calls_saved += e->caller->global.cloned_times;
+       clones_added += e->caller->global.cloned_times;
+      }
+
+  /* ??? Wrong for self recursive functions or cases where we decide to not
+     inline for different reasons, but it is not big deal as in that case
+     we will keep the body around, but we will also avoid some inlining.  */
+  if (!node->needed && !node->origin && !DECL_EXTERNAL (node->decl))
+    growth -= node->global.insns, clones_added--;
+
+  if (!calls_saved)
+    calls_saved = 1;
+
+  return growth;
+}
+
+/* Update insn sizes after inlining WHAT into TO that is already inlined into
+   all nodes in INLINED array.  */
+
+static void
+cgraph_mark_inline (struct cgraph_node *to, struct cgraph_node *what,
+                   struct cgraph_node **inlined, int ninlined,
+                   struct cgraph_node **inlined_callees,
+                   int ninlined_callees)
+{
+  int i;
+  int times = 0;
+  int clones = 0;
+  struct cgraph_edge *e;
+  bool called = false;
+  int new_insns;
+
+  what->global.inlined = 1;
+  for (e = what->callers; e; e = e->next_caller)
+    {
+      if (e->caller == to)
+       {
+         if (e->inline_call)
+           abort ();
+         e->inline_call = true;
+         times++;
+         clones += e->caller->global.cloned_times;
+       }
+      else if (!e->inline_call)
+       called = true;
+    }
+  if (!times)
+    abort ();
+  ncalls_inlined += times;
+
+  new_insns = cgraph_estimate_size_after_inlining (times, to, what);
+  if (to->global.will_be_output)
+    overall_insns += new_insns - to->global.insns;
+  to->global.insns = new_insns;
+
+  if (!called && !what->needed && !what->origin
+      && flag_unit_at_a_time
+      && !DECL_EXTERNAL (what->decl))
+    {
+      if (!what->global.will_be_output)
+       abort ();
+      clones--;
+      nfunctions_inlined++;
+      what->global.will_be_output = 0;
+      overall_insns -= what->global.insns;
+    }
+  what->global.cloned_times += clones;
+  for (i = 0; i < ninlined; i++)
+    {
+      new_insns =
+       cgraph_estimate_size_after_inlining (INLINED_TIMES (inlined[i]) *
+                                            times, inlined[i], what);
+      if (inlined[i]->global.will_be_output)
+       overall_insns += new_insns - inlined[i]->global.insns;
+      inlined[i]->global.insns = new_insns;
+    }
+  for (i = 0; i < ninlined_callees; i++)
+    {
+      inlined_callees[i]->global.cloned_times +=
+       INLINED_TIMES (inlined_callees[i]) * clones;
+    }
+}
+
+/* Return false when inlining WHAT into TO is not good idea as it would cause
+   too large growth of function bodies.  */
+
+static bool
+cgraph_check_inline_limits (struct cgraph_node *to, struct cgraph_node *what,
+                           struct cgraph_node **inlined, int ninlined)
+{
+  int i;
+  int times = 0;
+  struct cgraph_edge *e;
+  int newsize;
+  int limit;
+
+  for (e = to->callees; e; e = e->next_callee)
+    if (e->callee == what)
+      times++;
+
+  /* When inlining large function body called once into small function,
+     take the inlined function as base for limiting the growth.  */
+  if (to->local.self_insns > what->local.self_insns)
+    limit = to->local.self_insns;
+  else
+    limit = what->local.self_insns;
+
+  limit += limit * PARAM_VALUE (PARAM_LARGE_FUNCTION_GROWTH) / 100;
+
+  newsize = cgraph_estimate_size_after_inlining (times, to, what);
+  if (newsize > PARAM_VALUE (PARAM_LARGE_FUNCTION_INSNS)
+      && newsize > limit)
+    return false;
+  for (i = 0; i < ninlined; i++)
+    {
+      newsize =
+       cgraph_estimate_size_after_inlining (INLINED_TIMES (inlined[i]) *
+                                            times, inlined[i], what);
+      if (newsize > PARAM_VALUE (PARAM_LARGE_FUNCTION_INSNS)
+         && newsize >
+         inlined[i]->local.self_insns *
+         (100 + PARAM_VALUE (PARAM_LARGE_FUNCTION_GROWTH)) / 100)
+       return false;
+    }
+  return true;
+}
+
+/* Return true when function N is small enough to be inlined.  */
+
+static bool
+cgraph_default_inline_p (struct cgraph_node *n)
+{
+  if (!DECL_INLINE (n->decl) || !DECL_SAVED_TREE (n->decl))
+    return false;
+  if (DECL_DECLARED_INLINE_P (n->decl))
+    return n->global.insns < MAX_INLINE_INSNS_SINGLE;
+  else
+    return n->global.insns < MAX_INLINE_INSNS_AUTO;
+}
+
+/* We use greedy algorithm for inlining of small functions:
+   All inline candidates are put into prioritized heap based on estimated
+   growth of the overall number of instructions and then update the estimates.
+
+   INLINED and INLINED_CALEES are just pointers to arrays large enough
+   to be passed to cgraph_inlined_into and cgraph_inlined_callees.  */
 
 static void
-cgraph_mark_local_functions ()
+cgraph_decide_inlining_of_small_functions (struct cgraph_node **inlined,
+                                          struct cgraph_node **inlined_callees)
 {
+  int i;
   struct cgraph_node *node;
+  fibheap_t heap = fibheap_new ();
+  struct fibnode **heap_node =
+    xcalloc (cgraph_max_uid, sizeof (struct fibnode *));
+  int ninlined, ninlined_callees;
+  int max_insns = ((HOST_WIDEST_INT) initial_insns
+                  * (100 + PARAM_VALUE (PARAM_INLINE_UNIT_GROWTH)) / 100);
 
-  if (!quiet_flag)
-    fprintf (stderr, "\n\nMarking local functions:");
+  /* Put all inline candidates into the heap.  */
 
-  /* Figure out functions we want to assemble.  */
   for (node = cgraph_nodes; node; node = node->next)
     {
-      node->local.local = (!node->needed
-                          && DECL_SAVED_TREE (node->decl)
-                          && !TREE_PUBLIC (node->decl));
-      if (node->local.local)
-       announce_function (node->decl);
+      struct cgraph_edge *e;
+
+      if (!node->local.inlinable || !node->callers
+         || !cgraph_default_inline_p (node))
+       continue;
+
+      /* Rule out always_inline functions we dealt with earlier.  */
+      for (e = node->callers; e; e = e->next_caller)
+       if (e->inline_call)
+         break;
+      if (e)
+       continue;
+      heap_node[node->uid] =
+       fibheap_insert (heap, cgraph_estimate_growth (node), node);
     }
+
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file, "\nDeciding on smaller functions:\n");
+  while ((node = fibheap_extract_min (heap)) && overall_insns <= max_insns)
+    {
+      struct cgraph_edge *e;
+      int old_insns = overall_insns;
+
+      heap_node[node->uid] = NULL;
+      if (cgraph_dump_file)
+       fprintf (cgraph_dump_file, 
+                "\nConsidering %s with %i insns\n"
+                " Estimated growth is %+i insns.\n",
+                cgraph_node_name (node), node->global.insns,
+                cgraph_estimate_growth (node));
+      if (!cgraph_default_inline_p (node))
+       {
+         if (cgraph_dump_file)
+           fprintf (cgraph_dump_file, " Function too large.\n");
+         continue;
+       }
+      ninlined_callees = cgraph_inlined_callees (node, inlined_callees);
+      for (e = node->callers; e; e = e->next_caller)
+       if (!e->inline_call && e->caller != node)
+         {
+           ninlined = cgraph_inlined_into (e->caller, inlined);
+           if (e->callee->output
+               || !cgraph_check_inline_limits (e->caller, node, inlined,
+                                               ninlined))
+             {
+               for (i = 0; i < ninlined; i++)
+                 inlined[i]->output = 0, node->aux = 0;
+               if (cgraph_dump_file)
+                 fprintf (cgraph_dump_file, " Not inlining into %s.\n",
+                          cgraph_node_name (e->caller));
+               continue;
+             }
+           cgraph_mark_inline (e->caller, node, inlined, ninlined,
+                               inlined_callees, ninlined_callees);
+           if (heap_node[e->caller->uid])
+             fibheap_replace_key (heap, heap_node[e->caller->uid],
+                                  cgraph_estimate_growth (e->caller));
+
+           /* Size of the functions we updated into has changed, so update
+              the keys.  */
+           for (i = 0; i < ninlined; i++)
+             {
+               inlined[i]->output = 0, node->aux = 0;
+               if (heap_node[inlined[i]->uid])
+                 fibheap_replace_key (heap, heap_node[inlined[i]->uid],
+                                      cgraph_estimate_growth (inlined[i]));
+             }
+       if (cgraph_dump_file)
+         fprintf (cgraph_dump_file, 
+                  " Inlined into %s which now has %i insns.\n",
+                  cgraph_node_name (e->caller),
+                  e->caller->global.insns);
+
+         }
+
+      /* Similarly all functions called by the function we just inlined
+         are now called more times; update keys.  */
+
+      for (e = node->callees; e; e = e->next_callee)
+       if (!e->inline_call && heap_node[e->callee->uid])
+         fibheap_replace_key (heap, heap_node[e->callee->uid],
+                              cgraph_estimate_growth (e->callee));
+
+      for (i = 0; i < ninlined_callees; i++)
+       {
+         struct cgraph_edge *e;
+
+         for (e = inlined_callees[i]->callees; e; e = e->next_callee)
+           if (!e->inline_call && heap_node[e->callee->uid])
+             fibheap_replace_key (heap, heap_node[e->callee->uid],
+                                  cgraph_estimate_growth (e->callee));
+
+         inlined_callees[i]->output = 0, node->aux = 0;
+       }
+      if (cgraph_dump_file)
+       fprintf (cgraph_dump_file, 
+                " Inlined %i times for a net change of %+i insns.\n",
+                node->global.cloned_times, overall_insns - old_insns);
+    }
+  if (cgraph_dump_file && !fibheap_empty (heap))
+    fprintf (cgraph_dump_file, "\nReached the inline-unit-growth limit.\n");
+  fibheap_delete (heap);
+  free (heap_node);
 }
 
-/*  Decide what function should be inlined because they are invoked once
-    (so inlining won't result in duplication of the code).  */
+/* Decide on the inlining.  We do so in the topological order to avoid
+   expenses on updating datastructures.  */
 
 static void
-cgraph_mark_functions_to_inline_once ()
+cgraph_decide_inlining (void)
 {
-  struct cgraph_node *node, *node1;
+  struct cgraph_node *node;
+  int nnodes;
+  struct cgraph_node **order =
+    xcalloc (cgraph_n_nodes, sizeof (struct cgraph_node *));
+  struct cgraph_node **inlined =
+    xcalloc (cgraph_n_nodes, sizeof (struct cgraph_node *));
+  struct cgraph_node **inlined_callees =
+    xcalloc (cgraph_n_nodes, sizeof (struct cgraph_node *));
+  int ninlined;
+  int ninlined_callees;
+  int old_insns = 0;
+  int i, y;
 
-  if (!quiet_flag)
-    fprintf (stderr, "\n\nMarking functions to inline once:");
+  for (node = cgraph_nodes; node; node = node->next)
+    initial_insns += node->local.self_insns;
+  overall_insns = initial_insns;
+
+  nnodes = cgraph_postorder (order);
+
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file,
+            "\nDeciding on inlining.  Starting with %i insns.\n",
+            initial_insns);
 
-  /* Now look for function called only once and mark them to inline.  From this
-     point number of calls to given function won't grow.  */
   for (node = cgraph_nodes; node; node = node->next)
+    node->aux = 0;
+
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file, "\nInlining always_inline functions:\n");
+
+  /* In the first pass mark all always_inline edges.  Do this with a priority
+     so none of our later choices will make this impossible.  */
+  for (i = nnodes - 1; i >= 0; i--)
     {
+      struct cgraph_edge *e;
+
+      node = order[i];
+
+      for (e = node->callees; e; e = e->next_callee)
+       if (e->callee->local.disregard_inline_limits)
+         break;
+      if (!e)
+       continue;
+      if (cgraph_dump_file)
+       fprintf (cgraph_dump_file,
+                "\nConsidering %s %i insns (always inline)\n",
+                cgraph_node_name (e->callee), e->callee->global.insns);
+      ninlined = cgraph_inlined_into (order[i], inlined);
+      for (; e; e = e->next_callee)
+       {
+         old_insns = overall_insns;
+         if (e->inline_call || !e->callee->local.disregard_inline_limits)
+           continue;
+         if (e->callee->output || e->callee == node)
+           continue;
+         ninlined_callees =
+           cgraph_inlined_callees (e->callee, inlined_callees);
+         cgraph_mark_inline (node, e->callee, inlined, ninlined,
+                             inlined_callees, ninlined_callees);
+         for (y = 0; y < ninlined_callees; y++)
+           inlined_callees[y]->output = 0, node->aux = 0;
+         if (cgraph_dump_file)
+           fprintf (cgraph_dump_file, 
+                    " Inlined into %s which now has %i insns.\n",
+                    cgraph_node_name (node->callees->caller),
+                    node->callees->caller->global.insns);
+       }
+       if (cgraph_dump_file && node->global.cloned_times > 0)
+         fprintf (cgraph_dump_file, 
+                  " Inlined %i times for a net change of %+i insns.\n",
+                  node->global.cloned_times, overall_insns - old_insns);
+      for (y = 0; y < ninlined; y++)
+       inlined[y]->output = 0, node->aux = 0;
+    }
+
+  cgraph_decide_inlining_of_small_functions (inlined, inlined_callees);
+
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file, "\nDeciding on functions called once:\n");
+
+  /* And finally decide what functions are called once.  */
+
+  for (i = nnodes - 1; i >= 0; i--)
+    {
+      node = order[i];
+
       if (node->callers && !node->callers->next_caller && !node->needed
-         && node->local.can_inline_once)
+         && node->local.inlinable && !node->callers->inline_call
+         && !DECL_EXTERNAL (node->decl) && !DECL_COMDAT (node->decl))
        {
          bool ok = true;
+         struct cgraph_node *node1;
 
          /* Verify that we won't duplicate the caller.  */
          for (node1 = node->callers->caller;
-              node1->local.inline_many
-              && node1->callers
-              && ok;
-              node1 = node1->callers->caller)
+              node1->callers && node1->callers->inline_call
+              && ok; node1 = node1->callers->caller)
            if (node1->callers->next_caller || node1->needed)
              ok = false;
          if (ok)
            {
-             node->global.inline_once = true;
-             announce_function (node->decl);
+             if (cgraph_dump_file)
+               fprintf (cgraph_dump_file,
+                        "\nConsidering %s %i insns.\n"
+                        " Called once from %s %i insns.\n",
+                        cgraph_node_name (node), node->global.insns,
+                        cgraph_node_name (node->callers->caller),
+                        node->callers->caller->global.insns);
+             ninlined = cgraph_inlined_into (node->callers->caller, inlined);
+             old_insns = overall_insns;
+             if (cgraph_check_inline_limits
+                 (node->callers->caller, node, inlined, ninlined))
+               {
+                 ninlined_callees =
+                   cgraph_inlined_callees (node, inlined_callees);
+                 cgraph_mark_inline (node->callers->caller, node, inlined,
+                                     ninlined, inlined_callees,
+                                     ninlined_callees);
+                 for (y = 0; y < ninlined_callees; y++)
+                   inlined_callees[y]->output = 0, node->aux = 0;
+                 if (cgraph_dump_file)
+                   fprintf (cgraph_dump_file,
+                            " Inlined into %s which now has %i insns"
+                            " for a net change of %+i insns.\n",
+                            cgraph_node_name (node->callers->caller),
+                            node->callers->caller->global.insns,
+                            overall_insns - old_insns);
+               }
+             else
+                {
+                 if (cgraph_dump_file)
+                   fprintf (cgraph_dump_file,
+                            " Inline limit reached, not inlined.\n");
+               }
+             for (y = 0; y < ninlined; y++)
+               inlined[y]->output = 0, node->aux = 0;
            }
        }
     }
+
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file,
+            "\nInlined %i calls, eliminated %i functions, "
+            "%i insns turned to %i insns.\n\n",
+            ncalls_inlined, nfunctions_inlined, initial_insns,
+            overall_insns);
+  free (order);
+  free (inlined);
+  free (inlined_callees);
 }
 
+/* Decide on the inlining.  We do so in the topological order to avoid
+   expenses on updating datastructures.  */
+
+static void
+cgraph_decide_inlining_incrementally (struct cgraph_node *node)
+{
+  struct cgraph_edge *e;
+  struct cgraph_node **inlined =
+    xmalloc (sizeof (struct cgraph_node *) * cgraph_n_nodes);
+  struct cgraph_node **inlined_callees =
+    xmalloc (sizeof (struct cgraph_node *) * cgraph_n_nodes);
+  int ninlined;
+  int ninlined_callees;
+  int y;
+
+  ninlined = cgraph_inlined_into (node, inlined);
+
+  /* First of all look for always inline functions.  */
+  for (e = node->callees; e; e = e->next_callee)
+    if (e->callee->local.disregard_inline_limits && !e->callee->output
+       && e->callee != node && !e->inline_call)
+      {
+       ninlined_callees = cgraph_inlined_callees (e->callee, inlined_callees);
+       cgraph_mark_inline (node, e->callee, inlined, ninlined,
+                           inlined_callees, ninlined_callees);
+       for (y = 0; y < ninlined_callees; y++)
+         inlined_callees[y]->output = 0, node->aux = 0;
+      }
+
+  /* Now do the automatic inlining.  */
+  for (e = node->callees; e; e = e->next_callee)
+    if (e->callee->local.inlinable && !e->callee->output
+       && e->callee != node && !e->inline_call
+        && cgraph_default_inline_p (e->callee)
+       && cgraph_check_inline_limits (node, e->callee, inlined,
+                                      ninlined))
+      {
+       ninlined_callees = cgraph_inlined_callees (e->callee, inlined_callees);
+       cgraph_mark_inline (node, e->callee, inlined, ninlined,
+                           inlined_callees, ninlined_callees);
+       for (y = 0; y < ninlined_callees; y++)
+         inlined_callees[y]->output = 0, node->aux = 0;
+      }
+
+  /* Clear the flags set by cgraph_inlined_into.  */
+  for (y = 0; y < ninlined; y++)
+    inlined[y]->output = 0, node->aux = 0;
+
+  free (inlined);
+  free (inlined_callees);
+}
+
+
+/* Return true when CALLER_DECL should be inlined into CALLEE_DECL.  */
+
+bool
+cgraph_inline_p (tree caller_decl, tree callee_decl)
+{
+  struct cgraph_node *caller = cgraph_node (caller_decl);
+  struct cgraph_node *callee = cgraph_node (callee_decl);
+  struct cgraph_edge *e;
+
+  for (e = caller->callees; e; e = e->next_callee)
+    if (e->callee == callee)
+      return e->inline_call;
+  /* We do not record builtins in the callgraph.  Perhaps it would make more
+     sense to do so and then prune out those not overwritten by explicit
+     function body.  */
+  return false;
+}
+/* Expand all functions that must be output.
+
+   Attempt to topologically sort the nodes so function is output when
+   all called functions are already assembled to allow data to be
+   propagated across the callgraph.  Use a stack to get smaller distance
+   between a function and it's callees (later we may choose to use a more
+   sophisticated algorithm for function reordering; we will likely want
+   to use subsections to make the output functions appear in top-down
+   order).  */
+
+static void
+cgraph_expand_all_functions (void)
+{
+  struct cgraph_node *node;
+  struct cgraph_node **order =
+    xcalloc (cgraph_n_nodes, sizeof (struct cgraph_node *));
+  int order_pos = 0;
+  int i;
+
+  cgraph_mark_functions_to_output ();
+
+  order_pos = cgraph_postorder (order);
+
+  for (i = order_pos - 1; i >= 0; i--)
+    {
+      node = order[i];
+      if (node->output)
+       {
+         if (!node->reachable)
+           abort ();
+         node->output = 0;
+         cgraph_expand_function (node);
+       }
+    }
+  free (order);
+}
+
+/* Mark all local functions.
+
+   A local function is one whose calls can occur only in the
+   current compilation unit, so we change its calling convention.
+   We simply mark all static functions whose address is not taken
+   as local.  */
+
+static void
+cgraph_mark_local_functions (void)
+{
+  struct cgraph_node *node;
+
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file, "\nMarking local functions:");
+
+  /* Figure out functions we want to assemble.  */
+  for (node = cgraph_nodes; node; node = node->next)
+    {
+      node->local.local = (!node->needed
+                          && DECL_SAVED_TREE (node->decl)
+                          && !TREE_PUBLIC (node->decl));
+      if (cgraph_dump_file && node->local.local)
+       fprintf (cgraph_dump_file, " %s", cgraph_node_name (node));
+    }
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file, "\n\n");
+}
 
 /* Perform simple optimizations based on callgraph.  */
 
 void
-cgraph_optimize ()
+cgraph_optimize (void)
 {
-  struct cgraph_node *node;
-  bool changed = true;
+  if (!flag_unit_at_a_time)
+    return;
+  timevar_push (TV_CGRAPHOPT);
+  if (!quiet_flag)
+    fprintf (stderr, "Performing intraprocedural optimizations\n");
 
   cgraph_mark_local_functions ();
+  if (cgraph_dump_file)
+    {
+      fprintf (cgraph_dump_file, "Marked ");
+      dump_cgraph (cgraph_dump_file);
+    }
 
-  cgraph_mark_functions_to_inline_once ();
-
+  cgraph_decide_inlining ();
   cgraph_global_info_ready = true;
-  if (!quiet_flag)
-    fprintf (stderr, "\n\nAssembling functions:");
-
-  /* Output everything.  
-     ??? Our inline heuristic may decide to not inline functions previously
-     marked as inlinable thus adding new function bodies that must be output.
-     Later we should move all inlining decisions to callgraph code to make
-     this impossible.  */
-  cgraph_expand_functions ();
-  if (!quiet_flag)
-    fprintf (stderr, "\n\nAssembling functions that failed to inline:");
-  while (changed && !errorcount && !sorrycount)
+  if (cgraph_dump_file)
     {
-      changed = false;
-      for (node = cgraph_nodes; node; node = node->next)
-       {
-         tree decl = node->decl;
-         if (!node->origin
-             && !TREE_ASM_WRITTEN (decl)
-             && DECL_SAVED_TREE (decl)
-             && !DECL_EXTERNAL (decl))
-           {
-             struct cgraph_edge *edge;
+      fprintf (cgraph_dump_file, "Optimized ");
+      dump_cgraph (cgraph_dump_file);
+    }
+  timevar_pop (TV_CGRAPHOPT);
 
-             for (edge = node->callers; edge; edge = edge->next_caller)
-               if (TREE_ASM_WRITTEN (edge->caller->decl))
-                 {
-                   changed = true;
-                   cgraph_expand_function (node);
-                   break;
-                 }
-           }
-       }
+  /* Output everything.  */
+  if (!quiet_flag)
+    fprintf (stderr, "Assembling functions:\n");
+  cgraph_expand_all_functions ();
+  if (cgraph_dump_file)
+    {
+      fprintf (cgraph_dump_file, "\nFinal ");
+      dump_cgraph (cgraph_dump_file);
     }
 }