OSDN Git Service

Use 64bit integer for LTO symbol ID.
[pf3gnuchains/gcc-fork.git] / gcc / lto / lto.c
index 98a9387..778e33e 100644 (file)
@@ -1,5 +1,5 @@
 /* Top-level LTO routines.
-   Copyright 2009, 2010 Free Software Foundation, Inc.
+   Copyright 2009, 2010, 2011 Free Software Foundation, Inc.
    Contributed by CodeSourcery, Inc.
 
 This file is part of GCC.
@@ -24,9 +24,9 @@ along with GCC; see the file COPYING3.  If not see
 #include "opts.h"
 #include "toplev.h"
 #include "tree.h"
+#include "tree-flow.h"
 #include "diagnostic-core.h"
 #include "tm.h"
-#include "libiberty.h"
 #include "cgraph.h"
 #include "ggc.h"
 #include "tree-ssa-operands.h"
@@ -43,21 +43,11 @@ along with GCC; see the file COPYING3.  If not see
 #include "lto.h"
 #include "lto-tree.h"
 #include "lto-streamer.h"
+#include "tree-streamer.h"
 #include "splay-tree.h"
-
-/* This needs to be included after config.h.  Otherwise, _GNU_SOURCE will not
-   be defined in time to set __USE_GNU in the system headers, and strsignal
-   will not be declared.  */
-#if HAVE_MMAP_FILE
-#include <sys/mman.h>
-#endif
-
-/* Handle opening elf files on hosts, such as Windows, that may use 
-   text file handling that will break binary access.  */
-
-#ifndef O_BINARY
-# define O_BINARY 0
-#endif
+#include "params.h"
+#include "ipa-inline.h"
+#include "ipa-utils.h"
 
 static GTY(()) tree first_personality_decl;
 
@@ -103,6 +93,71 @@ lto_obj_create_section_hash_table (void)
   return htab_create (37, hash_name, eq_name, free_with_string);
 }
 
+/* Delete an allocated integer KEY in the splay tree.  */
+
+static void
+lto_splay_tree_delete_id (splay_tree_key key)
+{
+  free ((void *) key);
+}
+
+/* Compare splay tree node ids A and B.  */
+
+static int
+lto_splay_tree_compare_ids (splay_tree_key a, splay_tree_key b)
+{
+  unsigned HOST_WIDE_INT ai;
+  unsigned HOST_WIDE_INT bi;
+
+  ai = *(unsigned HOST_WIDE_INT *) a;
+  bi = *(unsigned HOST_WIDE_INT *) b;
+
+  if (ai < bi)
+    return -1;
+  else if (ai > bi)
+    return 1;
+  return 0;
+}
+
+/* Look up splay tree node by ID in splay tree T.  */
+
+static splay_tree_node
+lto_splay_tree_lookup (splay_tree t, unsigned HOST_WIDE_INT id)
+{
+  return splay_tree_lookup (t, (splay_tree_key) &id);
+}
+
+/* Check if KEY has ID.  */
+
+static bool
+lto_splay_tree_id_equal_p (splay_tree_key key, unsigned HOST_WIDE_INT id)
+{
+  return *(unsigned HOST_WIDE_INT *) key == id;
+}
+
+/* Insert a splay tree node into tree T with ID as key and FILE_DATA as value. 
+   The ID is allocated separately because we need HOST_WIDE_INTs which may
+   be wider than a splay_tree_key. */
+
+static void
+lto_splay_tree_insert (splay_tree t, unsigned HOST_WIDE_INT id,
+                      struct lto_file_decl_data *file_data)
+{
+  unsigned HOST_WIDE_INT *idp = XCNEW (unsigned HOST_WIDE_INT);
+  *idp = id;
+  splay_tree_insert (t, (splay_tree_key) idp, (splay_tree_value) file_data);
+}
+
+/* Create a splay tree.  */
+
+static splay_tree
+lto_splay_tree_new (void)
+{
+  return splay_tree_new (lto_splay_tree_compare_ids,
+                        lto_splay_tree_delete_id,
+                        NULL);
+}
+
 /* Read the constructors and inits.  */
 
 static void
@@ -158,42 +213,41 @@ lto_materialize_function (struct cgraph_node *node)
   decl = node->decl;
   /* Read in functions with body (analyzed nodes)
      and also functions that are needed to produce virtual clones.  */
-  if (node->analyzed || has_analyzed_clone_p (node))
+  if (cgraph_function_with_gimple_body_p (node) || has_analyzed_clone_p (node))
     {
-      /* Clones don't need to be read.  */
+      /* Clones and thunks don't need to be read.  */
       if (node->clone_of)
        return;
-      file_data = node->local.lto_file_data;
-      name = IDENTIFIER_POINTER (DECL_ASSEMBLER_NAME (decl)); 
-
-      /* We may have renamed the declaration, e.g., a static function.  */
-      name = lto_get_decl_name_mapping (file_data, name);
-
-      data = lto_get_section_data (file_data, LTO_section_function_body,
-                                  name, &len);
-      if (!data)
-       fatal_error ("%s: section %s is missing",
-                    file_data->file_name,
-                    name);
-
-      gcc_assert (DECL_STRUCT_FUNCTION (decl) == NULL);
 
       /* Load the function body only if not operating in WPA mode.  In
         WPA mode, the body of the function is not needed.  */
       if (!flag_wpa)
        {
+         file_data = node->local.lto_file_data;
+         name = IDENTIFIER_POINTER (DECL_ASSEMBLER_NAME (decl));
+
+         /* We may have renamed the declaration, e.g., a static function.  */
+         name = lto_get_decl_name_mapping (file_data, name);
+
+         data = lto_get_section_data (file_data, LTO_section_function_body,
+                                      name, &len);
+         if (!data)
+           fatal_error ("%s: section %s is missing",
+                        file_data->file_name,
+                        name);
+
+         gcc_assert (DECL_STRUCT_FUNCTION (decl) == NULL);
+
          allocate_struct_function (decl, false);
          announce_function (decl);
          lto_input_function_body (file_data, decl, data);
          if (DECL_FUNCTION_PERSONALITY (decl) && !first_personality_decl)
            first_personality_decl = DECL_FUNCTION_PERSONALITY (decl);
          lto_stats.num_function_bodies++;
+         lto_free_section_data (file_data, LTO_section_function_body, name,
+                                data, len);
+         ggc_collect ();
        }
-
-      lto_free_section_data (file_data, LTO_section_function_body, name,
-                            data, len);
-      if (!flag_wpa)
-       ggc_collect ();
     }
 
   /* Let the middle end know about the function.  */
@@ -201,9 +255,10 @@ lto_materialize_function (struct cgraph_node *node)
 }
 
 
-/* Decode the content of memory pointed to by DATA in the the
-   in decl state object STATE. DATA_IN points to a data_in structure for
-   decoding. Return the address after the decoded object in the input.  */
+/* Decode the content of memory pointed to by DATA in the in decl
+   state object STATE. DATA_IN points to a data_in structure for
+   decoding. Return the address after the decoded object in the
+   input.  */
 
 static const uint32_t *
 lto_read_in_decl_state (struct data_in *data_in, const uint32_t *data,
@@ -214,7 +269,7 @@ lto_read_in_decl_state (struct data_in *data_in, const uint32_t *data,
   uint32_t i, j;
   
   ix = *data++;
-  decl = lto_streamer_cache_get (data_in->reader_cache, (int) ix);
+  decl = streamer_tree_cache_get (data_in->reader_cache, ix);
   if (TREE_CODE (decl) != FUNCTION_DECL)
     {
       gcc_assert (decl == void_type_node);
@@ -228,14 +283,7 @@ lto_read_in_decl_state (struct data_in *data_in, const uint32_t *data,
       tree *decls = ggc_alloc_vec_tree (size);
 
       for (j = 0; j < size; j++)
-       {
-         decls[j] = lto_streamer_cache_get (data_in->reader_cache, data[j]);
-
-         /* Register every type in the global type table.  If the
-            type existed already, use the existing type.  */
-         if (TYPE_P (decls[j]))
-           decls[j] = gimple_register_type (decls[j]);
-       }
+       decls[j] = streamer_tree_cache_get (data_in->reader_cache, data[j]);
 
       state->streams[i].size = size;
       state->streams[i].trees = decls;
@@ -245,6 +293,582 @@ lto_read_in_decl_state (struct data_in *data_in, const uint32_t *data,
   return data;
 }
 
+/* A hashtable of trees that potentially refer to variables or functions
+   that must be replaced with their prevailing variant.  */
+static GTY((if_marked ("ggc_marked_p"), param_is (union tree_node))) htab_t
+  tree_with_vars;
+
+/* Remember that T is a tree that (potentially) refers to a variable
+   or function decl that may be replaced with its prevailing variant.  */
+static void
+remember_with_vars (tree t)
+{
+  *(tree *) htab_find_slot (tree_with_vars, t, INSERT) = t;
+}
+
+#define LTO_FIXUP_TREE(tt) \
+  do \
+    { \
+      if (tt) \
+       { \
+         if (TYPE_P (tt)) \
+           (tt) = gimple_register_type (tt); \
+         if (VAR_OR_FUNCTION_DECL_P (tt) && TREE_PUBLIC (tt)) \
+           remember_with_vars (t); \
+       } \
+    } while (0)
+
+static void lto_fixup_types (tree);
+
+/* Fix up fields of a tree_typed T.  */
+
+static void
+lto_ft_typed (tree t)
+{
+  LTO_FIXUP_TREE (TREE_TYPE (t));
+}
+
+/* Fix up fields of a tree_common T.  */
+
+static void
+lto_ft_common (tree t)
+{
+  lto_ft_typed (t);
+  LTO_FIXUP_TREE (TREE_CHAIN (t));
+}
+
+/* Fix up fields of a decl_minimal T.  */
+
+static void
+lto_ft_decl_minimal (tree t)
+{
+  lto_ft_common (t);
+  LTO_FIXUP_TREE (DECL_NAME (t));
+  LTO_FIXUP_TREE (DECL_CONTEXT (t));
+}
+
+/* Fix up fields of a decl_common T.  */
+
+static void
+lto_ft_decl_common (tree t)
+{
+  lto_ft_decl_minimal (t);
+  LTO_FIXUP_TREE (DECL_SIZE (t));
+  LTO_FIXUP_TREE (DECL_SIZE_UNIT (t));
+  LTO_FIXUP_TREE (DECL_INITIAL (t));
+  LTO_FIXUP_TREE (DECL_ATTRIBUTES (t));
+  LTO_FIXUP_TREE (DECL_ABSTRACT_ORIGIN (t));
+}
+
+/* Fix up fields of a decl_with_vis T.  */
+
+static void
+lto_ft_decl_with_vis (tree t)
+{
+  lto_ft_decl_common (t);
+
+  /* Accessor macro has side-effects, use field-name here. */
+  LTO_FIXUP_TREE (t->decl_with_vis.assembler_name);
+  LTO_FIXUP_TREE (DECL_SECTION_NAME (t));
+}
+
+/* Fix up fields of a decl_non_common T.  */
+
+static void
+lto_ft_decl_non_common (tree t)
+{
+  lto_ft_decl_with_vis (t);
+  LTO_FIXUP_TREE (DECL_ARGUMENT_FLD (t));
+  LTO_FIXUP_TREE (DECL_RESULT_FLD (t));
+  LTO_FIXUP_TREE (DECL_VINDEX (t));
+}
+
+/* Fix up fields of a decl_non_common T.  */
+
+static void
+lto_ft_function (tree t)
+{
+  lto_ft_decl_non_common (t);
+  LTO_FIXUP_TREE (DECL_FUNCTION_PERSONALITY (t));
+}
+
+/* Fix up fields of a field_decl T.  */
+
+static void
+lto_ft_field_decl (tree t)
+{
+  lto_ft_decl_common (t);
+  LTO_FIXUP_TREE (DECL_FIELD_OFFSET (t));
+  LTO_FIXUP_TREE (DECL_BIT_FIELD_TYPE (t));
+  LTO_FIXUP_TREE (DECL_QUALIFIER (t));
+  LTO_FIXUP_TREE (DECL_FIELD_BIT_OFFSET (t));
+  LTO_FIXUP_TREE (DECL_FCONTEXT (t));
+}
+
+/* Fix up fields of a type T.  */
+
+static void
+lto_ft_type (tree t)
+{
+  lto_ft_common (t);
+  LTO_FIXUP_TREE (TYPE_CACHED_VALUES (t));
+  LTO_FIXUP_TREE (TYPE_SIZE (t));
+  LTO_FIXUP_TREE (TYPE_SIZE_UNIT (t));
+  LTO_FIXUP_TREE (TYPE_ATTRIBUTES (t));
+  LTO_FIXUP_TREE (TYPE_NAME (t));
+
+  /* Accessors are for derived node types only. */
+  if (!POINTER_TYPE_P (t))
+    LTO_FIXUP_TREE (TYPE_MINVAL (t));
+  LTO_FIXUP_TREE (TYPE_MAXVAL (t));
+
+  /* Accessor is for derived node types only. */
+  LTO_FIXUP_TREE (t->type_non_common.binfo);
+
+  LTO_FIXUP_TREE (TYPE_CONTEXT (t));
+}
+
+/* Fix up fields of a BINFO T.  */
+
+static void
+lto_ft_binfo (tree t)
+{
+  unsigned HOST_WIDE_INT i, n;
+  tree base, saved_base;
+
+  lto_ft_common (t);
+  LTO_FIXUP_TREE (BINFO_VTABLE (t));
+  LTO_FIXUP_TREE (BINFO_OFFSET (t));
+  LTO_FIXUP_TREE (BINFO_VIRTUALS (t));
+  LTO_FIXUP_TREE (BINFO_VPTR_FIELD (t));
+  n = VEC_length (tree, BINFO_BASE_ACCESSES (t));
+  for (i = 0; i < n; i++)
+    {
+      saved_base = base = BINFO_BASE_ACCESS (t, i);
+      LTO_FIXUP_TREE (base);
+      if (base != saved_base)
+       VEC_replace (tree, BINFO_BASE_ACCESSES (t), i, base);
+    }
+  LTO_FIXUP_TREE (BINFO_INHERITANCE_CHAIN (t));
+  LTO_FIXUP_TREE (BINFO_SUBVTT_INDEX (t));
+  LTO_FIXUP_TREE (BINFO_VPTR_INDEX (t));
+  n = BINFO_N_BASE_BINFOS (t);
+  for (i = 0; i < n; i++)
+    {
+      saved_base = base = BINFO_BASE_BINFO (t, i);
+      LTO_FIXUP_TREE (base);
+      if (base != saved_base)
+       VEC_replace (tree, BINFO_BASE_BINFOS (t), i, base);
+    }
+}
+
+/* Fix up fields of a CONSTRUCTOR T.  */
+
+static void
+lto_ft_constructor (tree t)
+{
+  unsigned HOST_WIDE_INT idx;
+  constructor_elt *ce;
+
+  lto_ft_typed (t);
+
+  for (idx = 0;
+       VEC_iterate(constructor_elt, CONSTRUCTOR_ELTS (t), idx, ce);
+       idx++)
+    {
+      LTO_FIXUP_TREE (ce->index);
+      LTO_FIXUP_TREE (ce->value);
+    }
+}
+
+/* Fix up fields of an expression tree T.  */
+
+static void
+lto_ft_expr (tree t)
+{
+  int i;
+  lto_ft_typed (t);
+  for (i = TREE_OPERAND_LENGTH (t) - 1; i >= 0; --i)
+    LTO_FIXUP_TREE (TREE_OPERAND (t, i));
+}
+
+/* Given a tree T fixup fields of T by replacing types with their merged
+   variant and other entities by an equal entity from an earlier compilation
+   unit, or an entity being canonical in a different way.  This includes
+   for instance integer or string constants.  */
+
+static void
+lto_fixup_types (tree t)
+{
+  switch (TREE_CODE (t))
+    {
+    case IDENTIFIER_NODE:
+      break;
+
+    case TREE_LIST:
+      LTO_FIXUP_TREE (TREE_VALUE (t));
+      LTO_FIXUP_TREE (TREE_PURPOSE (t));
+      LTO_FIXUP_TREE (TREE_CHAIN (t));
+      break;
+
+    case FIELD_DECL:
+      lto_ft_field_decl (t);
+      break;
+
+    case LABEL_DECL:
+    case CONST_DECL:
+    case PARM_DECL:
+    case RESULT_DECL:
+    case IMPORTED_DECL:
+      lto_ft_decl_common (t);
+      break;
+
+    case VAR_DECL:
+      lto_ft_decl_with_vis (t);
+      break;
+
+    case TYPE_DECL:
+      lto_ft_decl_non_common (t);
+      break;
+
+    case FUNCTION_DECL:
+      lto_ft_function (t);
+      break;
+
+    case TREE_BINFO:
+      lto_ft_binfo (t);
+      break;
+
+    case PLACEHOLDER_EXPR:
+      lto_ft_common (t);
+      break;
+
+    case BLOCK:
+    case TRANSLATION_UNIT_DECL:
+    case OPTIMIZATION_NODE:
+    case TARGET_OPTION_NODE:
+      break;
+
+    default:
+      if (TYPE_P (t))
+       lto_ft_type (t);
+      else if (TREE_CODE (t) == CONSTRUCTOR)
+       lto_ft_constructor (t);
+      else if (CONSTANT_CLASS_P (t))
+       LTO_FIXUP_TREE (TREE_TYPE (t));
+      else if (EXPR_P (t))
+       {
+         lto_ft_expr (t);
+       }
+      else
+       {
+         remember_with_vars (t);
+       }
+    }
+}
+
+
+/* Return the resolution for the decl with index INDEX from DATA_IN. */
+
+static enum ld_plugin_symbol_resolution
+get_resolution (struct data_in *data_in, unsigned index)
+{
+  if (data_in->globals_resolution)
+    {
+      ld_plugin_symbol_resolution_t ret;
+      /* We can have references to not emitted functions in
+        DECL_FUNCTION_PERSONALITY at least.  So we can and have
+        to indeed return LDPR_UNKNOWN in some cases.   */
+      if (VEC_length (ld_plugin_symbol_resolution_t,
+                     data_in->globals_resolution) <= index)
+       return LDPR_UNKNOWN;
+      ret = VEC_index (ld_plugin_symbol_resolution_t,
+                      data_in->globals_resolution,
+                      index);
+      return ret;
+    }
+  else
+    /* Delay resolution finding until decl merging.  */
+    return LDPR_UNKNOWN;
+}
+
+
+/* Register DECL with the global symbol table and change its
+   name if necessary to avoid name clashes for static globals across
+   different files.  */
+
+static void
+lto_register_var_decl_in_symtab (struct data_in *data_in, tree decl)
+{
+  tree context;
+
+  /* Variable has file scope, not local. Need to ensure static variables
+     between different files don't clash unexpectedly.  */
+  if (!TREE_PUBLIC (decl)
+      && !((context = decl_function_context (decl))
+          && auto_var_in_fn_p (decl, context)))
+    {
+      /* ??? We normally pre-mangle names before we serialize them
+        out.  Here, in lto1, we do not know the language, and
+        thus cannot do the mangling again. Instead, we just
+        append a suffix to the mangled name.  The resulting name,
+        however, is not a properly-formed mangled name, and will
+        confuse any attempt to unmangle it.  */
+      const char *name = IDENTIFIER_POINTER (DECL_ASSEMBLER_NAME (decl));
+      char *label;
+
+      ASM_FORMAT_PRIVATE_NAME (label, name, DECL_UID (decl));
+      SET_DECL_ASSEMBLER_NAME (decl, get_identifier (label));
+      rest_of_decl_compilation (decl, 1, 0);
+      VEC_safe_push (tree, gc, lto_global_var_decls, decl);
+    }
+
+  /* If this variable has already been declared, queue the
+     declaration for merging.  */
+  if (TREE_PUBLIC (decl))
+    {
+      unsigned ix;
+      if (!streamer_tree_cache_lookup (data_in->reader_cache, decl, &ix))
+       gcc_unreachable ();
+      lto_symtab_register_decl (decl, get_resolution (data_in, ix),
+                               data_in->file_data);
+    }
+}
+
+
+/* Register DECL with the global symbol table and change its
+   name if necessary to avoid name clashes for static globals across
+   different files.  DATA_IN contains descriptors and tables for the
+   file being read.  */
+
+static void
+lto_register_function_decl_in_symtab (struct data_in *data_in, tree decl)
+{
+  /* Need to ensure static entities between different files
+     don't clash unexpectedly.  */
+  if (!TREE_PUBLIC (decl))
+    {
+      /* We must not use the DECL_ASSEMBLER_NAME macro here, as it
+        may set the assembler name where it was previously empty.  */
+      tree old_assembler_name = decl->decl_with_vis.assembler_name;
+
+      /* FIXME lto: We normally pre-mangle names before we serialize
+        them out.  Here, in lto1, we do not know the language, and
+        thus cannot do the mangling again. Instead, we just append a
+        suffix to the mangled name.  The resulting name, however, is
+        not a properly-formed mangled name, and will confuse any
+        attempt to unmangle it.  */
+      const char *name = IDENTIFIER_POINTER (DECL_ASSEMBLER_NAME (decl));
+      char *label;
+
+      ASM_FORMAT_PRIVATE_NAME (label, name, DECL_UID (decl));
+      SET_DECL_ASSEMBLER_NAME (decl, get_identifier (label));
+
+      /* We may arrive here with the old assembler name not set
+        if the function body is not needed, e.g., it has been
+        inlined away and does not appear in the cgraph.  */
+      if (old_assembler_name)
+       {
+         tree new_assembler_name = DECL_ASSEMBLER_NAME (decl);
+
+         /* Make the original assembler name available for later use.
+            We may have used it to indicate the section within its
+            object file where the function body may be found.
+            FIXME lto: Find a better way to maintain the function decl
+            to body section mapping so we don't need this hack.  */
+         lto_record_renamed_decl (data_in->file_data,
+                                  IDENTIFIER_POINTER (old_assembler_name),
+                                  IDENTIFIER_POINTER (new_assembler_name));
+
+         /* Also register the reverse mapping so that we can find the
+            new name given to an existing assembler name (used when
+            restoring alias pairs in input_constructors_or_inits.  */
+         lto_record_renamed_decl (data_in->file_data,
+                                  IDENTIFIER_POINTER (new_assembler_name),
+                                  IDENTIFIER_POINTER (old_assembler_name));
+       }
+    }
+
+  /* If this variable has already been declared, queue the
+     declaration for merging.  */
+  if (TREE_PUBLIC (decl) && !DECL_ABSTRACT (decl))
+    {
+      unsigned ix;
+      if (!streamer_tree_cache_lookup (data_in->reader_cache, decl, &ix))
+       gcc_unreachable ();
+      lto_symtab_register_decl (decl, get_resolution (data_in, ix),
+                               data_in->file_data);
+    }
+}
+
+
+/* Given a streamer cache structure DATA_IN (holding a sequence of trees
+   for one compilation unit) go over all trees starting at index FROM until the
+   end of the sequence and replace fields of those trees, and the trees
+   themself with their canonical variants as per gimple_register_type.  */
+
+static void
+uniquify_nodes (struct data_in *data_in, unsigned from)
+{
+  struct streamer_tree_cache_d *cache = data_in->reader_cache;
+  unsigned len = VEC_length (tree, cache->nodes);
+  unsigned i;
+
+  /* Go backwards because children streamed for the first time come
+     as part of their parents, and hence are created after them.  */
+
+  /* First register all the types in the cache.  This makes sure to
+     have the original structure in the type cycles when registering
+     them and computing hashes.  */
+  for (i = len; i-- > from;)
+    {
+      tree t = VEC_index (tree, cache->nodes, i);
+      if (t && TYPE_P (t))
+       gimple_register_type (t);
+    }
+
+  /* Second fixup all trees in the new cache entries.  */
+  for (i = len; i-- > from;)
+    {
+      tree t = VEC_index (tree, cache->nodes, i);
+      tree oldt = t;
+      if (!t)
+       continue;
+
+      /* First fixup the fields of T.  */
+      lto_fixup_types (t);
+
+      if (!TYPE_P (t))
+       continue;
+
+      /* Now try to find a canonical variant of T itself.  */
+      t = gimple_register_type (t);
+
+      if (t == oldt)
+       {
+         /* The following re-creates proper variant lists while fixing up
+            the variant leaders.  We do not stream TYPE_NEXT_VARIANT so the
+            variant list state before fixup is broken.  */
+         tree tem, mv;
+
+         /* Remove us from our main variant list if we are not the
+            variant leader.  */
+         if (TYPE_MAIN_VARIANT (t) != t)
+           {
+             tem = TYPE_MAIN_VARIANT (t);
+             while (tem && TYPE_NEXT_VARIANT (tem) != t)
+               tem = TYPE_NEXT_VARIANT (tem);
+             if (tem)
+               TYPE_NEXT_VARIANT (tem) = TYPE_NEXT_VARIANT (t);
+             TYPE_NEXT_VARIANT (t) = NULL_TREE;
+           }
+
+         /* Query our new main variant.  */
+         mv = gimple_register_type (TYPE_MAIN_VARIANT (t));
+
+         /* If we were the variant leader and we get replaced ourselves drop
+            all variants from our list.  */
+         if (TYPE_MAIN_VARIANT (t) == t
+             && mv != t)
+           {
+             tem = t;
+             while (tem)
+               {
+                 tree tem2 = TYPE_NEXT_VARIANT (tem);
+                 TYPE_NEXT_VARIANT (tem) = NULL_TREE;
+                 tem = tem2;
+               }
+           }
+
+         /* If we are not our own variant leader link us into our new leaders
+            variant list.  */
+         if (mv != t)
+           {
+             TYPE_NEXT_VARIANT (t) = TYPE_NEXT_VARIANT (mv);
+             TYPE_NEXT_VARIANT (mv) = t;
+             if (RECORD_OR_UNION_TYPE_P (t))
+               TYPE_BINFO (t) = TYPE_BINFO (mv);
+           }
+
+         /* Finally adjust our main variant and fix it up.  */
+         TYPE_MAIN_VARIANT (t) = mv;
+
+         /* The following reconstructs the pointer chains
+            of the new pointed-to type if we are a main variant.  We do
+            not stream those so they are broken before fixup.  */
+         if (TREE_CODE (t) == POINTER_TYPE
+             && TYPE_MAIN_VARIANT (t) == t)
+           {
+             TYPE_NEXT_PTR_TO (t) = TYPE_POINTER_TO (TREE_TYPE (t));
+             TYPE_POINTER_TO (TREE_TYPE (t)) = t;
+           }
+         else if (TREE_CODE (t) == REFERENCE_TYPE
+                  && TYPE_MAIN_VARIANT (t) == t)
+           {
+             TYPE_NEXT_REF_TO (t) = TYPE_REFERENCE_TO (TREE_TYPE (t));
+             TYPE_REFERENCE_TO (TREE_TYPE (t)) = t;
+           }
+       }
+
+      else
+       {
+         if (RECORD_OR_UNION_TYPE_P (t))
+           {
+             tree f1, f2;
+             if (TYPE_FIELDS (t) != TYPE_FIELDS (oldt))
+               for (f1 = TYPE_FIELDS (t), f2 = TYPE_FIELDS (oldt);
+                    f1 && f2; f1 = TREE_CHAIN (f1), f2 = TREE_CHAIN (f2))
+                 {
+                   unsigned ix;
+                   gcc_assert (f1 != f2 && DECL_NAME (f1) == DECL_NAME (f2));
+                   if (!streamer_tree_cache_lookup (cache, f2, &ix))
+                     gcc_unreachable ();
+                   /* If we're going to replace an element which we'd
+                      still visit in the next iterations, we wouldn't
+                      handle it, so do it here.  We do have to handle it
+                      even though the field_decl itself will be removed,
+                      as it could refer to e.g. integer_cst which we
+                      wouldn't reach via any other way, hence they
+                      (and their type) would stay uncollected.  */
+                   /* ???  We should rather make sure to replace all
+                      references to f2 with f1.  That means handling
+                      COMPONENT_REFs and CONSTRUCTOR elements in
+                      lto_fixup_types and special-case the field-decl
+                      operand handling.  */
+                   if (ix < i)
+                     lto_fixup_types (f2);
+                   streamer_tree_cache_insert_at (cache, f1, ix);
+                 }
+           }
+
+         /* If we found a tree that is equal to oldt replace it in the
+            cache, so that further users (in the various LTO sections)
+            make use of it.  */
+         streamer_tree_cache_insert_at (cache, t, i);
+       }
+    }
+
+  /* Finally compute the canonical type of all TREE_TYPEs and register
+     VAR_DECL and FUNCTION_DECL nodes in the symbol table.
+     From this point there are no longer any types with
+     TYPE_STRUCTURAL_EQUALITY_P and its type-based alias problems.
+     This step requires the TYPE_POINTER_TO lists being present, so
+     make sure it is done last.  */
+  for (i = len; i-- > from;)
+    {
+      tree t = VEC_index (tree, cache->nodes, i);
+      if (t == NULL_TREE)
+       continue;
+
+      if (TREE_CODE (t) == VAR_DECL)
+       lto_register_var_decl_in_symtab (data_in, t);
+      else if (TREE_CODE (t) == FUNCTION_DECL && !DECL_BUILT_IN (t))
+       lto_register_function_decl_in_symtab (data_in, t);
+      else if (TYPE_P (t) && !TYPE_CANONICAL (t))
+       TYPE_CANONICAL (t) = gimple_register_canonical_type (t);
+    }
+}
+
 
 /* Read all the symbols from buffer DATA, using descriptors in DECL_DATA.
    RESOLUTIONS is the set of symbols picked by the linker (read from the
@@ -273,8 +897,11 @@ lto_read_decls (struct lto_file_decl_data *decl_data, const void *data,
   /* Read the global declarations and types.  */
   while (ib_main.p < ib_main.len)
     {
-      tree t = lto_input_tree (&ib_main, data_in);
+      tree t;
+      unsigned from = VEC_length (tree, data_in->reader_cache->nodes);
+      t = stream_read_tree (&ib_main, data_in);
       gcc_assert (t && ib_main.p <= ib_main.len);
+      uniquify_nodes (data_in, from);
     }
 
   /* Read in lto_in_decl_state objects.  */
@@ -359,7 +986,7 @@ lto_resolution_read (splay_tree file_ids, FILE *resolution, lto_file *file)
 
   fread (obj_name, sizeof (char), name_len, resolution);
   obj_name[name_len] = '\0';
-  if (strcmp (obj_name, file->filename) != 0)
+  if (filename_cmp (obj_name, file->filename) != 0)
     internal_error ("unexpected file name %s in linker resolution file. "
                    "Expected %s", obj_name, file->filename);
   if (file->offset != 0)
@@ -382,16 +1009,18 @@ lto_resolution_read (splay_tree file_ids, FILE *resolution, lto_file *file)
   for (i = 0; i < num_symbols; i++)
     {
       int t;
-      unsigned index, id;
+      unsigned index;
+      unsigned HOST_WIDE_INT id;
       char r_str[27];
       enum ld_plugin_symbol_resolution r = (enum ld_plugin_symbol_resolution) 0;
       unsigned int j;
       unsigned int lto_resolution_str_len =
        sizeof (lto_resolution_str) / sizeof (char *);
 
-      t = fscanf (resolution, "%u %x %26s %*[^\n]\n", &index, &id, r_str);
+      t = fscanf (resolution, "%u " HOST_WIDE_INT_PRINT_HEX_PURE " %26s %*[^\n]\n", 
+                 &index, &id, r_str);
       if (t != 3)
-        internal_error ("Invalid line in the resolution file.");
+        internal_error ("invalid line in the resolution file");
       if (index > max_index)
        max_index = index;
 
@@ -404,19 +1033,17 @@ lto_resolution_read (splay_tree file_ids, FILE *resolution, lto_file *file)
            }
        }
       if (j == lto_resolution_str_len)
-       internal_error ("Invalid resolution in the resolution file.");
+       internal_error ("invalid resolution in the resolution file");
 
-      if (!(nd && nd->key == id))
+      if (!(nd && lto_splay_tree_id_equal_p (nd->key, id)))
        {
-         nd = splay_tree_lookup (file_ids, id);
+         nd = lto_splay_tree_lookup (file_ids, id);
          if (nd == NULL)
-           internal_error ("Resolution sub id %x not in object file", id);
+           internal_error ("resolution sub id " HOST_WIDE_INT_PRINT_HEX_PURE
+                           " not in object file", id);
        }
 
       file_data = (struct lto_file_decl_data *)nd->value;
-      if (cgraph_dump_file)
-       fprintf (cgraph_dump_file, "Adding resolution %u %u to id %x\n",
-                index, r, file_data->id);
       VEC_safe_grow_cleared (ld_plugin_symbol_resolution_t, heap, 
                             file_data->resolutions,
                             max_index + 1);
@@ -428,14 +1055,14 @@ lto_resolution_read (splay_tree file_ids, FILE *resolution, lto_file *file)
 /* Is the name for a id'ed LTO section? */
 
 static int 
-lto_section_with_id (const char *name, unsigned *id)
+lto_section_with_id (const char *name, unsigned HOST_WIDE_INT *id)
 {
-  char *s;
+  const char *s;
 
   if (strncmp (name, LTO_SECTION_NAME_PREFIX, strlen (LTO_SECTION_NAME_PREFIX)))
     return 0;
   s = strrchr (name, '.');
-  return s && sscanf (s, ".%x", id) == 1;
+  return s && sscanf (s, "." HOST_WIDE_INT_PRINT_HEX_PURE, id) == 1;
 }
 
 /* Create file_data of each sub file id */
@@ -446,7 +1073,7 @@ create_subid_section_table (void **slot, void *data)
   struct lto_section_slot s_slot, *new_slot;
   struct lto_section_slot *ls = *(struct lto_section_slot **)slot;
   splay_tree file_ids = (splay_tree)data;
-  unsigned id;
+  unsigned HOST_WIDE_INT id;
   splay_tree_node nd;
   void **hash_slot;
   char *new_name;
@@ -456,7 +1083,7 @@ create_subid_section_table (void **slot, void *data)
     return 1;
   
   /* Find hash table of sub module id */
-  nd = splay_tree_lookup (file_ids, id);
+  nd = lto_splay_tree_lookup (file_ids, id);
   if (nd != NULL)
     {
       file_data = (struct lto_file_decl_data *)nd->value;
@@ -467,7 +1094,7 @@ create_subid_section_table (void **slot, void *data)
       memset(file_data, 0, sizeof (struct lto_file_decl_data));
       file_data->id = id;
       file_data->section_hash_table = lto_obj_create_section_hash_table ();;
-      splay_tree_insert (file_ids, id, (splay_tree_value)file_data);
+      lto_splay_tree_insert (file_ids, id, file_data);
     }
 
   /* Copy section into sub module hash table */
@@ -493,7 +1120,11 @@ lto_file_finalize (struct lto_file_decl_data *file_data, lto_file *file)
   file_data->renaming_hash_table = lto_create_renaming_table ();
   file_data->file_name = file->filename;
   data = lto_get_section_data (file_data, LTO_section_decls, NULL, &len);
-  gcc_assert (data != NULL);
+  if (data == NULL)
+    {
+      internal_error ("cannot read LTO decls from %s", file_data->file_name);
+      return;
+    }
   lto_read_decls (file_data, data, file_data->resolutions);
   lto_free_section_data (file_data, LTO_section_decls, NULL, data, len);
 }
@@ -514,7 +1145,7 @@ static int lto_create_files_from_ids (splay_tree_node node, void *data)
 
   lto_file_finalize (file_data, lw->file);
   if (cgraph_dump_file)
-    fprintf (cgraph_dump_file, "Creating file %s with sub id %x\n", 
+    fprintf (cgraph_dump_file, "Creating file %s with sub id " HOST_WIDE_INT_PRINT_HEX "\n", 
             file_data->file_name, file_data->id);
   file_data->next = *lw->file_data;
   *lw->file_data = file_data;
@@ -541,7 +1172,7 @@ lto_file_read (lto_file *file, FILE *resolution_file, int *count)
 
   /* Find all sub modules in the object and put their sections into new hash
      tables in a splay tree. */
-  file_ids = splay_tree_new (splay_tree_compare_ints, NULL, NULL);
+  file_ids = lto_splay_tree_new ();
   htab_traverse (section_hash_table, create_subid_section_table, file_ids);
   
   /* Add resolutions to file ids */
@@ -592,7 +1223,7 @@ lto_read_section_data (struct lto_file_decl_data *file_data,
      or rather fix function body streaming to not stream them in
      practically random order.  */
   if (fd != -1
-      && strcmp (fd_name, file_data->file_name) != 0)
+      && filename_cmp (fd_name, file_data->file_name) != 0)
     {
       free (fd_name);
       close (fd);
@@ -600,10 +1231,10 @@ lto_read_section_data (struct lto_file_decl_data *file_data,
     }
   if (fd == -1)
     {
-      fd_name = xstrdup (file_data->file_name);
       fd = open (file_data->file_name, O_RDONLY|O_BINARY);
       if (fd == -1)
        return NULL;
+      fd_name = xstrdup (file_data->file_name);
     }
 
 #if LTO_MMAP_IO
@@ -629,9 +1260,17 @@ lto_read_section_data (struct lto_file_decl_data *file_data,
       || read (fd, result, len) != (ssize_t) len)
     {
       free (result);
-      return NULL;
+      result = NULL;
     }
-
+#ifdef __MINGW32__
+  /* Native windows doesn't supports delayed unlink on opened file. So
+     we close file here again. This produces higher I/O load, but at least
+     it prevents to have dangling file handles preventing unlink.  */
+  free (fd_name);
+  fd_name = NULL;
+  close (fd);
+  fd = -1;
+#endif
   return result;
 #endif
 }    
@@ -695,19 +1334,19 @@ free_section_data (struct lto_file_decl_data *file_data ATTRIBUTE_UNUSED,
 
 /* Structure describing ltrans partitions.  */
 
-struct GTY (()) ltrans_partition_def
+struct ltrans_partition_def
 {
   cgraph_node_set cgraph_set;
   varpool_node_set varpool_set;
-  const char * GTY ((skip)) name;
+  const char * name;
   int insns;
 };
 
 typedef struct ltrans_partition_def *ltrans_partition;
 DEF_VEC_P(ltrans_partition);
-DEF_VEC_ALLOC_P(ltrans_partition,gc);
+DEF_VEC_ALLOC_P(ltrans_partition,heap);
 
-static GTY (()) VEC(ltrans_partition, gc) *ltrans_partitions;
+static VEC(ltrans_partition, heap) *ltrans_partitions;
 
 static void add_cgraph_node_to_partition (ltrans_partition part, struct cgraph_node *node);
 static void add_varpool_node_to_partition (ltrans_partition part, struct varpool_node *vnode);
@@ -716,15 +1355,29 @@ static void add_varpool_node_to_partition (ltrans_partition part, struct varpool
 static ltrans_partition
 new_partition (const char *name)
 {
-  ltrans_partition part = ggc_alloc_ltrans_partition_def ();
+  ltrans_partition part = XCNEW (struct ltrans_partition_def);
   part->cgraph_set = cgraph_node_set_new ();
   part->varpool_set = varpool_node_set_new ();
   part->name = name;
   part->insns = 0;
-  VEC_safe_push (ltrans_partition, gc, ltrans_partitions, part);
+  VEC_safe_push (ltrans_partition, heap, ltrans_partitions, part);
   return part;
 }
 
+/* Free memory used by ltrans datastructures.  */
+static void
+free_ltrans_partitions (void)
+{
+  unsigned int idx;
+  ltrans_partition part;
+  for (idx = 0; VEC_iterate (ltrans_partition, ltrans_partitions, idx, part); idx++)
+    {
+      free_cgraph_node_set (part->cgraph_set);
+      free (part);
+    }
+  VEC_free (ltrans_partition, heap, ltrans_partitions);
+}
+
 /* See all references that go to comdat objects and bring them into partition too.  */
 static void
 add_references_to_partition (ltrans_partition part, struct ipa_ref_list *refs)
@@ -734,7 +1387,7 @@ add_references_to_partition (ltrans_partition part, struct ipa_ref_list *refs)
   for (i = 0; ipa_ref_list_reference_iterate (refs, i, ref); i++)
     {
       if (ref->refered_type == IPA_REF_CGRAPH
-         && DECL_COMDAT (ipa_ref_node (ref)->decl)
+         && DECL_COMDAT (cgraph_function_node (ipa_ref_node (ref), NULL)->decl)
          && !cgraph_node_in_set_p (ipa_ref_node (ref), part->cgraph_set))
        add_cgraph_node_to_partition (part, ipa_ref_node (ref));
       else
@@ -745,35 +1398,69 @@ add_references_to_partition (ltrans_partition part, struct ipa_ref_list *refs)
     }
 }
 
-/* Add NODE to partition as well as the inline callees and referred comdats into partition PART. */
+/* Worker for add_cgraph_node_to_partition.  */
 
-static void
-add_cgraph_node_to_partition (ltrans_partition part, struct cgraph_node *node)
+static bool
+add_cgraph_node_to_partition_1 (struct cgraph_node *node, void *data)
 {
-  struct cgraph_edge *e;
+  ltrans_partition part = (ltrans_partition) data;
 
-  part->insns += node->local.inline_summary.self_size;
+  /* non-COMDAT aliases of COMDAT functions needs to be output just once.  */
+  if (!DECL_COMDAT (node->decl)
+      && !node->global.inlined_to
+      && node->aux)
+    {
+      gcc_assert (node->thunk.thunk_p || node->alias);
+      return false;
+    }
 
   if (node->aux)
     {
-      gcc_assert (node->aux != part);
       node->in_other_partition = 1;
+      if (cgraph_dump_file)
+        fprintf (cgraph_dump_file, "Node %s/%i now used in multiple partitions\n",
+                cgraph_node_name (node), node->uid);
     }
-  else
-    node->aux = part;
+  node->aux = (void *)((size_t)node->aux + 1);
+  cgraph_node_set_add (part->cgraph_set, node);
+  return false;
+}
+
+/* Add NODE to partition as well as the inline callees and referred comdats into partition PART. */
+
+static void
+add_cgraph_node_to_partition (ltrans_partition part, struct cgraph_node *node)
+{
+  struct cgraph_edge *e;
+  cgraph_node_set_iterator csi;
+  struct cgraph_node *n;
+
+  /* We always decide on functions, not associated thunks and aliases.  */
+  node = cgraph_function_node (node, NULL);
+
+  /* If NODE is already there, we have nothing to do.  */
+  csi = cgraph_node_set_find (part->cgraph_set, node);
+  if (!csi_end_p (csi))
+    return;
+
+  cgraph_for_node_thunks_and_aliases (node, add_cgraph_node_to_partition_1, part, true);
+
+  part->insns += inline_summary (node)->self_size;
+
 
   cgraph_node_set_add (part->cgraph_set, node);
 
   for (e = node->callees; e; e = e->next_callee)
-    if ((!e->inline_failed || DECL_COMDAT (e->callee->decl))
+    if ((!e->inline_failed
+        || DECL_COMDAT (cgraph_function_node (e->callee, NULL)->decl))
        && !cgraph_node_in_set_p (e->callee, part->cgraph_set))
       add_cgraph_node_to_partition (part, e->callee);
 
   add_references_to_partition (part, &node->ref_list);
 
-  if (node->same_comdat_group
-      && !cgraph_node_in_set_p (node->same_comdat_group, part->cgraph_set))
-    add_cgraph_node_to_partition (part, node->same_comdat_group);
+  if (node->same_comdat_group)
+    for (n = node->same_comdat_group; n != node; n = n->same_comdat_group)
+      add_cgraph_node_to_partition (part, n);
 }
 
 /* Add VNODE to partition as well as comdat references partition PART. */
@@ -781,15 +1468,23 @@ add_cgraph_node_to_partition (ltrans_partition part, struct cgraph_node *node)
 static void
 add_varpool_node_to_partition (ltrans_partition part, struct varpool_node *vnode)
 {
+  varpool_node_set_iterator vsi;
+
+  /* If NODE is already there, we have nothing to do.  */
+  vsi = varpool_node_set_find (part->varpool_set, vnode);
+  if (!vsi_end_p (vsi))
+    return;
+
   varpool_node_set_add (part->varpool_set, vnode);
 
   if (vnode->aux)
     {
-      gcc_assert (vnode->aux != part);
       vnode->in_other_partition = 1;
+      if (cgraph_dump_file)
+        fprintf (cgraph_dump_file, "Varpool node %s now used in multiple partitions\n",
+                varpool_node_name (vnode));
     }
-  else
-    vnode->aux = part;
+  vnode->aux = (void *)((size_t)vnode->aux + 1);
 
   add_references_to_partition (part, &vnode->ref_list);
 
@@ -798,6 +1493,77 @@ add_varpool_node_to_partition (ltrans_partition part, struct varpool_node *vnode
     add_varpool_node_to_partition (part, vnode->same_comdat_group);
 }
 
+/* Undo all additions until number of cgraph nodes in PARITION is N_CGRAPH_NODES
+   and number of varpool nodes is N_VARPOOL_NODES.  */
+
+static void
+undo_partition (ltrans_partition partition, unsigned int n_cgraph_nodes,
+               unsigned int n_varpool_nodes)
+{
+  while (VEC_length (cgraph_node_ptr, partition->cgraph_set->nodes) >
+        n_cgraph_nodes)
+    {
+      struct cgraph_node *node = VEC_index (cgraph_node_ptr,
+                                           partition->cgraph_set->nodes,
+                                           n_cgraph_nodes);
+      partition->insns -= inline_summary (node)->self_size;
+      cgraph_node_set_remove (partition->cgraph_set, node);
+      node->aux = (void *)((size_t)node->aux - 1);
+    }
+  while (VEC_length (varpool_node_ptr, partition->varpool_set->nodes) >
+        n_varpool_nodes)
+    {
+      struct varpool_node *node = VEC_index (varpool_node_ptr,
+                                            partition->varpool_set->nodes,
+                                            n_varpool_nodes);
+      varpool_node_set_remove (partition->varpool_set, node);
+      node->aux = (void *)((size_t)node->aux - 1);
+    }
+}
+
+/* Return true if NODE should be partitioned.
+   This means that partitioning algorithm should put NODE into one of partitions.
+   This apply to most functions with bodies.  Functions that are not partitions
+   are put into every unit needing them.  This is the case of i.e. COMDATs.  */
+
+static bool
+partition_cgraph_node_p (struct cgraph_node *node)
+{
+  /* We will get proper partition based on function they are inlined to.  */
+  if (node->global.inlined_to)
+    return false;
+  /* Nodes without a body do not need partitioning.  */
+  if (!node->analyzed)
+    return false;
+  /* Extern inlines and comdat are always only in partitions they are needed.  */
+  if (DECL_EXTERNAL (node->decl)
+      || (DECL_COMDAT (node->decl)
+         && !cgraph_used_from_object_file_p (node)))
+    return false;
+  if (lookup_attribute ("weakref", DECL_ATTRIBUTES (node->decl)))
+    return false;
+  return true;
+}
+
+/* Return true if VNODE should be partitioned. 
+   This means that partitioning algorithm should put VNODE into one of partitions. */
+
+static bool
+partition_varpool_node_p (struct varpool_node *vnode)
+{
+  if (vnode->alias || !vnode->needed)
+    return false;
+  /* Constant pool and comdat are always only in partitions they are needed.  */
+  if (DECL_IN_CONSTANT_POOL (vnode->decl)
+      || (DECL_COMDAT (vnode->decl)
+         && !vnode->force_output
+         && !varpool_used_from_object_file_p (vnode)))
+    return false;
+  if (lookup_attribute ("weakref", DECL_ATTRIBUTES (vnode->decl)))
+    return false;
+  return true;
+}
+
 /* Group cgrah nodes by input files.  This is used mainly for testing
    right now.  */
 
@@ -818,19 +1584,11 @@ lto_1_to_1_map (void)
 
   for (node = cgraph_nodes; node; node = node->next)
     {
-      /* We will get proper partition based on function they are inlined to.  */
-      if (node->global.inlined_to)
-       continue;
-      /* Nodes without a body do not need partitioning.  */
-      if (!node->analyzed)
-       continue;
-      /* Extern inlines and comdat are always only in partitions they are needed.  */
-      if (DECL_EXTERNAL (node->decl)
-         || DECL_COMDAT (node->decl))
+      if (!partition_cgraph_node_p (node)
+         || node->aux)
        continue;
 
       file_data = node->local.lto_file_data;
-      gcc_assert (!node->same_body_alias);
 
       if (file_data)
        {
@@ -861,11 +1619,8 @@ lto_1_to_1_map (void)
 
   for (vnode = varpool_nodes; vnode; vnode = vnode->next)
     {
-      if (vnode->alias || !vnode->needed)
-       continue;
-      /* Constant pool and comdat are always only in partitions they are needed.  */
-      if (DECL_IN_CONSTANT_POOL (vnode->decl)
-         || DECL_COMDAT (vnode->decl))
+      if (!partition_varpool_node_p (vnode)
+         || vnode->aux)
        continue;
       file_data = vnode->lto_file_data;
       slot = pointer_map_contains (pmap, file_data);
@@ -873,30 +1628,338 @@ lto_1_to_1_map (void)
        partition = (ltrans_partition) *slot;
       else
        {
-         partition = new_partition (file_data->file_name);
-         slot = pointer_map_insert (pmap, file_data);
-         *slot = partition;
-         npartitions++;
+         partition = new_partition (file_data->file_name);
+         slot = pointer_map_insert (pmap, file_data);
+         *slot = partition;
+         npartitions++;
+       }
+
+      add_varpool_node_to_partition (partition, vnode);
+    }
+  for (node = cgraph_nodes; node; node = node->next)
+    node->aux = NULL;
+  for (vnode = varpool_nodes; vnode; vnode = vnode->next)
+    vnode->aux = NULL;
+
+  /* If the cgraph is empty, create one cgraph node set so that there is still
+     an output file for any variables that need to be exported in a DSO.  */
+  if (!npartitions)
+    new_partition ("empty");
+
+  pointer_map_destroy (pmap);
+
+  timevar_pop (TV_WHOPR_WPA);
+
+  lto_stats.num_cgraph_partitions += VEC_length (ltrans_partition, 
+                                                ltrans_partitions);
+}
+
+
+/* Group cgraph nodes into equally-sized partitions.
+
+   The partitioning algorithm is simple: nodes are taken in predefined order.
+   The order corresponds to the order we want functions to have in the final
+   output.  In the future this will be given by function reordering pass, but
+   at the moment we use the topological order, which is a good approximation.
+
+   The goal is to partition this linear order into intervals (partitions) so
+   that all the partitions have approximately the same size and the number of
+   callgraph or IPA reference edges crossing boundaries is minimal.
+
+   This is a lot faster (O(n) in size of callgraph) than algorithms doing
+   priority-based graph clustering that are generally O(n^2) and, since
+   WHOPR is designed to make things go well across partitions, it leads
+   to good results.
+
+   We compute the expected size of a partition as:
+
+     max (total_size / lto_partitions, min_partition_size)
+
+   We use dynamic expected size of partition so small programs are partitioned
+   into enough partitions to allow use of multiple CPUs, while large programs
+   are not partitioned too much.  Creating too many partitions significantly
+   increases the streaming overhead.
+
+   In the future, we would like to bound the maximal size of partitions so as
+   to prevent the LTRANS stage from consuming too much memory.  At the moment,
+   however, the WPA stage is the most memory intensive for large benchmarks,
+   since too many types and declarations are read into memory.
+
+   The function implements a simple greedy algorithm.  Nodes are being added
+   to the current partition until after 3/4 of the expected partition size is
+   reached.  Past this threshold, we keep track of boundary size (number of
+   edges going to other partitions) and continue adding functions until after
+   the current partition has grown to twice the expected partition size.  Then
+   the process is undone to the point where the minimal ratio of boundary size
+   and in-partition calls was reached.  */
+
+static void
+lto_balanced_map (void)
+{
+  int n_nodes = 0;
+  struct cgraph_node **postorder =
+    XCNEWVEC (struct cgraph_node *, cgraph_n_nodes);
+  struct cgraph_node **order = XNEWVEC (struct cgraph_node *, cgraph_max_uid);
+  int i, postorder_len;
+  struct cgraph_node *node;
+  int total_size = 0, best_total_size = 0;
+  int partition_size;
+  ltrans_partition partition;
+  unsigned int last_visited_cgraph_node = 0, last_visited_varpool_node = 0;
+  struct varpool_node *vnode;
+  int cost = 0, internal = 0;
+  int best_n_nodes = 0, best_n_varpool_nodes = 0, best_i = 0, best_cost =
+    INT_MAX, best_internal = 0;
+  int npartitions;
+
+  for (vnode = varpool_nodes; vnode; vnode = vnode->next)
+    gcc_assert (!vnode->aux);
+  /* Until we have better ordering facility, use toplogical order.
+     Include only nodes we will partition and compute estimate of program
+     size.  Note that since nodes that are not partitioned might be put into
+     multiple partitions, this is just an estimate of real size.  This is why
+     we keep partition_size updated after every partition is finalized.  */
+  postorder_len = ipa_reverse_postorder (postorder);
+  for (i = 0; i < postorder_len; i++)
+    {
+      node = postorder[i];
+      if (partition_cgraph_node_p (node))
+       {
+         order[n_nodes++] = node;
+          total_size += inline_summary (node)->size;
        }
-
-      add_varpool_node_to_partition (partition, vnode);
     }
-  for (node = cgraph_nodes; node; node = node->next)
-    node->aux = NULL;
-  for (vnode = varpool_nodes; vnode; vnode = vnode->next)
-    vnode->aux = NULL;
+  free (postorder);
+
+  /* Compute partition size and create the first partition.  */
+  partition_size = total_size / PARAM_VALUE (PARAM_LTO_PARTITIONS);
+  if (partition_size < PARAM_VALUE (MIN_PARTITION_SIZE))
+    partition_size = PARAM_VALUE (MIN_PARTITION_SIZE);
+  npartitions = 1;
+  partition = new_partition ("");
+  if (cgraph_dump_file)
+    fprintf (cgraph_dump_file, "Total unit size: %i, partition size: %i\n",
+            total_size, partition_size);
 
-  /* If the cgraph is empty, create one cgraph node set so that there is still
-     an output file for any variables that need to be exported in a DSO.  */
-  if (!npartitions)
-    new_partition ("empty");
+  for (i = 0; i < n_nodes; i++)
+    {
+      if (order[i]->aux)
+       continue;
+      add_cgraph_node_to_partition (partition, order[i]);
+      total_size -= inline_summary (order[i])->size;
+
+      /* Once we added a new node to the partition, we also want to add
+         all referenced variables unless they was already added into some
+         earlier partition.
+        add_cgraph_node_to_partition adds possibly multiple nodes and
+        variables that are needed to satisfy needs of ORDER[i].
+         We remember last visited cgraph and varpool node from last iteration
+         of outer loop that allows us to process every new addition. 
+
+        At the same time we compute size of the boundary into COST.  Every
+         callgraph or IPA reference edge leaving the partition contributes into
+         COST.  Every edge inside partition was earlier computed as one leaving
+        it and thus we need to subtract it from COST.  */
+      while (last_visited_cgraph_node <
+            VEC_length (cgraph_node_ptr, partition->cgraph_set->nodes)
+            || last_visited_varpool_node < VEC_length (varpool_node_ptr,
+                                                       partition->varpool_set->
+                                                       nodes))
+       {
+         struct ipa_ref_list *refs;
+         int j;
+         struct ipa_ref *ref;
+         bool cgraph_p = false;
 
-  pointer_map_destroy (pmap);
+         if (last_visited_cgraph_node <
+             VEC_length (cgraph_node_ptr, partition->cgraph_set->nodes))
+           {
+             struct cgraph_edge *edge;
+
+             cgraph_p = true;
+             node = VEC_index (cgraph_node_ptr, partition->cgraph_set->nodes,
+                               last_visited_cgraph_node);
+             refs = &node->ref_list;
+
+             last_visited_cgraph_node++;
+
+             gcc_assert (node->analyzed);
+
+             /* Compute boundary cost of callgrpah edges.  */
+             for (edge = node->callees; edge; edge = edge->next_callee)
+               if (edge->callee->analyzed)
+                 {
+                   int edge_cost = edge->frequency;
+                   cgraph_node_set_iterator csi;
+
+                   if (!edge_cost)
+                     edge_cost = 1;
+                   gcc_assert (edge_cost > 0);
+                   csi = cgraph_node_set_find (partition->cgraph_set, edge->callee);
+                   if (!csi_end_p (csi)
+                       && csi.index < last_visited_cgraph_node - 1)
+                     cost -= edge_cost, internal+= edge_cost;
+                   else
+                     cost += edge_cost;
+                 }
+             for (edge = node->callers; edge; edge = edge->next_caller)
+               {
+                 int edge_cost = edge->frequency;
+                 cgraph_node_set_iterator csi;
+
+                 gcc_assert (edge->caller->analyzed);
+                 if (!edge_cost)
+                   edge_cost = 1;
+                 gcc_assert (edge_cost > 0);
+                 csi = cgraph_node_set_find (partition->cgraph_set, edge->caller);
+                 if (!csi_end_p (csi)
+                     && csi.index < last_visited_cgraph_node)
+                   cost -= edge_cost;
+                 else
+                   cost += edge_cost;
+               }
+           }
+         else
+           {
+             refs =
+               &VEC_index (varpool_node_ptr, partition->varpool_set->nodes,
+                           last_visited_varpool_node)->ref_list;
+             last_visited_varpool_node++;
+           }
 
-  timevar_pop (TV_WHOPR_WPA);
+         /* Compute boundary cost of IPA REF edges and at the same time look into
+            variables referenced from current partition and try to add them.  */
+         for (j = 0; ipa_ref_list_reference_iterate (refs, j, ref); j++)
+           if (ref->refered_type == IPA_REF_VARPOOL)
+             {
+               varpool_node_set_iterator vsi;
+
+               vnode = ipa_ref_varpool_node (ref);
+               if (!vnode->finalized)
+                 continue;
+               if (!vnode->aux && partition_varpool_node_p (vnode))
+                 add_varpool_node_to_partition (partition, vnode);
+               vsi = varpool_node_set_find (partition->varpool_set, vnode);
+               if (!vsi_end_p (vsi)
+                   && vsi.index < last_visited_varpool_node - !cgraph_p)
+                 cost--, internal++;
+               else
+                 cost++;
+             }
+           else
+             {
+               cgraph_node_set_iterator csi;
+
+               node = ipa_ref_node (ref);
+               if (!node->analyzed)
+                 continue;
+               csi = cgraph_node_set_find (partition->cgraph_set, node);
+               if (!csi_end_p (csi)
+                   && csi.index < last_visited_cgraph_node - cgraph_p)
+                 cost--, internal++;
+               else
+                 cost++;
+             }
+         for (j = 0; ipa_ref_list_refering_iterate (refs, j, ref); j++)
+           if (ref->refering_type == IPA_REF_VARPOOL)
+             {
+               varpool_node_set_iterator vsi;
+
+               vnode = ipa_ref_refering_varpool_node (ref);
+               gcc_assert (vnode->finalized);
+               if (!vnode->aux && partition_varpool_node_p (vnode))
+                 add_varpool_node_to_partition (partition, vnode);
+               vsi = varpool_node_set_find (partition->varpool_set, vnode);
+               if (!vsi_end_p (vsi)
+                   && vsi.index < last_visited_varpool_node)
+                 cost--;
+               else
+                 cost++;
+             }
+           else
+             {
+               cgraph_node_set_iterator csi;
+
+               node = ipa_ref_refering_node (ref);
+               gcc_assert (node->analyzed);
+               csi = cgraph_node_set_find (partition->cgraph_set, node);
+               if (!csi_end_p (csi)
+                   && csi.index < last_visited_cgraph_node)
+                 cost--;
+               else
+                 cost++;
+             }
+       }
 
-  lto_stats.num_cgraph_partitions += VEC_length (ltrans_partition, 
-                                                ltrans_partitions);
+      /* If the partition is large enough, start looking for smallest boundary cost.  */
+      if (partition->insns < partition_size * 3 / 4
+         || best_cost == INT_MAX
+         || ((!cost 
+              || (best_internal * (HOST_WIDE_INT) cost
+                  > (internal * (HOST_WIDE_INT)best_cost)))
+             && partition->insns < partition_size * 5 / 4))
+       {
+         best_cost = cost;
+         best_internal = internal;
+         best_i = i;
+         best_n_nodes = VEC_length (cgraph_node_ptr,
+                                    partition->cgraph_set->nodes);
+         best_n_varpool_nodes = VEC_length (varpool_node_ptr,
+                                            partition->varpool_set->nodes);
+         best_total_size = total_size;
+       }
+      if (cgraph_dump_file)
+       fprintf (cgraph_dump_file, "Step %i: added %s/%i, size %i, cost %i/%i best %i/%i, step %i\n", i,
+                cgraph_node_name (order[i]), order[i]->uid, partition->insns, cost, internal,
+                best_cost, best_internal, best_i);
+      /* Partition is too large, unwind into step when best cost was reached and
+        start new partition.  */
+      if (partition->insns > 2 * partition_size)
+       {
+         if (best_i != i)
+           {
+             if (cgraph_dump_file)
+               fprintf (cgraph_dump_file, "Unwinding %i insertions to step %i\n",
+                        i - best_i, best_i);
+             undo_partition (partition, best_n_nodes, best_n_varpool_nodes);
+           }
+         i = best_i;
+         /* When we are finished, avoid creating empty partition.  */
+         while (i < n_nodes - 1 && order[i + 1]->aux)
+           i++;
+         if (i == n_nodes - 1)
+           break;
+         partition = new_partition ("");
+         last_visited_cgraph_node = 0;
+         last_visited_varpool_node = 0;
+         total_size = best_total_size;
+         cost = 0;
+
+         if (cgraph_dump_file)
+           fprintf (cgraph_dump_file, "New partition\n");
+         best_n_nodes = 0;
+         best_n_varpool_nodes = 0;
+         best_cost = INT_MAX;
+
+         /* Since the size of partitions is just approximate, update the size after
+            we finished current one.  */
+         if (npartitions < PARAM_VALUE (PARAM_LTO_PARTITIONS))
+           partition_size = total_size
+             / (PARAM_VALUE (PARAM_LTO_PARTITIONS) - npartitions);
+         else
+           partition_size = INT_MAX;
+
+         if (partition_size < PARAM_VALUE (MIN_PARTITION_SIZE))
+           partition_size = PARAM_VALUE (MIN_PARTITION_SIZE);
+         npartitions ++;
+       }
+    }
+
+  /* Varables that are not reachable from the code go into last partition.  */
+  for (vnode = varpool_nodes; vnode; vnode = vnode->next)
+    if (partition_varpool_node_p (vnode) && !vnode->aux)
+      add_varpool_node_to_partition (partition, vnode);
+  free (order);
 }
 
 /* Promote variable VNODE to be static.  */
@@ -927,17 +1990,6 @@ promote_fn (struct cgraph_node *node)
   TREE_PUBLIC (node->decl) = 1;
   DECL_VISIBILITY (node->decl) = VISIBILITY_HIDDEN;
   DECL_VISIBILITY_SPECIFIED (node->decl) = true;
-  if (node->same_body)
-    {
-      struct cgraph_node *alias;
-      for (alias = node->same_body;
-          alias; alias = alias->next)
-       {
-         TREE_PUBLIC (alias->decl) = 1;
-         DECL_VISIBILITY (alias->decl) = VISIBILITY_HIDDEN;
-         DECL_VISIBILITY_SPECIFIED (alias->decl) = true;
-       }
-    }
   if (cgraph_dump_file)
     fprintf (cgraph_dump_file,
             "Promoting function as hidden: %s/%i\n",
@@ -966,12 +2018,13 @@ lto_promote_cross_file_statics (void)
   n_sets = VEC_length (ltrans_partition, ltrans_partitions);
   for (i = 0; i < n_sets; i++)
     {
-      ltrans_partition part = VEC_index (ltrans_partition, ltrans_partitions, i);
+      ltrans_partition part
+       = VEC_index (ltrans_partition, ltrans_partitions, i);
       set = part->cgraph_set;
       vset = part->varpool_set;
 
-      /* If node has either address taken (and we have no clue from where)
-        or it is called from other partition, it needs to be globalized.  */
+      /* If node called or referred to from other partition, it needs to be
+        globalized.  */
       for (csi = csi_start (set); !csi_end_p (csi); csi_next (&csi))
        {
          struct cgraph_node *node = csi_node (csi);
@@ -997,16 +2050,15 @@ lto_promote_cross_file_statics (void)
            promote_var (vnode);
        }
 
-      /* We export initializers of read-only var into each partition
-        referencing it.  Folding might take declarations from the
-        initializers and use it; so everything referenced from the
-        initializers needs can be accessed from this partition after
-        folding.
+      /* We export the initializer of a read-only var into each partition
+        referencing the var.  Folding might take declarations from the
+        initializer and use them, so everything referenced from the
+        initializer can be accessed from this partition after folding.
 
         This means that we need to promote all variables and functions
-        referenced from all initializers from readonly vars referenced
-        from this partition that are not in this partition.
-        This needs to be done recursively.  */
+        referenced from all initializers of read-only vars referenced
+        from this partition that are not in this partition.  This needs
+        to be done recursively.  */
       for (vnode = varpool_nodes; vnode; vnode = vnode->next)
        if (const_value_known_p (vnode->decl)
            && DECL_INITIAL (vnode->decl)
@@ -1014,13 +2066,16 @@ lto_promote_cross_file_statics (void)
            && referenced_from_this_partition_p (&vnode->ref_list, set, vset)
            && !pointer_set_insert (inserted, vnode))
        VEC_safe_push (varpool_node_ptr, heap, promoted_initializers, vnode);
+
       while (!VEC_empty (varpool_node_ptr, promoted_initializers))
        {
          int i;
          struct ipa_ref *ref;
 
          vnode = VEC_pop (varpool_node_ptr, promoted_initializers);
-         for (i = 0; ipa_ref_list_reference_iterate (&vnode->ref_list, i, ref); i++)
+         for (i = 0;
+              ipa_ref_list_reference_iterate (&vnode->ref_list, i, ref);
+              i++)
            {
              if (ref->refered_type == IPA_REF_CGRAPH)
                {
@@ -1035,20 +2090,21 @@ lto_promote_cross_file_statics (void)
                  struct varpool_node *v = ipa_ref_varpool_node (ref);
                  if (varpool_node_in_set_p (v, vset))
                    continue;
-                 /* Constant pool references use internal labels and thus can not
-                    be made global.  It is sensible to keep those ltrans local to
-                    allow better optimization.  */
+
+                 /* Constant pool references use internal labels and thus
+                    cannot be made global.  It is sensible to keep those
+                    ltrans local to allow better optimization.  */
                  if (DECL_IN_CONSTANT_POOL (v->decl))
                    {
                      if (!pointer_set_insert (inserted, vnode))
                        VEC_safe_push (varpool_node_ptr, heap,
                                       promoted_initializers, v);
                    }
-                 else if (!DECL_IN_CONSTANT_POOL (v->decl)
-                          && !v->externally_visible && v->analyzed)
+                 else if (!v->externally_visible && v->analyzed)
                    {
                      if (promote_var (v)
-                         && DECL_INITIAL (v->decl) && v->const_value_known
+                         && DECL_INITIAL (v->decl)
+                         && const_value_known_p (v->decl)
                          && !pointer_set_insert (inserted, vnode))
                        VEC_safe_push (varpool_node_ptr, heap,
                                       promoted_initializers, v);
@@ -1124,8 +2180,7 @@ lto_wpa_write_files (void)
   blen = strlen (temp_filename);
 
   n_sets = VEC_length (ltrans_partition, ltrans_partitions);
-  qsort (VEC_address (ltrans_partition, ltrans_partitions), n_sets,
-        sizeof (ltrans_partition), cmp_partitions);
+  VEC_qsort (ltrans_partition, ltrans_partitions, cmp_partitions);
   for (i = 0; i < n_sets; i++)
     {
       size_t len;
@@ -1144,15 +2199,15 @@ lto_wpa_write_files (void)
        fprintf (stderr, " %s (%s %i insns)", temp_filename, part->name, part->insns);
       if (cgraph_dump_file)
        {
-         fprintf (cgraph_dump_file, "Writting partition %s to file %s, %i insns\n",
+         fprintf (cgraph_dump_file, "Writing partition %s to file %s, %i insns\n",
                   part->name, temp_filename, part->insns);
          fprintf (cgraph_dump_file, "cgraph nodes:");
          dump_cgraph_node_set (cgraph_dump_file, set);
          fprintf (cgraph_dump_file, "varpool nodes:");
          dump_varpool_node_set (cgraph_dump_file, vset);
        }
-      gcc_assert (cgraph_node_set_nonempty_p (set)
-                 || varpool_node_set_nonempty_p (vset) || !i);
+      gcc_checking_assert (cgraph_node_set_nonempty_p (set)
+                          || varpool_node_set_nonempty_p (vset) || !i);
 
       lto_set_current_out_file (file);
 
@@ -1174,415 +2229,113 @@ lto_wpa_write_files (void)
   if (fclose (ltrans_output_list_stream))
     fatal_error ("closing LTRANS output list %s: %m", ltrans_output_list);
 
+  free_ltrans_partitions();
+
   timevar_pop (TV_WHOPR_WPA_IO);
 }
 
 
-typedef struct {
-  struct pointer_set_t *seen;
-} lto_fixup_data_t;
-
-#define LTO_FIXUP_SUBTREE(t) \
-  do \
-    walk_tree (&(t), lto_fixup_tree, data, NULL); \
-  while (0)
-
-#define LTO_REGISTER_TYPE_AND_FIXUP_SUBTREE(t) \
-  do \
-    { \
-      if (t) \
-       (t) = gimple_register_type (t); \
-      walk_tree (&(t), lto_fixup_tree, data, NULL); \
-    } \
-  while (0)
-
-static tree lto_fixup_tree (tree *, int *, void *);
-
-/* Return true if T does not need to be fixed up recursively.  */
+/* If TT is a variable or function decl replace it with its
+   prevailing variant.  */
+#define LTO_SET_PREVAIL(tt) \
+  do {\
+    if ((tt) && VAR_OR_FUNCTION_DECL_P (tt)) \
+      tt = lto_symtab_prevailing_decl (tt); \
+  } while (0)
 
-static inline bool
-no_fixup_p (tree t)
-{
-  return (t == NULL
-         || CONSTANT_CLASS_P (t)
-         || TREE_CODE (t) == IDENTIFIER_NODE);
-}
-
-/* Fix up fields of a tree_common T.  DATA points to fix-up states.  */
+/* Ensure that TT isn't a replacable var of function decl.  */
+#define LTO_NO_PREVAIL(tt) \
+  gcc_assert (!(tt) || !VAR_OR_FUNCTION_DECL_P (tt))
 
+/* Given a tree T replace all fields referring to variables or functions
+   with their prevailing variant.  */
 static void
-lto_fixup_common (tree t, void *data)
+lto_fixup_prevailing_decls (tree t)
 {
-  /* The following re-creates the TYPE_REFERENCE_TO and TYPE_POINTER_TO
-     lists.  We do not stream TYPE_REFERENCE_TO, TYPE_POINTER_TO or
-     TYPE_NEXT_PTR_TO and TYPE_NEXT_REF_TO.
-     First remove us from any pointer list we are on.  */
-  if (TREE_CODE (t) == POINTER_TYPE)
+  enum tree_code code = TREE_CODE (t);
+  LTO_NO_PREVAIL (TREE_TYPE (t));
+  if (CODE_CONTAINS_STRUCT (code, TS_COMMON))
+    LTO_NO_PREVAIL (TREE_CHAIN (t));
+  if (DECL_P (t))
     {
-      if (TYPE_POINTER_TO (TREE_TYPE (t)) == t)
-       TYPE_POINTER_TO (TREE_TYPE (t)) = TYPE_NEXT_PTR_TO (t);
-      else
+      LTO_NO_PREVAIL (DECL_NAME (t));
+      LTO_SET_PREVAIL (DECL_CONTEXT (t));
+      if (CODE_CONTAINS_STRUCT (code, TS_DECL_COMMON))
        {
-         tree tem = TYPE_POINTER_TO (TREE_TYPE (t));
-         while (tem && TYPE_NEXT_PTR_TO (tem) != t)
-           tem = TYPE_NEXT_PTR_TO (tem);
-         if (tem)
-           TYPE_NEXT_PTR_TO (tem) = TYPE_NEXT_PTR_TO (t);
+         LTO_SET_PREVAIL (DECL_SIZE (t));
+         LTO_SET_PREVAIL (DECL_SIZE_UNIT (t));
+         LTO_SET_PREVAIL (DECL_INITIAL (t));
+         LTO_NO_PREVAIL (DECL_ATTRIBUTES (t));
+         LTO_SET_PREVAIL (DECL_ABSTRACT_ORIGIN (t));
        }
-      TYPE_NEXT_PTR_TO (t) = NULL_TREE;
-    }
-  else if (TREE_CODE (t) == REFERENCE_TYPE)
-    {
-      if (TYPE_REFERENCE_TO (TREE_TYPE (t)) == t)
-       TYPE_REFERENCE_TO (TREE_TYPE (t)) = TYPE_NEXT_REF_TO (t);
-      else
+      if (CODE_CONTAINS_STRUCT (code, TS_DECL_WITH_VIS))
        {
-         tree tem = TYPE_REFERENCE_TO (TREE_TYPE (t));
-         while (tem && TYPE_NEXT_REF_TO (tem) != t)
-           tem = TYPE_NEXT_REF_TO (tem);
-         if (tem)
-           TYPE_NEXT_REF_TO (tem) = TYPE_NEXT_REF_TO (t);
+         LTO_NO_PREVAIL (t->decl_with_vis.assembler_name);
+         LTO_NO_PREVAIL (DECL_SECTION_NAME (t));
        }
-      TYPE_NEXT_REF_TO (t) = NULL_TREE;
-    }
-
-  /* Fixup our type.  */
-  LTO_REGISTER_TYPE_AND_FIXUP_SUBTREE (TREE_TYPE (t));
-
-  /* Second put us on the list of pointers of the new pointed-to type
-     if we are a main variant.  This is done in lto_fixup_type after
-     fixing up our main variant.  */
-
-  /* This is not very efficient because we cannot do tail-recursion with
-     a long chain of trees. */
-  LTO_FIXUP_SUBTREE (TREE_CHAIN (t));
-}
-
-/* Fix up fields of a decl_minimal T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_decl_minimal (tree t, void *data)
-{
-  lto_fixup_common (t, data);
-  LTO_FIXUP_SUBTREE (DECL_NAME (t));
-  LTO_FIXUP_SUBTREE (DECL_CONTEXT (t));
-}
-
-/* Fix up fields of a decl_common T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_decl_common (tree t, void *data)
-{
-  lto_fixup_decl_minimal (t, data);
-  LTO_FIXUP_SUBTREE (DECL_SIZE (t));
-  LTO_FIXUP_SUBTREE (DECL_SIZE_UNIT (t));
-  LTO_FIXUP_SUBTREE (DECL_INITIAL (t));
-  LTO_FIXUP_SUBTREE (DECL_ATTRIBUTES (t));
-  LTO_FIXUP_SUBTREE (DECL_ABSTRACT_ORIGIN (t));
-}
-
-/* Fix up fields of a decl_with_vis T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_decl_with_vis (tree t, void *data)
-{
-  lto_fixup_decl_common (t, data);
-
-  /* Accessor macro has side-effects, use field-name here. */
-  LTO_FIXUP_SUBTREE (t->decl_with_vis.assembler_name);
-
-  gcc_assert (no_fixup_p (DECL_SECTION_NAME (t)));
-}
-
-/* Fix up fields of a decl_non_common T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_decl_non_common (tree t, void *data)
-{
-  lto_fixup_decl_with_vis (t, data);
-  LTO_FIXUP_SUBTREE (DECL_ARGUMENT_FLD (t));
-  LTO_FIXUP_SUBTREE (DECL_RESULT_FLD (t));
-  LTO_FIXUP_SUBTREE (DECL_VINDEX (t));
-
-  /* SAVED_TREE should not cleared by now.  Also no accessor for base type. */
-  gcc_assert (no_fixup_p (t->decl_non_common.saved_tree));
-}
-
-/* Fix up fields of a decl_non_common T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_function (tree t, void *data)
-{
-  lto_fixup_decl_non_common (t, data);
-  LTO_FIXUP_SUBTREE (DECL_FUNCTION_PERSONALITY (t));
-}
-
-/* Fix up fields of a field_decl T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_field_decl (tree t, void *data)
-{
-  lto_fixup_decl_common (t, data);
-  LTO_FIXUP_SUBTREE (DECL_FIELD_OFFSET (t));
-  LTO_FIXUP_SUBTREE (DECL_BIT_FIELD_TYPE (t));
-  LTO_FIXUP_SUBTREE (DECL_QUALIFIER (t));
-  gcc_assert (no_fixup_p (DECL_FIELD_BIT_OFFSET (t)));
-  LTO_FIXUP_SUBTREE (DECL_FCONTEXT (t));
-}
-
-/* Fix up fields of a type T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_type (tree t, void *data)
-{
-  tree tem, mv;
-
-  lto_fixup_common (t, data);
-  LTO_FIXUP_SUBTREE (TYPE_CACHED_VALUES (t));
-  LTO_FIXUP_SUBTREE (TYPE_SIZE (t));
-  LTO_FIXUP_SUBTREE (TYPE_SIZE_UNIT (t));
-  LTO_FIXUP_SUBTREE (TYPE_ATTRIBUTES (t));
-  LTO_FIXUP_SUBTREE (TYPE_NAME (t));
-
-  /* Accessors are for derived node types only. */
-  if (!POINTER_TYPE_P (t))
-    LTO_FIXUP_SUBTREE (t->type.minval);
-  LTO_FIXUP_SUBTREE (t->type.maxval);
-
-  /* Accessor is for derived node types only. */
-  LTO_FIXUP_SUBTREE (t->type.binfo);
-
-  if (TYPE_CONTEXT (t))
-    {
-      if (TYPE_P (TYPE_CONTEXT (t)))
-       LTO_REGISTER_TYPE_AND_FIXUP_SUBTREE (TYPE_CONTEXT (t));
-      else
-       LTO_FIXUP_SUBTREE (TYPE_CONTEXT (t));
-    }
-
-  /* TYPE_CANONICAL does not need to be fixed up, instead it should
-     always point to ourselves at this time as we never fixup
-     non-canonical ones.  */
-  gcc_assert (TYPE_CANONICAL (t) == t);
-
-  /* The following re-creates proper variant lists while fixing up
-     the variant leaders.  We do not stream TYPE_NEXT_VARIANT so the
-     variant list state before fixup is broken.  */
-
-  /* Remove us from our main variant list if we are not the variant leader.  */
-  if (TYPE_MAIN_VARIANT (t) != t)
-    {
-      tem = TYPE_MAIN_VARIANT (t);
-      while (tem && TYPE_NEXT_VARIANT (tem) != t)
-       tem = TYPE_NEXT_VARIANT (tem);
-      if (tem)
-       TYPE_NEXT_VARIANT (tem) = TYPE_NEXT_VARIANT (t);
-      TYPE_NEXT_VARIANT (t) = NULL_TREE;
-    }
-
-  /* Query our new main variant.  */
-  mv = gimple_register_type (TYPE_MAIN_VARIANT (t));
-
-  /* If we were the variant leader and we get replaced ourselves drop
-     all variants from our list.  */
-  if (TYPE_MAIN_VARIANT (t) == t
-      && mv != t)
-    {
-      tem = t;
-      while (tem)
+      if (CODE_CONTAINS_STRUCT (code, TS_DECL_NON_COMMON))
        {
-         tree tem2 = TYPE_NEXT_VARIANT (tem);
-         TYPE_NEXT_VARIANT (tem) = NULL_TREE;
-         tem = tem2;
+         LTO_NO_PREVAIL (DECL_ARGUMENT_FLD (t));
+         LTO_NO_PREVAIL (DECL_RESULT_FLD (t));
+         LTO_NO_PREVAIL (DECL_VINDEX (t));
+       }
+      if (CODE_CONTAINS_STRUCT (code, TS_FUNCTION_DECL))
+       LTO_SET_PREVAIL (DECL_FUNCTION_PERSONALITY (t));
+      if (CODE_CONTAINS_STRUCT (code, TS_FIELD_DECL))
+       {
+         LTO_NO_PREVAIL (DECL_FIELD_OFFSET (t));
+         LTO_NO_PREVAIL (DECL_BIT_FIELD_TYPE (t));
+         LTO_NO_PREVAIL (DECL_QUALIFIER (t));
+         LTO_NO_PREVAIL (DECL_FIELD_BIT_OFFSET (t));
+         LTO_NO_PREVAIL (DECL_FCONTEXT (t));
        }
     }
-
-  /* If we are not our own variant leader link us into our new leaders
-     variant list.  */
-  if (mv != t)
-    {
-      TYPE_NEXT_VARIANT (t) = TYPE_NEXT_VARIANT (mv);
-      TYPE_NEXT_VARIANT (mv) = t;
-    }
-
-  /* Finally adjust our main variant and fix it up.  */
-  TYPE_MAIN_VARIANT (t) = mv;
-  LTO_FIXUP_SUBTREE (TYPE_MAIN_VARIANT (t));
-
-  /* As the second step of reconstructing the pointer chains put us
-     on the list of pointers of the new pointed-to type
-     if we are a main variant.  See lto_fixup_common for the first step.  */
-  if (TREE_CODE (t) == POINTER_TYPE
-      && TYPE_MAIN_VARIANT (t) == t)
-    {
-      TYPE_NEXT_PTR_TO (t) = TYPE_POINTER_TO (TREE_TYPE (t));
-      TYPE_POINTER_TO (TREE_TYPE (t)) = t;
-    }
-  else if (TREE_CODE (t) == REFERENCE_TYPE
-          && TYPE_MAIN_VARIANT (t) == t)
-    {
-      TYPE_NEXT_REF_TO (t) = TYPE_REFERENCE_TO (TREE_TYPE (t));
-      TYPE_REFERENCE_TO (TREE_TYPE (t)) = t;
-    }
-}
-
-/* Fix up fields of a BINFO T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_binfo (tree t, void *data)
-{
-  unsigned HOST_WIDE_INT i, n;
-  tree base, saved_base;
-
-  lto_fixup_common (t, data);
-  gcc_assert (no_fixup_p (BINFO_OFFSET (t)));
-  LTO_FIXUP_SUBTREE (BINFO_VTABLE (t));
-  LTO_FIXUP_SUBTREE (BINFO_VIRTUALS (t));
-  LTO_FIXUP_SUBTREE (BINFO_VPTR_FIELD (t));
-  n = VEC_length (tree, BINFO_BASE_ACCESSES (t));
-  for (i = 0; i < n; i++)
-    {
-      saved_base = base = BINFO_BASE_ACCESS (t, i);
-      LTO_FIXUP_SUBTREE (base);
-      if (base != saved_base)
-       VEC_replace (tree, BINFO_BASE_ACCESSES (t), i, base);
-    }
-  LTO_FIXUP_SUBTREE (BINFO_INHERITANCE_CHAIN (t));
-  LTO_FIXUP_SUBTREE (BINFO_SUBVTT_INDEX (t));
-  LTO_FIXUP_SUBTREE (BINFO_VPTR_INDEX (t));
-  n = BINFO_N_BASE_BINFOS (t);
-  for (i = 0; i < n; i++)
-    {
-      saved_base = base = BINFO_BASE_BINFO (t, i);
-      LTO_FIXUP_SUBTREE (base);
-      if (base != saved_base)
-       VEC_replace (tree, BINFO_BASE_BINFOS (t), i, base);
-    }
-}
-
-/* Fix up fields of a CONSTRUCTOR T.  DATA points to fix-up states.  */
-
-static void
-lto_fixup_constructor (tree t, void *data)
-{
-  unsigned HOST_WIDE_INT idx;
-  constructor_elt *ce;
-
-  LTO_REGISTER_TYPE_AND_FIXUP_SUBTREE (TREE_TYPE (t));
-
-  for (idx = 0;
-       VEC_iterate(constructor_elt, CONSTRUCTOR_ELTS (t), idx, ce);
-       idx++)
+  else if (TYPE_P (t))
     {
-      LTO_FIXUP_SUBTREE (ce->index);
-      LTO_FIXUP_SUBTREE (ce->value);
-    }
-}
+      LTO_NO_PREVAIL (TYPE_CACHED_VALUES (t));
+      LTO_SET_PREVAIL (TYPE_SIZE (t));
+      LTO_SET_PREVAIL (TYPE_SIZE_UNIT (t));
+      LTO_NO_PREVAIL (TYPE_ATTRIBUTES (t));
+      LTO_NO_PREVAIL (TYPE_NAME (t));
 
-/* A walk_tree callback used by lto_fixup_state. TP is the pointer to the
-   current tree. WALK_SUBTREES indicates if the subtrees will be walked.
-   DATA is a pointer set to record visited nodes. */
+      LTO_SET_PREVAIL (TYPE_MINVAL (t));
+      LTO_SET_PREVAIL (TYPE_MAXVAL (t));
+      LTO_SET_PREVAIL (t->type_non_common.binfo);
 
-static tree
-lto_fixup_tree (tree *tp, int *walk_subtrees, void *data)
-{
-  tree t;
-  lto_fixup_data_t *fixup_data = (lto_fixup_data_t *) data;
-  tree prevailing;
-
-  t = *tp;
-  *walk_subtrees = 0;
-  if (!t || pointer_set_contains (fixup_data->seen, t))
-    return NULL;
+      LTO_SET_PREVAIL (TYPE_CONTEXT (t));
 
-  if (TREE_CODE (t) == VAR_DECL || TREE_CODE (t) == FUNCTION_DECL)
-    {
-      prevailing = lto_symtab_prevailing_decl (t);
-
-      if (t != prevailing)
-       {
-          /* Also replace t with prevailing defintion.  We don't want to
-             insert the other defintion in the seen set as we want to
-             replace all instances of it.  */
-         *tp = prevailing;
-         t = prevailing;
-       }
+      LTO_NO_PREVAIL (TYPE_CANONICAL (t));
+      LTO_NO_PREVAIL (TYPE_MAIN_VARIANT (t));
+      LTO_NO_PREVAIL (TYPE_NEXT_VARIANT (t));
     }
-  else if (TYPE_P (t))
+  else if (EXPR_P (t))
     {
-      /* Replace t with the prevailing type.  We don't want to insert the
-         other type in the seen set as we want to replace all instances of it.  */
-      t = gimple_register_type (t);
-      *tp = t;
+      int i;
+      LTO_NO_PREVAIL (t->exp.block);
+      for (i = TREE_OPERAND_LENGTH (t) - 1; i >= 0; --i)
+       LTO_SET_PREVAIL (TREE_OPERAND (t, i));
     }
-
-  if (pointer_set_insert (fixup_data->seen, t))
-    return NULL;
-
-  /* walk_tree does not visit all reachable nodes that need to be fixed up.
-     Hence we do special processing here for those kind of nodes. */
-  switch (TREE_CODE (t))
+  else
     {
-    case FIELD_DECL:
-      lto_fixup_field_decl (t, data);
-      break;
-
-    case LABEL_DECL:
-    case CONST_DECL:
-    case PARM_DECL:
-    case RESULT_DECL:
-    case IMPORTED_DECL:
-      lto_fixup_decl_common (t, data);
-      break;
-
-    case VAR_DECL:
-      lto_fixup_decl_with_vis (t, data);
-      break;   
-
-    case TYPE_DECL:
-      lto_fixup_decl_non_common (t, data);
-      break;
-
-    case FUNCTION_DECL:
-      lto_fixup_function (t, data);
-      break;
-
-    case TREE_BINFO:
-      lto_fixup_binfo (t, data);
-      break;
-
-    default:
-      if (TYPE_P (t))
-       lto_fixup_type (t, data);
-      else if (TREE_CODE (t) == CONSTRUCTOR)
-       lto_fixup_constructor (t, data);
-      else if (CONSTANT_CLASS_P (t))
-       LTO_REGISTER_TYPE_AND_FIXUP_SUBTREE (TREE_TYPE (t));
-      else if (EXPR_P (t))
-       {
-         /* walk_tree only handles TREE_OPERANDs. Do the rest here.  */
-         lto_fixup_common (t, data);
-         LTO_FIXUP_SUBTREE (t->exp.block);
-         *walk_subtrees = 1;
-       }
-      else
+      switch (code)
        {
-         /* Let walk_tree handle sub-trees.  */
-         *walk_subtrees = 1;
+       case TREE_LIST:
+         LTO_SET_PREVAIL (TREE_VALUE (t));
+         LTO_SET_PREVAIL (TREE_PURPOSE (t));
+         break;
+       default:
+         gcc_unreachable ();
        }
     }
-
-  return NULL;
 }
+#undef LTO_SET_PREVAIL
+#undef LTO_NO_PREVAIL
 
 /* Helper function of lto_fixup_decls. Walks the var and fn streams in STATE,
-   replaces var and function decls with the corresponding prevailing def and
-   records the old decl in the free-list in DATA. We also record visted nodes
-   in the seen-set in DATA to avoid multiple visit for nodes that need not
-   to be replaced.  */
+   replaces var and function decls with the corresponding prevailing def.  */
 
 static void
-lto_fixup_state (struct lto_in_decl_state *state, lto_fixup_data_t *data)
+lto_fixup_state (struct lto_in_decl_state *state)
 {
   unsigned i, si;
   struct lto_tree_ref_table *table;
@@ -1594,18 +2347,22 @@ lto_fixup_state (struct lto_in_decl_state *state, lto_fixup_data_t *data)
     {
       table = &state->streams[si];
       for (i = 0; i < table->size; i++)
-       walk_tree (table->trees + i, lto_fixup_tree, data, NULL);
+       {
+         tree *tp = table->trees + i;
+         if (VAR_OR_FUNCTION_DECL_P (*tp))
+           *tp = lto_symtab_prevailing_decl (*tp);
+       }
     }
 }
 
-/* A callback of htab_traverse. Just extract a state from SLOT and the
-   lto_fixup_data_t object from AUX and calls lto_fixup_state. */
+/* A callback of htab_traverse. Just extracts a state from SLOT
+   and calls lto_fixup_state. */
 
 static int
-lto_fixup_state_aux (void **slot, void *aux)
+lto_fixup_state_aux (void **slot, void *aux ATTRIBUTE_UNUSED)
 {
   struct lto_in_decl_state *state = (struct lto_in_decl_state *) *slot;
-  lto_fixup_state (state, (lto_fixup_data_t *) aux);
+  lto_fixup_state (state);
   return 1;
 }
 
@@ -1616,29 +2373,20 @@ static void
 lto_fixup_decls (struct lto_file_decl_data **files)
 {
   unsigned int i;
-  tree decl;
-  struct pointer_set_t *seen = pointer_set_create ();
-  lto_fixup_data_t data;
+  htab_iterator hi;
+  tree t;
+
+  FOR_EACH_HTAB_ELEMENT (tree_with_vars, t, tree, hi)
+    lto_fixup_prevailing_decls (t);
 
-  data.seen = seen;
   for (i = 0; files[i]; i++)
     {
       struct lto_file_decl_data *file = files[i];
       struct lto_in_decl_state *state = file->global_decl_state;
-      lto_fixup_state (state, &data);
-
-      htab_traverse (file->function_decl_states, lto_fixup_state_aux, &data);
-    }
+      lto_fixup_state (state);
 
-  FOR_EACH_VEC_ELT (tree, lto_global_var_decls, i, decl)
-    {
-      tree saved_decl = decl;
-      walk_tree (&decl, lto_fixup_tree, &data, NULL);
-      if (decl != saved_decl)
-       VEC_replace (tree, lto_global_var_decls, i, decl);
+      htab_traverse (file->function_decl_states, lto_fixup_state_aux, NULL);
     }
-
-  pointer_set_destroy (seen);
 }
 
 /* Read the options saved from each file in the command line.  Called
@@ -1688,6 +2436,9 @@ lto_read_all_file_options (void)
       free (file_data);
     }
 
+  if (!quiet_flag)
+    fprintf (stderr, "\n");
+
   /* Apply globally the options read from all the files.  */
   lto_reissue_options ();
 }
@@ -1766,6 +2517,9 @@ read_cgraph_and_symbols (unsigned nfiles, const char **fnames)
       gcc_assert (num_objects == nfiles);
     }
 
+  tree_with_vars = htab_create_ggc (101, htab_hash_pointer, htab_eq_pointer,
+                                   NULL);
+
   if (!quiet_flag)
     fprintf (stderr, "Reading object files:");
 
@@ -1785,7 +2539,11 @@ read_cgraph_and_symbols (unsigned nfiles, const char **fnames)
 
       file_data = lto_file_read (current_lto_file, resolution, &count);
       if (!file_data)
-       break;
+       {
+         lto_obj_file_close (current_lto_file);
+         current_lto_file = NULL;
+         break;
+       }
 
       decl_data[last_file_ix++] = file_data;
 
@@ -1822,8 +2580,15 @@ read_cgraph_and_symbols (unsigned nfiles, const char **fnames)
   /* Merge global decls.  */
   lto_symtab_merge_decls ();
 
+  /* If there were errors during symbol merging bail out, we have no
+     good way to recover here.  */
+  if (seen_error ())
+    fatal_error ("errors during merging of translation units");
+
   /* Fixup all decls and types and free the type hash tables.  */
   lto_fixup_decls (all_file_decl_data);
+  htab_delete (tree_with_vars);
+  tree_with_vars = NULL;
   free_gimple_type_tables ();
   ggc_collect ();
 
@@ -1957,15 +2722,14 @@ do_whole_program_analysis (void)
       dump_memory_report (false);
     }
 
+  cgraph_function_flags_ready = true;
+
   if (cgraph_dump_file)
     {
       dump_cgraph (cgraph_dump_file);
       dump_varpool (cgraph_dump_file);
     }
-
-  cgraph_function_flags_ready = true;
   bitmap_obstack_initialize (NULL);
-  ipa_register_cgraph_hooks ();
   cgraph_state = CGRAPH_STATE_IPA_SSA;
 
   execute_ipa_pass_list (all_regular_ipa_passes);
@@ -1982,7 +2746,10 @@ do_whole_program_analysis (void)
   /* We are about to launch the final LTRANS phase, stop the WPA timer.  */
   timevar_pop (TV_WHOPR_WPA);
 
-  lto_1_to_1_map ();
+  if (flag_lto_partition_1to1)
+    lto_1_to_1_map ();
+  else
+    lto_balanced_map ();
 
   if (!quiet_flag)
     {
@@ -2027,6 +2794,33 @@ lto_eh_personality (void)
   return lto_eh_personality_decl;
 }
 
+/* Set the process name based on the LTO mode. */
+
+static void 
+lto_process_name (void)
+{
+  if (flag_lto)
+    setproctitle ("lto1-lto");
+  if (flag_wpa)
+    setproctitle ("lto1-wpa");
+  if (flag_ltrans)
+    setproctitle ("lto1-ltrans");
+}
+
+
+/* Initialize the LTO front end.  */
+
+static void
+lto_init (void)
+{
+  lto_process_name ();
+  lto_streamer_hooks_init ();
+  lto_reader_init ();
+  memset (&lto_stats, 0, sizeof (lto_stats));
+  bitmap_obstack_initialize (NULL);
+  gimple_register_cfg_hooks ();
+}
+
 
 /* Main entry point for the GIMPLE front end.  This front end has
    three main personalities:
@@ -2049,9 +2843,10 @@ lto_eh_personality (void)
      simply applies them.  */
 
 void
-lto_main (int debug_p ATTRIBUTE_UNUSED)
+lto_main (void)
 {
-  lto_init_reader ();
+  /* Initialize the LTO front end.  */
+  lto_init ();
 
   /* Read all the symbols and call graph from all the files in the
      command line.  */