OSDN Git Service

compiler: Move import of Go export data to gcc side of interface.
[pf3gnuchains/gcc-fork.git] / gcc / ira-lives.c
index 7d6b29f..9af2f93 100644 (file)
@@ -1,5 +1,5 @@
 /* IRA processing allocno lives to build allocno live ranges.
-   Copyright (C) 2006, 2007, 2008
+   Copyright (C) 2006, 2007, 2008, 2009, 2010
    Free Software Foundation, Inc.
    Contributed by Vladimir Makarov <vmakarov@redhat.com>.
 
@@ -28,13 +28,15 @@ along with GCC; see the file COPYING3.  If not see
 #include "tm_p.h"
 #include "target.h"
 #include "flags.h"
+#include "except.h"
 #include "hard-reg-set.h"
 #include "basic-block.h"
 #include "insn-config.h"
 #include "recog.h"
-#include "toplev.h"
+#include "diagnostic-core.h"
 #include "params.h"
 #include "df.h"
+#include "sbitmap.h"
 #include "sparseset.h"
 #include "ira-int.h"
 
@@ -53,7 +55,7 @@ int ira_max_point;
 
 /* Arrays of size IRA_MAX_POINT mapping a program point to the allocno
    live ranges with given start/finish point.  */
-allocno_live_range_t *ira_start_point_ranges, *ira_finish_point_ranges;
+live_range_t *ira_start_point_ranges, *ira_finish_point_ranges;
 
 /* Number of the current program point.  */
 static int curr_point;
@@ -62,12 +64,16 @@ static int curr_point;
    register pressure excess.  Excess pressure for a register class at
    some point means that there are more allocnos of given register
    class living at the point than number of hard-registers of the
-   class available for the allocation.  It is defined only for cover
-   classes.  */
+   class available for the allocation.  It is defined only for
+   pressure classes.  */
 static int high_pressure_start_point[N_REG_CLASSES];
 
-/* Allocnos live at current point in the scan.  */
-static sparseset allocnos_live;
+/* Objects live at current point in the scan.  */
+static sparseset objects_live;
+
+/* A temporary bitmap used in functions that wish to avoid visiting an allocno
+   multiple times.  */
+static sparseset allocnos_processed;
 
 /* Set of hard regs (except eliminable ones) currently live.  */
 static HARD_REG_SET hard_regs_live;
@@ -75,339 +81,666 @@ static HARD_REG_SET hard_regs_live;
 /* The loop tree node corresponding to the current basic block.  */
 static ira_loop_tree_node_t curr_bb_node;
 
-/* The function processing birth of register REGNO.  It updates living
-   hard regs and conflict hard regs for living allocnos or starts a
-   new live range for the allocno corresponding to REGNO if it is
-   necessary.  */
+/* The number of the last processed call.  */
+static int last_call_num;
+/* The number of last call at which given allocno was saved.  */
+static int *allocno_saved_at_call;
+
+/* Record the birth of hard register REGNO, updating hard_regs_live and
+   hard reg conflict information for living allocnos.  */
 static void
-make_regno_born (int regno)
+make_hard_regno_born (int regno)
 {
   unsigned int i;
-  ira_allocno_t a;
-  allocno_live_range_t p;
 
-  if (regno < FIRST_PSEUDO_REGISTER)
+  SET_HARD_REG_BIT (hard_regs_live, regno);
+  EXECUTE_IF_SET_IN_SPARSESET (objects_live, i)
     {
-      SET_HARD_REG_BIT (hard_regs_live, regno);
-      EXECUTE_IF_SET_IN_SPARSESET (allocnos_live, i)
-        {
-         SET_HARD_REG_BIT (ALLOCNO_CONFLICT_HARD_REGS (ira_allocnos[i]),
-                           regno);
-         SET_HARD_REG_BIT (ALLOCNO_TOTAL_CONFLICT_HARD_REGS (ira_allocnos[i]),
-                           regno);
-       }
-      return;
+      ira_object_t obj = ira_object_id_map[i];
+
+      SET_HARD_REG_BIT (OBJECT_CONFLICT_HARD_REGS (obj), regno);
+      SET_HARD_REG_BIT (OBJECT_TOTAL_CONFLICT_HARD_REGS (obj), regno);
     }
-  a = ira_curr_regno_allocno_map[regno];
-  if (a == NULL)
-    return;
-  if ((p = ALLOCNO_LIVE_RANGES (a)) == NULL
-      || (p->finish != curr_point && p->finish + 1 != curr_point))
-    ALLOCNO_LIVE_RANGES (a)
-      = ira_create_allocno_live_range (a, curr_point, -1,
-                                      ALLOCNO_LIVE_RANGES (a));
 }
 
-/* Update ALLOCNO_EXCESS_PRESSURE_POINTS_NUM for allocno A.  */
+/* Process the death of hard register REGNO.  This updates
+   hard_regs_live.  */
 static void
-update_allocno_pressure_excess_length (ira_allocno_t a)
+make_hard_regno_dead (int regno)
 {
-  int start;
-  enum reg_class cover_class;
-  allocno_live_range_t p;
-
-  cover_class = ALLOCNO_COVER_CLASS (a);
-  if (high_pressure_start_point[cover_class] < 0)
-    return;
-  p = ALLOCNO_LIVE_RANGES (a);
-  ira_assert (p != NULL);
-  start = (high_pressure_start_point[cover_class] > p->start
-          ? high_pressure_start_point[cover_class] : p->start);
-  ALLOCNO_EXCESS_PRESSURE_POINTS_NUM (a) += curr_point - start + 1;
+  CLEAR_HARD_REG_BIT (hard_regs_live, regno);
 }
 
-/* Process the death of register REGNO.  This updates hard_regs_live
-   or finishes the current live range for the allocno corresponding to
-   REGNO.  */
+/* Record the birth of object OBJ.  Set a bit for it in objects_live,
+   start a new live range for it if necessary and update hard register
+   conflicts.  */
 static void
-make_regno_dead (int regno)
+make_object_born (ira_object_t obj)
 {
-  ira_allocno_t a;
-  allocno_live_range_t p;
+  live_range_t lr = OBJECT_LIVE_RANGES (obj);
 
-  if (regno < FIRST_PSEUDO_REGISTER)
+  sparseset_set_bit (objects_live, OBJECT_CONFLICT_ID (obj));
+  IOR_HARD_REG_SET (OBJECT_CONFLICT_HARD_REGS (obj), hard_regs_live);
+  IOR_HARD_REG_SET (OBJECT_TOTAL_CONFLICT_HARD_REGS (obj), hard_regs_live);
+
+  if (lr == NULL
+      || (lr->finish != curr_point && lr->finish + 1 != curr_point))
+    ira_add_live_range_to_object (obj, curr_point, -1);
+}
+
+/* Update ALLOCNO_EXCESS_PRESSURE_POINTS_NUM for the allocno
+   associated with object OBJ.  */
+static void
+update_allocno_pressure_excess_length (ira_object_t obj)
+{
+  ira_allocno_t a = OBJECT_ALLOCNO (obj);
+  int start, i;
+  enum reg_class aclass, pclass, cl;
+  live_range_t p;
+
+  aclass = ALLOCNO_CLASS (a);
+  pclass = ira_pressure_class_translate[aclass];
+  for (i = 0;
+       (cl = ira_reg_class_super_classes[pclass][i]) != LIM_REG_CLASSES;
+       i++)
     {
-      CLEAR_HARD_REG_BIT (hard_regs_live, regno);
-      return;
+      if (! ira_reg_pressure_class_p[cl])
+       continue;
+      if (high_pressure_start_point[cl] < 0)
+       continue;
+      p = OBJECT_LIVE_RANGES (obj);
+      ira_assert (p != NULL);
+      start = (high_pressure_start_point[cl] > p->start
+              ? high_pressure_start_point[cl] : p->start);
+      ALLOCNO_EXCESS_PRESSURE_POINTS_NUM (a) += curr_point - start + 1;
     }
-  a = ira_curr_regno_allocno_map[regno];
-  if (a == NULL)
-    return;
-  p = ALLOCNO_LIVE_RANGES (a);
-  ira_assert (p != NULL);
-  p->finish = curr_point;
-  update_allocno_pressure_excess_length (a);
 }
 
-/* Process the birth and, right after then, death of register
-   REGNO.  */
+/* Process the death of object OBJ, which is associated with allocno
+   A.  This finishes the current live range for it.  */
 static void
-make_regno_born_and_dead (int regno)
+make_object_dead (ira_object_t obj)
 {
-  make_regno_born (regno);
-  make_regno_dead (regno);
+  live_range_t lr;
+
+  sparseset_clear_bit (objects_live, OBJECT_CONFLICT_ID (obj));
+  lr = OBJECT_LIVE_RANGES (obj);
+  ira_assert (lr != NULL);
+  lr->finish = curr_point;
+  update_allocno_pressure_excess_length (obj);
 }
 
-/* The current register pressures for each cover class for the current
+/* The current register pressures for each pressure class for the current
    basic block.  */
 static int curr_reg_pressure[N_REG_CLASSES];
 
-/* Mark allocno A as currently living and update current register
-   pressure, maximal register pressure for the current BB, start point
-   of the register pressure excess, and conflicting hard registers of
-   A.  */
+/* Record that register pressure for PCLASS increased by N registers.
+   Update the current register pressure, maximal register pressure for
+   the current BB and the start point of the register pressure
+   excess.  */
 static void
-set_allocno_live (ira_allocno_t a)
+inc_register_pressure (enum reg_class pclass, int n)
 {
-  int nregs;
-  enum reg_class cover_class;
+  int i;
+  enum reg_class cl;
+
+  for (i = 0;
+       (cl = ira_reg_class_super_classes[pclass][i]) != LIM_REG_CLASSES;
+       i++)
+    {
+      if (! ira_reg_pressure_class_p[cl])
+       continue;
+      curr_reg_pressure[cl] += n;
+      if (high_pressure_start_point[cl] < 0
+         && (curr_reg_pressure[cl] > ira_available_class_regs[cl]))
+       high_pressure_start_point[cl] = curr_point;
+      if (curr_bb_node->reg_pressure[cl] < curr_reg_pressure[cl])
+       curr_bb_node->reg_pressure[cl] = curr_reg_pressure[cl];
+    }
+}
+
+/* Record that register pressure for PCLASS has decreased by NREGS
+   registers; update current register pressure, start point of the
+   register pressure excess, and register pressure excess length for
+   living allocnos.  */
 
-  if (sparseset_bit_p (allocnos_live, ALLOCNO_NUM (a)))
-    return;
-  sparseset_set_bit (allocnos_live, ALLOCNO_NUM (a));
-  IOR_HARD_REG_SET (ALLOCNO_CONFLICT_HARD_REGS (a), hard_regs_live);
-  IOR_HARD_REG_SET (ALLOCNO_TOTAL_CONFLICT_HARD_REGS (a), hard_regs_live);
-  cover_class = ALLOCNO_COVER_CLASS (a);
-  nregs = ira_reg_class_nregs[cover_class][ALLOCNO_MODE (a)];
-  curr_reg_pressure[cover_class] += nregs;
-  if (high_pressure_start_point[cover_class] < 0
-      && (curr_reg_pressure[cover_class]
-         > ira_available_class_regs[cover_class]))
-    high_pressure_start_point[cover_class] = curr_point;
-  if (curr_bb_node->reg_pressure[cover_class]
-      < curr_reg_pressure[cover_class])
-    curr_bb_node->reg_pressure[cover_class] = curr_reg_pressure[cover_class];
-}
-
-/* Mark allocno A as currently not living and update current register
-   pressure, start point of the register pressure excess, and register
-   pressure excess length for living allocnos.  */
 static void
-clear_allocno_live (ira_allocno_t a)
+dec_register_pressure (enum reg_class pclass, int nregs)
 {
-  unsigned int i;
-  enum reg_class cover_class;
+  int i;
+  unsigned int j;
+  enum reg_class cl;
+  bool set_p = false;
 
-  if (sparseset_bit_p (allocnos_live, ALLOCNO_NUM (a)))
+  for (i = 0;
+       (cl = ira_reg_class_super_classes[pclass][i]) != LIM_REG_CLASSES;
+       i++)
     {
-      cover_class = ALLOCNO_COVER_CLASS (a);
-      curr_reg_pressure[cover_class]
-       -= ira_reg_class_nregs[cover_class][ALLOCNO_MODE (a)];
-      ira_assert (curr_reg_pressure[cover_class] >= 0);
-      if (high_pressure_start_point[cover_class] >= 0
-         && (curr_reg_pressure[cover_class]
-             <= ira_available_class_regs[cover_class]))
+      if (! ira_reg_pressure_class_p[cl])
+       continue;
+      curr_reg_pressure[cl] -= nregs;
+      ira_assert (curr_reg_pressure[cl] >= 0);
+      if (high_pressure_start_point[cl] >= 0
+         && curr_reg_pressure[cl] <= ira_available_class_regs[cl])
+       set_p = true;
+    }
+  if (set_p)
+    {
+      EXECUTE_IF_SET_IN_SPARSESET (objects_live, j)
+       update_allocno_pressure_excess_length (ira_object_id_map[j]);
+      for (i = 0;
+          (cl = ira_reg_class_super_classes[pclass][i]) != LIM_REG_CLASSES;
+          i++)
        {
-         EXECUTE_IF_SET_IN_SPARSESET (allocnos_live, i)
-           {
-             update_allocno_pressure_excess_length (ira_allocnos[i]);
-           }
-         high_pressure_start_point[cover_class] = -1;
+         if (! ira_reg_pressure_class_p[cl])
+           continue;
+         if (high_pressure_start_point[cl] >= 0
+             && curr_reg_pressure[cl] <= ira_available_class_regs[cl])
+           high_pressure_start_point[cl] = -1;
        }
     }
-  sparseset_clear_bit (allocnos_live, ALLOCNO_NUM (a));
 }
 
-/* Record all regs that are set in any one insn.  Communication from
-   mark_reg_{store,clobber}.  */
-static VEC(rtx, heap) *regs_set;
+/* Mark the pseudo register REGNO as live.  Update all information about
+   live ranges and register pressure.  */
+static void
+mark_pseudo_regno_live (int regno)
+{
+  ira_allocno_t a = ira_curr_regno_allocno_map[regno];
+  enum reg_class pclass;
+  int i, n, nregs;
 
-/* Handle the case where REG is set by the insn being scanned, during
-   the scan to build live ranges and calculate reg pressure info.
-   Store a 1 in hard_regs_live or allocnos_live for this register or
-   the corresponding allocno, record how many consecutive hardware
-   registers it actually needs.
+  if (a == NULL)
+    return;
 
-   Note that even if REG does not remain alive after this insn, we
-   must mark it here as live, to ensure a conflict between REG and any
-   other reg allocnos set in this insn that really do live.  This is
-   because those other allocnos could be considered after this.
+  /* Invalidate because it is referenced.  */
+  allocno_saved_at_call[ALLOCNO_NUM (a)] = 0;
 
-   REG might actually be something other than a register; if so, we do
-   nothing.
+  n = ALLOCNO_NUM_OBJECTS (a);
+  pclass = ira_pressure_class_translate[ALLOCNO_CLASS (a)];
+  nregs = ira_reg_class_max_nregs[ALLOCNO_CLASS (a)][ALLOCNO_MODE (a)];
+  if (n > 1)
+    {
+      /* We track every subobject separately.  */
+      gcc_assert (nregs == n);
+      nregs = 1;
+    }
 
-   SETTER is 0 if this register was modified by an auto-increment
-   (i.e., a REG_INC note was found for it).  */
+  for (i = 0; i < n; i++)
+    {
+      ira_object_t obj = ALLOCNO_OBJECT (a, i);
+
+      if (sparseset_bit_p (objects_live, OBJECT_CONFLICT_ID (obj)))
+       continue;
+
+      inc_register_pressure (pclass, nregs);
+      make_object_born (obj);
+    }
+}
+
+/* Like mark_pseudo_regno_live, but try to only mark one subword of
+   the pseudo as live.  SUBWORD indicates which; a value of 0
+   indicates the low part.  */
 static void
-mark_reg_store (rtx reg, const_rtx setter ATTRIBUTE_UNUSED,
-               void *data ATTRIBUTE_UNUSED)
+mark_pseudo_regno_subword_live (int regno, int subword)
 {
-  int regno;
+  ira_allocno_t a = ira_curr_regno_allocno_map[regno];
+  int n;
+  enum reg_class pclass;
+  ira_object_t obj;
 
-  if (GET_CODE (reg) == SUBREG)
-    reg = SUBREG_REG (reg);
-
-  if (! REG_P (reg))
+  if (a == NULL)
     return;
 
-  VEC_safe_push (rtx, heap, regs_set, reg);
-
-  regno = REGNO (reg);
+  /* Invalidate because it is referenced.  */
+  allocno_saved_at_call[ALLOCNO_NUM (a)] = 0;
 
-  if (regno >= FIRST_PSEUDO_REGISTER)
+  n = ALLOCNO_NUM_OBJECTS (a);
+  if (n == 1)
     {
-      ira_allocno_t a = ira_curr_regno_allocno_map[regno];
-
-      if (a != NULL)
-       {
-         if (sparseset_bit_p (allocnos_live, ALLOCNO_NUM (a)))
-           return;
-         set_allocno_live (a);
-       }
-      make_regno_born (regno);
+      mark_pseudo_regno_live (regno);
+      return;
     }
-  else if (! TEST_HARD_REG_BIT (ira_no_alloc_regs, regno))
+
+  pclass = ira_pressure_class_translate[ALLOCNO_CLASS (a)];
+  gcc_assert
+    (n == ira_reg_class_max_nregs[ALLOCNO_CLASS (a)][ALLOCNO_MODE (a)]);
+  obj = ALLOCNO_OBJECT (a, subword);
+
+  if (sparseset_bit_p (objects_live, OBJECT_CONFLICT_ID (obj)))
+    return;
+
+  inc_register_pressure (pclass, 1);
+  make_object_born (obj);
+}
+
+/* Mark the register REG as live.  Store a 1 in hard_regs_live for
+   this register, record how many consecutive hardware registers it
+   actually needs.  */
+static void
+mark_hard_reg_live (rtx reg)
+{
+  int regno = REGNO (reg);
+
+  if (! TEST_HARD_REG_BIT (ira_no_alloc_regs, regno))
     {
       int last = regno + hard_regno_nregs[regno][GET_MODE (reg)];
-      enum reg_class cover_class;
+      enum reg_class aclass, pclass;
 
       while (regno < last)
        {
          if (! TEST_HARD_REG_BIT (hard_regs_live, regno)
              && ! TEST_HARD_REG_BIT (eliminable_regset, regno))
            {
-             cover_class = ira_class_translate[REGNO_REG_CLASS (regno)];
-             if (cover_class != NO_REGS)
-               {
-                 curr_reg_pressure[cover_class]++;
-                 if (high_pressure_start_point[cover_class] < 0
-                     && (curr_reg_pressure[cover_class]
-                         > ira_available_class_regs[cover_class]))
-                   high_pressure_start_point[cover_class] = curr_point;
-               }
-             make_regno_born (regno);
-             if (cover_class != NO_REGS
-                 && (curr_bb_node->reg_pressure[cover_class]
-                     < curr_reg_pressure[cover_class]))
-               curr_bb_node->reg_pressure[cover_class]
-                 = curr_reg_pressure[cover_class];
+             aclass = ira_hard_regno_allocno_class[regno];
+             pclass = ira_pressure_class_translate[aclass];
+             inc_register_pressure (pclass, 1);
+             make_hard_regno_born (regno);
            }
          regno++;
        }
     }
 }
 
-/* Like mark_reg_store except notice just CLOBBERs; ignore SETs.  */
+/* Mark a pseudo, or one of its subwords, as live.  REGNO is the pseudo's
+   register number; ORIG_REG is the access in the insn, which may be a
+   subreg.  */
 static void
-mark_reg_clobber (rtx reg, const_rtx setter, void *data)
+mark_pseudo_reg_live (rtx orig_reg, unsigned regno)
 {
-  if (GET_CODE (setter) == CLOBBER)
-    mark_reg_store (reg, setter, data);
+  if (df_read_modify_subreg_p (orig_reg))
+    {
+      mark_pseudo_regno_subword_live (regno,
+                                     subreg_lowpart_p (orig_reg) ? 0 : 1);
+    }
+  else
+    mark_pseudo_regno_live (regno);
 }
 
-/* Record that hard register REG (if it is a hard register) has
-   conflicts with all the allocno currently live or the corresponding
-   allocno lives at just the current program point.  Do not mark REG
-   (or the allocno) itself as live.  */
+/* Mark the register referenced by use or def REF as live.  */
 static void
-mark_reg_conflicts (rtx reg)
+mark_ref_live (df_ref ref)
 {
-  int regno;
+  rtx reg = DF_REF_REG (ref);
+  rtx orig_reg = reg;
 
   if (GET_CODE (reg) == SUBREG)
     reg = SUBREG_REG (reg);
 
-  if (! REG_P (reg))
+  if (REGNO (reg) >= FIRST_PSEUDO_REGISTER)
+    mark_pseudo_reg_live (orig_reg, REGNO (reg));
+  else
+    mark_hard_reg_live (reg);
+}
+
+/* Mark the pseudo register REGNO as dead.  Update all information about
+   live ranges and register pressure.  */
+static void
+mark_pseudo_regno_dead (int regno)
+{
+  ira_allocno_t a = ira_curr_regno_allocno_map[regno];
+  int n, i, nregs;
+  enum reg_class cl;
+
+  if (a == NULL)
     return;
 
-  regno = REGNO (reg);
+  /* Invalidate because it is referenced.  */
+  allocno_saved_at_call[ALLOCNO_NUM (a)] = 0;
 
-  if (regno >= FIRST_PSEUDO_REGISTER)
-    make_regno_born_and_dead (regno);
-  else if (! TEST_HARD_REG_BIT (ira_no_alloc_regs, regno))
+  n = ALLOCNO_NUM_OBJECTS (a);
+  cl = ira_pressure_class_translate[ALLOCNO_CLASS (a)];
+  nregs = ira_reg_class_max_nregs[ALLOCNO_CLASS (a)][ALLOCNO_MODE (a)];
+  if (n > 1)
     {
-      int last = regno + hard_regno_nregs[regno][GET_MODE (reg)];
+      /* We track every subobject separately.  */
+      gcc_assert (nregs == n);
+      nregs = 1;
+    }
+  for (i = 0; i < n; i++)
+    {
+      ira_object_t obj = ALLOCNO_OBJECT (a, i);
+      if (!sparseset_bit_p (objects_live, OBJECT_CONFLICT_ID (obj)))
+       continue;
 
-      while (regno < last)
-       {
-         make_regno_born_and_dead (regno);
-         regno++;
-       }
+      dec_register_pressure (cl, nregs);
+      make_object_dead (obj);
     }
 }
 
-/* Mark REG (or the corresponding allocno) as being dead (following
-   the insn being scanned now).  Store a 0 in hard_regs_live or
-   allocnos_live for the register.  */
+/* Like mark_pseudo_regno_dead, but called when we know that only part of the
+   register dies.  SUBWORD indicates which; a value of 0 indicates the low part.  */
 static void
-mark_reg_death (rtx reg)
+mark_pseudo_regno_subword_dead (int regno, int subword)
 {
-  unsigned int i;
-  int regno = REGNO (reg);
+  ira_allocno_t a = ira_curr_regno_allocno_map[regno];
+  int n;
+  enum reg_class cl;
+  ira_object_t obj;
 
-  if (regno >= FIRST_PSEUDO_REGISTER)
-    {
-      ira_allocno_t a = ira_curr_regno_allocno_map[regno];
+  if (a == NULL)
+    return;
 
-      if (a != NULL)
-       {
-         if (! sparseset_bit_p (allocnos_live, ALLOCNO_NUM (a)))
-           return;
-         clear_allocno_live (a);
-       }
-      make_regno_dead (regno);
-    }
-  else if (! TEST_HARD_REG_BIT (ira_no_alloc_regs, regno))
+  /* Invalidate because it is referenced.  */
+  allocno_saved_at_call[ALLOCNO_NUM (a)] = 0;
+
+  n = ALLOCNO_NUM_OBJECTS (a);
+  if (n == 1)
+    /* The allocno as a whole doesn't die in this case.  */
+    return;
+
+  cl = ira_pressure_class_translate[ALLOCNO_CLASS (a)];
+  gcc_assert
+    (n == ira_reg_class_max_nregs[ALLOCNO_CLASS (a)][ALLOCNO_MODE (a)]);
+
+  obj = ALLOCNO_OBJECT (a, subword);
+  if (!sparseset_bit_p (objects_live, OBJECT_CONFLICT_ID (obj)))
+    return;
+
+  dec_register_pressure (cl, 1);
+  make_object_dead (obj);
+}
+
+/* Mark the hard register REG as dead.  Store a 0 in hard_regs_live for the
+   register.  */
+static void
+mark_hard_reg_dead (rtx reg)
+{
+  int regno = REGNO (reg);
+
+  if (! TEST_HARD_REG_BIT (ira_no_alloc_regs, regno))
     {
       int last = regno + hard_regno_nregs[regno][GET_MODE (reg)];
-      enum reg_class cover_class;
+      enum reg_class aclass, pclass;
 
       while (regno < last)
        {
          if (TEST_HARD_REG_BIT (hard_regs_live, regno))
            {
-             cover_class = ira_class_translate[REGNO_REG_CLASS (regno)];
-             if (cover_class != NO_REGS)
-               {
-                 curr_reg_pressure[cover_class]--;
-                 if (high_pressure_start_point[cover_class] >= 0
-                     && (curr_reg_pressure[cover_class]
-                         <= ira_available_class_regs[cover_class]))
-                   {
-                     EXECUTE_IF_SET_IN_SPARSESET (allocnos_live, i)
-                       {
-                         update_allocno_pressure_excess_length
-                           (ira_allocnos[i]);
-                       }
-                     high_pressure_start_point[cover_class] = -1;
-                   }
-                 ira_assert (curr_reg_pressure[cover_class] >= 0);
-               }
-             make_regno_dead (regno);
+             aclass = ira_hard_regno_allocno_class[regno];
+             pclass = ira_pressure_class_translate[aclass];
+             dec_register_pressure (pclass, 1);
+             make_hard_regno_dead (regno);
            }
          regno++;
        }
     }
 }
 
+/* Mark a pseudo, or one of its subwords, as dead.  REGNO is the pseudo's
+   register number; ORIG_REG is the access in the insn, which may be a
+   subreg.  */
+static void
+mark_pseudo_reg_dead (rtx orig_reg, unsigned regno)
+{
+  if (df_read_modify_subreg_p (orig_reg))
+    {
+      mark_pseudo_regno_subword_dead (regno,
+                                     subreg_lowpart_p (orig_reg) ? 0 : 1);
+    }
+  else
+    mark_pseudo_regno_dead (regno);
+}
+
+/* Mark the register referenced by definition DEF as dead, if the
+   definition is a total one.  */
+static void
+mark_ref_dead (df_ref def)
+{
+  rtx reg = DF_REF_REG (def);
+  rtx orig_reg = reg;
+
+  if (DF_REF_FLAGS_IS_SET (def, DF_REF_CONDITIONAL))
+    return;
+
+  if (GET_CODE (reg) == SUBREG)
+    reg = SUBREG_REG (reg);
+
+  if (DF_REF_FLAGS_IS_SET (def, DF_REF_PARTIAL)
+      && (GET_CODE (orig_reg) != SUBREG
+         || REGNO (reg) < FIRST_PSEUDO_REGISTER
+         || !df_read_modify_subreg_p (orig_reg)))
+    return;
+
+  if (REGNO (reg) >= FIRST_PSEUDO_REGISTER)
+    mark_pseudo_reg_dead (orig_reg, REGNO (reg));
+  else
+    mark_hard_reg_dead (reg);
+}
+
+/* If REG is a pseudo or a subreg of it, and the class of its allocno
+   intersects CL, make a conflict with pseudo DREG.  ORIG_DREG is the
+   rtx actually accessed, it may be indentical to DREG or a subreg of it.
+   Advance the current program point before making the conflict if
+   ADVANCE_P.  Return TRUE if we will need to advance the current
+   program point.  */
+static bool
+make_pseudo_conflict (rtx reg, enum reg_class cl, rtx dreg, rtx orig_dreg,
+                     bool advance_p)
+{
+  rtx orig_reg = reg;
+  ira_allocno_t a;
+
+  if (GET_CODE (reg) == SUBREG)
+    reg = SUBREG_REG (reg);
+
+  if (! REG_P (reg) || REGNO (reg) < FIRST_PSEUDO_REGISTER)
+    return advance_p;
+
+  a = ira_curr_regno_allocno_map[REGNO (reg)];
+  if (! reg_classes_intersect_p (cl, ALLOCNO_CLASS (a)))
+    return advance_p;
+
+  if (advance_p)
+    curr_point++;
+
+  mark_pseudo_reg_live (orig_reg, REGNO (reg));
+  mark_pseudo_reg_live (orig_dreg, REGNO (dreg));
+  mark_pseudo_reg_dead (orig_reg, REGNO (reg));
+  mark_pseudo_reg_dead (orig_dreg, REGNO (dreg));
+
+  return false;
+}
+
+/* Check and make if necessary conflicts for pseudo DREG of class
+   DEF_CL of the current insn with input operand USE of class USE_CL.
+   ORIG_DREG is the rtx actually accessed, it may be indentical to
+   DREG or a subreg of it.  Advance the current program point before
+   making the conflict if ADVANCE_P.  Return TRUE if we will need to
+   advance the current program point.  */
+static bool
+check_and_make_def_use_conflict (rtx dreg, rtx orig_dreg,
+                                enum reg_class def_cl, int use,
+                                enum reg_class use_cl, bool advance_p)
+{
+  if (! reg_classes_intersect_p (def_cl, use_cl))
+    return advance_p;
+
+  advance_p = make_pseudo_conflict (recog_data.operand[use],
+                                   use_cl, dreg, orig_dreg, advance_p);
+
+  /* Reload may end up swapping commutative operands, so you
+     have to take both orderings into account.  The
+     constraints for the two operands can be completely
+     different.  (Indeed, if the constraints for the two
+     operands are the same for all alternatives, there's no
+     point marking them as commutative.)  */
+  if (use < recog_data.n_operands - 1
+      && recog_data.constraints[use][0] == '%')
+    advance_p
+      = make_pseudo_conflict (recog_data.operand[use + 1],
+                             use_cl, dreg, orig_dreg, advance_p);
+  if (use >= 1
+      && recog_data.constraints[use - 1][0] == '%')
+    advance_p
+      = make_pseudo_conflict (recog_data.operand[use - 1],
+                             use_cl, dreg, orig_dreg, advance_p);
+  return advance_p;
+}
+
+/* Check and make if necessary conflicts for definition DEF of class
+   DEF_CL of the current insn with input operands.  Process only
+   constraints of alternative ALT.  */
+static void
+check_and_make_def_conflict (int alt, int def, enum reg_class def_cl)
+{
+  int use, use_match;
+  ira_allocno_t a;
+  enum reg_class use_cl, acl;
+  bool advance_p;
+  rtx dreg = recog_data.operand[def];
+  rtx orig_dreg = dreg;
+
+  if (def_cl == NO_REGS)
+    return;
+
+  if (GET_CODE (dreg) == SUBREG)
+    dreg = SUBREG_REG (dreg);
+
+  if (! REG_P (dreg) || REGNO (dreg) < FIRST_PSEUDO_REGISTER)
+    return;
+
+  a = ira_curr_regno_allocno_map[REGNO (dreg)];
+  acl = ALLOCNO_CLASS (a);
+  if (! reg_classes_intersect_p (acl, def_cl))
+    return;
+
+  advance_p = true;
+
+  for (use = 0; use < recog_data.n_operands; use++)
+    {
+      int alt1;
+
+      if (use == def || recog_data.operand_type[use] == OP_OUT)
+       continue;
+
+      if (recog_op_alt[use][alt].anything_ok)
+       use_cl = ALL_REGS;
+      else
+       use_cl = recog_op_alt[use][alt].cl;
+
+      /* If there's any alternative that allows USE to match DEF, do not
+        record a conflict.  If that causes us to create an invalid
+        instruction due to the earlyclobber, reload must fix it up.  */
+      for (alt1 = 0; alt1 < recog_data.n_alternatives; alt1++)
+       if (recog_op_alt[use][alt1].matches == def
+           || (use < recog_data.n_operands - 1
+               && recog_data.constraints[use][0] == '%'
+               && recog_op_alt[use + 1][alt1].matches == def)
+           || (use >= 1
+               && recog_data.constraints[use - 1][0] == '%'
+               && recog_op_alt[use - 1][alt1].matches == def))
+         break;
+
+      if (alt1 < recog_data.n_alternatives)
+       continue;
+
+      advance_p = check_and_make_def_use_conflict (dreg, orig_dreg, def_cl,
+                                                  use, use_cl, advance_p);
+
+      if ((use_match = recog_op_alt[use][alt].matches) >= 0)
+       {
+         if (use_match == def)
+           continue;
+
+         if (recog_op_alt[use_match][alt].anything_ok)
+           use_cl = ALL_REGS;
+         else
+           use_cl = recog_op_alt[use_match][alt].cl;
+         advance_p = check_and_make_def_use_conflict (dreg, orig_dreg, def_cl,
+                                                      use, use_cl, advance_p);
+       }
+    }
+}
+
+/* Make conflicts of early clobber pseudo registers of the current
+   insn with its inputs.  Avoid introducing unnecessary conflicts by
+   checking classes of the constraints and pseudos because otherwise
+   significant code degradation is possible for some targets.  */
+static void
+make_early_clobber_and_input_conflicts (void)
+{
+  int alt;
+  int def, def_match;
+  enum reg_class def_cl;
+
+  for (alt = 0; alt < recog_data.n_alternatives; alt++)
+    for (def = 0; def < recog_data.n_operands; def++)
+      {
+       def_cl = NO_REGS;
+       if (recog_op_alt[def][alt].earlyclobber)
+         {
+           if (recog_op_alt[def][alt].anything_ok)
+             def_cl = ALL_REGS;
+           else
+             def_cl = recog_op_alt[def][alt].cl;
+           check_and_make_def_conflict (alt, def, def_cl);
+         }
+       if ((def_match = recog_op_alt[def][alt].matches) >= 0
+           && (recog_op_alt[def_match][alt].earlyclobber
+               || recog_op_alt[def][alt].earlyclobber))
+         {
+           if (recog_op_alt[def_match][alt].anything_ok)
+             def_cl = ALL_REGS;
+           else
+             def_cl = recog_op_alt[def_match][alt].cl;
+           check_and_make_def_conflict (alt, def, def_cl);
+         }
+      }
+}
+
+/* Mark early clobber hard registers of the current INSN as live (if
+   LIVE_P) or dead.  Return true if there are such registers.  */
+static bool
+mark_hard_reg_early_clobbers (rtx insn, bool live_p)
+{
+  df_ref *def_rec;
+  bool set_p = false;
+
+  for (def_rec = DF_INSN_DEFS (insn); *def_rec; def_rec++)
+    if (DF_REF_FLAGS_IS_SET (*def_rec, DF_REF_MUST_CLOBBER))
+      {
+       rtx dreg = DF_REF_REG (*def_rec);
+
+       if (GET_CODE (dreg) == SUBREG)
+         dreg = SUBREG_REG (dreg);
+       if (! REG_P (dreg) || REGNO (dreg) >= FIRST_PSEUDO_REGISTER)
+         continue;
+
+       /* Hard register clobbers are believed to be early clobber
+          because there is no way to say that non-operand hard
+          register clobbers are not early ones.  */
+       if (live_p)
+         mark_ref_live (*def_rec);
+       else
+         mark_ref_dead (*def_rec);
+       set_p = true;
+      }
+
+  return set_p;
+}
+
 /* Checks that CONSTRAINTS permits to use only one hard register.  If
    it is so, the function returns the class of the hard register.
    Otherwise it returns NO_REGS.  */
 static enum reg_class
 single_reg_class (const char *constraints, rtx op, rtx equiv_const)
 {
-  int ignore_p;
+  int curr_alt, c;
+  bool ignore_p;
   enum reg_class cl, next_cl;
-  int c;
 
   cl = NO_REGS;
-  for (ignore_p = false;
+  for (ignore_p = false, curr_alt = 0;
        (c = *constraints);
        constraints += CONSTRAINT_LEN (c, constraints))
-    if (c == '#')
+    if (c == '#' || !recog_data.alternative_enabled_p[curr_alt])
       ignore_p = true;
     else if (c == ',')
-      ignore_p = false;
+      {
+       curr_alt++;
+       ignore_p = false;
+      }
     else if (! ignore_p)
       switch (c)
        {
@@ -428,26 +761,26 @@ single_reg_class (const char *constraints, rtx op, rtx equiv_const)
          break;
 
        case 'n':
-         if (GET_CODE (op) == CONST_INT
+         if (CONST_INT_P (op)
              || (GET_CODE (op) == CONST_DOUBLE && GET_MODE (op) == VOIDmode)
              || (equiv_const != NULL_RTX
-                 && (GET_CODE (equiv_const) == CONST_INT
+                 && (CONST_INT_P (equiv_const)
                      || (GET_CODE (equiv_const) == CONST_DOUBLE
                          && GET_MODE (equiv_const) == VOIDmode))))
            return NO_REGS;
          break;
-         
+
        case 's':
-         if ((CONSTANT_P (op) && GET_CODE (op) != CONST_INT
+         if ((CONSTANT_P (op) && !CONST_INT_P (op)
               && (GET_CODE (op) != CONST_DOUBLE || GET_MODE (op) != VOIDmode))
              || (equiv_const != NULL_RTX
                  && CONSTANT_P (equiv_const)
-                 && GET_CODE (equiv_const) != CONST_INT
+                 && !CONST_INT_P (equiv_const)
                  && (GET_CODE (equiv_const) != CONST_DOUBLE
                      || GET_MODE (equiv_const) != VOIDmode)))
            return NO_REGS;
          break;
-         
+
        case 'I':
        case 'J':
        case 'K':
@@ -456,15 +789,15 @@ single_reg_class (const char *constraints, rtx op, rtx equiv_const)
        case 'N':
        case 'O':
        case 'P':
-         if ((GET_CODE (op) == CONST_INT
+         if ((CONST_INT_P (op)
               && CONST_OK_FOR_CONSTRAINT_P (INTVAL (op), c, constraints))
              || (equiv_const != NULL_RTX
-                 && GET_CODE (equiv_const) == CONST_INT
+                 && CONST_INT_P (equiv_const)
                  && CONST_OK_FOR_CONSTRAINT_P (INTVAL (equiv_const),
                                                c, constraints)))
            return NO_REGS;
          break;
-         
+
        case 'E':
        case 'F':
          if (GET_CODE (op) == CONST_DOUBLE
@@ -477,7 +810,7 @@ single_reg_class (const char *constraints, rtx op, rtx equiv_const)
                              == MODE_VECTOR_FLOAT)))))
            return NO_REGS;
          break;
-         
+
        case 'G':
        case 'H':
          if ((GET_CODE (op) == CONST_DOUBLE
@@ -500,22 +833,25 @@ single_reg_class (const char *constraints, rtx op, rtx equiv_const)
                     ? GENERAL_REGS
                     : REG_CLASS_FROM_CONSTRAINT (c, constraints));
          if ((cl != NO_REGS && next_cl != cl)
-             || ira_available_class_regs[next_cl] > 1)
+             || (ira_available_class_regs[next_cl]
+                 > ira_reg_class_max_nregs[next_cl][GET_MODE (op)]))
            return NO_REGS;
          cl = next_cl;
          break;
-         
+
        case '0': case '1': case '2': case '3': case '4':
        case '5': case '6': case '7': case '8': case '9':
          next_cl
            = single_reg_class (recog_data.constraints[c - '0'],
                                recog_data.operand[c - '0'], NULL_RTX);
-         if ((cl != NO_REGS && next_cl != cl) || next_cl == NO_REGS
-             || ira_available_class_regs[next_cl] > 1)
+         if ((cl != NO_REGS && next_cl != cl)
+             || next_cl == NO_REGS
+             || (ira_available_class_regs[next_cl]
+                 > ira_reg_class_max_nregs[next_cl][GET_MODE (op)]))
            return NO_REGS;
          cl = next_cl;
          break;
-         
+
        default:
          return NO_REGS;
        }
@@ -534,6 +870,70 @@ single_reg_operand_class (int op_num)
                           recog_data.operand[op_num], NULL_RTX);
 }
 
+/* The function sets up hard register set *SET to hard registers which
+   might be used by insn reloads because the constraints are too
+   strict.  */
+void
+ira_implicitly_set_insn_hard_regs (HARD_REG_SET *set)
+{
+  int i, curr_alt, c, regno = 0;
+  bool ignore_p;
+  enum reg_class cl;
+  rtx op;
+  enum machine_mode mode;
+
+  CLEAR_HARD_REG_SET (*set);
+  for (i = 0; i < recog_data.n_operands; i++)
+    {
+      op = recog_data.operand[i];
+
+      if (GET_CODE (op) == SUBREG)
+       op = SUBREG_REG (op);
+
+      if (GET_CODE (op) == SCRATCH
+         || (REG_P (op) && (regno = REGNO (op)) >= FIRST_PSEUDO_REGISTER))
+       {
+         const char *p = recog_data.constraints[i];
+
+         mode = (GET_CODE (op) == SCRATCH
+                 ? GET_MODE (op) : PSEUDO_REGNO_MODE (regno));
+         cl = NO_REGS;
+         for (ignore_p = false, curr_alt = 0;
+              (c = *p);
+              p += CONSTRAINT_LEN (c, p))
+           if (c == '#' || !recog_data.alternative_enabled_p[curr_alt])
+             ignore_p = true;
+           else if (c == ',')
+             {
+               curr_alt++;
+               ignore_p = false;
+             }
+           else if (! ignore_p)
+             switch (c)
+               {
+               case 'r':
+               case 'a': case 'b': case 'c': case 'd': case 'e': case 'f':
+               case 'h': case 'j': case 'k': case 'l':
+               case 'q': case 't': case 'u':
+               case 'v': case 'w': case 'x': case 'y': case 'z':
+               case 'A': case 'B': case 'C': case 'D':
+               case 'Q': case 'R': case 'S': case 'T': case 'U':
+               case 'W': case 'Y': case 'Z':
+                 cl = (c == 'r'
+                       ? GENERAL_REGS
+                       : REG_CLASS_FROM_CONSTRAINT (c, p));
+                 if (cl != NO_REGS
+                     /* There is no register pressure problem if all of the
+                        regs in this class are fixed.  */
+                     && ira_available_class_regs[cl] != 0
+                     && (ira_available_class_regs[cl]
+                         <= ira_reg_class_max_nregs[cl][mode]))
+                   IOR_HARD_REG_SET (*set, reg_class_contents[cl]);
+                 break;
+               }
+       }
+    }
+}
 /* Processes input operands, if IN_P, or output operands otherwise of
    the current insn with FREQ to find allocno which can use only one
    hard register and makes other currently living allocnos conflicting
@@ -541,9 +941,9 @@ single_reg_operand_class (int op_num)
 static void
 process_single_reg_class_operands (bool in_p, int freq)
 {
-  int i, regno, cost;
+  int i, regno;
   unsigned int px;
-  enum reg_class cl, cover_class;
+  enum reg_class cl;
   rtx operand;
   ira_allocno_t operand_a, a;
 
@@ -564,53 +964,85 @@ process_single_reg_class_operands (bool in_p, int freq)
 
       if (GET_CODE (operand) == SUBREG)
        operand = SUBREG_REG (operand);
-      
+
       if (REG_P (operand)
          && (regno = REGNO (operand)) >= FIRST_PSEUDO_REGISTER)
        {
-         enum machine_mode mode;
-         enum reg_class cover_class;
+         enum reg_class aclass;
 
          operand_a = ira_curr_regno_allocno_map[regno];
-         mode = ALLOCNO_MODE (operand_a);
-         cover_class = ALLOCNO_COVER_CLASS (operand_a);
-         if (ira_class_subset_p[cl][cover_class]
-             && ira_class_hard_regs_num[cl] != 0
-             && (ira_class_hard_reg_index[cover_class]
-                 [ira_class_hard_regs[cl][0]]) >= 0
-             && reg_class_size[cl] <= (unsigned) CLASS_MAX_NREGS (cl, mode))
+         aclass = ALLOCNO_CLASS (operand_a);
+         if (ira_class_subset_p[cl][aclass]
+             && ira_class_hard_regs_num[cl] != 0)
            {
-             /* ??? FREQ */
-             cost = freq * (in_p
-                            ? ira_register_move_cost[mode][cover_class][cl]
-                            : ira_register_move_cost[mode][cl][cover_class]);
-             ira_allocate_and_set_costs
-               (&ALLOCNO_CONFLICT_HARD_REG_COSTS (operand_a), cover_class, 0);
-             ALLOCNO_CONFLICT_HARD_REG_COSTS (operand_a)
-               [ira_class_hard_reg_index
-                [cover_class][ira_class_hard_regs[cl][0]]]
-               -= cost;
+             /* View the desired allocation of OPERAND as:
+
+                   (REG:YMODE YREGNO),
+
+                a simplification of:
+
+                   (subreg:YMODE (reg:XMODE XREGNO) OFFSET).  */
+             enum machine_mode ymode, xmode;
+             int xregno, yregno;
+             HOST_WIDE_INT offset;
+
+             xmode = recog_data.operand_mode[i];
+             xregno = ira_class_hard_regs[cl][0];
+             ymode = ALLOCNO_MODE (operand_a);
+             offset = subreg_lowpart_offset (ymode, xmode);
+             yregno = simplify_subreg_regno (xregno, xmode, offset, ymode);
+             if (yregno >= 0
+                 && ira_class_hard_reg_index[aclass][yregno] >= 0)
+               {
+                 int cost;
+
+                 ira_allocate_and_set_costs
+                   (&ALLOCNO_CONFLICT_HARD_REG_COSTS (operand_a),
+                    aclass, 0);
+                 ira_init_register_move_cost_if_necessary (xmode);
+                 cost = freq * (in_p
+                                ? ira_register_move_cost[xmode][aclass][cl]
+                                : ira_register_move_cost[xmode][cl][aclass]);
+                 ALLOCNO_CONFLICT_HARD_REG_COSTS (operand_a)
+                   [ira_class_hard_reg_index[aclass][yregno]] -= cost;
+               }
            }
        }
 
-      EXECUTE_IF_SET_IN_SPARSESET (allocnos_live, px)
+      EXECUTE_IF_SET_IN_SPARSESET (objects_live, px)
         {
-         a = ira_allocnos[px];
-         cover_class = ALLOCNO_COVER_CLASS (a);
+         ira_object_t obj = ira_object_id_map[px];
+         a = OBJECT_ALLOCNO (obj);
          if (a != operand_a)
            {
              /* We could increase costs of A instead of making it
                 conflicting with the hard register.  But it works worse
                 because it will be spilled in reload in anyway.  */
-             IOR_HARD_REG_SET (ALLOCNO_CONFLICT_HARD_REGS (a),
+             IOR_HARD_REG_SET (OBJECT_CONFLICT_HARD_REGS (obj),
                                reg_class_contents[cl]);
-             IOR_HARD_REG_SET (ALLOCNO_TOTAL_CONFLICT_HARD_REGS (a),
+             IOR_HARD_REG_SET (OBJECT_TOTAL_CONFLICT_HARD_REGS (obj),
                                reg_class_contents[cl]);
            }
        }
     }
 }
 
+/* Return true when one of the predecessor edges of BB is marked with
+   EDGE_ABNORMAL_CALL or EDGE_EH.  */
+static bool
+bb_has_abnormal_call_pred (basic_block bb)
+{
+  edge e;
+  edge_iterator ei;
+
+  FOR_EACH_EDGE (e, ei, bb->preds)
+    {
+      if (e->flags & (EDGE_ABNORMAL_CALL | EDGE_EH))
+       return true;
+    }
+  return false;
+}
+
 /* Process insns of the basic block given by its LOOP_TREE_NODE to
    update allocno live ranges, allocno hard register conflicts,
    intersected calls, and register pressure info for allocnos for the
@@ -618,170 +1050,100 @@ process_single_reg_class_operands (bool in_p, int freq)
 static void
 process_bb_node_lives (ira_loop_tree_node_t loop_tree_node)
 {
-  int i;
+  int i, freq;
   unsigned int j;
   basic_block bb;
   rtx insn;
-  edge e;
-  edge_iterator ei;
   bitmap_iterator bi;
-  bitmap reg_live_in;
+  bitmap reg_live_out;
   unsigned int px;
+  bool set_p;
 
   bb = loop_tree_node->bb;
   if (bb != NULL)
     {
-      for (i = 0; i < ira_reg_class_cover_size; i++)
+      for (i = 0; i < ira_pressure_classes_num; i++)
        {
-         curr_reg_pressure[ira_reg_class_cover[i]] = 0;
-         high_pressure_start_point[ira_reg_class_cover[i]] = -1;
+         curr_reg_pressure[ira_pressure_classes[i]] = 0;
+         high_pressure_start_point[ira_pressure_classes[i]] = -1;
        }
       curr_bb_node = loop_tree_node;
-      reg_live_in = DF_LR_IN (bb);
-      sparseset_clear (allocnos_live);
-      REG_SET_TO_HARD_REG_SET (hard_regs_live, reg_live_in);
+      reg_live_out = DF_LR_OUT (bb);
+      sparseset_clear (objects_live);
+      REG_SET_TO_HARD_REG_SET (hard_regs_live, reg_live_out);
       AND_COMPL_HARD_REG_SET (hard_regs_live, eliminable_regset);
       AND_COMPL_HARD_REG_SET (hard_regs_live, ira_no_alloc_regs);
       for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
        if (TEST_HARD_REG_BIT (hard_regs_live, i))
          {
-           enum reg_class cover_class;
-           
-           cover_class = REGNO_REG_CLASS (i);
-           if (cover_class == NO_REGS)
-             continue;
-           cover_class = ira_class_translate[cover_class];
-           curr_reg_pressure[cover_class]++;
-           if (curr_bb_node->reg_pressure[cover_class]
-               < curr_reg_pressure[cover_class])
-             curr_bb_node->reg_pressure[cover_class]
-               = curr_reg_pressure[cover_class];
-           ira_assert (curr_reg_pressure[cover_class]
-                       <= ira_available_class_regs[cover_class]);
+           enum reg_class aclass, pclass, cl;
+
+           aclass = ira_allocno_class_translate[REGNO_REG_CLASS (i)];
+           pclass = ira_pressure_class_translate[aclass];
+           for (j = 0;
+                (cl = ira_reg_class_super_classes[pclass][j])
+                  != LIM_REG_CLASSES;
+                j++)
+             {
+               if (! ira_reg_pressure_class_p[cl])
+                 continue;
+               curr_reg_pressure[cl]++;
+               if (curr_bb_node->reg_pressure[cl] < curr_reg_pressure[cl])
+                 curr_bb_node->reg_pressure[cl] = curr_reg_pressure[cl];
+               ira_assert (curr_reg_pressure[cl]
+                           <= ira_available_class_regs[cl]);
+             }
          }
-      EXECUTE_IF_SET_IN_BITMAP (reg_live_in, FIRST_PSEUDO_REGISTER, j, bi)
-       {
-         ira_allocno_t a = ira_curr_regno_allocno_map[j];
-         
-         if (a == NULL)
-           continue;
-         ira_assert (! sparseset_bit_p (allocnos_live, ALLOCNO_NUM (a)));
-         set_allocno_live (a);
-         make_regno_born (j);
-       }
-      
-#ifdef EH_RETURN_DATA_REGNO
-      if (bb_has_eh_pred (bb))
-       {
-         for (j = 0; ; ++j)
-           {
-             unsigned int regno = EH_RETURN_DATA_REGNO (j);
-             
-             if (regno == INVALID_REGNUM)
-               break;
-             make_regno_born_and_dead (regno);
-           }
-       }
-#endif
-      
-      /* Allocnos can't go in stack regs at the start of a basic block
-        that is reached by an abnormal edge. Likewise for call
-        clobbered regs, because caller-save, fixup_abnormal_edges and
-        possibly the table driven EH machinery are not quite ready to
-        handle such allocnos live across such edges.  */
-      FOR_EACH_EDGE (e, ei, bb->preds)
-       if (e->flags & EDGE_ABNORMAL)
-         break;
-      
-      if (e != NULL)
-       {
-#ifdef STACK_REGS
-         EXECUTE_IF_SET_IN_SPARSESET (allocnos_live, px)
-           {
-             ALLOCNO_NO_STACK_REG_P (ira_allocnos[px]) = true;
-             ALLOCNO_TOTAL_NO_STACK_REG_P (ira_allocnos[px]) = true;
-           }
-         for (px = FIRST_STACK_REG; px <= LAST_STACK_REG; px++)
-           make_regno_born_and_dead (px);
-#endif
-         /* No need to record conflicts for call clobbered regs if we
-            have nonlocal labels around, as we don't ever try to
-            allocate such regs in this case.  */
-         if (!cfun->has_nonlocal_label)
-           for (px = 0; px < FIRST_PSEUDO_REGISTER; px++)
-             if (call_used_regs[px])
-               make_regno_born_and_dead (px);
-       }
-  
+      EXECUTE_IF_SET_IN_BITMAP (reg_live_out, FIRST_PSEUDO_REGISTER, j, bi)
+       mark_pseudo_regno_live (j);
+
+      freq = REG_FREQ_FROM_BB (bb);
+      if (freq == 0)
+       freq = 1;
+
+      /* Invalidate all allocno_saved_at_call entries.  */
+      last_call_num++;
+
       /* Scan the code of this basic block, noting which allocnos and
-        hard regs are born or die.  */
-      FOR_BB_INSNS (bb, insn)
+        hard regs are born or die.
+
+        Note that this loop treats uninitialized values as live until
+        the beginning of the block.  For example, if an instruction
+        uses (reg:DI foo), and only (subreg:SI (reg:DI foo) 0) is ever
+        set, FOO will remain live until the beginning of the block.
+        Likewise if FOO is not set at all.  This is unnecessarily
+        pessimistic, but it probably doesn't matter much in practice.  */
+      FOR_BB_INSNS_REVERSE (bb, insn)
        {
-         rtx link;
-         int freq;
-         
-         if (! INSN_P (insn))
+         df_ref *def_rec, *use_rec;
+         bool call_p;
+
+         if (!NONDEBUG_INSN_P (insn))
            continue;
-         
-         freq = REG_FREQ_FROM_BB (BLOCK_FOR_INSN (insn));
-         if (freq == 0)
-           freq = 1;
 
          if (internal_flag_ira_verbose > 2 && ira_dump_file != NULL)
            fprintf (ira_dump_file, "   Insn %u(l%d): point = %d\n",
                     INSN_UID (insn), loop_tree_node->parent->loop->num,
                     curr_point);
 
-         /* Check regs_set is an empty set.  */
-         gcc_assert (VEC_empty (rtx, regs_set));
-      
-         /* Mark any allocnos clobbered by INSN as live, so they
-            conflict with the inputs.  */
-         note_stores (PATTERN (insn), mark_reg_clobber, NULL);
-         
-         extract_insn (insn);
-         process_single_reg_class_operands (true, freq);
-         
-         /* Mark any allocnos dead after INSN as dead now.  */
-         for (link = REG_NOTES (insn); link; link = XEXP (link, 1))
-           if (REG_NOTE_KIND (link) == REG_DEAD)
-             mark_reg_death (XEXP (link, 0));
-         
-         curr_point++;
+         /* Mark each defined value as live.  We need to do this for
+            unused values because they still conflict with quantities
+            that are live at the time of the definition.
+
+            Ignore DF_REF_MAY_CLOBBERs on a call instruction.  Such
+            references represent the effect of the called function
+            on a call-clobbered register.  Marking the register as
+            live would stop us from allocating it to a call-crossing
+            allocno.  */
+         call_p = CALL_P (insn);
+         for (def_rec = DF_INSN_DEFS (insn); *def_rec; def_rec++)
+           if (!call_p || !DF_REF_FLAGS_IS_SET (*def_rec, DF_REF_MAY_CLOBBER))
+             mark_ref_live (*def_rec);
+
+         /* If INSN has multiple outputs, then any value used in one
+            of the outputs conflicts with the other outputs.  Model this
+            by making the used value live during the output phase.
 
-         if (CALL_P (insn))
-           {
-             EXECUTE_IF_SET_IN_SPARSESET (allocnos_live, i)
-               {
-                 ira_allocno_t a = ira_allocnos[i];
-                 
-                 ALLOCNO_CALL_FREQ (a) += freq;
-                 ALLOCNO_CALLS_CROSSED_NUM (a)++;
-                 /* Don't allocate allocnos that cross calls, if this
-                    function receives a nonlocal goto.  */
-                 if (cfun->has_nonlocal_label)
-                   {
-                     SET_HARD_REG_SET (ALLOCNO_CONFLICT_HARD_REGS (a));
-                     SET_HARD_REG_SET (ALLOCNO_TOTAL_CONFLICT_HARD_REGS (a));
-                   }
-               }
-           }
-         
-         /* Mark any allocnos set in INSN as live.  Clobbers are
-            processed again, so they will conflict with the reg
-            allocnos that are set.  */
-         note_stores (PATTERN (insn), mark_reg_store, NULL);
-         
-#ifdef AUTO_INC_DEC
-         for (link = REG_NOTES (insn); link; link = XEXP (link, 1))
-           if (REG_NOTE_KIND (link) == REG_INC)
-             mark_reg_store (XEXP (link, 0), NULL_RTX, NULL);
-#endif
-         
-         /* If INSN has multiple outputs, then any allocno that dies
-            here and is used inside of an output must conflict with
-            the other outputs.
-            
             It is unsafe to use !single_set here since it will ignore
             an unused output.  Just because an output is unused does
             not mean the compiler can assume the side effect will not
@@ -790,59 +1152,173 @@ process_bb_node_lives (ira_loop_tree_node_t loop_tree_node)
             to the same hard register as an unused output we could
             set the hard register before the output reload insn.  */
          if (GET_CODE (PATTERN (insn)) == PARALLEL && multiple_sets (insn))
-           for (link = REG_NOTES (insn); link; link = XEXP (link, 1))
-             if (REG_NOTE_KIND (link) == REG_DEAD)
-               {
-                 int i;
-                 int used_in_output = 0;
-                 rtx reg = XEXP (link, 0);
-                 
-                 for (i = XVECLEN (PATTERN (insn), 0) - 1; i >= 0; i--)
+           for (use_rec = DF_INSN_USES (insn); *use_rec; use_rec++)
+             {
+               int i;
+               rtx reg;
+
+               reg = DF_REF_REG (*use_rec);
+               for (i = XVECLEN (PATTERN (insn), 0) - 1; i >= 0; i--)
+                 {
+                   rtx set;
+
+                   set = XVECEXP (PATTERN (insn), 0, i);
+                   if (GET_CODE (set) == SET
+                       && reg_overlap_mentioned_p (reg, SET_DEST (set)))
+                     {
+                       /* After the previous loop, this is a no-op if
+                          REG is contained within SET_DEST (SET).  */
+                       mark_ref_live (*use_rec);
+                       break;
+                     }
+                 }
+             }
+
+         extract_insn (insn);
+         preprocess_constraints ();
+         process_single_reg_class_operands (false, freq);
+
+         /* See which defined values die here.  */
+         for (def_rec = DF_INSN_DEFS (insn); *def_rec; def_rec++)
+           if (!call_p || !DF_REF_FLAGS_IS_SET (*def_rec, DF_REF_MAY_CLOBBER))
+             mark_ref_dead (*def_rec);
+
+         if (call_p)
+           {
+             last_call_num++;
+             sparseset_clear (allocnos_processed);
+             /* The current set of live allocnos are live across the call.  */
+             EXECUTE_IF_SET_IN_SPARSESET (objects_live, i)
+               {
+                 ira_object_t obj = ira_object_id_map[i];
+                 ira_allocno_t a = OBJECT_ALLOCNO (obj);
+                 int num = ALLOCNO_NUM (a);
+
+                 /* Don't allocate allocnos that cross setjmps or any
+                    call, if this function receives a nonlocal
+                    goto.  */
+                 if (cfun->has_nonlocal_label
+                     || find_reg_note (insn, REG_SETJMP,
+                                       NULL_RTX) != NULL_RTX)
+                   {
+                     SET_HARD_REG_SET (OBJECT_CONFLICT_HARD_REGS (obj));
+                     SET_HARD_REG_SET (OBJECT_TOTAL_CONFLICT_HARD_REGS (obj));
+                   }
+                 if (can_throw_internal (insn))
                    {
-                     rtx set = XVECEXP (PATTERN (insn), 0, i);
-                     
-                     if (GET_CODE (set) == SET
-                         && ! REG_P (SET_DEST (set))
-                         && ! rtx_equal_p (reg, SET_DEST (set))
-                         && reg_overlap_mentioned_p (reg, SET_DEST (set)))
-                       used_in_output = 1;
+                     IOR_HARD_REG_SET (OBJECT_CONFLICT_HARD_REGS (obj),
+                                       call_used_reg_set);
+                     IOR_HARD_REG_SET (OBJECT_TOTAL_CONFLICT_HARD_REGS (obj),
+                                       call_used_reg_set);
                    }
-                 if (used_in_output)
-                   mark_reg_conflicts (reg);
+
+                 if (sparseset_bit_p (allocnos_processed, num))
+                   continue;
+                 sparseset_set_bit (allocnos_processed, num);
+
+                 if (allocno_saved_at_call[num] != last_call_num)
+                   /* Here we are mimicking caller-save.c behaviour
+                      which does not save hard register at a call if
+                      it was saved on previous call in the same basic
+                      block and the hard register was not mentioned
+                      between the two calls.  */
+                   ALLOCNO_CALL_FREQ (a) += freq;
+                 /* Mark it as saved at the next call.  */
+                 allocno_saved_at_call[num] = last_call_num + 1;
+                 ALLOCNO_CALLS_CROSSED_NUM (a)++;
                }
-         
-         process_single_reg_class_operands (false, freq);
-         
-         /* Mark any allocnos set in INSN and then never used.  */
-         while (! VEC_empty (rtx, regs_set))
+           }
+
+         make_early_clobber_and_input_conflicts ();
+
+         curr_point++;
+
+         /* Mark each used value as live.  */
+         for (use_rec = DF_INSN_USES (insn); *use_rec; use_rec++)
+           mark_ref_live (*use_rec);
+
+         process_single_reg_class_operands (true, freq);
+
+         set_p = mark_hard_reg_early_clobbers (insn, true);
+
+         if (set_p)
            {
-             rtx reg = VEC_pop (rtx, regs_set);
-             rtx note = find_regno_note (insn, REG_UNUSED, REGNO (reg));
+             mark_hard_reg_early_clobbers (insn, false);
+
+             /* Mark each hard reg as live again.  For example, a
+                hard register can be in clobber and in an insn
+                input.  */
+             for (use_rec = DF_INSN_USES (insn); *use_rec; use_rec++)
+               {
+                 rtx ureg = DF_REF_REG (*use_rec);
 
-             if (note)
-               mark_reg_death (XEXP (note, 0));
+                 if (GET_CODE (ureg) == SUBREG)
+                   ureg = SUBREG_REG (ureg);
+                 if (! REG_P (ureg) || REGNO (ureg) >= FIRST_PSEUDO_REGISTER)
+                   continue;
+
+                 mark_ref_live (*use_rec);
+               }
            }
+
          curr_point++;
        }
-      EXECUTE_IF_SET_IN_SPARSESET (allocnos_live, i)
-       {
-        make_regno_dead (ALLOCNO_REGNO (ira_allocnos[i]));
-       }
+
+#ifdef EH_RETURN_DATA_REGNO
+      if (bb_has_eh_pred (bb))
+       for (j = 0; ; ++j)
+         {
+           unsigned int regno = EH_RETURN_DATA_REGNO (j);
+           if (regno == INVALID_REGNUM)
+             break;
+           make_hard_regno_born (regno);
+         }
+#endif
+
+      /* Allocnos can't go in stack regs at the start of a basic block
+        that is reached by an abnormal edge. Likewise for call
+        clobbered regs, because caller-save, fixup_abnormal_edges and
+        possibly the table driven EH machinery are not quite ready to
+        handle such allocnos live across such edges.  */
+      if (bb_has_abnormal_pred (bb))
+       {
+#ifdef STACK_REGS
+         EXECUTE_IF_SET_IN_SPARSESET (objects_live, px)
+           {
+             ira_allocno_t a = OBJECT_ALLOCNO (ira_object_id_map[px]);
+
+             ALLOCNO_NO_STACK_REG_P (a) = true;
+             ALLOCNO_TOTAL_NO_STACK_REG_P (a) = true;
+           }
+         for (px = FIRST_STACK_REG; px <= LAST_STACK_REG; px++)
+           make_hard_regno_born (px);
+#endif
+         /* No need to record conflicts for call clobbered regs if we
+            have nonlocal labels around, as we don't ever try to
+            allocate such regs in this case.  */
+         if (!cfun->has_nonlocal_label && bb_has_abnormal_call_pred (bb))
+           for (px = 0; px < FIRST_PSEUDO_REGISTER; px++)
+             if (call_used_regs[px])
+               make_hard_regno_born (px);
+       }
+
+      EXECUTE_IF_SET_IN_SPARSESET (objects_live, i)
+       make_object_dead (ira_object_id_map[i]);
 
       curr_point++;
 
     }
   /* Propagate register pressure to upper loop tree nodes: */
   if (loop_tree_node != ira_loop_tree_root)
-    for (i = 0; i < ira_reg_class_cover_size; i++)
+    for (i = 0; i < ira_pressure_classes_num; i++)
       {
-       enum reg_class cover_class;
+       enum reg_class pclass;
 
-       cover_class = ira_reg_class_cover[i];
-       if (loop_tree_node->reg_pressure[cover_class]
-           > loop_tree_node->parent->reg_pressure[cover_class])
-         loop_tree_node->parent->reg_pressure[cover_class]
-           = loop_tree_node->reg_pressure[cover_class];
+       pclass = ira_pressure_classes[i];
+       if (loop_tree_node->reg_pressure[pclass]
+           > loop_tree_node->parent->reg_pressure[pclass])
+         loop_tree_node->parent->reg_pressure[pclass]
+           = loop_tree_node->reg_pressure[pclass];
       }
 }
 
@@ -851,30 +1327,24 @@ process_bb_node_lives (ira_loop_tree_node_t loop_tree_node)
 static void
 create_start_finish_chains (void)
 {
-  ira_allocno_t a;
-  ira_allocno_iterator ai;
-  allocno_live_range_t r;
+  ira_object_t obj;
+  ira_object_iterator oi;
+  live_range_t r;
 
   ira_start_point_ranges
-    = (allocno_live_range_t *) ira_allocate (ira_max_point
-                                            * sizeof (allocno_live_range_t));
-  memset (ira_start_point_ranges, 0,
-         ira_max_point * sizeof (allocno_live_range_t));
+    = (live_range_t *) ira_allocate (ira_max_point * sizeof (live_range_t));
+  memset (ira_start_point_ranges, 0, ira_max_point * sizeof (live_range_t));
   ira_finish_point_ranges
-    = (allocno_live_range_t *) ira_allocate (ira_max_point
-                                            * sizeof (allocno_live_range_t));
-  memset (ira_finish_point_ranges, 0,
-         ira_max_point * sizeof (allocno_live_range_t));
-  FOR_EACH_ALLOCNO (a, ai)
-    {
-      for (r = ALLOCNO_LIVE_RANGES (a); r != NULL; r = r->next)
-       {
-         r->start_next = ira_start_point_ranges[r->start];
-         ira_start_point_ranges[r->start] = r;
-         r->finish_next = ira_finish_point_ranges[r->finish];
+    = (live_range_t *) ira_allocate (ira_max_point * sizeof (live_range_t));
+  memset (ira_finish_point_ranges, 0, ira_max_point * sizeof (live_range_t));
+  FOR_EACH_OBJECT (obj, oi)
+    for (r = OBJECT_LIVE_RANGES (obj); r != NULL; r = r->next)
+      {
+       r->start_next = ira_start_point_ranges[r->start];
+       ira_start_point_ranges[r->start] = r;
+       r->finish_next = ira_finish_point_ranges[r->finish];
          ira_finish_point_ranges[r->finish] = r;
-       }
-    }
+      }
 }
 
 /* Rebuild IRA_START_POINT_RANGES and IRA_FINISH_POINT_RANGES after
@@ -888,9 +1358,72 @@ ira_rebuild_start_finish_chains (void)
   create_start_finish_chains ();
 }
 
+/* Compress allocno live ranges by removing program points where
+   nothing happens.  */
+static void
+remove_some_program_points_and_update_live_ranges (void)
+{
+  unsigned i;
+  int n;
+  int *map;
+  ira_object_t obj;
+  ira_object_iterator oi;
+  live_range_t r;
+  sbitmap born_or_dead, born, dead;
+  sbitmap_iterator sbi;
+  bool born_p, dead_p, prev_born_p, prev_dead_p;
+  
+  born = sbitmap_alloc (ira_max_point);
+  dead = sbitmap_alloc (ira_max_point);
+  sbitmap_zero (born);
+  sbitmap_zero (dead);
+  FOR_EACH_OBJECT (obj, oi)
+    for (r = OBJECT_LIVE_RANGES (obj); r != NULL; r = r->next)
+      {
+       ira_assert (r->start <= r->finish);
+       SET_BIT (born, r->start);
+       SET_BIT (dead, r->finish);
+      }
+
+  born_or_dead = sbitmap_alloc (ira_max_point);
+  sbitmap_a_or_b (born_or_dead, born, dead);
+  map = (int *) ira_allocate (sizeof (int) * ira_max_point);
+  n = -1;
+  prev_born_p = prev_dead_p = false;
+  EXECUTE_IF_SET_IN_SBITMAP (born_or_dead, 0, i, sbi)
+    {
+      born_p = TEST_BIT (born, i);
+      dead_p = TEST_BIT (dead, i);
+      if ((prev_born_p && ! prev_dead_p && born_p && ! dead_p)
+         || (prev_dead_p && ! prev_born_p && dead_p && ! born_p))
+       map[i] = n;
+      else
+       map[i] = ++n;
+      prev_born_p = born_p;
+      prev_dead_p = dead_p;
+    }
+  sbitmap_free (born_or_dead);
+  sbitmap_free (born);
+  sbitmap_free (dead);
+  n++;
+  if (internal_flag_ira_verbose > 1 && ira_dump_file != NULL)
+    fprintf (ira_dump_file, "Compressing live ranges: from %d to %d - %d%%\n",
+            ira_max_point, n, 100 * n / ira_max_point);
+  ira_max_point = n;
+
+  FOR_EACH_OBJECT (obj, oi)
+    for (r = OBJECT_LIVE_RANGES (obj); r != NULL; r = r->next)
+      {
+       r->start = map[r->start];
+       r->finish = map[r->finish];
+      }
+
+  ira_free (map);
+}
+
 /* Print live ranges R to file F.  */
 void
-ira_print_live_range_list (FILE *f, allocno_live_range_t r)
+ira_print_live_range_list (FILE *f, live_range_t r)
 {
   for (; r != NULL; r = r->next)
     fprintf (f, " [%d..%d]", r->start, r->finish);
@@ -899,17 +1432,33 @@ ira_print_live_range_list (FILE *f, allocno_live_range_t r)
 
 /* Print live ranges R to stderr.  */
 void
-ira_debug_live_range_list (allocno_live_range_t r)
+ira_debug_live_range_list (live_range_t r)
 {
   ira_print_live_range_list (stderr, r);
 }
 
+/* Print live ranges of object OBJ to file F.  */
+static void
+print_object_live_ranges (FILE *f, ira_object_t obj)
+{
+  ira_print_live_range_list (f, OBJECT_LIVE_RANGES (obj));
+}
+
 /* Print live ranges of allocno A to file F.  */
 static void
 print_allocno_live_ranges (FILE *f, ira_allocno_t a)
 {
-  fprintf (f, " a%d(r%d):", ALLOCNO_NUM (a), ALLOCNO_REGNO (a));
-  ira_print_live_range_list (f, ALLOCNO_LIVE_RANGES (a));
+  int n = ALLOCNO_NUM_OBJECTS (a);
+  int i;
+
+  for (i = 0; i < n; i++)
+    {
+      fprintf (f, " a%d(r%d", ALLOCNO_NUM (a), ALLOCNO_REGNO (a));
+      if (n > 1)
+       fprintf (f, " [%d]", i);
+      fprintf (f, "):");
+      print_object_live_ranges (f, ALLOCNO_OBJECT (a, i));
+    }
 }
 
 /* Print live ranges of allocno A to stderr.  */
@@ -938,16 +1487,18 @@ ira_debug_live_ranges (void)
 }
 
 /* The main entry function creates live ranges, set up
-   CONFLICT_HARD_REGS and TOTAL_CONFLICT_HARD_REGS for allocnos, and
+   CONFLICT_HARD_REGS and TOTAL_CONFLICT_HARD_REGS for objects, and
    calculate register pressure info.  */
 void
 ira_create_allocno_live_ranges (void)
 {
-  allocnos_live = sparseset_alloc (ira_allocnos_num);
-  /* Make a vector that mark_reg_{store,clobber} will store in.  */
-  if (!regs_set)
-    regs_set = VEC_alloc (rtx, heap, 10);
+  objects_live = sparseset_alloc (ira_objects_num);
+  allocnos_processed = sparseset_alloc (ira_allocnos_num);
   curr_point = 0;
+  last_call_num = 0;
+  allocno_saved_at_call
+    = (int *) ira_allocate (ira_allocnos_num * sizeof (int));
+  memset (allocno_saved_at_call, 0, ira_allocnos_num * sizeof (int));
   ira_traverse_loop_tree (true, ira_loop_tree_root, NULL,
                          process_bb_node_lives);
   ira_max_point = curr_point;
@@ -955,7 +1506,22 @@ ira_create_allocno_live_ranges (void)
   if (internal_flag_ira_verbose > 2 && ira_dump_file != NULL)
     print_live_ranges (ira_dump_file);
   /* Clean up.  */
-  sparseset_free (allocnos_live);
+  ira_free (allocno_saved_at_call);
+  sparseset_free (objects_live);
+  sparseset_free (allocnos_processed);
+}
+
+/* Compress allocno live ranges.  */
+void
+ira_compress_allocno_live_ranges (void)
+{
+  remove_some_program_points_and_update_live_ranges ();
+  ira_rebuild_start_finish_chains ();
+  if (internal_flag_ira_verbose > 2 && ira_dump_file != NULL)
+    {
+      fprintf (ira_dump_file, "Ranges after the compression:\n");
+      print_live_ranges (ira_dump_file);
+    }
 }
 
 /* Free arrays IRA_START_POINT_RANGES and IRA_FINISH_POINT_RANGES.  */