OSDN Git Service

* c-decl.c (finish_decl): When setting the DECL_ASSEMBLER_NAME
[pf3gnuchains/gcc-fork.git] / gcc / sched-deps.c
index 396b519..5b1062b 100644 (file)
@@ -1,29 +1,31 @@
 /* Instruction scheduling pass.  This file computes dependencies between
    instructions.
    Copyright (C) 1992, 1993, 1994, 1995, 1996, 1997, 1998,
 /* Instruction scheduling pass.  This file computes dependencies between
    instructions.
    Copyright (C) 1992, 1993, 1994, 1995, 1996, 1997, 1998,
-   1999, 2000 Free Software Foundation, Inc.
+   1999, 2000, 2001, 2002 Free Software Foundation, Inc.
    Contributed by Michael Tiemann (tiemann@cygnus.com) Enhanced by,
    and currently maintained by, Jim Wilson (wilson@cygnus.com)
 
    Contributed by Michael Tiemann (tiemann@cygnus.com) Enhanced by,
    and currently maintained by, Jim Wilson (wilson@cygnus.com)
 
-This file is part of GNU CC.
+This file is part of GCC.
 
 
-GNU CC is free software; you can redistribute it and/or modify it
-under the terms of the GNU General Public License as published by the
-Free Software Foundation; either version 2, or (at your option) any
-later version.
+GCC is free software; you can redistribute it and/or modify it under
+the terms of the GNU General Public License as published by the Free
+Software Foundation; either version 2, or (at your option) any later
+version.
 
 
-GNU CC is distributed in the hope that it will be useful, but WITHOUT
-ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
+GCC is distributed in the hope that it will be useful, but WITHOUT ANY
+WARRANTY; without even the implied warranty of MERCHANTABILITY or
 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
 for more details.
 
 You should have received a copy of the GNU General Public License
 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
 for more details.
 
 You should have received a copy of the GNU General Public License
-along with GNU CC; see the file COPYING.  If not, write to the Free
-the Free Software Foundation, 59 Temple Place - Suite 330, Boston, MA
+along with GCC; see the file COPYING.  If not, write to the Free
+Software Foundation, 59 Temple Place - Suite 330, Boston, MA
 02111-1307, USA.  */
 \f
 #include "config.h"
 #include "system.h"
 02111-1307, USA.  */
 \f
 #include "config.h"
 #include "system.h"
+#include "coretypes.h"
+#include "tm.h"
 #include "toplev.h"
 #include "rtl.h"
 #include "tm_p.h"
 #include "toplev.h"
 #include "rtl.h"
 #include "tm_p.h"
@@ -38,16 +40,32 @@ the Free Software Foundation, 59 Temple Place - Suite 330, Boston, MA
 #include "toplev.h"
 #include "recog.h"
 #include "sched-int.h"
 #include "toplev.h"
 #include "recog.h"
 #include "sched-int.h"
+#include "params.h"
+#include "cselib.h"
+#include "df.h"
 
 extern char *reg_known_equiv_p;
 extern rtx *reg_known_value;
 
 static regset_head reg_pending_sets_head;
 static regset_head reg_pending_clobbers_head;
 
 extern char *reg_known_equiv_p;
 extern rtx *reg_known_value;
 
 static regset_head reg_pending_sets_head;
 static regset_head reg_pending_clobbers_head;
+static regset_head reg_pending_uses_head;
 
 static regset reg_pending_sets;
 static regset reg_pending_clobbers;
 
 static regset reg_pending_sets;
 static regset reg_pending_clobbers;
-static int reg_pending_sets_all;
+static regset reg_pending_uses;
+
+/* The following enumeration values tell us what dependencies we
+   should use to implement the barrier.  We use true-dependencies for
+   TRUE_BARRIER and anti-dependencies for MOVE_BARRIER.  */
+enum reg_pending_barrier_mode
+{
+  NOT_A_BARRIER = 0,
+  MOVE_BARRIER,
+  TRUE_BARRIER
+};
+
+static enum reg_pending_barrier_mode reg_pending_barrier;
 
 /* To speed up the test for duplicate dependency links we keep a
    record of dependencies created by add_dependence when the average
 
 /* To speed up the test for duplicate dependency links we keep a
    record of dependencies created by add_dependence when the average
@@ -61,7 +79,7 @@ static int reg_pending_sets_all;
    Each insn has associated bitmaps for its dependencies.  Each bitmap
    has enough entries to represent a dependency on any other insn in
    the insn chain.  All bitmap for true dependencies cache is
    Each insn has associated bitmaps for its dependencies.  Each bitmap
    has enough entries to represent a dependency on any other insn in
    the insn chain.  All bitmap for true dependencies cache is
-   allocated then the rest two ones are also allocated. */
+   allocated then the rest two ones are also allocated.  */
 static sbitmap *true_dependency_cache;
 static sbitmap *anti_dependency_cache;
 static sbitmap *output_dependency_cache;
 static sbitmap *true_dependency_cache;
 static sbitmap *anti_dependency_cache;
 static sbitmap *output_dependency_cache;
@@ -69,24 +87,43 @@ static sbitmap *output_dependency_cache;
 /* To speed up checking consistency of formed forward insn
    dependencies we use the following cache.  Another possible solution
    could be switching off checking duplication of insns in forward
 /* To speed up checking consistency of formed forward insn
    dependencies we use the following cache.  Another possible solution
    could be switching off checking duplication of insns in forward
-   dependencies. */
+   dependencies.  */
 #ifdef ENABLE_CHECKING
 static sbitmap *forward_dependency_cache;
 #endif
 
 #ifdef ENABLE_CHECKING
 static sbitmap *forward_dependency_cache;
 #endif
 
-static void remove_dependence PARAMS ((rtx, rtx));
+static int deps_may_trap_p PARAMS ((rtx));
+static void add_dependence_list PARAMS ((rtx, rtx, enum reg_note));
+static void add_dependence_list_and_free PARAMS ((rtx, rtx *, enum reg_note));
 static void set_sched_group_p PARAMS ((rtx));
 
 static void set_sched_group_p PARAMS ((rtx));
 
-static void flush_pending_lists PARAMS ((struct deps *, rtx, int));
+static void flush_pending_lists PARAMS ((struct deps *, rtx, int, int));
 static void sched_analyze_1 PARAMS ((struct deps *, rtx, rtx));
 static void sched_analyze_2 PARAMS ((struct deps *, rtx, rtx));
 static void sched_analyze_insn PARAMS ((struct deps *, rtx, rtx, rtx));
 static void sched_analyze_1 PARAMS ((struct deps *, rtx, rtx));
 static void sched_analyze_2 PARAMS ((struct deps *, rtx, rtx));
 static void sched_analyze_insn PARAMS ((struct deps *, rtx, rtx, rtx));
-static rtx group_leader PARAMS ((rtx));
+
+static rtx get_condition PARAMS ((rtx));
+static int conditions_mutex_p PARAMS ((rtx, rtx));
+\f
+/* Return nonzero if a load of the memory reference MEM can cause a trap.  */
+
+static int
+deps_may_trap_p (mem)
+     rtx mem;
+{
+  rtx addr = XEXP (mem, 0);
+
+  if (REG_P (addr)
+      && REGNO (addr) >= FIRST_PSEUDO_REGISTER
+      && reg_known_value[REGNO (addr)])
+    addr = reg_known_value[REGNO (addr)];
+  return rtx_addr_can_trap_p (addr);
+}
 \f
 /* Return the INSN_LIST containing INSN in LIST, or NULL
    if LIST does not contain INSN.  */
 
 \f
 /* Return the INSN_LIST containing INSN in LIST, or NULL
    if LIST does not contain INSN.  */
 
-HAIFA_INLINE rtx
+rtx
 find_insn_list (insn, list)
      rtx insn;
      rtx list;
 find_insn_list (insn, list)
      rtx insn;
      rtx list;
@@ -99,80 +136,97 @@ find_insn_list (insn, list)
     }
   return 0;
 }
     }
   return 0;
 }
+\f
+/* Find the condition under which INSN is executed.  */
 
 
-/* Return 1 if the pair (insn, x) is found in (LIST, LIST1), or 0
-   otherwise.  */
+static rtx
+get_condition (insn)
+     rtx insn;
+{
+  rtx pat = PATTERN (insn);
+  rtx cond;
+
+  if (pat == 0)
+    return 0;
+  if (GET_CODE (pat) == COND_EXEC)
+    return COND_EXEC_TEST (pat);
+  if (GET_CODE (insn) != JUMP_INSN)
+    return 0;
+  if (GET_CODE (pat) != SET || SET_SRC (pat) != pc_rtx)
+    return 0;
+  if (GET_CODE (SET_DEST (pat)) != IF_THEN_ELSE)
+    return 0;
+  pat = SET_DEST (pat);
+  cond = XEXP (pat, 0);
+  if (GET_CODE (XEXP (cond, 1)) == LABEL_REF
+      && XEXP (cond, 2) == pc_rtx)
+    return cond;
+  else if (GET_CODE (XEXP (cond, 2)) == LABEL_REF
+          && XEXP (cond, 1) == pc_rtx)
+    return gen_rtx_fmt_ee (reverse_condition (GET_CODE (cond)), GET_MODE (cond),
+                          XEXP (cond, 0), XEXP (cond, 1));
+  else
+    return 0;
+}
+
+/* Return nonzero if conditions COND1 and COND2 can never be both true.  */
 
 
-HAIFA_INLINE int
-find_insn_mem_list (insn, x, list, list1)
-     rtx insn, x;
-     rtx list, list1;
+static int
+conditions_mutex_p (cond1, cond2)
+     rtx cond1, cond2;
 {
 {
-  while (list)
-    {
-      if (XEXP (list, 0) == insn
-         && XEXP (list1, 0) == x)
-       return 1;
-      list = XEXP (list, 1);
-      list1 = XEXP (list1, 1);
-    }
+  if (GET_RTX_CLASS (GET_CODE (cond1)) == '<'
+      && GET_RTX_CLASS (GET_CODE (cond2)) == '<'
+      && GET_CODE (cond1) == reverse_condition (GET_CODE (cond2))
+      && XEXP (cond1, 0) == XEXP (cond2, 0)
+      && XEXP (cond1, 1) == XEXP (cond2, 1))
+    return 1;
   return 0;
 }
 \f
 /* Add ELEM wrapped in an INSN_LIST with reg note kind DEP_TYPE to the
   return 0;
 }
 \f
 /* Add ELEM wrapped in an INSN_LIST with reg note kind DEP_TYPE to the
-   LOG_LINKS of INSN, if not already there.  DEP_TYPE indicates the type
-   of dependence that this link represents.  */
+   LOG_LINKS of INSN, if not already there.  DEP_TYPE indicates the
+   type of dependence that this link represents.  The function returns
+   nonzero if a new entry has been added to insn's LOG_LINK.  */
 
 
-void
+int
 add_dependence (insn, elem, dep_type)
      rtx insn;
      rtx elem;
      enum reg_note dep_type;
 {
 add_dependence (insn, elem, dep_type)
      rtx insn;
      rtx elem;
      enum reg_note dep_type;
 {
-  rtx link, next;
+  rtx link;
   int present_p;
   int present_p;
-  enum reg_note present_dep_type;
+  rtx cond1, cond2;
 
   /* Don't depend an insn on itself.  */
   if (insn == elem)
 
   /* Don't depend an insn on itself.  */
   if (insn == elem)
-    return;
+    return 0;
 
   /* We can get a dependency on deleted insns due to optimizations in
      the register allocation and reloading or due to splitting.  Any
      such dependency is useless and can be ignored.  */
   if (GET_CODE (elem) == NOTE)
 
   /* We can get a dependency on deleted insns due to optimizations in
      the register allocation and reloading or due to splitting.  Any
      such dependency is useless and can be ignored.  */
   if (GET_CODE (elem) == NOTE)
-    return;
-
-  /* If elem is part of a sequence that must be scheduled together, then
-     make the dependence point to the last insn of the sequence.
-     When HAVE_cc0, it is possible for NOTEs to exist between users and
-     setters of the condition codes, so we must skip past notes here.
-     Otherwise, NOTEs are impossible here.  */
-  next = next_nonnote_insn (elem);
-  if (next && SCHED_GROUP_P (next)
-      && GET_CODE (next) != CODE_LABEL)
+    return 0;
+
+  /* flow.c doesn't handle conditional lifetimes entirely correctly;
+     calls mess up the conditional lifetimes.  */
+  /* ??? add_dependence is the wrong place to be eliding dependencies,
+     as that forgets that the condition expressions themselves may
+     be dependent.  */
+  if (GET_CODE (insn) != CALL_INSN && GET_CODE (elem) != CALL_INSN)
     {
     {
-      /* Notes will never intervene here though, so don't bother checking
-         for them.  */
-      /* Hah!  Wrong.  */
-      /* We must reject CODE_LABELs, so that we don't get confused by one
-         that has LABEL_PRESERVE_P set, which is represented by the same
-         bit in the rtl as SCHED_GROUP_P.  A CODE_LABEL can never be
-         SCHED_GROUP_P.  */
-
-      rtx nnext;
-      while ((nnext = next_nonnote_insn (next)) != NULL
-            && SCHED_GROUP_P (nnext)
-            && GET_CODE (nnext) != CODE_LABEL)
-       next = nnext;
-
-      /* Again, don't depend an insn on itself.  */
-      if (insn == next)
-       return;
-
-      /* Make the dependence to NEXT, the last insn of the group, instead
-         of the original ELEM.  */
-      elem = next;
+      cond1 = get_condition (insn);
+      cond2 = get_condition (elem);
+      if (cond1 && cond2
+         && conditions_mutex_p (cond1, cond2)
+         /* Make sure first instruction doesn't affect condition of second
+            instruction if switched.  */
+         && !modified_in_p (cond1, elem)
+         /* Make sure second instruction doesn't affect condition of first
+            instruction if switched.  */
+         && !modified_in_p (cond2, insn))
+       return 0;
     }
 
   present_p = 1;
     }
 
   present_p = 1;
@@ -186,7 +240,7 @@ add_dependence (insn, elem, dep_type)
      elem is a CALL is still required.  */
   if (GET_CODE (insn) == CALL_INSN
       && (INSN_BB (elem) != INSN_BB (insn)))
      elem is a CALL is still required.  */
   if (GET_CODE (insn) == CALL_INSN
       && (INSN_BB (elem) != INSN_BB (insn)))
-    return;
+    return 0;
 #endif
 
   /* If we already have a dependency for ELEM, then we do not need to
 #endif
 
   /* If we already have a dependency for ELEM, then we do not need to
@@ -194,20 +248,23 @@ add_dependence (insn, elem, dep_type)
      dramatically for some code.  */
   if (true_dependency_cache != NULL)
     {
      dramatically for some code.  */
   if (true_dependency_cache != NULL)
     {
+      enum reg_note present_dep_type = 0;
+
       if (anti_dependency_cache == NULL || output_dependency_cache == NULL)
        abort ();
       if (TEST_BIT (true_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem)))
       if (anti_dependency_cache == NULL || output_dependency_cache == NULL)
        abort ();
       if (TEST_BIT (true_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem)))
-       present_dep_type = 0;
+       /* Do nothing (present_set_type is already 0).  */
+       ;
       else if (TEST_BIT (anti_dependency_cache[INSN_LUID (insn)],
                         INSN_LUID (elem)))
        present_dep_type = REG_DEP_ANTI;
       else if (TEST_BIT (output_dependency_cache[INSN_LUID (insn)],
                         INSN_LUID (elem)))
        present_dep_type = REG_DEP_OUTPUT;
       else if (TEST_BIT (anti_dependency_cache[INSN_LUID (insn)],
                         INSN_LUID (elem)))
        present_dep_type = REG_DEP_ANTI;
       else if (TEST_BIT (output_dependency_cache[INSN_LUID (insn)],
                         INSN_LUID (elem)))
        present_dep_type = REG_DEP_OUTPUT;
-      else 
+      else
        present_p = 0;
       if (present_p && (int) dep_type >= (int) present_dep_type)
        present_p = 0;
       if (present_p && (int) dep_type >= (int) present_dep_type)
-       return;
+       return 0;
     }
 #endif
 
     }
 #endif
 
@@ -218,7 +275,7 @@ add_dependence (insn, elem, dep_type)
        {
 #ifdef INSN_SCHEDULING
          /* Clear corresponding cache entry because type of the link
        {
 #ifdef INSN_SCHEDULING
          /* Clear corresponding cache entry because type of the link
-             may be changed. */
+             may be changed.  */
          if (true_dependency_cache != NULL)
            {
              if (REG_NOTE_KIND (link) == REG_DEP_ANTI)
          if (true_dependency_cache != NULL)
            {
              if (REG_NOTE_KIND (link) == REG_DEP_ANTI)
@@ -232,18 +289,18 @@ add_dependence (insn, elem, dep_type)
                abort ();
            }
 #endif
                abort ();
            }
 #endif
-
+         
          /* If this is a more restrictive type of dependence than the existing
             one, then change the existing dependence to this type.  */
          if ((int) dep_type < (int) REG_NOTE_KIND (link))
            PUT_REG_NOTE_KIND (link, dep_type);
          /* If this is a more restrictive type of dependence than the existing
             one, then change the existing dependence to this type.  */
          if ((int) dep_type < (int) REG_NOTE_KIND (link))
            PUT_REG_NOTE_KIND (link, dep_type);
-         
+
 #ifdef INSN_SCHEDULING
          /* If we are adding a dependency to INSN's LOG_LINKs, then
 #ifdef INSN_SCHEDULING
          /* If we are adding a dependency to INSN's LOG_LINKs, then
-            note that in the bitmap caches of dependency information. */
+            note that in the bitmap caches of dependency information.  */
          if (true_dependency_cache != NULL)
            {
          if (true_dependency_cache != NULL)
            {
-             if ((int)REG_NOTE_KIND (link) == 0)
+             if ((int) REG_NOTE_KIND (link) == 0)
                SET_BIT (true_dependency_cache[INSN_LUID (insn)],
                         INSN_LUID (elem));
              else if (REG_NOTE_KIND (link) == REG_DEP_ANTI)
                SET_BIT (true_dependency_cache[INSN_LUID (insn)],
                         INSN_LUID (elem));
              else if (REG_NOTE_KIND (link) == REG_DEP_ANTI)
@@ -254,8 +311,8 @@ add_dependence (insn, elem, dep_type)
                         INSN_LUID (elem));
            }
 #endif
                         INSN_LUID (elem));
            }
 #endif
-         return;
-      }
+         return 0;
+       }
   /* Might want to check one level of transitivity to save conses.  */
 
   link = alloc_INSN_LIST (elem, LOG_LINKS (insn));
   /* Might want to check one level of transitivity to save conses.  */
 
   link = alloc_INSN_LIST (elem, LOG_LINKS (insn));
@@ -266,10 +323,10 @@ add_dependence (insn, elem, dep_type)
 
 #ifdef INSN_SCHEDULING
   /* If we are adding a dependency to INSN's LOG_LINKs, then note that
 
 #ifdef INSN_SCHEDULING
   /* If we are adding a dependency to INSN's LOG_LINKs, then note that
-     in the bitmap caches of dependency information. */
+     in the bitmap caches of dependency information.  */
   if (true_dependency_cache != NULL)
     {
   if (true_dependency_cache != NULL)
     {
-      if ((int)dep_type == 0)
+      if ((int) dep_type == 0)
        SET_BIT (true_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem));
       else if (dep_type == REG_DEP_ANTI)
        SET_BIT (anti_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem));
        SET_BIT (true_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem));
       else if (dep_type == REG_DEP_ANTI)
        SET_BIT (anti_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem));
@@ -277,76 +334,35 @@ add_dependence (insn, elem, dep_type)
        SET_BIT (output_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem));
     }
 #endif
        SET_BIT (output_dependency_cache[INSN_LUID (insn)], INSN_LUID (elem));
     }
 #endif
+  return 1;
 }
 
 }
 
-/* Remove ELEM wrapped in an INSN_LIST from the LOG_LINKS
-   of INSN.  Abort if not found.  */
+/* A convenience wrapper to operate on an entire list.  */
 
 static void
 
 static void
-remove_dependence (insn, elem)
-     rtx insn;
-     rtx elem;
+add_dependence_list (insn, list, dep_type)
+     rtx insn, list;
+     enum reg_note dep_type;
 {
 {
-  rtx prev, link, next;
-  int found = 0;
-
-  for (prev = 0, link = LOG_LINKS (insn); link; link = next)
-    {
-      next = XEXP (link, 1);
-      if (XEXP (link, 0) == elem)
-       {
-         if (prev)
-           XEXP (prev, 1) = next;
-         else
-           LOG_LINKS (insn) = next;
-
-#ifdef INSN_SCHEDULING
-         /* If we are removing a dependency from the LOG_LINKS list,
-            make sure to remove it from the cache too.  */
-         if (true_dependency_cache != NULL)
-           {
-             if (REG_NOTE_KIND (link) == 0)
-               RESET_BIT (true_dependency_cache[INSN_LUID (insn)],
-                          INSN_LUID (elem));
-             else if (REG_NOTE_KIND (link) == REG_DEP_ANTI)
-               RESET_BIT (anti_dependency_cache[INSN_LUID (insn)],
-                          INSN_LUID (elem));
-             else if (REG_NOTE_KIND (link) == REG_DEP_OUTPUT)
-               RESET_BIT (output_dependency_cache[INSN_LUID (insn)],
-                          INSN_LUID (elem));
-           }
-#endif
-
-         free_INSN_LIST_node (link);
-
-         found = 1;
-       }
-      else
-       prev = link;
-    }
-
-  if (!found)
-    abort ();
-  return;
+  for (; list; list = XEXP (list, 1))
+    add_dependence (insn, XEXP (list, 0), dep_type);
 }
 
 }
 
-/* Return an insn which represents a SCHED_GROUP, which is
-   the last insn in the group.  */
+/* Similar, but free *LISTP at the same time.  */
 
 
-static rtx
-group_leader (insn)
+static void
+add_dependence_list_and_free (insn, listp, dep_type)
      rtx insn;
      rtx insn;
+     rtx *listp;
+     enum reg_note dep_type;
 {
 {
-  rtx prev;
-
-  do
+  rtx list, next;
+  for (list = *listp, *listp = NULL; list ; list = next)
     {
     {
-      prev = insn;
-      insn = next_nonnote_insn (insn);
+      next = XEXP (list, 1);
+      add_dependence (insn, XEXP (list, 0), dep_type);
+      free_INSN_LIST_node (list);
     }
     }
-  while (insn && SCHED_GROUP_P (insn) && (GET_CODE (insn) != CODE_LABEL));
-
-  return prev;
 }
 
 /* Set SCHED_GROUP_P and care for the rest of the bookkeeping that
 }
 
 /* Set SCHED_GROUP_P and care for the rest of the bookkeeping that
@@ -356,25 +372,12 @@ static void
 set_sched_group_p (insn)
      rtx insn;
 {
 set_sched_group_p (insn)
      rtx insn;
 {
-  rtx link, prev;
+  rtx prev;
 
   SCHED_GROUP_P (insn) = 1;
 
 
   SCHED_GROUP_P (insn) = 1;
 
-  /* There may be a note before this insn now, but all notes will
-     be removed before we actually try to schedule the insns, so
-     it won't cause a problem later.  We must avoid it here though.  */
   prev = prev_nonnote_insn (insn);
   prev = prev_nonnote_insn (insn);
-
-  /* Make a copy of all dependencies on the immediately previous insn,
-     and add to this insn.  This is so that all the dependencies will
-     apply to the group.  Remove an explicit dependence on this insn
-     as SCHED_GROUP_P now represents it.  */
-
-  if (find_insn_list (prev, LOG_LINKS (insn)))
-    remove_dependence (insn, prev);
-
-  for (link = LOG_LINKS (prev); link; link = XEXP (link, 1))
-    add_dependence (insn, XEXP (link, 0), REG_NOTE_KIND (link));
+  add_dependence (insn, prev, REG_DEP_ANTI);
 }
 \f
 /* Process an insn's memory dependencies.  There are four kinds of
 }
 \f
 /* Process an insn's memory dependencies.  There are four kinds of
@@ -397,11 +400,16 @@ add_insn_mem_dependence (deps, insn_list, mem_list, insn, mem)
      struct deps *deps;
      rtx *insn_list, *mem_list, insn, mem;
 {
      struct deps *deps;
      rtx *insn_list, *mem_list, insn, mem;
 {
-  register rtx link;
+  rtx link;
 
   link = alloc_INSN_LIST (insn, *insn_list);
   *insn_list = link;
 
 
   link = alloc_INSN_LIST (insn, *insn_list);
   *insn_list = link;
 
+  if (current_sched_info->use_cselib)
+    {
+      mem = shallow_copy_rtx (mem);
+      XEXP (mem, 0) = cselib_subst_to_values (XEXP (mem, 0));
+    }
   link = alloc_EXPR_LIST (VOIDmode, mem, *mem_list);
   *mem_list = link;
 
   link = alloc_EXPR_LIST (VOIDmode, mem, *mem_list);
   *mem_list = link;
 
@@ -409,52 +417,31 @@ add_insn_mem_dependence (deps, insn_list, mem_list, insn, mem)
 }
 
 /* Make a dependency between every memory reference on the pending lists
 }
 
 /* Make a dependency between every memory reference on the pending lists
-   and INSN, thus flushing the pending lists.  If ONLY_WRITE, don't flush
-   the read list.  */
+   and INSN, thus flushing the pending lists.  FOR_READ is true if emitting
+   dependencies for a read operation, similarly with FOR_WRITE.  */
 
 static void
 
 static void
-flush_pending_lists (deps, insn, only_write)
+flush_pending_lists (deps, insn, for_read, for_write)
      struct deps *deps;
      rtx insn;
      struct deps *deps;
      rtx insn;
-     int only_write;
+     int for_read, for_write;
 {
 {
-  rtx u;
-  rtx link;
-
-  while (deps->pending_read_insns && ! only_write)
+  if (for_write)
     {
     {
-      add_dependence (insn, XEXP (deps->pending_read_insns, 0),
-                     REG_DEP_ANTI);
-
-      link = deps->pending_read_insns;
-      deps->pending_read_insns = XEXP (deps->pending_read_insns, 1);
-      free_INSN_LIST_node (link);
-
-      link = deps->pending_read_mems;
-      deps->pending_read_mems = XEXP (deps->pending_read_mems, 1);
-      free_EXPR_LIST_node (link);
+      add_dependence_list_and_free (insn, &deps->pending_read_insns,
+                                   REG_DEP_ANTI);
+      free_EXPR_LIST_list (&deps->pending_read_mems);
     }
     }
-  while (deps->pending_write_insns)
-    {
-      add_dependence (insn, XEXP (deps->pending_write_insns, 0),
-                     REG_DEP_ANTI);
 
 
-      link = deps->pending_write_insns;
-      deps->pending_write_insns = XEXP (deps->pending_write_insns, 1);
-      free_INSN_LIST_node (link);
-
-      link = deps->pending_write_mems;
-      deps->pending_write_mems = XEXP (deps->pending_write_mems, 1);
-      free_EXPR_LIST_node (link);
-    }
+  add_dependence_list_and_free (insn, &deps->pending_write_insns,
+                               for_read ? REG_DEP_ANTI : REG_DEP_OUTPUT);
+  free_EXPR_LIST_list (&deps->pending_write_mems);
   deps->pending_lists_length = 0;
 
   deps->pending_lists_length = 0;
 
-  /* last_pending_memory_flush is now a list of insns.  */
-  for (u = deps->last_pending_memory_flush; u; u = XEXP (u, 1))
-    add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-
-  free_INSN_LIST_list (&deps->last_pending_memory_flush);
+  add_dependence_list_and_free (insn, &deps->last_pending_memory_flush,
+                               for_read ? REG_DEP_ANTI : REG_DEP_OUTPUT);
   deps->last_pending_memory_flush = alloc_INSN_LIST (insn, NULL_RTX);
   deps->last_pending_memory_flush = alloc_INSN_LIST (insn, NULL_RTX);
+  deps->pending_flush_length = 1;
 }
 \f
 /* Analyze a single SET, CLOBBER, PRE_DEC, POST_DEC, PRE_INC or POST_INC
 }
 \f
 /* Analyze a single SET, CLOBBER, PRE_DEC, POST_DEC, PRE_INC or POST_INC
@@ -467,19 +454,24 @@ sched_analyze_1 (deps, x, insn)
      rtx x;
      rtx insn;
 {
      rtx x;
      rtx insn;
 {
-  register int regno;
-  register rtx dest = XEXP (x, 0);
+  int regno;
+  rtx dest = XEXP (x, 0);
   enum rtx_code code = GET_CODE (x);
 
   if (dest == 0)
     return;
 
   enum rtx_code code = GET_CODE (x);
 
   if (dest == 0)
     return;
 
-  if (GET_CODE (dest) == PARALLEL
-      && GET_MODE (dest) == BLKmode)
+  if (GET_CODE (dest) == PARALLEL)
     {
     {
-      register int i;
+      int i;
+
       for (i = XVECLEN (dest, 0) - 1; i >= 0; i--)
       for (i = XVECLEN (dest, 0) - 1; i >= 0; i--)
-       sched_analyze_1 (deps, XVECEXP (dest, 0, i), insn);
+       if (XEXP (XVECEXP (dest, 0, i), 0) != 0)
+         sched_analyze_1 (deps,
+                          gen_rtx_CLOBBER (VOIDmode,
+                                           XEXP (XVECEXP (dest, 0, i), 0)),
+                          insn);
+
       if (GET_CODE (x) == SET)
        sched_analyze_2 (deps, SET_SRC (x), insn);
       return;
       if (GET_CODE (x) == SET)
        sched_analyze_2 (deps, SET_SRC (x), insn);
       return;
@@ -488,6 +480,19 @@ sched_analyze_1 (deps, x, insn)
   while (GET_CODE (dest) == STRICT_LOW_PART || GET_CODE (dest) == SUBREG
         || GET_CODE (dest) == ZERO_EXTRACT || GET_CODE (dest) == SIGN_EXTRACT)
     {
   while (GET_CODE (dest) == STRICT_LOW_PART || GET_CODE (dest) == SUBREG
         || GET_CODE (dest) == ZERO_EXTRACT || GET_CODE (dest) == SIGN_EXTRACT)
     {
+      if (GET_CODE (dest) == STRICT_LOW_PART
+        || GET_CODE (dest) == ZERO_EXTRACT
+        || GET_CODE (dest) == SIGN_EXTRACT
+        || read_modify_subreg_p (dest))
+        {
+         /* These both read and modify the result.  We must handle 
+             them as writes to get proper dependencies for following
+             instructions.  We must handle them as reads to get proper
+             dependencies from this to previous instructions.
+             Thus we need to call sched_analyze_2. */
+
+         sched_analyze_2 (deps, XEXP (dest, 0), insn);  
+       }
       if (GET_CODE (dest) == ZERO_EXTRACT || GET_CODE (dest) == SIGN_EXTRACT)
        {
          /* The second and third arguments are values read by this insn.  */
       if (GET_CODE (dest) == ZERO_EXTRACT || GET_CODE (dest) == SIGN_EXTRACT)
        {
          /* The second and third arguments are values read by this insn.  */
@@ -499,62 +504,37 @@ sched_analyze_1 (deps, x, insn)
 
   if (GET_CODE (dest) == REG)
     {
 
   if (GET_CODE (dest) == REG)
     {
-      register int i;
-
       regno = REGNO (dest);
 
       /* A hard reg in a wide mode may really be multiple registers.
          If so, mark all of them just like the first.  */
       if (regno < FIRST_PSEUDO_REGISTER)
        {
       regno = REGNO (dest);
 
       /* A hard reg in a wide mode may really be multiple registers.
          If so, mark all of them just like the first.  */
       if (regno < FIRST_PSEUDO_REGISTER)
        {
-         i = HARD_REGNO_NREGS (regno, GET_MODE (dest));
-         while (--i >= 0)
+         int i = HARD_REGNO_NREGS (regno, GET_MODE (dest));
+         if (code == SET)
            {
            {
-             int r = regno + i;
-             rtx u;
-
-             for (u = deps->reg_last_uses[r]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-
-             for (u = deps->reg_last_sets[r]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_OUTPUT);
-
-             /* Clobbers need not be ordered with respect to one
-                another, but sets must be ordered with respect to a
-                pending clobber.  */
-             if (code == SET)
-               {
-                 free_INSN_LIST_list (&deps->reg_last_uses[r]);
-                 for (u = deps->reg_last_clobbers[r]; u; u = XEXP (u, 1))
-                   add_dependence (insn, XEXP (u, 0), REG_DEP_OUTPUT);
-                 SET_REGNO_REG_SET (reg_pending_sets, r);
-               }
-             else
-               SET_REGNO_REG_SET (reg_pending_clobbers, r);
-
-             /* Function calls clobber all call_used regs.  */
-             if (global_regs[r] || (code == SET && call_used_regs[r]))
-               for (u = deps->last_function_call; u; u = XEXP (u, 1))
-                 add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
+             while (--i >= 0)
+               SET_REGNO_REG_SET (reg_pending_sets, regno + i);
+           }
+         else
+           {
+             while (--i >= 0)
+               SET_REGNO_REG_SET (reg_pending_clobbers, regno + i);
            }
        }
            }
        }
+      /* ??? Reload sometimes emits USEs and CLOBBERs of pseudos that
+        it does not reload.  Ignore these as they have served their
+        purpose already.  */
+      else if (regno >= deps->max_reg)
+       {
+         if (GET_CODE (PATTERN (insn)) != USE
+             && GET_CODE (PATTERN (insn)) != CLOBBER)
+           abort ();
+       }
       else
        {
       else
        {
-         rtx u;
-
-         for (u = deps->reg_last_uses[regno]; u; u = XEXP (u, 1))
-           add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-
-         for (u = deps->reg_last_sets[regno]; u; u = XEXP (u, 1))
-           add_dependence (insn, XEXP (u, 0), REG_DEP_OUTPUT);
-
          if (code == SET)
          if (code == SET)
-           {
-             free_INSN_LIST_list (&deps->reg_last_uses[regno]);
-             for (u = deps->reg_last_clobbers[regno]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_OUTPUT);
-             SET_REGNO_REG_SET (reg_pending_sets, regno);
-           }
+           SET_REGNO_REG_SET (reg_pending_sets, regno);
          else
            SET_REGNO_REG_SET (reg_pending_clobbers, regno);
 
          else
            SET_REGNO_REG_SET (reg_pending_clobbers, regno);
 
@@ -568,36 +548,40 @@ sched_analyze_1 (deps, x, insn)
 
          /* Don't let it cross a call after scheduling if it doesn't
             already cross one.  */
 
          /* Don't let it cross a call after scheduling if it doesn't
             already cross one.  */
-
          if (REG_N_CALLS_CROSSED (regno) == 0)
          if (REG_N_CALLS_CROSSED (regno) == 0)
-           for (u = deps->last_function_call; u; u = XEXP (u, 1))
-             add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
+           add_dependence_list (insn, deps->last_function_call, REG_DEP_ANTI);
        }
     }
   else if (GET_CODE (dest) == MEM)
     {
       /* Writing memory.  */
        }
     }
   else if (GET_CODE (dest) == MEM)
     {
       /* Writing memory.  */
+      rtx t = dest;
+
+      if (current_sched_info->use_cselib)
+       {
+         t = shallow_copy_rtx (dest);
+         cselib_lookup (XEXP (t, 0), Pmode, 1);
+         XEXP (t, 0) = cselib_subst_to_values (XEXP (t, 0));
+       }
 
 
-      if (deps->pending_lists_length > 32)
+      if (deps->pending_lists_length > MAX_PENDING_LIST_LENGTH)
        {
          /* Flush all pending reads and writes to prevent the pending lists
             from getting any larger.  Insn scheduling runs too slowly when
        {
          /* Flush all pending reads and writes to prevent the pending lists
             from getting any larger.  Insn scheduling runs too slowly when
-            these lists get long.  The number 32 was chosen because it
-            seems like a reasonable number.  When compiling GCC with itself,
+            these lists get long.  When compiling GCC with itself,
             this flush occurs 8 times for sparc, and 10 times for m88k using
             this flush occurs 8 times for sparc, and 10 times for m88k using
-            the number 32.  */
-         flush_pending_lists (deps, insn, 0);
+            the default value of 32.  */
+         flush_pending_lists (deps, insn, false, true);
        }
       else
        {
        }
       else
        {
-         rtx u;
          rtx pending, pending_mem;
 
          pending = deps->pending_read_insns;
          pending_mem = deps->pending_read_mems;
          while (pending)
            {
          rtx pending, pending_mem;
 
          pending = deps->pending_read_insns;
          pending_mem = deps->pending_read_mems;
          while (pending)
            {
-             if (anti_dependence (XEXP (pending_mem, 0), dest))
+             if (anti_dependence (XEXP (pending_mem, 0), t))
                add_dependence (insn, XEXP (pending, 0), REG_DEP_ANTI);
 
              pending = XEXP (pending, 1);
                add_dependence (insn, XEXP (pending, 0), REG_DEP_ANTI);
 
              pending = XEXP (pending, 1);
@@ -608,15 +592,15 @@ sched_analyze_1 (deps, x, insn)
          pending_mem = deps->pending_write_mems;
          while (pending)
            {
          pending_mem = deps->pending_write_mems;
          while (pending)
            {
-             if (output_dependence (XEXP (pending_mem, 0), dest))
+             if (output_dependence (XEXP (pending_mem, 0), t))
                add_dependence (insn, XEXP (pending, 0), REG_DEP_OUTPUT);
 
              pending = XEXP (pending, 1);
              pending_mem = XEXP (pending_mem, 1);
            }
 
                add_dependence (insn, XEXP (pending, 0), REG_DEP_OUTPUT);
 
              pending = XEXP (pending, 1);
              pending_mem = XEXP (pending_mem, 1);
            }
 
-         for (u = deps->last_pending_memory_flush; u; u = XEXP (u, 1))
-           add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
+         add_dependence_list (insn, deps->last_pending_memory_flush,
+                              REG_DEP_ANTI);
 
          add_insn_mem_dependence (deps, &deps->pending_write_insns,
                                   &deps->pending_write_mems, insn, dest);
 
          add_insn_mem_dependence (deps, &deps->pending_write_insns,
                                   &deps->pending_write_mems, insn, dest);
@@ -637,10 +621,10 @@ sched_analyze_2 (deps, x, insn)
      rtx x;
      rtx insn;
 {
      rtx x;
      rtx insn;
 {
-  register int i;
-  register int j;
-  register enum rtx_code code;
-  register const char *fmt;
+  int i;
+  int j;
+  enum rtx_code code;
+  const char *fmt;
 
   if (x == 0)
     return;
 
   if (x == 0)
     return;
@@ -651,6 +635,7 @@ sched_analyze_2 (deps, x, insn)
     {
     case CONST_INT:
     case CONST_DOUBLE:
     {
     case CONST_INT:
     case CONST_DOUBLE:
+    case CONST_VECTOR:
     case SYMBOL_REF:
     case CONST:
     case LABEL_REF:
     case SYMBOL_REF:
     case CONST:
     case LABEL_REF:
@@ -668,43 +653,25 @@ sched_analyze_2 (deps, x, insn)
 
     case REG:
       {
 
     case REG:
       {
-       rtx u;
        int regno = REGNO (x);
        if (regno < FIRST_PSEUDO_REGISTER)
          {
        int regno = REGNO (x);
        if (regno < FIRST_PSEUDO_REGISTER)
          {
-           int i;
-
-           i = HARD_REGNO_NREGS (regno, GET_MODE (x));
+           int i = HARD_REGNO_NREGS (regno, GET_MODE (x));
            while (--i >= 0)
            while (--i >= 0)
-             {
-               int r = regno + i;
-               deps->reg_last_uses[r]
-                 = alloc_INSN_LIST (insn, deps->reg_last_uses[r]);
-
-               for (u = deps->reg_last_sets[r]; u; u = XEXP (u, 1))
-                 add_dependence (insn, XEXP (u, 0), 0);
-
-               /* ??? This should never happen.  */
-               for (u = deps->reg_last_clobbers[r]; u; u = XEXP (u, 1))
-                 add_dependence (insn, XEXP (u, 0), 0);
-
-               if (call_used_regs[r] || global_regs[r])
-                 /* Function calls clobber all call_used regs.  */
-                 for (u = deps->last_function_call; u; u = XEXP (u, 1))
-                   add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-             }
+             SET_REGNO_REG_SET (reg_pending_uses, regno + i);
+         }
+       /* ??? Reload sometimes emits USEs and CLOBBERs of pseudos that
+          it does not reload.  Ignore these as they have served their
+          purpose already.  */
+       else if (regno >= deps->max_reg)
+         {
+           if (GET_CODE (PATTERN (insn)) != USE
+               && GET_CODE (PATTERN (insn)) != CLOBBER)
+             abort ();
          }
        else
          {
          }
        else
          {
-           deps->reg_last_uses[regno]
-             = alloc_INSN_LIST (insn, deps->reg_last_uses[regno]);
-
-           for (u = deps->reg_last_sets[regno]; u; u = XEXP (u, 1))
-             add_dependence (insn, XEXP (u, 0), 0);
-
-           /* ??? This should never happen.  */
-           for (u = deps->reg_last_clobbers[regno]; u; u = XEXP (u, 1))
-             add_dependence (insn, XEXP (u, 0), 0);
+           SET_REGNO_REG_SET (reg_pending_uses, regno);
 
            /* Pseudos that are REG_EQUIV to something may be replaced
               by that during reloading.  We need only add dependencies for
 
            /* Pseudos that are REG_EQUIV to something may be replaced
               by that during reloading.  We need only add dependencies for
@@ -718,8 +685,8 @@ sched_analyze_2 (deps, x, insn)
               insn to the sched_before_next_call list so that it will still
               not cross calls after scheduling.  */
            if (REG_N_CALLS_CROSSED (regno) == 0)
               insn to the sched_before_next_call list so that it will still
               not cross calls after scheduling.  */
            if (REG_N_CALLS_CROSSED (regno) == 0)
-             add_dependence (deps->sched_before_next_call, insn,
-                             REG_DEP_ANTI);
+             deps->sched_before_next_call
+               = alloc_INSN_LIST (insn, deps->sched_before_next_call);
          }
        return;
       }
          }
        return;
       }
@@ -729,12 +696,19 @@ sched_analyze_2 (deps, x, insn)
        /* Reading memory.  */
        rtx u;
        rtx pending, pending_mem;
        /* Reading memory.  */
        rtx u;
        rtx pending, pending_mem;
+       rtx t = x;
 
 
+       if (current_sched_info->use_cselib)
+         {
+           t = shallow_copy_rtx (t);
+           cselib_lookup (XEXP (t, 0), Pmode, 1);
+           XEXP (t, 0) = cselib_subst_to_values (XEXP (t, 0));
+         }
        pending = deps->pending_read_insns;
        pending_mem = deps->pending_read_mems;
        while (pending)
          {
        pending = deps->pending_read_insns;
        pending_mem = deps->pending_read_mems;
        while (pending)
          {
-           if (read_dependence (XEXP (pending_mem, 0), x))
+           if (read_dependence (XEXP (pending_mem, 0), t))
              add_dependence (insn, XEXP (pending, 0), REG_DEP_ANTI);
 
            pending = XEXP (pending, 1);
              add_dependence (insn, XEXP (pending, 0), REG_DEP_ANTI);
 
            pending = XEXP (pending, 1);
@@ -746,7 +720,7 @@ sched_analyze_2 (deps, x, insn)
        while (pending)
          {
            if (true_dependence (XEXP (pending_mem, 0), VOIDmode,
        while (pending)
          {
            if (true_dependence (XEXP (pending_mem, 0), VOIDmode,
-                                x, rtx_varies_p))
+                                t, rtx_varies_p))
              add_dependence (insn, XEXP (pending, 0), 0);
 
            pending = XEXP (pending, 1);
              add_dependence (insn, XEXP (pending, 0), 0);
 
            pending = XEXP (pending, 1);
@@ -754,7 +728,9 @@ sched_analyze_2 (deps, x, insn)
          }
 
        for (u = deps->last_pending_memory_flush; u; u = XEXP (u, 1))
          }
 
        for (u = deps->last_pending_memory_flush; u; u = XEXP (u, 1))
-         add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
+         if (GET_CODE (XEXP (u, 0)) != JUMP_INSN
+             || deps_may_trap_p (x))
+           add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
 
        /* Always add these dependencies to pending_reads, since
           this insn may be followed by a write.  */
 
        /* Always add these dependencies to pending_reads, since
           this insn may be followed by a write.  */
@@ -768,15 +744,13 @@ sched_analyze_2 (deps, x, insn)
 
     /* Force pending stores to memory in case a trap handler needs them.  */
     case TRAP_IF:
 
     /* Force pending stores to memory in case a trap handler needs them.  */
     case TRAP_IF:
-      flush_pending_lists (deps, insn, 1);
+      flush_pending_lists (deps, insn, true, false);
       break;
 
     case ASM_OPERANDS:
     case ASM_INPUT:
     case UNSPEC_VOLATILE:
       {
       break;
 
     case ASM_OPERANDS:
     case ASM_INPUT:
     case UNSPEC_VOLATILE:
       {
-       rtx u;
-
        /* Traditional and volatile asm instructions must be considered to use
           and clobber all hard registers, all pseudo-registers and all of
           memory.  So must TRAP_IF and UNSPEC_VOLATILE operations.
        /* Traditional and volatile asm instructions must be considered to use
           and clobber all hard registers, all pseudo-registers and all of
           memory.  So must TRAP_IF and UNSPEC_VOLATILE operations.
@@ -785,24 +759,7 @@ sched_analyze_2 (deps, x, insn)
           mode.  An insn should not be moved across this even if it only uses
           pseudo-regs because it might give an incorrectly rounded result.  */
        if (code != ASM_OPERANDS || MEM_VOLATILE_P (x))
           mode.  An insn should not be moved across this even if it only uses
           pseudo-regs because it might give an incorrectly rounded result.  */
        if (code != ASM_OPERANDS || MEM_VOLATILE_P (x))
-         {
-           int max_reg = max_reg_num ();
-           for (i = 0; i < max_reg; i++)
-             {
-               for (u = deps->reg_last_uses[i]; u; u = XEXP (u, 1))
-                 add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-               free_INSN_LIST_list (&deps->reg_last_uses[i]);
-
-               for (u = deps->reg_last_sets[i]; u; u = XEXP (u, 1))
-                 add_dependence (insn, XEXP (u, 0), 0);
-
-               for (u = deps->reg_last_clobbers[i]; u; u = XEXP (u, 1))
-                 add_dependence (insn, XEXP (u, 0), 0);
-             }
-           reg_pending_sets_all = 1;
-
-           flush_pending_lists (deps, insn, 0);
-         }
+         reg_pending_barrier = TRUE_BARRIER;
 
        /* For all ASM_OPERANDS, we must traverse the vector of input operands.
           We can not just fall through here since then we would be confused
 
        /* For all ASM_OPERANDS, we must traverse the vector of input operands.
           We can not just fall through here since then we would be confused
@@ -864,9 +821,8 @@ sched_analyze_insn (deps, x, insn, loop_notes)
      rtx x, insn;
      rtx loop_notes;
 {
      rtx x, insn;
      rtx loop_notes;
 {
-  register RTX_CODE code = GET_CODE (x);
+  RTX_CODE code = GET_CODE (x);
   rtx link;
   rtx link;
-  int maxreg = max_reg_num ();
   int i;
 
   if (code == COND_EXEC)
   int i;
 
   if (code == COND_EXEC)
@@ -874,15 +830,23 @@ sched_analyze_insn (deps, x, insn, loop_notes)
       sched_analyze_2 (deps, COND_EXEC_TEST (x), insn);
 
       /* ??? Should be recording conditions so we reduce the number of
       sched_analyze_2 (deps, COND_EXEC_TEST (x), insn);
 
       /* ??? Should be recording conditions so we reduce the number of
-        false dependancies.  */
+        false dependencies.  */
       x = COND_EXEC_CODE (x);
       code = GET_CODE (x);
     }
   if (code == SET || code == CLOBBER)
       x = COND_EXEC_CODE (x);
       code = GET_CODE (x);
     }
   if (code == SET || code == CLOBBER)
-    sched_analyze_1 (deps, x, insn);
+    {
+      sched_analyze_1 (deps, x, insn);
+
+      /* Bare clobber insns are used for letting life analysis, reg-stack
+        and others know that a value is dead.  Depend on the last call
+        instruction so that reg-stack won't get confused.  */
+      if (code == CLOBBER)
+       add_dependence_list (insn, deps->last_function_call, REG_DEP_OUTPUT);
+    }
   else if (code == PARALLEL)
     {
   else if (code == PARALLEL)
     {
-      register int i;
+      int i;
       for (i = XVECLEN (x, 0) - 1; i >= 0; i--)
        {
          rtx sub = XVECEXP (x, 0, i);
       for (i = XVECLEN (x, 0) - 1; i >= 0; i--)
        {
          rtx sub = XVECEXP (x, 0, i);
@@ -905,142 +869,245 @@ sched_analyze_insn (deps, x, insn, loop_notes)
 
   /* Mark registers CLOBBERED or used by called function.  */
   if (GET_CODE (insn) == CALL_INSN)
 
   /* Mark registers CLOBBERED or used by called function.  */
   if (GET_CODE (insn) == CALL_INSN)
-    for (link = CALL_INSN_FUNCTION_USAGE (insn); link; link = XEXP (link, 1))
-      {
-       if (GET_CODE (XEXP (link, 0)) == CLOBBER)
-         sched_analyze_1 (deps, XEXP (link, 0), insn);
-       else
-         sched_analyze_2 (deps, XEXP (link, 0), insn);
-      }
+    {
+      for (link = CALL_INSN_FUNCTION_USAGE (insn); link; link = XEXP (link, 1))
+       {
+         if (GET_CODE (XEXP (link, 0)) == CLOBBER)
+           sched_analyze_1 (deps, XEXP (link, 0), insn);
+         else
+           sched_analyze_2 (deps, XEXP (link, 0), insn);
+       }
+      if (find_reg_note (insn, REG_SETJMP, NULL))
+       reg_pending_barrier = MOVE_BARRIER;
+    }
 
   if (GET_CODE (insn) == JUMP_INSN)
     {
 
   if (GET_CODE (insn) == JUMP_INSN)
     {
-      rtx next, u, pending, pending_mem;
+      rtx next;
       next = next_nonnote_insn (insn);
       if (next && GET_CODE (next) == BARRIER)
       next = next_nonnote_insn (insn);
       if (next && GET_CODE (next) == BARRIER)
-       {
-         for (i = 0; i < maxreg; i++)
-           {
-             for (u = deps->reg_last_sets[i]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-             for (u = deps->reg_last_clobbers[i]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-             for (u = deps->reg_last_uses[i]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-           }
-       }
+       reg_pending_barrier = TRUE_BARRIER;
       else
        {
       else
        {
+         rtx pending, pending_mem;
          regset_head tmp;
          INIT_REG_SET (&tmp);
 
          (*current_sched_info->compute_jump_reg_dependencies) (insn, &tmp);
          regset_head tmp;
          INIT_REG_SET (&tmp);
 
          (*current_sched_info->compute_jump_reg_dependencies) (insn, &tmp);
-         EXECUTE_IF_SET_IN_REG_SET 
-           (&tmp, 0, i,
+         /* Make latency of jump equal to 0 by using anti-dependence.  */
+         EXECUTE_IF_SET_IN_REG_SET (&tmp, 0, i,
            {
            {
-             for (u = deps->reg_last_sets[i]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-             deps->reg_last_uses[i]
-               = alloc_INSN_LIST (insn, deps->reg_last_uses[i]);
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list (insn, reg_last->sets, REG_DEP_ANTI);
+             add_dependence_list (insn, reg_last->clobbers, REG_DEP_ANTI);
+             reg_last->uses_length++;
+             reg_last->uses = alloc_INSN_LIST (insn, reg_last->uses);
            });
            });
-
          CLEAR_REG_SET (&tmp);
          CLEAR_REG_SET (&tmp);
-       }
-      pending = deps->pending_write_insns;
-      pending_mem = deps->pending_write_mems;
-      while (pending)
-       {
-         add_dependence (insn, XEXP (pending, 0), 0);
 
 
-         pending = XEXP (pending, 1);
-         pending_mem = XEXP (pending_mem, 1);
-       }
+         /* All memory writes and volatile reads must happen before the
+            jump.  Non-volatile reads must happen before the jump iff
+            the result is needed by the above register used mask.  */
 
 
-      for (u = deps->last_pending_memory_flush; u; u = XEXP (u, 1))
-       add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
+         pending = deps->pending_write_insns;
+         pending_mem = deps->pending_write_mems;
+         while (pending)
+           {
+             add_dependence (insn, XEXP (pending, 0), REG_DEP_OUTPUT);
+             pending = XEXP (pending, 1);
+             pending_mem = XEXP (pending_mem, 1);
+           }
+
+         pending = deps->pending_read_insns;
+         pending_mem = deps->pending_read_mems;
+         while (pending)
+           {
+             if (MEM_VOLATILE_P (XEXP (pending_mem, 0)))
+               add_dependence (insn, XEXP (pending, 0), REG_DEP_OUTPUT);
+             pending = XEXP (pending, 1);
+             pending_mem = XEXP (pending_mem, 1);
+           }
+
+         add_dependence_list (insn, deps->last_pending_memory_flush,
+                              REG_DEP_ANTI);
+       }
     }
 
   /* If there is a {LOOP,EHREGION}_{BEG,END} note in the middle of a basic
      block, then we must be sure that no instructions are scheduled across it.
      Otherwise, the reg_n_refs info (which depends on loop_depth) would
      become incorrect.  */
     }
 
   /* If there is a {LOOP,EHREGION}_{BEG,END} note in the middle of a basic
      block, then we must be sure that no instructions are scheduled across it.
      Otherwise, the reg_n_refs info (which depends on loop_depth) would
      become incorrect.  */
-
   if (loop_notes)
     {
   if (loop_notes)
     {
-      int max_reg = max_reg_num ();
-      int schedule_barrier_found = 0;
       rtx link;
 
       /* Update loop_notes with any notes from this insn.  Also determine
         if any of the notes on the list correspond to instruction scheduling
       rtx link;
 
       /* Update loop_notes with any notes from this insn.  Also determine
         if any of the notes on the list correspond to instruction scheduling
-        barriers (loop, eh & setjmp notes, but not range notes.  */
+        barriers (loop, eh & setjmp notes, but not range notes).  */
       link = loop_notes;
       while (XEXP (link, 1))
        {
          if (INTVAL (XEXP (link, 0)) == NOTE_INSN_LOOP_BEG
              || INTVAL (XEXP (link, 0)) == NOTE_INSN_LOOP_END
              || INTVAL (XEXP (link, 0)) == NOTE_INSN_EH_REGION_BEG
       link = loop_notes;
       while (XEXP (link, 1))
        {
          if (INTVAL (XEXP (link, 0)) == NOTE_INSN_LOOP_BEG
              || INTVAL (XEXP (link, 0)) == NOTE_INSN_LOOP_END
              || INTVAL (XEXP (link, 0)) == NOTE_INSN_EH_REGION_BEG
-             || INTVAL (XEXP (link, 0)) == NOTE_INSN_EH_REGION_END
-             || INTVAL (XEXP (link, 0)) == NOTE_INSN_SETJMP)
-           schedule_barrier_found = 1;
+             || INTVAL (XEXP (link, 0)) == NOTE_INSN_EH_REGION_END)
+           reg_pending_barrier = MOVE_BARRIER;
 
          link = XEXP (link, 1);
        }
       XEXP (link, 1) = REG_NOTES (insn);
       REG_NOTES (insn) = loop_notes;
 
          link = XEXP (link, 1);
        }
       XEXP (link, 1) = REG_NOTES (insn);
       REG_NOTES (insn) = loop_notes;
+    }
 
 
-      /* Add dependencies if a scheduling barrier was found.  */
-      if (schedule_barrier_found)
+  /* If this instruction can throw an exception, then moving it changes
+     where block boundaries fall.  This is mighty confusing elsewhere.
+     Therefore, prevent such an instruction from being moved.  */
+  if (can_throw_internal (insn))
+    reg_pending_barrier = MOVE_BARRIER;
+
+  /* Add dependencies if a scheduling barrier was found.  */
+  if (reg_pending_barrier)
+    {
+      /* In the case of barrier the most added dependencies are not
+         real, so we use anti-dependence here.  */
+      if (GET_CODE (PATTERN (insn)) == COND_EXEC)
        {
        {
-         for (i = 0; i < max_reg; i++)
+         EXECUTE_IF_SET_IN_REG_SET (&deps->reg_last_in_use, 0, i,
            {
            {
-             rtx u;
-             for (u = deps->reg_last_uses[i]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-             free_INSN_LIST_list (&deps->reg_last_uses[i]);
-
-             for (u = deps->reg_last_sets[i]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), 0);
-
-             for (u = deps->reg_last_clobbers[i]; u; u = XEXP (u, 1))
-               add_dependence (insn, XEXP (u, 0), 0);
-           }
-         reg_pending_sets_all = 1;
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list (insn, reg_last->uses, REG_DEP_ANTI);
+             add_dependence_list
+               (insn, reg_last->sets,
+                reg_pending_barrier == TRUE_BARRIER ? 0 : REG_DEP_ANTI);
+             add_dependence_list
+               (insn, reg_last->clobbers,
+                reg_pending_barrier == TRUE_BARRIER ? 0 : REG_DEP_ANTI);
+           });
+       }
+      else
+       {
+         EXECUTE_IF_SET_IN_REG_SET (&deps->reg_last_in_use, 0, i,
+           {
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list_and_free (insn, &reg_last->uses,
+                                           REG_DEP_ANTI);
+             add_dependence_list_and_free
+               (insn, &reg_last->sets,
+                reg_pending_barrier == TRUE_BARRIER ? 0 : REG_DEP_ANTI);
+             add_dependence_list_and_free
+               (insn, &reg_last->clobbers,
+                reg_pending_barrier == TRUE_BARRIER ? 0 : REG_DEP_ANTI);
+             reg_last->uses_length = 0;
+             reg_last->clobbers_length = 0;
+           });
+       }
 
 
-         flush_pending_lists (deps, insn, 0);
+      for (i = 0; i < deps->max_reg; i++)
+       {
+         struct deps_reg *reg_last = &deps->reg_last[i];
+         reg_last->sets = alloc_INSN_LIST (insn, reg_last->sets);
+         SET_REGNO_REG_SET (&deps->reg_last_in_use, i);
        }
 
        }
 
+      flush_pending_lists (deps, insn, true, true);
+      reg_pending_barrier = NOT_A_BARRIER;
     }
     }
-
-  /* Accumulate clobbers until the next set so that it will be output dependent
-     on all of them.  At the next set we can clear the clobber list, since
-     subsequent sets will be output dependent on it.  */
-  EXECUTE_IF_SET_IN_REG_SET
-    (reg_pending_sets, 0, i,
-     {
-       free_INSN_LIST_list (&deps->reg_last_sets[i]);
-       free_INSN_LIST_list (&deps->reg_last_clobbers[i]);
-       deps->reg_last_sets[i] = alloc_INSN_LIST (insn, NULL_RTX);
-     });
-  EXECUTE_IF_SET_IN_REG_SET
-    (reg_pending_clobbers, 0, i,
-     {
-       deps->reg_last_clobbers[i]
-        = alloc_INSN_LIST (insn, deps->reg_last_clobbers[i]);
-     });
-  CLEAR_REG_SET (reg_pending_sets);
-  CLEAR_REG_SET (reg_pending_clobbers);
-
-  if (reg_pending_sets_all)
+  else
     {
     {
-      for (i = 0; i < maxreg; i++)
+      /* If the current insn is conditional, we can't free any
+        of the lists.  */
+      if (GET_CODE (PATTERN (insn)) == COND_EXEC)
        {
        {
-         free_INSN_LIST_list (&deps->reg_last_sets[i]);
-         free_INSN_LIST_list (&deps->reg_last_clobbers[i]);
-         deps->reg_last_sets[i] = alloc_INSN_LIST (insn, NULL_RTX);
+         EXECUTE_IF_SET_IN_REG_SET (reg_pending_uses, 0, i,
+           {
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list (insn, reg_last->sets, 0);
+             add_dependence_list (insn, reg_last->clobbers, 0);
+             reg_last->uses = alloc_INSN_LIST (insn, reg_last->uses);
+             reg_last->uses_length++;
+           });
+         EXECUTE_IF_SET_IN_REG_SET (reg_pending_clobbers, 0, i,
+           {
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list (insn, reg_last->sets, REG_DEP_OUTPUT);
+             add_dependence_list (insn, reg_last->uses, REG_DEP_ANTI);
+             reg_last->clobbers = alloc_INSN_LIST (insn, reg_last->clobbers);
+             reg_last->clobbers_length++;
+           });
+         EXECUTE_IF_SET_IN_REG_SET (reg_pending_sets, 0, i,
+           {
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list (insn, reg_last->sets, REG_DEP_OUTPUT);
+             add_dependence_list (insn, reg_last->clobbers, REG_DEP_OUTPUT);
+             add_dependence_list (insn, reg_last->uses, REG_DEP_ANTI);
+             reg_last->sets = alloc_INSN_LIST (insn, reg_last->sets);
+           });
+       }
+      else
+       {
+         EXECUTE_IF_SET_IN_REG_SET (reg_pending_uses, 0, i,
+           {
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list (insn, reg_last->sets, 0);
+             add_dependence_list (insn, reg_last->clobbers, 0);
+             reg_last->uses_length++;
+             reg_last->uses = alloc_INSN_LIST (insn, reg_last->uses);
+           });
+         EXECUTE_IF_SET_IN_REG_SET (reg_pending_clobbers, 0, i,
+           {
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             if (reg_last->uses_length > MAX_PENDING_LIST_LENGTH
+                 || reg_last->clobbers_length > MAX_PENDING_LIST_LENGTH)
+               {
+                 add_dependence_list_and_free (insn, &reg_last->sets,
+                                               REG_DEP_OUTPUT);
+                 add_dependence_list_and_free (insn, &reg_last->uses,
+                                               REG_DEP_ANTI);
+                 add_dependence_list_and_free (insn, &reg_last->clobbers,
+                                               REG_DEP_OUTPUT);
+                 reg_last->sets = alloc_INSN_LIST (insn, reg_last->sets);
+                 reg_last->clobbers_length = 0;
+                 reg_last->uses_length = 0;
+               }
+             else
+               {
+                 add_dependence_list (insn, reg_last->sets, REG_DEP_OUTPUT);
+                 add_dependence_list (insn, reg_last->uses, REG_DEP_ANTI);
+               }
+             reg_last->clobbers_length++;
+             reg_last->clobbers = alloc_INSN_LIST (insn, reg_last->clobbers);
+           });
+         EXECUTE_IF_SET_IN_REG_SET (reg_pending_sets, 0, i,
+           {
+             struct deps_reg *reg_last = &deps->reg_last[i];
+             add_dependence_list_and_free (insn, &reg_last->sets,
+                                           REG_DEP_OUTPUT);
+             add_dependence_list_and_free (insn, &reg_last->clobbers,
+                                           REG_DEP_OUTPUT);
+             add_dependence_list_and_free (insn, &reg_last->uses,
+                                           REG_DEP_ANTI);
+             reg_last->sets = alloc_INSN_LIST (insn, reg_last->sets);
+             reg_last->uses_length = 0;
+             reg_last->clobbers_length = 0;
+           });
        }
 
        }
 
-      reg_pending_sets_all = 0;
+      IOR_REG_SET (&deps->reg_last_in_use, reg_pending_uses);
+      IOR_REG_SET (&deps->reg_last_in_use, reg_pending_clobbers);
+      IOR_REG_SET (&deps->reg_last_in_use, reg_pending_sets);
+    }
+  CLEAR_REG_SET (reg_pending_uses);
+  CLEAR_REG_SET (reg_pending_clobbers);
+  CLEAR_REG_SET (reg_pending_sets);
+
+  /* If we are currently in a libcall scheduling group, then mark the
+     current insn as being in a scheduling group and that it can not
+     be moved into a different basic block.  */
+
+  if (deps->libcall_block_tail_insn)
+    {
+      set_sched_group_p (insn);
+      CANT_MOVE (insn) = 1;
     }
 
   /* If a post-call group is still open, see if it should remain so.
     }
 
   /* If a post-call group is still open, see if it should remain so.
@@ -1085,7 +1152,7 @@ sched_analyze_insn (deps, x, insn, loop_notes)
       else
        {
        end_call_group:
       else
        {
        end_call_group:
-         deps->in_post_call_group_p = 0;
+         deps->in_post_call_group_p = false;
        }
     }
 }
        }
     }
 }
@@ -1098,106 +1165,86 @@ sched_analyze (deps, head, tail)
      struct deps *deps;
      rtx head, tail;
 {
      struct deps *deps;
      rtx head, tail;
 {
-  register rtx insn;
-  register rtx u;
+  rtx insn;
   rtx loop_notes = 0;
 
   rtx loop_notes = 0;
 
+  if (current_sched_info->use_cselib)
+    cselib_init ();
+
   for (insn = head;; insn = NEXT_INSN (insn))
     {
   for (insn = head;; insn = NEXT_INSN (insn))
     {
+      rtx link, end_seq, r0, set;
+
       if (GET_CODE (insn) == INSN || GET_CODE (insn) == JUMP_INSN)
        {
          /* Clear out the stale LOG_LINKS from flow.  */
          free_INSN_LIST_list (&LOG_LINKS (insn));
 
       if (GET_CODE (insn) == INSN || GET_CODE (insn) == JUMP_INSN)
        {
          /* Clear out the stale LOG_LINKS from flow.  */
          free_INSN_LIST_list (&LOG_LINKS (insn));
 
-         /* Clear out stale SCHED_GROUP_P.  */
-         SCHED_GROUP_P (insn) = 0;
-
          /* Make each JUMP_INSN a scheduling barrier for memory
              references.  */
          if (GET_CODE (insn) == JUMP_INSN)
          /* Make each JUMP_INSN a scheduling barrier for memory
              references.  */
          if (GET_CODE (insn) == JUMP_INSN)
-           deps->last_pending_memory_flush
-             = alloc_INSN_LIST (insn, deps->last_pending_memory_flush);
+           {
+             /* Keep the list a reasonable size.  */
+             if (deps->pending_flush_length++ > MAX_PENDING_LIST_LENGTH)
+               flush_pending_lists (deps, insn, true, true);
+             else
+               deps->last_pending_memory_flush
+                 = alloc_INSN_LIST (insn, deps->last_pending_memory_flush);
+           }
          sched_analyze_insn (deps, PATTERN (insn), insn, loop_notes);
          loop_notes = 0;
        }
       else if (GET_CODE (insn) == CALL_INSN)
        {
          sched_analyze_insn (deps, PATTERN (insn), insn, loop_notes);
          loop_notes = 0;
        }
       else if (GET_CODE (insn) == CALL_INSN)
        {
-         rtx x;
-         register int i;
-
-         /* Clear out stale SCHED_GROUP_P.  */
-         SCHED_GROUP_P (insn) = 0;
+         int i;
 
          CANT_MOVE (insn) = 1;
 
          /* Clear out the stale LOG_LINKS from flow.  */
          free_INSN_LIST_list (&LOG_LINKS (insn));
 
 
          CANT_MOVE (insn) = 1;
 
          /* Clear out the stale LOG_LINKS from flow.  */
          free_INSN_LIST_list (&LOG_LINKS (insn));
 
-         /* Any instruction using a hard register which may get clobbered
-            by a call needs to be marked as dependent on this call.
-            This prevents a use of a hard return reg from being moved
-            past a void call (i.e. it does not explicitly set the hard
-            return reg).  */
-
-         /* If this call is followed by a NOTE_INSN_SETJMP, then assume that
-            all registers, not just hard registers, may be clobbered by this
-            call.  */
-
-         /* Insn, being a CALL_INSN, magically depends on
-            `last_function_call' already.  */
-
-         if (NEXT_INSN (insn) && GET_CODE (NEXT_INSN (insn)) == NOTE
-             && NOTE_LINE_NUMBER (NEXT_INSN (insn)) == NOTE_INSN_SETJMP)
+         if (find_reg_note (insn, REG_SETJMP, NULL))
            {
            {
-             int max_reg = max_reg_num ();
-             for (i = 0; i < max_reg; i++)
-               {
-                 for (u = deps->reg_last_uses[i]; u; u = XEXP (u, 1))
-                   add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-                 free_INSN_LIST_list (&deps->reg_last_uses[i]);
-
-                 for (u = deps->reg_last_sets[i]; u; u = XEXP (u, 1))
-                   add_dependence (insn, XEXP (u, 0), 0);
-
-                 for (u = deps->reg_last_clobbers[i]; u; u = XEXP (u, 1))
-                   add_dependence (insn, XEXP (u, 0), 0);
-               }
-             reg_pending_sets_all = 1;
-
-             /* Add a pair of REG_SAVE_NOTEs which we will later
-                convert back into a NOTE_INSN_SETJMP note.  See
-                reemit_notes for why we use a pair of NOTEs.  */
-             REG_NOTES (insn) = alloc_EXPR_LIST (REG_SAVE_NOTE,
-                                                 GEN_INT (0),
-                                                 REG_NOTES (insn));
-             REG_NOTES (insn) = alloc_EXPR_LIST (REG_SAVE_NOTE,
-                                                 GEN_INT (NOTE_INSN_SETJMP),
-                                                 REG_NOTES (insn));
+             /* This is setjmp.  Assume that all registers, not just
+                hard registers, may be clobbered by this call.  */
+             reg_pending_barrier = MOVE_BARRIER;
            }
          else
            {
              for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
            }
          else
            {
              for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
-               if (call_used_regs[i] || global_regs[i])
+               /* A call may read and modify global register variables.  */
+               if (global_regs[i])
                  {
                  {
-                   for (u = deps->reg_last_uses[i]; u; u = XEXP (u, 1))
-                     add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-
-                   for (u = deps->reg_last_sets[i]; u; u = XEXP (u, 1))
-                     add_dependence (insn, XEXP (u, 0), REG_DEP_ANTI);
-
-                   SET_REGNO_REG_SET (reg_pending_clobbers, i);
+                   SET_REGNO_REG_SET (reg_pending_sets, i);
+                   SET_REGNO_REG_SET (reg_pending_uses, i);
                  }
                  }
+               /* Other call-clobbered hard regs may be clobbered.
+                  Since we only have a choice between 'might be clobbered'
+                  and 'definitely not clobbered', we must include all
+                  partly call-clobbered registers here.  */
+               else if (HARD_REGNO_CALL_PART_CLOBBERED (i, reg_raw_mode[i])
+                        || TEST_HARD_REG_BIT (regs_invalidated_by_call, i))
+                 SET_REGNO_REG_SET (reg_pending_clobbers, i);
+               /* We don't know what set of fixed registers might be used
+                  by the function, but it is certain that the stack pointer
+                  is among them, but be conservative.  */
+               else if (fixed_regs[i])
+                 SET_REGNO_REG_SET (reg_pending_uses, i);
+               /* The frame pointer is normally not used by the function
+                  itself, but by the debugger.  */
+               /* ??? MIPS o32 is an exception.  It uses the frame pointer
+                  in the macro expansion of jal but does not represent this
+                  fact in the call_insn rtl.  */
+               else if (i == FRAME_POINTER_REGNUM
+                        || (i == HARD_FRAME_POINTER_REGNUM
+                            && (! reload_completed || frame_pointer_needed)))
+                 SET_REGNO_REG_SET (reg_pending_uses, i);
            }
 
          /* For each insn which shouldn't cross a call, add a dependence
             between that insn and this call insn.  */
            }
 
          /* For each insn which shouldn't cross a call, add a dependence
             between that insn and this call insn.  */
-         x = LOG_LINKS (deps->sched_before_next_call);
-         while (x)
-           {
-             add_dependence (insn, XEXP (x, 0), REG_DEP_ANTI);
-             x = XEXP (x, 1);
-           }
-         free_INSN_LIST_list (&LOG_LINKS (deps->sched_before_next_call));
+         add_dependence_list_and_free (insn, &deps->sched_before_next_call,
+                                       REG_DEP_ANTI);
 
          sched_analyze_insn (deps, PATTERN (insn), insn, loop_notes);
          loop_notes = 0;
 
          sched_analyze_insn (deps, PATTERN (insn), insn, loop_notes);
          loop_notes = 0;
@@ -1206,41 +1253,26 @@ sched_analyze (deps, head, tail)
             all pending reads and writes, and start new dependencies starting
             from here.  But only flush writes for constant calls (which may
             be passed a pointer to something we haven't written yet).  */
             all pending reads and writes, and start new dependencies starting
             from here.  But only flush writes for constant calls (which may
             be passed a pointer to something we haven't written yet).  */
-         flush_pending_lists (deps, insn, CONST_CALL_P (insn));
-
-         /* Depend this function call (actually, the user of this
-            function call) on all hard register clobberage.  */
+         flush_pending_lists (deps, insn, true, !CONST_OR_PURE_CALL_P (insn));
 
 
-         /* last_function_call is now a list of insns.  */
+         /* Remember the last function call for limiting lifetimes.  */
          free_INSN_LIST_list (&deps->last_function_call);
          deps->last_function_call = alloc_INSN_LIST (insn, NULL_RTX);
 
          /* Before reload, begin a post-call group, so as to keep the
             lifetimes of hard registers correct.  */
          if (! reload_completed)
          free_INSN_LIST_list (&deps->last_function_call);
          deps->last_function_call = alloc_INSN_LIST (insn, NULL_RTX);
 
          /* Before reload, begin a post-call group, so as to keep the
             lifetimes of hard registers correct.  */
          if (! reload_completed)
-           deps->in_post_call_group_p = 1;
+           deps->in_post_call_group_p = true;
        }
 
       /* See comments on reemit_notes as to why we do this.
         ??? Actually, the reemit_notes just say what is done, not why.  */
 
        }
 
       /* See comments on reemit_notes as to why we do this.
         ??? Actually, the reemit_notes just say what is done, not why.  */
 
-      else if (GET_CODE (insn) == NOTE
-              && (NOTE_LINE_NUMBER (insn) == NOTE_INSN_RANGE_BEG
-                  || NOTE_LINE_NUMBER (insn) == NOTE_INSN_RANGE_END))
-       {
-         loop_notes = alloc_EXPR_LIST (REG_SAVE_NOTE, NOTE_RANGE_INFO (insn),
-                                       loop_notes);
-         loop_notes = alloc_EXPR_LIST (REG_SAVE_NOTE,
-                                       GEN_INT (NOTE_LINE_NUMBER (insn)),
-                                       loop_notes);
-       }
-      else if (GET_CODE (insn) == NOTE
+      if (GET_CODE (insn) == NOTE
               && (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_BEG
                   || NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_END
                   || NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG
               && (NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_BEG
                   || NOTE_LINE_NUMBER (insn) == NOTE_INSN_LOOP_END
                   || NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG
-                  || NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_END
-                  || (NOTE_LINE_NUMBER (insn) == NOTE_INSN_SETJMP
-                      && GET_CODE (PREV_INSN (insn)) != CALL_INSN)))
+                  || NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_END))
        {
          rtx rtx_region;
 
        {
          rtx rtx_region;
 
@@ -1256,15 +1288,101 @@ sched_analyze (deps, head, tail)
          loop_notes = alloc_EXPR_LIST (REG_SAVE_NOTE,
                                        GEN_INT (NOTE_LINE_NUMBER (insn)),
                                        loop_notes);
          loop_notes = alloc_EXPR_LIST (REG_SAVE_NOTE,
                                        GEN_INT (NOTE_LINE_NUMBER (insn)),
                                        loop_notes);
-         CONST_CALL_P (loop_notes) = CONST_CALL_P (insn);
+         CONST_OR_PURE_CALL_P (loop_notes) = CONST_OR_PURE_CALL_P (insn);
        }
 
        }
 
+      if (current_sched_info->use_cselib)
+       cselib_process_insn (insn);
+
+      /* Now that we have completed handling INSN, check and see if it is
+        a CLOBBER beginning a libcall block.   If it is, record the
+        end of the libcall sequence. 
+
+        We want to schedule libcall blocks as a unit before reload.  While
+        this restricts scheduling, it preserves the meaning of a libcall
+        block.
+
+        As a side effect, we may get better code due to decreased register
+        pressure as well as less chance of a foreign insn appearing in
+        a libcall block.  */
+      if (!reload_completed
+         /* Note we may have nested libcall sequences.  We only care about
+            the outermost libcall sequence.  */ 
+         && deps->libcall_block_tail_insn == 0
+         /* The sequence must start with a clobber of a register.  */
+         && GET_CODE (insn) == INSN
+         && GET_CODE (PATTERN (insn)) == CLOBBER
+          && (r0 = XEXP (PATTERN (insn), 0), GET_CODE (r0) == REG)
+         && GET_CODE (XEXP (PATTERN (insn), 0)) == REG
+         /* The CLOBBER must also have a REG_LIBCALL note attached.  */
+         && (link = find_reg_note (insn, REG_LIBCALL, NULL_RTX)) != 0
+         && (end_seq = XEXP (link, 0)) != 0
+         /* The insn referenced by the REG_LIBCALL note must be a
+            simple nop copy with the same destination as the register
+            mentioned in the clobber.  */
+         && (set = single_set (end_seq)) != 0
+         && SET_DEST (set) == r0 && SET_SRC (set) == r0
+         /* And finally the insn referenced by the REG_LIBCALL must
+            also contain a REG_EQUAL note and a REG_RETVAL note.  */
+         && find_reg_note (end_seq, REG_EQUAL, NULL_RTX) != 0
+         && find_reg_note (end_seq, REG_RETVAL, NULL_RTX) != 0)
+       deps->libcall_block_tail_insn = XEXP (link, 0);
+
+      /* If we have reached the end of a libcall block, then close the
+        block.  */
+      if (deps->libcall_block_tail_insn == insn)
+       deps->libcall_block_tail_insn = 0;
+
       if (insn == tail)
       if (insn == tail)
-       return;
+       {
+         if (current_sched_info->use_cselib)
+           cselib_finish ();
+         return;
+       }
     }
   abort ();
 }
 \f
     }
   abort ();
 }
 \f
+
+/* The following function adds forward dependence (FROM, TO) with
+   given DEP_TYPE.  The forward dependence should be not exist before.  */
+
+void
+add_forward_dependence (from, to, dep_type)
+     rtx from;
+     rtx to;
+     enum reg_note dep_type;
+{
+  rtx new_link;
+
+#ifdef ENABLE_CHECKING
+  /* If add_dependence is working properly there should never
+     be notes, deleted insns or duplicates in the backward
+     links.  Thus we need not check for them here.
+     
+     However, if we have enabled checking we might as well go
+     ahead and verify that add_dependence worked properly.  */
+  if (GET_CODE (from) == NOTE
+      || INSN_DELETED_P (from)
+      || (forward_dependency_cache != NULL
+         && TEST_BIT (forward_dependency_cache[INSN_LUID (from)],
+                      INSN_LUID (to)))
+      || (forward_dependency_cache == NULL
+         && find_insn_list (to, INSN_DEPEND (from))))
+    abort ();
+  if (forward_dependency_cache != NULL)
+    SET_BIT (forward_dependency_cache[INSN_LUID (from)],
+            INSN_LUID (to));
+#endif
+  
+  new_link = alloc_INSN_LIST (to, INSN_DEPEND (from));
+  
+  PUT_REG_NOTE_KIND (new_link, dep_type);
+  
+  INSN_DEPEND (from) = new_link;
+  INSN_DEP_COUNT (to) += 1;
+}
+
 /* Examine insns in the range [ HEAD, TAIL ] and Use the backward
    dependences from LOG_LINKS to build forward dependences in
    INSN_DEPEND.  */
 /* Examine insns in the range [ HEAD, TAIL ] and Use the backward
    dependences from LOG_LINKS to build forward dependences in
    INSN_DEPEND.  */
@@ -1275,7 +1393,6 @@ compute_forward_dependences (head, tail)
 {
   rtx insn, link;
   rtx next_tail;
 {
   rtx insn, link;
   rtx next_tail;
-  enum reg_note dep_type;
 
   next_tail = NEXT_INSN (tail);
   for (insn = head; insn != next_tail; insn = NEXT_INSN (insn))
 
   next_tail = NEXT_INSN (tail);
   for (insn = head; insn != next_tail; insn = NEXT_INSN (insn))
@@ -1283,44 +1400,8 @@ compute_forward_dependences (head, tail)
       if (! INSN_P (insn))
        continue;
 
       if (! INSN_P (insn))
        continue;
 
-      insn = group_leader (insn);
-
       for (link = LOG_LINKS (insn); link; link = XEXP (link, 1))
       for (link = LOG_LINKS (insn); link; link = XEXP (link, 1))
-       {
-         rtx x = group_leader (XEXP (link, 0));
-         rtx new_link;
-
-         if (x != XEXP (link, 0))
-           continue;
-
-#ifdef ENABLE_CHECKING
-         /* If add_dependence is working properly there should never
-            be notes, deleted insns or duplicates in the backward
-            links.  Thus we need not check for them here.
-
-            However, if we have enabled checking we might as well go
-            ahead and verify that add_dependence worked properly.  */
-         if (GET_CODE (x) == NOTE
-             || INSN_DELETED_P (x)
-             || (forward_dependency_cache != NULL
-                 && TEST_BIT (forward_dependency_cache[INSN_LUID (x)],
-                              INSN_LUID (insn)))
-             || (forward_dependency_cache == NULL
-                 && find_insn_list (insn, INSN_DEPEND (x))))
-           abort ();
-         if (forward_dependency_cache != NULL)
-           SET_BIT (forward_dependency_cache[INSN_LUID (x)],
-                    INSN_LUID (insn));
-#endif
-
-         new_link = alloc_INSN_LIST (insn, INSN_DEPEND (x));
-
-         dep_type = REG_NOTE_KIND (link);
-         PUT_REG_NOTE_KIND (new_link, dep_type);
-
-         INSN_DEPEND (x) = new_link;
-         INSN_DEP_COUNT (insn) += 1;
-       }
+       add_forward_dependence (XEXP (link, 0), insn, REG_NOTE_KIND (link));
     }
 }
 \f
     }
 }
 \f
@@ -1331,24 +1412,24 @@ void
 init_deps (deps)
      struct deps *deps;
 {
 init_deps (deps)
      struct deps *deps;
 {
-  int maxreg = max_reg_num ();
-  deps->reg_last_uses = (rtx *) xcalloc (maxreg, sizeof (rtx));
-  deps->reg_last_sets = (rtx *) xcalloc (maxreg, sizeof (rtx));
-  deps->reg_last_clobbers = (rtx *) xcalloc (maxreg, sizeof (rtx));
+  int max_reg = (reload_completed ? FIRST_PSEUDO_REGISTER : max_reg_num ());
+
+  deps->max_reg = max_reg;
+  deps->reg_last = (struct deps_reg *)
+    xcalloc (max_reg, sizeof (struct deps_reg));
+  INIT_REG_SET (&deps->reg_last_in_use);
 
   deps->pending_read_insns = 0;
   deps->pending_read_mems = 0;
   deps->pending_write_insns = 0;
   deps->pending_write_mems = 0;
   deps->pending_lists_length = 0;
 
   deps->pending_read_insns = 0;
   deps->pending_read_mems = 0;
   deps->pending_write_insns = 0;
   deps->pending_write_mems = 0;
   deps->pending_lists_length = 0;
+  deps->pending_flush_length = 0;
   deps->last_pending_memory_flush = 0;
   deps->last_function_call = 0;
   deps->last_pending_memory_flush = 0;
   deps->last_function_call = 0;
-  deps->in_post_call_group_p = 0;
-
-  deps->sched_before_next_call
-    = gen_rtx_INSN (VOIDmode, 0, NULL_RTX, NULL_RTX,
-                   NULL_RTX, 0, NULL_RTX, NULL_RTX);
-  LOG_LINKS (deps->sched_before_next_call) = 0;
+  deps->sched_before_next_call = 0;
+  deps->in_post_call_group_p = false;
+  deps->libcall_block_tail_insn = 0;
 }
 
 /* Free insn lists found in DEPS.  */
 }
 
 /* Free insn lists found in DEPS.  */
@@ -1357,30 +1438,34 @@ void
 free_deps (deps)
      struct deps *deps;
 {
 free_deps (deps)
      struct deps *deps;
 {
-  int max_reg = max_reg_num ();
   int i;
 
   int i;
 
-  /* Note this loop is executed max_reg * nr_regions times.  It's first
-     implementation accounted for over 90% of the calls to free_INSN_LIST_list.
-     The list was empty for the vast majority of those calls.  On the PA, not
-     calling free_INSN_LIST_list in those cases improves -O2 compile times by
-     3-5% on average.  */
-  for (i = 0; i < max_reg; ++i)
+  free_INSN_LIST_list (&deps->pending_read_insns);
+  free_EXPR_LIST_list (&deps->pending_read_mems);
+  free_INSN_LIST_list (&deps->pending_write_insns);
+  free_EXPR_LIST_list (&deps->pending_write_mems);
+  free_INSN_LIST_list (&deps->last_pending_memory_flush);
+
+  /* Without the EXECUTE_IF_SET, this loop is executed max_reg * nr_regions
+     times.  For a test case with 42000 regs and 8000 small basic blocks,
+     this loop accounted for nearly 60% (84 sec) of the total -O2 runtime.  */
+  EXECUTE_IF_SET_IN_REG_SET (&deps->reg_last_in_use, 0, i,
     {
     {
-      if (deps->reg_last_clobbers[i])
-       free_INSN_LIST_list (&deps->reg_last_clobbers[i]);
-      if (deps->reg_last_sets[i])
-       free_INSN_LIST_list (&deps->reg_last_sets[i]);
-      if (deps->reg_last_uses[i])
-       free_INSN_LIST_list (&deps->reg_last_uses[i]);
-    }
-  free (deps->reg_last_clobbers);
-  free (deps->reg_last_sets);
-  free (deps->reg_last_uses);
+      struct deps_reg *reg_last = &deps->reg_last[i];
+      if (reg_last->uses)
+       free_INSN_LIST_list (&reg_last->uses);
+      if (reg_last->sets)
+       free_INSN_LIST_list (&reg_last->sets);
+      if (reg_last->clobbers)
+       free_INSN_LIST_list (&reg_last->clobbers);
+    });
+  CLEAR_REG_SET (&deps->reg_last_in_use);
+
+  free (deps->reg_last);
 }
 
 /* If it is profitable to use them, initialize caches for tracking
 }
 
 /* If it is profitable to use them, initialize caches for tracking
-   dependency informatino.  LUID is the number of insns to be scheduled,
+   dependency information.  LUID is the number of insns to be scheduled,
    it is used in the estimate of profitability.  */
 
 void
    it is used in the estimate of profitability.  */
 
 void
@@ -1415,14 +1500,14 @@ free_dependency_caches ()
 {
   if (true_dependency_cache)
     {
 {
   if (true_dependency_cache)
     {
-      free (true_dependency_cache);
+      sbitmap_vector_free (true_dependency_cache);
       true_dependency_cache = NULL;
       true_dependency_cache = NULL;
-      free (anti_dependency_cache);
+      sbitmap_vector_free (anti_dependency_cache);
       anti_dependency_cache = NULL;
       anti_dependency_cache = NULL;
-      free (output_dependency_cache);
+      sbitmap_vector_free (output_dependency_cache);
       output_dependency_cache = NULL;
 #ifdef ENABLE_CHECKING
       output_dependency_cache = NULL;
 #ifdef ENABLE_CHECKING
-      free (forward_dependency_cache);
+      sbitmap_vector_free (forward_dependency_cache);
       forward_dependency_cache = NULL;
 #endif
     }
       forward_dependency_cache = NULL;
 #endif
     }
@@ -1436,7 +1521,8 @@ init_deps_global ()
 {
   reg_pending_sets = INITIALIZE_REG_SET (reg_pending_sets_head);
   reg_pending_clobbers = INITIALIZE_REG_SET (reg_pending_clobbers_head);
 {
   reg_pending_sets = INITIALIZE_REG_SET (reg_pending_sets_head);
   reg_pending_clobbers = INITIALIZE_REG_SET (reg_pending_clobbers_head);
-  reg_pending_sets_all = 0;
+  reg_pending_uses = INITIALIZE_REG_SET (reg_pending_uses_head);
+  reg_pending_barrier = NOT_A_BARRIER;
 }
 
 /* Free everything used by the dependency analysis code.  */
 }
 
 /* Free everything used by the dependency analysis code.  */
@@ -1446,4 +1532,5 @@ finish_deps_global ()
 {
   FREE_REG_SET (reg_pending_sets);
   FREE_REG_SET (reg_pending_clobbers);
 {
   FREE_REG_SET (reg_pending_sets);
   FREE_REG_SET (reg_pending_clobbers);
+  FREE_REG_SET (reg_pending_uses);
 }
 }