OSDN Git Service

ABM popcount intrinsics.
[pf3gnuchains/gcc-fork.git] / gcc / mode-switching.c
index 448192a..140c513 100644 (file)
@@ -1,12 +1,12 @@
 /* CPU mode switching
-   Copyright (C) 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005
-   Free Software Foundation, Inc.
+   Copyright (C) 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2007, 2008,
+   2009 Free Software Foundation, Inc.
 
 This file is part of GCC.
 
 GCC is free software; you can redistribute it and/or modify it under
 the terms of the GNU General Public License as published by the Free
-Software Foundation; either version 2, or (at your option) any later
+Software Foundation; either version 3, or (at your option) any later
 version.
 
 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
@@ -15,9 +15,8 @@ FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
 for more details.
 
 You should have received a copy of the GNU General Public License
-along with GCC; see the file COPYING.  If not, write to the Free
-Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
-02110-1301, USA.  */
+along with GCC; see the file COPYING3.  If not see
+<http://www.gnu.org/licenses/>.  */
 
 #include "config.h"
 #include "system.h"
@@ -36,6 +35,7 @@ Software Foundation, 51 Franklin Street, Fifth Floor, Boston, MA
 #include "function.h"
 #include "tree-pass.h"
 #include "timevar.h"
+#include "df.h"
 
 /* We want target macros for the mode switching code to be able to refer
    to instruction attribute values.  */
@@ -93,7 +93,7 @@ static sbitmap *comp;
 static struct seginfo * new_seginfo (int, rtx, int, HARD_REG_SET);
 static void add_seginfo (struct bb_info *, struct seginfo *);
 static void reg_dies (rtx, HARD_REG_SET *);
-static void reg_becomes_live (rtx, rtx, void *);
+static void reg_becomes_live (rtx, const_rtx, void *);
 static void make_preds_opaque (basic_block, int);
 \f
 
@@ -176,7 +176,7 @@ reg_dies (rtx reg, HARD_REG_SET *live)
    This is called via note_stores.  */
 
 static void
-reg_becomes_live (rtx reg, rtx setter ATTRIBUTE_UNUSED, void *live)
+reg_becomes_live (rtx reg, const_rtx setter ATTRIBUTE_UNUSED, void *live)
 {
   int regno;
 
@@ -217,7 +217,6 @@ create_pre_exit (int n_entities, int *entity_map, const int *num_modes)
     if (eg->flags & EDGE_FALLTHRU)
       {
        basic_block src_bb = eg->src;
-       regset live_at_end = src_bb->il.rtl->global_live_at_end;
        rtx last_insn, ret_reg;
 
        gcc_assert (!pre_exit);
@@ -246,21 +245,48 @@ create_pre_exit (int n_entities, int *entity_map, const int *num_modes)
 
                if (INSN_P (return_copy))
                  {
-                   if (GET_CODE (PATTERN (return_copy)) == USE
-                       && GET_CODE (XEXP (PATTERN (return_copy), 0)) == REG
-                       && (FUNCTION_VALUE_REGNO_P
-                           (REGNO (XEXP (PATTERN (return_copy), 0)))))
+                   /* When using SJLJ exceptions, the call to the
+                      unregister function is inserted between the
+                      clobber of the return value and the copy.
+                      We do not want to split the block before this
+                      or any other call; if we have not found the
+                      copy yet, the copy must have been deleted.  */
+                   if (CALL_P (return_copy))
                      {
-                       maybe_builtin_apply = 1;
-                       last_insn = return_copy;
-                       continue;
+                       short_block = 1;
+                       break;
                      }
-                   if (GET_CODE (PATTERN (return_copy)) == ASM_INPUT
-                       && strcmp (XSTR (PATTERN (return_copy), 0), "") == 0)
+                   return_copy_pat = PATTERN (return_copy);
+                   switch (GET_CODE (return_copy_pat))
                      {
+                     case USE:
+                       /* Skip __builtin_apply pattern.  */
+                       if (GET_CODE (XEXP (return_copy_pat, 0)) == REG
+                           && (FUNCTION_VALUE_REGNO_P
+                               (REGNO (XEXP (return_copy_pat, 0)))))
+                         {
+                           maybe_builtin_apply = 1;
+                           last_insn = return_copy;
+                           continue;
+                         }
+                       break;
+
+                     case ASM_OPERANDS:
+                       /* Skip barrier insns.  */
+                       if (!MEM_VOLATILE_P (return_copy_pat))
+                         break;
+
+                       /* Fall through.  */
+
+                     case ASM_INPUT:
+                     case UNSPEC_VOLATILE:
                        last_insn = return_copy;
                        continue;
+
+                     default:
+                       break;
                      }
+
                    /* If the return register is not (in its entirety)
                       likely spilled, the return copy might be
                       partially or completely optimized away.  */
@@ -270,6 +296,25 @@ create_pre_exit (int n_entities, int *entity_map, const int *num_modes)
                        return_copy_pat = PATTERN (return_copy);
                        if (GET_CODE (return_copy_pat) != CLOBBER)
                          break;
+                       else if (!optimize)
+                         {
+                           /* This might be (clobber (reg [<result>]))
+                              when not optimizing.  Then check if
+                              the previous insn is the clobber for
+                              the return register.  */
+                           copy_reg = SET_DEST (return_copy_pat);
+                           if (GET_CODE (copy_reg) == REG
+                               && !HARD_REGISTER_NUM_P (REGNO (copy_reg)))
+                             {
+                               if (INSN_P (PREV_INSN (return_copy)))
+                                 {
+                                   return_copy = PREV_INSN (return_copy);
+                                   return_copy_pat = PATTERN (return_copy);
+                                   if (GET_CODE (return_copy_pat) != CLOBBER)
+                                     break;
+                                 }
+                             }
+                         }
                      }
                    copy_reg = SET_DEST (return_copy_pat);
                    if (GET_CODE (copy_reg) == REG)
@@ -332,7 +377,7 @@ create_pre_exit (int n_entities, int *entity_map, const int *num_modes)
                last_insn = return_copy;
              }
            while (nregs);
-           
+
            /* If we didn't see a full return value copy, verify that there
               is a plausible reason for this.  If some, but not all of the
               return register is likely spilled, we can expect that there
@@ -352,7 +397,7 @@ create_pre_exit (int n_entities, int *entity_map, const int *num_modes)
                           failures, so let it pass.  */
                        || (GET_MODE_CLASS (GET_MODE (ret_reg)) != MODE_INT
                            && nregs != 1));
-           
+
            if (INSN_P (last_insn))
              {
                before_return_copy
@@ -372,8 +417,6 @@ create_pre_exit (int n_entities, int *entity_map, const int *num_modes)
        else
          {
            pre_exit = split_edge (eg);
-           COPY_REG_SET (pre_exit->il.rtl->global_live_at_start, live_at_end);
-           COPY_REG_SET (pre_exit->il.rtl->global_live_at_end, live_at_end);
          }
       }
 
@@ -403,8 +446,6 @@ optimize_mode_switching (void)
   bool emited = false;
   basic_block post_entry ATTRIBUTE_UNUSED, pre_exit ATTRIBUTE_UNUSED;
 
-  clear_bb_flags ();
-
   for (e = N_ENTITIES - 1, n_entities = 0; e >= 0; e--)
     if (OPTIMIZE_MODE_SWITCHING (e))
       {
@@ -433,6 +474,8 @@ optimize_mode_switching (void)
   pre_exit = create_pre_exit (n_entities, entity_map, num_modes);
 #endif
 
+  df_analyze ();
+
   /* Create the bitmap vectors.  */
 
   antic = sbitmap_vector_alloc (last_basic_block, n_entities);
@@ -456,8 +499,7 @@ optimize_mode_switching (void)
          int last_mode = no_mode;
          HARD_REG_SET live_now;
 
-         REG_SET_TO_HARD_REG_SET (live_now,
-                                  bb->il.rtl->global_live_at_start);
+         REG_SET_TO_HARD_REG_SET (live_now, df_get_live_in (bb));
 
          /* Pretend the mode is clobbered across abnormal edges.  */
          {
@@ -543,7 +585,7 @@ optimize_mode_switching (void)
   for (i = 0; i < max_num_modes; i++)
     {
       int current_mode[N_ENTITIES];
-      sbitmap *delete;
+      sbitmap *del;
       sbitmap *insert;
 
       /* Set the anticipatable and computing arrays.  */
@@ -570,7 +612,7 @@ optimize_mode_switching (void)
       FOR_EACH_BB (bb)
        sbitmap_not (kill[bb->index], transp[bb->index]);
       edge_list = pre_edge_lcm (n_entities, transp, comp, antic,
-                               kill, &insert, &delete);
+                               kill, &insert, &del);
 
       for (j = n_entities - 1; j >= 0; j--)
        {
@@ -602,8 +644,7 @@ optimize_mode_switching (void)
              mode = current_mode[j];
              src_bb = eg->src;
 
-             REG_SET_TO_HARD_REG_SET (live_at_edge,
-                                      src_bb->il.rtl->global_live_at_end);
+             REG_SET_TO_HARD_REG_SET (live_at_edge, df_get_live_out (src_bb));
 
              start_sequence ();
              EMIT_MODE_SET (entity_map[j], mode, live_at_edge);
@@ -622,7 +663,7 @@ optimize_mode_switching (void)
            }
 
          FOR_EACH_BB_REVERSE (bb)
-           if (TEST_BIT (delete[bb->index], j))
+           if (TEST_BIT (del[bb->index], j))
              {
                make_preds_opaque (bb, j);
                /* Cancel the 'deleted' mode set.  */
@@ -630,7 +671,7 @@ optimize_mode_switching (void)
              }
        }
 
-      sbitmap_vector_free (delete);
+      sbitmap_vector_free (del);
       sbitmap_vector_free (insert);
       clear_aux_for_edges ();
       free_edge_list (edge_list);
@@ -675,7 +716,6 @@ optimize_mode_switching (void)
     }
 
   /* Finished. Free up all the things we've allocated.  */
-
   sbitmap_vector_free (kill);
   sbitmap_vector_free (antic);
   sbitmap_vector_free (transp);
@@ -691,12 +731,6 @@ optimize_mode_switching (void)
     return 0;
 #endif
 
-  max_regno = max_reg_num ();
-  allocate_reg_info (max_regno, FALSE, FALSE);
-  update_life_info_in_dirty_blocks (UPDATE_LIFE_GLOBAL_RM_NOTES,
-                                   (PROP_DEATH_NOTES | PROP_KILL_DEAD_CODE
-                                    | PROP_SCAN_DEAD_CODE));
-
   return 1;
 }
 
@@ -716,17 +750,17 @@ static unsigned int
 rest_of_handle_mode_switching (void)
 {
 #ifdef OPTIMIZE_MODE_SWITCHING
-  no_new_pseudos = 0;
   optimize_mode_switching ();
-  no_new_pseudos = 1;
 #endif /* OPTIMIZE_MODE_SWITCHING */
   return 0;
 }
 
 
-struct tree_opt_pass pass_mode_switching =
+struct rtl_opt_pass pass_mode_switching =
 {
-  "mode-sw",                            /* name */
+ {
+  RTL_PASS,
+  "mode_sw",                            /* name */
   gate_mode_switching,                  /* gate */
   rest_of_handle_mode_switching,        /* execute */
   NULL,                                 /* sub */
@@ -737,6 +771,7 @@ struct tree_opt_pass pass_mode_switching =
   0,                                    /* properties_provided */
   0,                                    /* properties_destroyed */
   0,                                    /* todo_flags_start */
-  TODO_dump_func,                       /* todo_flags_finish */
-  0                                     /* letter */
+  TODO_df_finish | TODO_verify_rtl_sharing |
+  TODO_dump_func                        /* todo_flags_finish */
+ }
 };