OSDN Git Service

* sh.md (cbranch define_delay) Use cond_delay_slot for
[pf3gnuchains/gcc-fork.git] / gcc / cfglayout.c
1 /* Basic block reordering routines for the GNU compiler.
2    Copyright (C) 2000, 2001, 2003, 2004 Free Software Foundation, Inc.
3
4 This file is part of GCC.
5
6 GCC is free software; you can redistribute it and/or modify it under
7 the terms of the GNU General Public License as published by the Free
8 Software Foundation; either version 2, or (at your option) any later
9 version.
10
11 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
12 WARRANTY; without even the implied warranty of MERCHANTABILITY or
13 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
14 for more details.
15
16 You should have received a copy of the GNU General Public License
17 along with GCC; see the file COPYING.  If not, write to the Free
18 Software Foundation, 59 Temple Place - Suite 330, Boston, MA
19 02111-1307, USA.  */
20
21 #include "config.h"
22 #include "system.h"
23 #include "coretypes.h"
24 #include "tm.h"
25 #include "tree.h"
26 #include "rtl.h"
27 #include "hard-reg-set.h"
28 #include "basic-block.h"
29 #include "insn-config.h"
30 #include "output.h"
31 #include "function.h"
32 #include "obstack.h"
33 #include "cfglayout.h"
34 #include "cfgloop.h"
35 #include "target.h"
36 #include "ggc.h"
37 #include "alloc-pool.h"
38 #include "flags.h"
39
40 /* The contents of the current function definition are allocated
41    in this obstack, and all are freed at the end of the function.  */
42 extern struct obstack flow_obstack;
43
44 /* Holds the interesting trailing notes for the function.  */
45 rtx cfg_layout_function_footer, cfg_layout_function_header;
46
47 static rtx skip_insns_after_block (basic_block);
48 static void record_effective_endpoints (void);
49 static rtx label_for_bb (basic_block);
50 static void fixup_reorder_chain (void);
51
52 static void set_block_levels (tree, int);
53 static void change_scope (rtx, tree, tree);
54
55 void verify_insn_chain (void);
56 static void fixup_fallthru_exit_predecessor (void);
57 static tree insn_scope (rtx);
58 static void update_unlikely_executed_notes (basic_block);
59 \f
60 rtx
61 unlink_insn_chain (rtx first, rtx last)
62 {
63   rtx prevfirst = PREV_INSN (first);
64   rtx nextlast = NEXT_INSN (last);
65
66   PREV_INSN (first) = NULL;
67   NEXT_INSN (last) = NULL;
68   if (prevfirst)
69     NEXT_INSN (prevfirst) = nextlast;
70   if (nextlast)
71     PREV_INSN (nextlast) = prevfirst;
72   else
73     set_last_insn (prevfirst);
74   if (!prevfirst)
75     set_first_insn (nextlast);
76   return first;
77 }
78 \f
79 /* Skip over inter-block insns occurring after BB which are typically
80    associated with BB (e.g., barriers). If there are any such insns,
81    we return the last one. Otherwise, we return the end of BB.  */
82
83 static rtx
84 skip_insns_after_block (basic_block bb)
85 {
86   rtx insn, last_insn, next_head, prev;
87
88   next_head = NULL_RTX;
89   if (bb->next_bb != EXIT_BLOCK_PTR)
90     next_head = BB_HEAD (bb->next_bb);
91
92   for (last_insn = insn = BB_END (bb); (insn = NEXT_INSN (insn)) != 0; )
93     {
94       if (insn == next_head)
95         break;
96
97       switch (GET_CODE (insn))
98         {
99         case BARRIER:
100           last_insn = insn;
101           continue;
102
103         case NOTE:
104           switch (NOTE_LINE_NUMBER (insn))
105             {
106             case NOTE_INSN_LOOP_END:
107             case NOTE_INSN_BLOCK_END:
108               last_insn = insn;
109               continue;
110             case NOTE_INSN_DELETED:
111             case NOTE_INSN_DELETED_LABEL:
112               continue;
113
114             default:
115               continue;
116               break;
117             }
118           break;
119
120         case CODE_LABEL:
121           if (NEXT_INSN (insn)
122               && JUMP_P (NEXT_INSN (insn))
123               && (GET_CODE (PATTERN (NEXT_INSN (insn))) == ADDR_VEC
124                   || GET_CODE (PATTERN (NEXT_INSN (insn))) == ADDR_DIFF_VEC))
125             {
126               insn = NEXT_INSN (insn);
127               last_insn = insn;
128               continue;
129             }
130           break;
131
132         default:
133           break;
134         }
135
136       break;
137     }
138
139   /* It is possible to hit contradictory sequence.  For instance:
140
141      jump_insn
142      NOTE_INSN_LOOP_BEG
143      barrier
144
145      Where barrier belongs to jump_insn, but the note does not.  This can be
146      created by removing the basic block originally following
147      NOTE_INSN_LOOP_BEG.  In such case reorder the notes.  */
148
149   for (insn = last_insn; insn != BB_END (bb); insn = prev)
150     {
151       prev = PREV_INSN (insn);
152       if (NOTE_P (insn))
153         switch (NOTE_LINE_NUMBER (insn))
154           {
155           case NOTE_INSN_LOOP_END:
156           case NOTE_INSN_BLOCK_END:
157           case NOTE_INSN_DELETED:
158           case NOTE_INSN_DELETED_LABEL:
159             continue;
160           default:
161             reorder_insns (insn, insn, last_insn);
162           }
163     }
164
165   return last_insn;
166 }
167
168 /* Locate or create a label for a given basic block.  */
169
170 static rtx
171 label_for_bb (basic_block bb)
172 {
173   rtx label = BB_HEAD (bb);
174
175   if (!LABEL_P (label))
176     {
177       if (dump_file)
178         fprintf (dump_file, "Emitting label for block %d\n", bb->index);
179
180       label = block_label (bb);
181     }
182
183   return label;
184 }
185
186 /* Locate the effective beginning and end of the insn chain for each
187    block, as defined by skip_insns_after_block above.  */
188
189 static void
190 record_effective_endpoints (void)
191 {
192   rtx next_insn;
193   basic_block bb;
194   rtx insn;
195
196   for (insn = get_insns ();
197        insn
198        && NOTE_P (insn)
199        && NOTE_LINE_NUMBER (insn) != NOTE_INSN_BASIC_BLOCK;
200        insn = NEXT_INSN (insn))
201     continue;
202   if (!insn)
203     abort ();  /* No basic blocks at all?  */
204   if (PREV_INSN (insn))
205     cfg_layout_function_header =
206             unlink_insn_chain (get_insns (), PREV_INSN (insn));
207   else
208     cfg_layout_function_header = NULL_RTX;
209
210   next_insn = get_insns ();
211   FOR_EACH_BB (bb)
212     {
213       rtx end;
214
215       if (PREV_INSN (BB_HEAD (bb)) && next_insn != BB_HEAD (bb))
216         bb->rbi->header = unlink_insn_chain (next_insn,
217                                               PREV_INSN (BB_HEAD (bb)));
218       end = skip_insns_after_block (bb);
219       if (NEXT_INSN (BB_END (bb)) && BB_END (bb) != end)
220         bb->rbi->footer = unlink_insn_chain (NEXT_INSN (BB_END (bb)), end);
221       next_insn = NEXT_INSN (BB_END (bb));
222     }
223
224   cfg_layout_function_footer = next_insn;
225   if (cfg_layout_function_footer)
226     cfg_layout_function_footer = unlink_insn_chain (cfg_layout_function_footer, get_last_insn ());
227 }
228 \f
229 /* Data structures representing mapping of INSN_LOCATOR into scope blocks, line
230    numbers and files.  In order to be GGC friendly we need to use separate
231    varrays.  This also slightly improve the memory locality in binary search.
232    The _locs array contains locators where the given property change.  The
233    block_locators_blocks contains the scope block that is used for all insn
234    locator greater than corresponding block_locators_locs value and smaller
235    than the following one.  Similarly for the other properties.  */
236 static GTY(()) varray_type block_locators_locs;
237 static GTY(()) varray_type block_locators_blocks;
238 static GTY(()) varray_type line_locators_locs;
239 static GTY(()) varray_type line_locators_lines;
240 static GTY(()) varray_type file_locators_locs;
241 static GTY(()) varray_type file_locators_files;
242 int prologue_locator;
243 int epilogue_locator;
244
245 /* During the RTL expansion the lexical blocks and line numbers are
246    represented via INSN_NOTEs.  Replace them by representation using
247    INSN_LOCATORs.  */
248
249 void
250 insn_locators_initialize (void)
251 {
252   tree block = NULL;
253   tree last_block = NULL;
254   rtx insn, next;
255   int loc = 0;
256   int line_number = 0, last_line_number = 0;
257   const char *file_name = NULL, *last_file_name = NULL;
258
259   prologue_locator = epilogue_locator = 0;
260
261   VARRAY_INT_INIT (block_locators_locs, 32, "block_locators_locs");
262   VARRAY_TREE_INIT (block_locators_blocks, 32, "block_locators_blocks");
263   VARRAY_INT_INIT (line_locators_locs, 32, "line_locators_locs");
264   VARRAY_INT_INIT (line_locators_lines, 32, "line_locators_lines");
265   VARRAY_INT_INIT (file_locators_locs, 32, "file_locators_locs");
266   VARRAY_CHAR_PTR_INIT (file_locators_files, 32, "file_locators_files");
267
268   for (insn = get_insns (); insn; insn = next)
269     {
270       int active = 0;
271       
272       next = NEXT_INSN (insn);
273
274       if (NOTE_P (insn))
275         {
276           switch (NOTE_LINE_NUMBER (insn))
277             {
278             case NOTE_INSN_BLOCK_BEG:
279             case NOTE_INSN_BLOCK_END:
280               abort ();
281               
282             default:
283               if (NOTE_LINE_NUMBER (insn) > 0)
284                 {
285                   expanded_location xloc;
286                   NOTE_EXPANDED_LOCATION (xloc, insn);
287                   line_number = xloc.line;
288                   file_name = xloc.file;
289                 }
290               break;
291             }
292         }
293       else
294         active = (active_insn_p (insn)
295                   && GET_CODE (PATTERN (insn)) != ADDR_VEC
296                   && GET_CODE (PATTERN (insn)) != ADDR_DIFF_VEC);
297       
298       check_block_change (insn, &block);
299
300       if (active
301           || !next
302           || (!prologue_locator && file_name))
303         {
304           if (last_block != block)
305             {
306               loc++;
307               VARRAY_PUSH_INT (block_locators_locs, loc);
308               VARRAY_PUSH_TREE (block_locators_blocks, block);
309               last_block = block;
310             }
311           if (last_line_number != line_number)
312             {
313               loc++;
314               VARRAY_PUSH_INT (line_locators_locs, loc);
315               VARRAY_PUSH_INT (line_locators_lines, line_number);
316               last_line_number = line_number;
317             }
318           if (last_file_name != file_name)
319             {
320               loc++;
321               VARRAY_PUSH_INT (file_locators_locs, loc);
322               VARRAY_PUSH_CHAR_PTR (file_locators_files, (char *) file_name);
323               last_file_name = file_name;
324             }
325           if (!prologue_locator && file_name)
326             prologue_locator = loc;
327           if (!next)
328             epilogue_locator = loc;
329           if (active)
330             INSN_LOCATOR (insn) = loc;
331         }
332     }
333
334   /* Tag the blocks with a depth number so that change_scope can find
335      the common parent easily.  */
336   set_block_levels (DECL_INITIAL (cfun->decl), 0);
337
338   free_block_changes ();
339 }
340
341 /* For each lexical block, set BLOCK_NUMBER to the depth at which it is
342    found in the block tree.  */
343
344 static void
345 set_block_levels (tree block, int level)
346 {
347   while (block)
348     {
349       BLOCK_NUMBER (block) = level;
350       set_block_levels (BLOCK_SUBBLOCKS (block), level + 1);
351       block = BLOCK_CHAIN (block);
352     }
353 }
354 \f
355 /* Return sope resulting from combination of S1 and S2.  */
356 tree
357 choose_inner_scope (tree s1, tree s2)
358 {
359    if (!s1)
360      return s2;
361    if (!s2)
362      return s1;
363    if (BLOCK_NUMBER (s1) > BLOCK_NUMBER (s2))
364      return s1;
365    return s2;
366 }
367 \f
368 /* Emit lexical block notes needed to change scope from S1 to S2.  */
369
370 static void
371 change_scope (rtx orig_insn, tree s1, tree s2)
372 {
373   rtx insn = orig_insn;
374   tree com = NULL_TREE;
375   tree ts1 = s1, ts2 = s2;
376   tree s;
377
378   while (ts1 != ts2)
379     {
380       if (ts1 == NULL || ts2 == NULL)
381         abort ();
382       if (BLOCK_NUMBER (ts1) > BLOCK_NUMBER (ts2))
383         ts1 = BLOCK_SUPERCONTEXT (ts1);
384       else if (BLOCK_NUMBER (ts1) < BLOCK_NUMBER (ts2))
385         ts2 = BLOCK_SUPERCONTEXT (ts2);
386       else
387         {
388           ts1 = BLOCK_SUPERCONTEXT (ts1);
389           ts2 = BLOCK_SUPERCONTEXT (ts2);
390         }
391     }
392   com = ts1;
393
394   /* Close scopes.  */
395   s = s1;
396   while (s != com)
397     {
398       rtx note = emit_note_before (NOTE_INSN_BLOCK_END, insn);
399       NOTE_BLOCK (note) = s;
400       s = BLOCK_SUPERCONTEXT (s);
401     }
402
403   /* Open scopes.  */
404   s = s2;
405   while (s != com)
406     {
407       insn = emit_note_before (NOTE_INSN_BLOCK_BEG, insn);
408       NOTE_BLOCK (insn) = s;
409       s = BLOCK_SUPERCONTEXT (s);
410     }
411 }
412
413 /* Return lexical scope block insn belong to.  */
414 static tree
415 insn_scope (rtx insn)
416 {
417   int max = VARRAY_ACTIVE_SIZE (block_locators_locs);
418   int min = 0;
419   int loc = INSN_LOCATOR (insn);
420
421   /* When block_locators_locs was initialized, the pro- and epilogue
422      insns didn't exist yet and can therefore not be found this way.
423      But we know that they belong to the outer most block of the
424      current function.
425      Without this test, the prologue would be put inside the block of
426      the first valid instruction in the function and when that first
427      insn is part of an inlined function then the low_pc of that
428      inlined function is messed up.  Likewise for the epilogue and
429      the last valid instruction.  */
430   if (loc == prologue_locator || loc == epilogue_locator)
431     return DECL_INITIAL (cfun->decl);
432
433   if (!max || !loc)
434     return NULL;
435   while (1)
436     {
437       int pos = (min + max) / 2;
438       int tmp = VARRAY_INT (block_locators_locs, pos);
439
440       if (tmp <= loc && min != pos)
441         min = pos;
442       else if (tmp > loc && max != pos)
443         max = pos;
444       else
445         {
446           min = pos;
447           break;
448         }
449     }
450    return VARRAY_TREE (block_locators_blocks, min);
451 }
452
453 /* Return line number of the statement specified by the locator.  */
454 int
455 locator_line (int loc)
456 {
457   int max = VARRAY_ACTIVE_SIZE (line_locators_locs);
458   int min = 0;
459
460   if (!max || !loc)
461     return 0;
462   while (1)
463     {
464       int pos = (min + max) / 2;
465       int tmp = VARRAY_INT (line_locators_locs, pos);
466
467       if (tmp <= loc && min != pos)
468         min = pos;
469       else if (tmp > loc && max != pos)
470         max = pos;
471       else
472         {
473           min = pos;
474           break;
475         }
476     }
477    return VARRAY_INT (line_locators_lines, min);
478 }
479
480 /* Return line number of the statement that produced this insn.  */
481 int
482 insn_line (rtx insn)
483 {
484   return locator_line (INSN_LOCATOR (insn));
485 }
486
487 /* Return source file of the statement specified by LOC.  */
488 const char *
489 locator_file (int loc)
490 {
491   int max = VARRAY_ACTIVE_SIZE (file_locators_locs);
492   int min = 0;
493
494   if (!max || !loc)
495     return NULL;
496   while (1)
497     {
498       int pos = (min + max) / 2;
499       int tmp = VARRAY_INT (file_locators_locs, pos);
500
501       if (tmp <= loc && min != pos)
502         min = pos;
503       else if (tmp > loc && max != pos)
504         max = pos;
505       else
506         {
507           min = pos;
508           break;
509         }
510     }
511    return VARRAY_CHAR_PTR (file_locators_files, min);
512 }
513
514 /* Return source file of the statement that produced this insn.  */
515 const char *
516 insn_file (rtx insn)
517 {
518   return locator_file (INSN_LOCATOR (insn));
519 }
520
521 /* Rebuild all the NOTE_INSN_BLOCK_BEG and NOTE_INSN_BLOCK_END notes based
522    on the scope tree and the newly reordered instructions.  */
523
524 void
525 reemit_insn_block_notes (void)
526 {
527   tree cur_block = DECL_INITIAL (cfun->decl);
528   rtx insn, note;
529
530   insn = get_insns ();
531   if (!active_insn_p (insn))
532     insn = next_active_insn (insn);
533   for (; insn; insn = next_active_insn (insn))
534     {
535       tree this_block;
536
537       this_block = insn_scope (insn);
538       /* For sequences compute scope resulting from merging all scopes
539          of instructions nested inside.  */
540       if (GET_CODE (PATTERN (insn)) == SEQUENCE)
541         {
542           int i;
543           rtx body = PATTERN (insn);
544
545           this_block = NULL;
546           for (i = 0; i < XVECLEN (body, 0); i++)
547             this_block = choose_inner_scope (this_block,
548                                          insn_scope (XVECEXP (body, 0, i)));
549         }
550       if (! this_block)
551         continue;
552
553       if (this_block != cur_block)
554         {
555           change_scope (insn, cur_block, this_block);
556           cur_block = this_block;
557         }
558     }
559
560   /* change_scope emits before the insn, not after.  */
561   note = emit_note (NOTE_INSN_DELETED);
562   change_scope (note, cur_block, DECL_INITIAL (cfun->decl));
563   delete_insn (note);
564
565   reorder_blocks ();
566 }
567 \f
568 /* Given a reorder chain, rearrange the code to match.  */
569
570 static void
571 fixup_reorder_chain (void)
572 {
573   basic_block bb, prev_bb;
574   int index;
575   rtx insn = NULL;
576
577   if (cfg_layout_function_header)
578     {
579       set_first_insn (cfg_layout_function_header);
580       insn = cfg_layout_function_header;
581       while (NEXT_INSN (insn))
582         insn = NEXT_INSN (insn);
583     }
584
585   /* First do the bulk reordering -- rechain the blocks without regard to
586      the needed changes to jumps and labels.  */
587
588   for (bb = ENTRY_BLOCK_PTR->next_bb, index = 0;
589        bb != 0;
590        bb = bb->rbi->next, index++)
591     {
592       if (bb->rbi->header)
593         {
594           if (insn)
595             NEXT_INSN (insn) = bb->rbi->header;
596           else
597             set_first_insn (bb->rbi->header);
598           PREV_INSN (bb->rbi->header) = insn;
599           insn = bb->rbi->header;
600           while (NEXT_INSN (insn))
601             insn = NEXT_INSN (insn);
602         }
603       if (insn)
604         NEXT_INSN (insn) = BB_HEAD (bb);
605       else
606         set_first_insn (BB_HEAD (bb));
607       PREV_INSN (BB_HEAD (bb)) = insn;
608       insn = BB_END (bb);
609       if (bb->rbi->footer)
610         {
611           NEXT_INSN (insn) = bb->rbi->footer;
612           PREV_INSN (bb->rbi->footer) = insn;
613           while (NEXT_INSN (insn))
614             insn = NEXT_INSN (insn);
615         }
616     }
617
618   if (index != n_basic_blocks)
619     abort ();
620
621   NEXT_INSN (insn) = cfg_layout_function_footer;
622   if (cfg_layout_function_footer)
623     PREV_INSN (cfg_layout_function_footer) = insn;
624
625   while (NEXT_INSN (insn))
626     insn = NEXT_INSN (insn);
627
628   set_last_insn (insn);
629 #ifdef ENABLE_CHECKING
630   verify_insn_chain ();
631 #endif
632   delete_dead_jumptables ();
633
634   /* Now add jumps and labels as needed to match the blocks new
635      outgoing edges.  */
636
637   for (bb = ENTRY_BLOCK_PTR->next_bb; bb ; bb = bb->rbi->next)
638     {
639       edge e_fall, e_taken, e;
640       rtx bb_end_insn;
641       basic_block nb;
642       basic_block old_bb;
643
644       if (bb->succ == NULL)
645         continue;
646
647       /* Find the old fallthru edge, and another non-EH edge for
648          a taken jump.  */
649       e_taken = e_fall = NULL;
650       for (e = bb->succ; e ; e = e->succ_next)
651         if (e->flags & EDGE_FALLTHRU)
652           e_fall = e;
653         else if (! (e->flags & EDGE_EH))
654           e_taken = e;
655
656       bb_end_insn = BB_END (bb);
657       if (JUMP_P (bb_end_insn))
658         {
659           if (any_condjump_p (bb_end_insn))
660             {
661               /* If the old fallthru is still next, nothing to do.  */
662               if (bb->rbi->next == e_fall->dest
663                   || e_fall->dest == EXIT_BLOCK_PTR)
664                 continue;
665
666               /* The degenerated case of conditional jump jumping to the next
667                  instruction can happen on target having jumps with side
668                  effects.
669
670                  Create temporarily the duplicated edge representing branch.
671                  It will get unidentified by force_nonfallthru_and_redirect
672                  that would otherwise get confused by fallthru edge not pointing
673                  to the next basic block.  */
674               if (!e_taken)
675                 {
676                   rtx note;
677                   edge e_fake;
678
679                   e_fake = unchecked_make_edge (bb, e_fall->dest, 0);
680
681                   if (!redirect_jump (BB_END (bb), block_label (bb), 0))
682                     abort ();
683                   note = find_reg_note (BB_END (bb), REG_BR_PROB, NULL_RTX);
684                   if (note)
685                     {
686                       int prob = INTVAL (XEXP (note, 0));
687
688                       e_fake->probability = prob;
689                       e_fake->count = e_fall->count * prob / REG_BR_PROB_BASE;
690                       e_fall->probability -= e_fall->probability;
691                       e_fall->count -= e_fake->count;
692                       if (e_fall->probability < 0)
693                         e_fall->probability = 0;
694                       if (e_fall->count < 0)
695                         e_fall->count = 0;
696                     }
697                 }
698               /* There is one special case: if *neither* block is next,
699                  such as happens at the very end of a function, then we'll
700                  need to add a new unconditional jump.  Choose the taken
701                  edge based on known or assumed probability.  */
702               else if (bb->rbi->next != e_taken->dest)
703                 {
704                   rtx note = find_reg_note (bb_end_insn, REG_BR_PROB, 0);
705
706                   if (note
707                       && INTVAL (XEXP (note, 0)) < REG_BR_PROB_BASE / 2
708                       && invert_jump (bb_end_insn,
709                                       (e_fall->dest == EXIT_BLOCK_PTR
710                                        ? NULL_RTX
711                                        : label_for_bb (e_fall->dest)), 0))
712                     {
713                       e_fall->flags &= ~EDGE_FALLTHRU;
714 #ifdef ENABLE_CHECKING
715                       if (!could_fall_through (e_taken->src, e_taken->dest))
716                         abort ();
717 #endif
718                       e_taken->flags |= EDGE_FALLTHRU;
719                       update_br_prob_note (bb);
720                       e = e_fall, e_fall = e_taken, e_taken = e;
721                     }
722                 }
723
724               /* If the "jumping" edge is a crossing edge, and the fall
725                  through edge is non-crossing, leave things as they are.  */
726               else if (e_taken->crossing_edge && !e_fall->crossing_edge)
727                 continue;
728
729               /* Otherwise we can try to invert the jump.  This will
730                  basically never fail, however, keep up the pretense.  */
731               else if (invert_jump (bb_end_insn,
732                                     (e_fall->dest == EXIT_BLOCK_PTR
733                                      ? NULL_RTX
734                                      : label_for_bb (e_fall->dest)), 0))
735                 {
736                   e_fall->flags &= ~EDGE_FALLTHRU;
737 #ifdef ENABLE_CHECKING
738                   if (!could_fall_through (e_taken->src, e_taken->dest))
739                     abort ();
740 #endif
741                   e_taken->flags |= EDGE_FALLTHRU;
742                   update_br_prob_note (bb);
743                   continue;
744                 }
745             }
746           else if (returnjump_p (bb_end_insn))
747             continue;
748           else
749             {
750               /* Otherwise we have some switch or computed jump.  In the
751                  99% case, there should not have been a fallthru edge.  */
752               if (! e_fall)
753                 continue;
754
755 #ifdef CASE_DROPS_THROUGH
756               /* Except for VAX.  Since we didn't have predication for the
757                  tablejump, the fallthru block should not have moved.  */
758               if (bb->rbi->next == e_fall->dest)
759                 continue;
760               bb_end_insn = skip_insns_after_block (bb);
761 #else
762               abort ();
763 #endif
764             }
765         }
766       else
767         {
768           /* No fallthru implies a noreturn function with EH edges, or
769              something similarly bizarre.  In any case, we don't need to
770              do anything.  */
771           if (! e_fall)
772             continue;
773
774           /* If the fallthru block is still next, nothing to do.  */
775           if (bb->rbi->next == e_fall->dest)
776             continue;
777
778           /* A fallthru to exit block.  */
779           if (e_fall->dest == EXIT_BLOCK_PTR)
780             continue;
781         }
782
783       /* We got here if we need to add a new jump insn.  */
784       nb = force_nonfallthru (e_fall);
785       if (nb)
786         {
787           initialize_bb_rbi (nb);
788           nb->rbi->visited = 1;
789           nb->rbi->next = bb->rbi->next;
790           bb->rbi->next = nb;
791           /* Don't process this new block.  */
792           old_bb = bb;
793           bb = nb;
794           
795           /* Make sure new bb is tagged for correct section (same as
796              fall-thru source).  */
797           e_fall->src->partition = bb->pred->src->partition;
798           if (flag_reorder_blocks_and_partition)
799             {
800               if (bb->pred->src->partition == COLD_PARTITION)
801                 {
802                   rtx new_note;
803                   rtx note = BB_HEAD (e_fall->src);
804                   
805                   while (!INSN_P (note)
806                          && note != BB_END (e_fall->src))
807                     note = NEXT_INSN (note);
808                   
809                   new_note = emit_note_before 
810                                           (NOTE_INSN_UNLIKELY_EXECUTED_CODE, 
811                                            note);
812                   NOTE_BASIC_BLOCK (new_note) = bb;
813                 }
814               if (JUMP_P (BB_END (bb))
815                   && !any_condjump_p (BB_END (bb))
816                   && bb->succ->crossing_edge )
817                 REG_NOTES (BB_END (bb)) = gen_rtx_EXPR_LIST 
818                   (REG_CROSSING_JUMP, NULL_RTX, REG_NOTES (BB_END (bb)));
819             }
820         }
821     }
822
823   /* Put basic_block_info in the new order.  */
824
825   if (dump_file)
826     {
827       fprintf (dump_file, "Reordered sequence:\n");
828       for (bb = ENTRY_BLOCK_PTR->next_bb, index = 0;
829            bb;
830            bb = bb->rbi->next, index++)
831         {
832           fprintf (dump_file, " %i ", index);
833           if (bb->rbi->original)
834             fprintf (dump_file, "duplicate of %i ",
835                      bb->rbi->original->index);
836           else if (forwarder_block_p (bb)
837                    && !LABEL_P (BB_HEAD (bb)))
838             fprintf (dump_file, "compensation ");
839           else
840             fprintf (dump_file, "bb %i ", bb->index);
841           fprintf (dump_file, " [%i]\n", bb->frequency);
842         }
843     }
844
845   prev_bb = ENTRY_BLOCK_PTR;
846   bb = ENTRY_BLOCK_PTR->next_bb;
847   index = 0;
848
849   for (; bb; prev_bb = bb, bb = bb->rbi->next, index ++)
850     {
851       bb->index = index;
852       BASIC_BLOCK (index) = bb;
853
854       update_unlikely_executed_notes (bb);
855
856       bb->prev_bb = prev_bb;
857       prev_bb->next_bb = bb;
858     }
859   prev_bb->next_bb = EXIT_BLOCK_PTR;
860   EXIT_BLOCK_PTR->prev_bb = prev_bb;
861
862   /* Annoying special case - jump around dead jumptables left in the code.  */
863   FOR_EACH_BB (bb)
864     {
865       edge e;
866       for (e = bb->succ; e && !(e->flags & EDGE_FALLTHRU); e = e->succ_next)
867         continue;
868       if (e && !can_fallthru (e->src, e->dest))
869         force_nonfallthru (e);
870     }
871 }
872 \f
873 /* Update the basic block number information in any 
874    NOTE_INSN_UNLIKELY_EXECUTED_CODE notes within the basic block.  */
875
876 static void
877 update_unlikely_executed_notes (basic_block bb)
878 {
879   rtx cur_insn;
880
881   for (cur_insn = BB_HEAD (bb); cur_insn != BB_END (bb); 
882        cur_insn = NEXT_INSN (cur_insn)) 
883     if (NOTE_P (cur_insn)
884         && NOTE_LINE_NUMBER (cur_insn) == NOTE_INSN_UNLIKELY_EXECUTED_CODE)
885       NOTE_BASIC_BLOCK (cur_insn) = bb;
886 }
887 \f
888 /* Perform sanity checks on the insn chain.
889    1. Check that next/prev pointers are consistent in both the forward and
890       reverse direction.
891    2. Count insns in chain, going both directions, and check if equal.
892    3. Check that get_last_insn () returns the actual end of chain.  */
893
894 void
895 verify_insn_chain (void)
896 {
897   rtx x, prevx, nextx;
898   int insn_cnt1, insn_cnt2;
899
900   for (prevx = NULL, insn_cnt1 = 1, x = get_insns ();
901        x != 0;
902        prevx = x, insn_cnt1++, x = NEXT_INSN (x))
903     if (PREV_INSN (x) != prevx)
904       abort ();
905
906   if (prevx != get_last_insn ())
907     abort ();
908
909   for (nextx = NULL, insn_cnt2 = 1, x = get_last_insn ();
910        x != 0;
911        nextx = x, insn_cnt2++, x = PREV_INSN (x))
912     if (NEXT_INSN (x) != nextx)
913       abort ();
914
915   if (insn_cnt1 != insn_cnt2)
916     abort ();
917 }
918 \f
919 /* If we have assembler epilogues, the block falling through to exit must
920    be the last one in the reordered chain when we reach final.  Ensure
921    that this condition is met.  */
922 static void
923 fixup_fallthru_exit_predecessor (void)
924 {
925   edge e;
926   basic_block bb = NULL;
927
928   /* This transformation is not valid before reload, because we might separate
929      a call from the instruction that copies the return value.  */
930   if (! reload_completed)
931     abort ();
932
933   for (e = EXIT_BLOCK_PTR->pred; e; e = e->pred_next)
934     if (e->flags & EDGE_FALLTHRU)
935       bb = e->src;
936
937   if (bb && bb->rbi->next)
938     {
939       basic_block c = ENTRY_BLOCK_PTR->next_bb;
940
941       /* If the very first block is the one with the fall-through exit
942          edge, we have to split that block.  */
943       if (c == bb)
944         {
945           bb = split_block (bb, NULL)->dest;
946           initialize_bb_rbi (bb);
947           bb->rbi->next = c->rbi->next;
948           c->rbi->next = bb;
949           bb->rbi->footer = c->rbi->footer;
950           c->rbi->footer = NULL;
951         }
952
953       while (c->rbi->next != bb)
954         c = c->rbi->next;
955
956       c->rbi->next = bb->rbi->next;
957       while (c->rbi->next)
958         c = c->rbi->next;
959
960       c->rbi->next = bb;
961       bb->rbi->next = NULL;
962     }
963 }
964 \f
965 /* Return true in case it is possible to duplicate the basic block BB.  */
966
967 /* We do not want to declare the function in a header file, since it should
968    only be used through the cfghooks interface, and we do not want to move
969    it to cfgrtl.c since it would require also moving quite a lot of related
970    code.  */
971 extern bool cfg_layout_can_duplicate_bb_p (basic_block);
972
973 bool
974 cfg_layout_can_duplicate_bb_p (basic_block bb)
975 {
976   /* Do not attempt to duplicate tablejumps, as we need to unshare
977      the dispatch table.  This is difficult to do, as the instructions
978      computing jump destination may be hoisted outside the basic block.  */
979   if (tablejump_p (BB_END (bb), NULL, NULL))
980     return false;
981
982   /* Do not duplicate blocks containing insns that can't be copied.  */
983   if (targetm.cannot_copy_insn_p)
984     {
985       rtx insn = BB_HEAD (bb);
986       while (1)
987         {
988           if (INSN_P (insn) && targetm.cannot_copy_insn_p (insn))
989             return false;
990           if (insn == BB_END (bb))
991             break;
992           insn = NEXT_INSN (insn);
993         }
994     }
995
996   return true;
997 }
998
999 rtx
1000 duplicate_insn_chain (rtx from, rtx to)
1001 {
1002   rtx insn, last;
1003
1004   /* Avoid updating of boundaries of previous basic block.  The
1005      note will get removed from insn stream in fixup.  */
1006   last = emit_note (NOTE_INSN_DELETED);
1007
1008   /* Create copy at the end of INSN chain.  The chain will
1009      be reordered later.  */
1010   for (insn = from; insn != NEXT_INSN (to); insn = NEXT_INSN (insn))
1011     {
1012       switch (GET_CODE (insn))
1013         {
1014         case INSN:
1015         case CALL_INSN:
1016         case JUMP_INSN:
1017           /* Avoid copying of dispatch tables.  We never duplicate
1018              tablejumps, so this can hit only in case the table got
1019              moved far from original jump.  */
1020           if (GET_CODE (PATTERN (insn)) == ADDR_VEC
1021               || GET_CODE (PATTERN (insn)) == ADDR_DIFF_VEC)
1022             break;
1023           emit_copy_of_insn_after (insn, get_last_insn ());
1024           break;
1025
1026         case CODE_LABEL:
1027           break;
1028
1029         case BARRIER:
1030           emit_barrier ();
1031           break;
1032
1033         case NOTE:
1034           switch (NOTE_LINE_NUMBER (insn))
1035             {
1036               /* In case prologue is empty and function contain label
1037                  in first BB, we may want to copy the block.  */
1038             case NOTE_INSN_PROLOGUE_END:
1039
1040             case NOTE_INSN_LOOP_VTOP:
1041             case NOTE_INSN_LOOP_CONT:
1042             case NOTE_INSN_LOOP_BEG:
1043             case NOTE_INSN_LOOP_END:
1044               /* Strip down the loop notes - we don't really want to keep
1045                  them consistent in loop copies.  */
1046             case NOTE_INSN_DELETED:
1047             case NOTE_INSN_DELETED_LABEL:
1048               /* No problem to strip these.  */
1049             case NOTE_INSN_EPILOGUE_BEG:
1050             case NOTE_INSN_FUNCTION_END:
1051               /* Debug code expect these notes to exist just once.
1052                  Keep them in the master copy.
1053                  ??? It probably makes more sense to duplicate them for each
1054                  epilogue copy.  */
1055             case NOTE_INSN_FUNCTION_BEG:
1056               /* There is always just single entry to function.  */
1057             case NOTE_INSN_BASIC_BLOCK:
1058               break;
1059
1060               /* There is no purpose to duplicate prologue.  */
1061             case NOTE_INSN_BLOCK_BEG:
1062             case NOTE_INSN_BLOCK_END:
1063               /* The BLOCK_BEG/BLOCK_END notes should be eliminated when BB
1064                  reordering is in the progress.  */
1065             case NOTE_INSN_EH_REGION_BEG:
1066             case NOTE_INSN_EH_REGION_END:
1067               /* Should never exist at BB duplication time.  */
1068               abort ();
1069               break;
1070             case NOTE_INSN_REPEATED_LINE_NUMBER:
1071             case NOTE_INSN_UNLIKELY_EXECUTED_CODE:
1072               emit_note_copy (insn);
1073               break;
1074
1075             default:
1076               if (NOTE_LINE_NUMBER (insn) < 0)
1077                 abort ();
1078               /* It is possible that no_line_number is set and the note
1079                  won't be emitted.  */
1080               emit_note_copy (insn);
1081             }
1082           break;
1083         default:
1084           abort ();
1085         }
1086     }
1087   insn = NEXT_INSN (last);
1088   delete_insn (last);
1089   return insn;
1090 }
1091 /* Create a duplicate of the basic block BB.  */
1092
1093 /* We do not want to declare the function in a header file, since it should
1094    only be used through the cfghooks interface, and we do not want to move
1095    it to cfgrtl.c since it would require also moving quite a lot of related
1096    code.  */
1097 extern basic_block cfg_layout_duplicate_bb (basic_block);
1098
1099 basic_block
1100 cfg_layout_duplicate_bb (basic_block bb)
1101 {
1102   rtx insn;
1103   basic_block new_bb;
1104
1105   insn = duplicate_insn_chain (BB_HEAD (bb), BB_END (bb));
1106   new_bb = create_basic_block (insn,
1107                                insn ? get_last_insn () : NULL,
1108                                EXIT_BLOCK_PTR->prev_bb);
1109
1110   if (bb->rbi->header)
1111     {
1112       insn = bb->rbi->header;
1113       while (NEXT_INSN (insn))
1114         insn = NEXT_INSN (insn);
1115       insn = duplicate_insn_chain (bb->rbi->header, insn);
1116       if (insn)
1117         new_bb->rbi->header = unlink_insn_chain (insn, get_last_insn ());
1118     }
1119
1120   if (bb->rbi->footer)
1121     {
1122       insn = bb->rbi->footer;
1123       while (NEXT_INSN (insn))
1124         insn = NEXT_INSN (insn);
1125       insn = duplicate_insn_chain (bb->rbi->footer, insn);
1126       if (insn)
1127         new_bb->rbi->footer = unlink_insn_chain (insn, get_last_insn ());
1128     }
1129
1130   if (bb->global_live_at_start)
1131     {
1132       new_bb->global_live_at_start = OBSTACK_ALLOC_REG_SET (&flow_obstack);
1133       new_bb->global_live_at_end = OBSTACK_ALLOC_REG_SET (&flow_obstack);
1134       COPY_REG_SET (new_bb->global_live_at_start, bb->global_live_at_start);
1135       COPY_REG_SET (new_bb->global_live_at_end, bb->global_live_at_end);
1136     }
1137
1138   return new_bb;
1139 }
1140 \f
1141 /* Main entry point to this module - initialize the datastructures for
1142    CFG layout changes.  It keeps LOOPS up-to-date if not null.
1143
1144    FLAGS is a set of additional flags to pass to cleanup_cfg().  It should
1145    include CLEANUP_UPDATE_LIFE if liveness information must be kept up
1146    to date.  */
1147
1148 void
1149 cfg_layout_initialize (unsigned int flags)
1150 {
1151   basic_block bb;
1152
1153   /* Our algorithm depends on fact that there are no dead jumptables
1154      around the code.  */
1155   alloc_rbi_pool ();
1156
1157   FOR_BB_BETWEEN (bb, ENTRY_BLOCK_PTR, NULL, next_bb)
1158     initialize_bb_rbi (bb);
1159
1160   cfg_layout_rtl_register_cfg_hooks ();
1161
1162   record_effective_endpoints ();
1163
1164   cleanup_cfg (CLEANUP_CFGLAYOUT | flags);
1165 }
1166
1167 /* Splits superblocks.  */
1168 void
1169 break_superblocks (void)
1170 {
1171   sbitmap superblocks;
1172   bool need = false;
1173   basic_block bb;
1174
1175   superblocks = sbitmap_alloc (last_basic_block);
1176   sbitmap_zero (superblocks);
1177
1178   FOR_EACH_BB (bb)
1179     if (bb->flags & BB_SUPERBLOCK)
1180       {
1181         bb->flags &= ~BB_SUPERBLOCK;
1182         SET_BIT (superblocks, bb->index);
1183         need = true;
1184       }
1185
1186   if (need)
1187     {
1188       rebuild_jump_labels (get_insns ());
1189       find_many_sub_basic_blocks (superblocks);
1190     }
1191
1192   free (superblocks);
1193 }
1194
1195 /* Finalize the changes: reorder insn list according to the sequence, enter
1196    compensation code, rebuild scope forest.  */
1197
1198 void
1199 cfg_layout_finalize (void)
1200 {
1201   basic_block bb;
1202
1203 #ifdef ENABLE_CHECKING
1204   verify_flow_info ();
1205 #endif
1206   rtl_register_cfg_hooks ();
1207   if (reload_completed
1208 #ifdef HAVE_epilogue
1209       && !HAVE_epilogue
1210 #endif
1211       )
1212     fixup_fallthru_exit_predecessor ();
1213   fixup_reorder_chain ();
1214
1215 #ifdef ENABLE_CHECKING
1216   verify_insn_chain ();
1217 #endif
1218
1219   free_rbi_pool ();
1220   FOR_BB_BETWEEN (bb, ENTRY_BLOCK_PTR, NULL, next_bb)
1221     bb->rbi = NULL;
1222
1223   break_superblocks ();
1224
1225 #ifdef ENABLE_CHECKING
1226   verify_flow_info ();
1227 #endif
1228 }
1229
1230 /* Checks whether all N blocks in BBS array can be copied.  */
1231 bool
1232 can_copy_bbs_p (basic_block *bbs, unsigned n)
1233 {
1234   unsigned i;
1235   edge e;
1236   int ret = true;
1237
1238   for (i = 0; i < n; i++)
1239     bbs[i]->rbi->duplicated = 1;
1240
1241   for (i = 0; i < n; i++)
1242     {
1243       /* In case we should redirect abnormal edge during duplication, fail.  */
1244       for (e = bbs[i]->succ; e; e = e->succ_next)
1245         if ((e->flags & EDGE_ABNORMAL)
1246             && e->dest->rbi->duplicated)
1247           {
1248             ret = false;
1249             goto end;
1250           }
1251
1252       if (!can_duplicate_block_p (bbs[i]))
1253         {
1254           ret = false;
1255           break;
1256         }
1257     }
1258
1259 end:
1260   for (i = 0; i < n; i++)
1261     bbs[i]->rbi->duplicated = 0;
1262
1263   return ret;
1264 }
1265
1266 /* Duplicates N basic blocks stored in array BBS.  Newly created basic blocks
1267    are placed into array NEW_BBS in the same order.  Edges from basic blocks
1268    in BBS are also duplicated and copies of those of them
1269    that lead into BBS are redirected to appropriate newly created block.  The
1270    function assigns bbs into loops (copy of basic block bb is assigned to
1271    bb->loop_father->copy loop, so this must be set up correctly in advance)
1272    and updates dominators locally (LOOPS structure that contains the information
1273    about dominators is passed to enable this).
1274
1275    BASE is the superloop to that basic block belongs; if its header or latch
1276    is copied, we do not set the new blocks as header or latch.
1277
1278    Created copies of N_EDGES edges in array EDGES are stored in array NEW_EDGES,
1279    also in the same order.  */
1280
1281 void
1282 copy_bbs (basic_block *bbs, unsigned n, basic_block *new_bbs,
1283           edge *edges, unsigned n_edges, edge *new_edges,
1284           struct loop *base)
1285 {
1286   unsigned i, j;
1287   basic_block bb, new_bb, dom_bb;
1288   edge e;
1289
1290   /* Duplicate bbs, update dominators, assign bbs to loops.  */
1291   for (i = 0; i < n; i++)
1292     {
1293       /* Duplicate.  */
1294       bb = bbs[i];
1295       new_bb = new_bbs[i] = duplicate_block (bb, NULL);
1296       bb->rbi->duplicated = 1;
1297       /* Add to loop.  */
1298       add_bb_to_loop (new_bb, bb->loop_father->copy);
1299       /* Possibly set header.  */
1300       if (bb->loop_father->header == bb && bb->loop_father != base)
1301         new_bb->loop_father->header = new_bb;
1302       /* Or latch.  */
1303       if (bb->loop_father->latch == bb && bb->loop_father != base)
1304         new_bb->loop_father->latch = new_bb;
1305     }
1306
1307   /* Set dominators.  */
1308   for (i = 0; i < n; i++)
1309     {
1310       bb = bbs[i];
1311       new_bb = new_bbs[i];
1312
1313       dom_bb = get_immediate_dominator (CDI_DOMINATORS, bb);
1314       if (dom_bb->rbi->duplicated)
1315         {
1316           dom_bb = dom_bb->rbi->copy;
1317           set_immediate_dominator (CDI_DOMINATORS, new_bb, dom_bb);
1318         }
1319     }
1320
1321   /* Redirect edges.  */
1322   for (j = 0; j < n_edges; j++)
1323     new_edges[j] = NULL;
1324   for (i = 0; i < n; i++)
1325     {
1326       new_bb = new_bbs[i];
1327       bb = bbs[i];
1328
1329       for (e = new_bb->succ; e; e = e->succ_next)
1330         {
1331           for (j = 0; j < n_edges; j++)
1332             if (edges[j] && edges[j]->src == bb && edges[j]->dest == e->dest)
1333               new_edges[j] = e;
1334
1335           if (!e->dest->rbi->duplicated)
1336             continue;
1337           redirect_edge_and_branch_force (e, e->dest->rbi->copy);
1338         }
1339     }
1340
1341   /* Clear information about duplicates.  */
1342   for (i = 0; i < n; i++)
1343     bbs[i]->rbi->duplicated = 0;
1344 }
1345
1346 #include "gt-cfglayout.h"