OSDN Git Service

Change copyright header to refer to version 3 of the GNU General Public License and...
[pf3gnuchains/gcc-fork.git] / gcc / df-core.c
1 /* Allocation for dataflow support routines.
2    Copyright (C) 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007
3    Free Software Foundation, Inc.
4    Originally contributed by Michael P. Hayes 
5              (m.hayes@elec.canterbury.ac.nz, mhayes@redhat.com)
6    Major rewrite contributed by Danny Berlin (dberlin@dberlin.org)
7              and Kenneth Zadeck (zadeck@naturalbridge.com).
8
9 This file is part of GCC.
10
11 GCC is free software; you can redistribute it and/or modify it under
12 the terms of the GNU General Public License as published by the Free
13 Software Foundation; either version 3, or (at your option) any later
14 version.
15
16 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
17 WARRANTY; without even the implied warranty of MERCHANTABILITY or
18 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
19 for more details.
20
21 You should have received a copy of the GNU General Public License
22 along with GCC; see the file COPYING3.  If not see
23 <http://www.gnu.org/licenses/>.  */
24
25 /*
26 OVERVIEW:
27
28 The files in this collection (df*.c,df.h) provide a general framework
29 for solving dataflow problems.  The global dataflow is performed using
30 a good implementation of iterative dataflow analysis.
31
32 The file df-problems.c provides problem instance for the most common
33 dataflow problems: reaching defs, upward exposed uses, live variables,
34 uninitialized variables, def-use chains, and use-def chains.  However,
35 the interface allows other dataflow problems to be defined as well.
36
37 Dataflow analysis is available in most of the rtl backend (the parts
38 between pass_df_initialize and pass_df_finish).  It is quite likely
39 that these boundaries will be expanded in the future.  The only
40 requirement is that there be a correct control flow graph.
41
42 There are three variations of the live variable problem that are
43 available whenever dataflow is available.  The LR problem finds the
44 areas that can reach a use of a variable, the UR problems finds the
45 areas tha can be reached from a definition of a variable.  The LIVE
46 problem finds the intersection of these two areas.  
47
48 There are several optional problems.  These can be enabled when they
49 are needed and disabled when they are not needed.
50
51 Dataflow problems are generally solved in three layers.  The bottom
52 layer is called scanning where a data structure is built for each rtl
53 insn that describes the set of defs and uses of that insn.  Scanning
54 is generally kept up to date, i.e. as the insns changes, the scanned
55 version of that insn changes also.  There are various mechanisms for
56 making this happen and are described in the INCREMENTAL SCANNING
57 section.
58
59 In the middle layer, basic blocks are scanned to produce transfer
60 functions which describe the effects of that block on the a global
61 dataflow solution.  The transfer functions are only rebuilt if the
62 some instruction within the block has changed.  
63
64 The top layer is the dataflow solution itself.  The dataflow solution
65 is computed by using an efficient iterative solver and the transfer
66 functions.  The dataflow solution must be recomputed whenever the
67 control changes or if one of the transfer function changes.
68
69
70 USAGE:
71
72 Here is an example of using the dataflow routines.
73
74       df_[ru,rd,urec,ri,chain]_add_problem (flags);
75
76       df_set_blocks (blocks);
77
78       df_analyze ();
79
80       df_dump (stderr);
81
82       df_finish_pass ();
83
84 DF_[ru,rd,urec,ri,chain]_ADD_PROBLEM adds a problem, defined by an
85 instance to struct df_problem, to the set of problems solved in this
86 instance of df.  All calls to add a problem for a given instance of df
87 must occur before the first call to DF_ANALYZE.
88
89 Problems can be dependent on other problems.  For instance, solving
90 def-use or use-def chains is dependent on solving reaching
91 definitions. As long as these dependencies are listed in the problem
92 definition, the order of adding the problems is not material.
93 Otherwise, the problems will be solved in the order of calls to
94 df_add_problem.  Note that it is not necessary to have a problem.  In
95 that case, df will just be used to do the scanning.
96
97
98
99 DF_SET_BLOCKS is an optional call used to define a region of the
100 function on which the analysis will be performed.  The normal case is
101 to analyze the entire function and no call to df_set_blocks is made.
102 DF_SET_BLOCKS only effects the blocks that are effected when computing
103 the transfer functions and final solution.  The insn level information
104 is always kept up to date.
105
106 When a subset is given, the analysis behaves as if the function only
107 contains those blocks and any edges that occur directly between the
108 blocks in the set.  Care should be taken to call df_set_blocks right
109 before the call to analyze in order to eliminate the possibility that
110 optimizations that reorder blocks invalidate the bitvector.
111
112 DF_ANALYZE causes all of the defined problems to be (re)solved.  When
113 DF_ANALYZE is completes, the IN and OUT sets for each basic block
114 contain the computer information.  The DF_*_BB_INFO macros can be used
115 to access these bitvectors.  All deferred rescannings are down before
116 the transfer functions are recomputed.
117
118 DF_DUMP can then be called to dump the information produce to some
119 file.  This calls DF_DUMP_START, to print the information that is not
120 basic block specific, and then calls DF_DUMP_TOP and DF_DUMP_BOTTOM
121 for each block to print the basic specific information.  These parts
122 can all be called separately as part of a larger dump function.
123
124
125 DF_FINISH_PASS causes df_remove_problem to be called on all of the
126 optional problems.  It also causes any insns whose scanning has been
127 deferred to be rescanned as well as clears all of the changeable flags.
128 Setting the pass manager TODO_df_finish flag causes this function to
129 be run.  However, the pass manager will call df_finish_pass AFTER the
130 pass dumping has been done, so if you want to see the results of the
131 optional problems in the pass dumps, use the TODO flag rather than
132 calling the function yourself.
133
134 INCREMENTAL SCANNING
135
136 There are four ways of doing the incremental scanning:
137
138 1) Immediate rescanning - Calls to df_insn_rescan, df_notes_rescan,
139    df_bb_delete, df_insn_change_bb have been added to most of
140    the low level service functions that maintain the cfg and change
141    rtl.  Calling and of these routines many cause some number of insns
142    to be rescanned.
143
144    For most modern rtl passes, this is certainly the easiest way to
145    manage rescanning the insns.  This technique also has the advantage
146    that the scanning information is always correct and can be relied
147    apon even after changes have been made to the instructions.  This
148    technique is contra indicated in several cases:
149
150    a) If def-use chains OR use-def chains (but not both) are built,
151       using this is SIMPLY WRONG.  The problem is that when a ref is
152       deleted that is the target of an edge, there is not enough
153       information to efficiently find the source of the edge and
154       delete the edge.  This leaves a dangling reference that may
155       cause problems.
156
157    b) If def-use chains AND use-def chains are built, this may
158       produce unexpected results.  The problem is that the incremental
159       scanning of an insn does not know how to repair the chains that
160       point into an insn when the insn changes.  So the incremental
161       scanning just deletes the chains that enter and exit the insn
162       being changed.  The dangling reference issue in (a) is not a
163       problem here, but if the pass is depending on the chains being
164       maintained after insns have been modified, this technique will
165       not do the correct thing.
166
167    c) If the pass modifies insns several times, this incremental
168       updating may be expensive.
169
170    d) If the pass modifies all of the insns, as does register
171       allocation, it is simply better to rescan the entire function.
172
173    e) If the pass uses either non-standard or ancient techniques to
174       modify insns, automatic detection of the insns that need to be
175       rescanned may be impractical.  Cse and regrename fall into this
176       category.
177
178 2) Deferred rescanning - Calls to df_insn_rescan, df_notes_rescan, and
179    df_insn_delete do not immediately change the insn but instead make
180    a note that the insn needs to be rescanned.  The next call to
181    df_analyze, df_finish_pass, or df_process_deferred_rescans will
182    cause all of the pending rescans to be processed.
183
184    This is the technique of choice if either 1a, 1b, or 1c are issues
185    in the pass.  In the case of 1a or 1b, a call to df_remove_problem
186    (df_chain) should be made before the next call to df_analyze or
187    df_process_deferred_rescans.
188
189    To enable this mode, call df_set_flags (DF_DEFER_INSN_RESCAN).
190    (This mode can be cleared by calling df_clear_flags
191    (DF_DEFER_INSN_RESCAN) but this does not cause the deferred insns to
192    be rescanned.
193
194    3) Total rescanning - In this mode the rescanning is disabled.
195    However, the df information associated with deleted insn is delete
196    at the time the insn is deleted.  At the end of the pass, a call
197    must be made to df_insn_rescan_all.  This method is used by the
198    register allocator since it generally changes each insn multiple
199    times (once for each ref) and does not need to make use of the
200    updated scanning information.
201
202    It is also currently used by two older passes (cse, and regrename)
203    which change insns in hard to track ways.  It is hoped that this
204    will be fixed soon since this it is expensive to rescan all of the
205    insns when only a small number of them have really changed.
206
207 4) Do it yourself - In this mechanism, the pass updates the insns
208    itself using the low level df primitives.  Currently no pass does
209    this, but it has the advantage that it is quite efficient given
210    that the pass generally has exact knowledge of what it is changing.  
211
212 DATA STRUCTURES
213
214 Scanning produces a `struct df_ref' data structure (ref) is allocated
215 for every register reference (def or use) and this records the insn
216 and bb the ref is found within.  The refs are linked together in
217 chains of uses and defs for each insn and for each register.  Each ref
218 also has a chain field that links all the use refs for a def or all
219 the def refs for a use.  This is used to create use-def or def-use
220 chains.
221
222 Different optimizations have different needs.  Ultimately, only
223 register allocation and schedulers should be using the bitmaps
224 produced for the live register and uninitialized register problems.
225 The rest of the backend should be upgraded to using and maintaining
226 the linked information such as def use or use def chains.
227
228
229 PHILOSOPHY:
230
231 While incremental bitmaps are not worthwhile to maintain, incremental
232 chains may be perfectly reasonable.  The fastest way to build chains
233 from scratch or after significant modifications is to build reaching
234 definitions (RD) and build the chains from this.
235
236 However, general algorithms for maintaining use-def or def-use chains
237 are not practical.  The amount of work to recompute the chain any
238 chain after an arbitrary change is large.  However, with a modest
239 amount of work it is generally possible to have the application that
240 uses the chains keep them up to date.  The high level knowledge of
241 what is really happening is essential to crafting efficient
242 incremental algorithms.
243
244 As for the bit vector problems, there is no interface to give a set of
245 blocks over with to resolve the iteration.  In general, restarting a
246 dataflow iteration is difficult and expensive.  Again, the best way to
247 keep the dataflow information up to data (if this is really what is
248 needed) it to formulate a problem specific solution.
249
250 There are fine grained calls for creating and deleting references from
251 instructions in df-scan.c.  However, these are not currently connected
252 to the engine that resolves the dataflow equations.
253
254
255 DATA STRUCTURES:
256
257 The basic object is a DF_REF (reference) and this may either be a 
258 DEF (definition) or a USE of a register.
259
260 These are linked into a variety of lists; namely reg-def, reg-use,
261 insn-def, insn-use, def-use, and use-def lists.  For example, the
262 reg-def lists contain all the locations that define a given register
263 while the insn-use lists contain all the locations that use a
264 register.
265
266 Note that the reg-def and reg-use chains are generally short for
267 pseudos and long for the hard registers.
268
269 ACCESSING INSNS:
270
271 1) The df insn information is kept in the insns array.  This array is
272    indexed by insn uid.  
273
274 2) Each insn has three sets of refs: They are linked into one of three
275    lists: the insn's defs list (accessed by the DF_INSN_DEFS or
276    DF_INSN_UID_DEFS macros), the insn's uses list (accessed by the
277    DF_INSN_USES or DF_INSN_UID_USES macros) or the insn's eq_uses list
278    (accessed by the DF_INSN_EQ_USES or DF_INSN_UID_EQ_USES macros).
279    The latter list are the list of references in REG_EQUAL or
280    REG_EQUIV notes.  These macros produce a ref (or NULL), the rest of
281    the list can be obtained by traversal of the NEXT_REF field
282    (accessed by the DF_REF_NEXT_REF macro.)  There is no significance
283    to the ordering of the uses or refs in an instruction.
284
285 3) Each insn has a logical uid field (LUID).  When properly set, this
286    is an integer that numbers each insn in the basic block, in order from
287    the start of the block.  The numbers are only correct after a call to
288    df_analyse.  They will rot after insns are added deleted or moved
289    around.
290
291 ACCESSING REFS:
292
293 There are 4 ways to obtain access to refs:
294
295 1) References are divided into two categories, REAL and ARTIFICIAL.
296
297    REAL refs are associated with instructions.  
298
299    ARTIFICIAL refs are associated with basic blocks.  The heads of
300    these lists can be accessed by calling df_get_artificial_defs or
301    df_get_artificial_uses for the particular basic block.  
302  
303    Artificial defs and uses occur both at the beginning and ends of blocks.
304
305      For blocks that area at the destination of eh edges, the
306      artificial uses and defs occur at the beginning.  The defs relate
307      to the registers specified in EH_RETURN_DATA_REGNO and the uses
308      relate to the registers specified in ED_USES.  Logically these
309      defs and uses should really occur along the eh edge, but there is
310      no convenient way to do this.  Artificial edges that occur at the
311      beginning of the block have the DF_REF_AT_TOP flag set.
312
313      Artificial uses occur at the end of all blocks.  These arise from
314      the hard registers that are always live, such as the stack
315      register and are put there to keep the code from forgetting about
316      them.
317
318      Artificial defs occur at the end of the entry block.  These arise
319      from registers that are live at entry to the function.
320
321 2) There are three types of refs: defs, uses and eq_uses.  (Eq_uses are 
322    uses that appear inside a REG_EQUAL or REG_EQUIV note.)
323
324    All of the eq_uses, uses and defs associated with each pseudo or
325    hard register may be linked in a bidirectional chain.  These are
326    called reg-use or reg_def chains.  If the changeable flag
327    DF_EQ_NOTES is set when the chains are built, the eq_uses will be
328    treated like uses.  If it is not set they are ignored.  
329
330    The first use, eq_use or def for a register can be obtained using
331    the DF_REG_USE_CHAIN, DF_REG_EQ_USE_CHAIN or DF_REG_DEF_CHAIN
332    macros.  Subsequent uses for the same regno can be obtained by
333    following the next_reg field of the ref.  The number of elements in
334    each of the chains can be found by using the DF_REG_USE_COUNT,
335    DF_REG_EQ_USE_COUNT or DF_REG_DEF_COUNT macros.
336
337    In previous versions of this code, these chains were ordered.  It
338    has not been practical to continue this practice.
339
340 3) If def-use or use-def chains are built, these can be traversed to
341    get to other refs.  If the flag DF_EQ_NOTES has been set, the chains
342    include the eq_uses.  Otherwise these are ignored when building the
343    chains.
344
345 4) An array of all of the uses (and an array of all of the defs) can
346
347    be built.  These arrays are indexed by the value in the id
348    structure.  These arrays are only lazily kept up to date, and that
349    process can be expensive.  To have these arrays built, call
350    df_reorganize_defs or df_reorganize_uses.  If the flag DF_EQ_NOTES
351    has been set the array will contain the eq_uses.  Otherwise these
352    are ignored when building the array and assigning the ids.  Note
353    that the values in the id field of a ref may change across calls to
354    df_analyze or df_reorganize_defs or df_reorganize_uses. 
355
356    If the only use of this array is to find all of the refs, it is
357    better to traverse all of the registers and then traverse all of
358    reg-use or reg-def chains.
359
360 NOTES:
361  
362 Embedded addressing side-effects, such as POST_INC or PRE_INC, generate
363 both a use and a def.  These are both marked read/write to show that they
364 are dependent. For example, (set (reg 40) (mem (post_inc (reg 42))))
365 will generate a use of reg 42 followed by a def of reg 42 (both marked
366 read/write).  Similarly, (set (reg 40) (mem (pre_dec (reg 41))))
367 generates a use of reg 41 then a def of reg 41 (both marked read/write),
368 even though reg 41 is decremented before it is used for the memory
369 address in this second example.
370
371 A set to a REG inside a ZERO_EXTRACT, or a set to a non-paradoxical SUBREG
372 for which the number of word_mode units covered by the outer mode is
373 smaller than that covered by the inner mode, invokes a read-modify-write.
374 operation.  We generate both a use and a def and again mark them
375 read/write.
376
377 Paradoxical subreg writes do not leave a trace of the old content, so they
378 are write-only operations.  
379 */
380
381
382 #include "config.h"
383 #include "system.h"
384 #include "coretypes.h"
385 #include "tm.h"
386 #include "rtl.h"
387 #include "tm_p.h"
388 #include "insn-config.h"
389 #include "recog.h"
390 #include "function.h"
391 #include "regs.h"
392 #include "output.h"
393 #include "alloc-pool.h"
394 #include "flags.h"
395 #include "hard-reg-set.h"
396 #include "basic-block.h"
397 #include "sbitmap.h"
398 #include "bitmap.h"
399 #include "timevar.h"
400 #include "df.h"
401 #include "tree-pass.h"
402
403 static void *df_get_bb_info (struct dataflow *, unsigned int);
404 static void df_set_bb_info (struct dataflow *, unsigned int, void *);
405 #ifdef DF_DEBUG_CFG
406 static void df_set_clean_cfg (void);
407 #endif
408
409 /* An obstack for bitmap not related to specific dataflow problems.
410    This obstack should e.g. be used for bitmaps with a short life time
411    such as temporary bitmaps.  */
412
413 bitmap_obstack df_bitmap_obstack;
414
415
416 /*----------------------------------------------------------------------------
417   Functions to create, destroy and manipulate an instance of df.
418 ----------------------------------------------------------------------------*/
419
420 struct df *df;
421
422 /* Add PROBLEM (and any dependent problems) to the DF instance.  */
423
424 void
425 df_add_problem (struct df_problem *problem)
426 {
427   struct dataflow *dflow;
428   int i;
429
430   /* First try to add the dependent problem. */
431   if (problem->dependent_problem)
432     df_add_problem (problem->dependent_problem);
433
434   /* Check to see if this problem has already been defined.  If it
435      has, just return that instance, if not, add it to the end of the
436      vector.  */
437   dflow = df->problems_by_index[problem->id];
438   if (dflow)
439     return;
440
441   /* Make a new one and add it to the end.  */
442   dflow = XCNEW (struct dataflow);
443   dflow->problem = problem;
444   dflow->computed = false;
445   dflow->solutions_dirty = true;
446   df->problems_by_index[dflow->problem->id] = dflow;
447
448   /* Keep the defined problems ordered by index.  This solves the
449      problem that RI will use the information from UREC if UREC has
450      been defined, or from LIVE if LIVE is defined and otherwise LR.
451      However for this to work, the computation of RI must be pushed
452      after which ever of those problems is defined, but we do not
453      require any of those except for LR to have actually been
454      defined.  */ 
455   df->num_problems_defined++;
456   for (i = df->num_problems_defined - 2; i >= 0; i--)
457     {
458       if (problem->id < df->problems_in_order[i]->problem->id)
459         df->problems_in_order[i+1] = df->problems_in_order[i];
460       else
461         {
462           df->problems_in_order[i+1] = dflow;
463           return;
464         }
465     }
466   df->problems_in_order[0] = dflow;
467 }
468
469
470 /* Set the MASK flags in the DFLOW problem.  The old flags are
471    returned.  If a flag is not allowed to be changed this will fail if
472    checking is enabled.  */
473 enum df_changeable_flags
474 df_set_flags (enum df_changeable_flags changeable_flags)
475 {
476   enum df_changeable_flags old_flags = df->changeable_flags;
477   df->changeable_flags |= changeable_flags;
478   return old_flags;
479 }
480
481
482 /* Clear the MASK flags in the DFLOW problem.  The old flags are
483    returned.  If a flag is not allowed to be changed this will fail if
484    checking is enabled.  */
485 enum df_changeable_flags
486 df_clear_flags (enum df_changeable_flags changeable_flags)
487 {
488   enum df_changeable_flags old_flags = df->changeable_flags;
489   df->changeable_flags &= ~changeable_flags;
490   return old_flags;
491 }
492
493
494 /* Set the blocks that are to be considered for analysis.  If this is
495    not called or is called with null, the entire function in
496    analyzed.  */
497
498 void 
499 df_set_blocks (bitmap blocks)
500 {
501   if (blocks)
502     {
503       if (dump_file)
504         bitmap_print (dump_file, blocks, "setting blocks to analyze ", "\n");
505       if (df->blocks_to_analyze)
506         {
507           /* This block is called to change the focus from one subset
508              to another.  */
509           int p;
510           bitmap diff = BITMAP_ALLOC (&df_bitmap_obstack);
511           bitmap_and_compl (diff, df->blocks_to_analyze, blocks);
512           for (p = 0; p < df->num_problems_defined; p++)
513             {
514               struct dataflow *dflow = df->problems_in_order[p];
515               if (dflow->optional_p && dflow->problem->reset_fun)
516                 dflow->problem->reset_fun (df->blocks_to_analyze);
517               else if (dflow->problem->free_blocks_on_set_blocks)
518                 {
519                   bitmap_iterator bi;
520                   unsigned int bb_index;
521                   
522                   EXECUTE_IF_SET_IN_BITMAP (diff, 0, bb_index, bi)
523                     {
524                       basic_block bb = BASIC_BLOCK (bb_index);
525                       if (bb)
526                         {
527                           void *bb_info = df_get_bb_info (dflow, bb_index);
528                           if (bb_info)
529                             {
530                               dflow->problem->free_bb_fun (bb, bb_info);
531                               df_set_bb_info (dflow, bb_index, NULL);
532                             }
533                         }
534                     }
535                 }
536             }
537
538           BITMAP_FREE (diff);
539         }
540       else
541         {
542           /* This block of code is executed to change the focus from
543              the entire function to a subset.  */
544           bitmap blocks_to_reset = NULL;
545           int p;
546           for (p = 0; p < df->num_problems_defined; p++)
547             {
548               struct dataflow *dflow = df->problems_in_order[p];
549               if (dflow->optional_p && dflow->problem->reset_fun)
550                 {
551                   if (!blocks_to_reset)
552                     {
553                       basic_block bb;
554                       blocks_to_reset =
555                         BITMAP_ALLOC (&df_bitmap_obstack);
556                       FOR_ALL_BB(bb)
557                         {
558                           bitmap_set_bit (blocks_to_reset, bb->index); 
559                         }
560                     }
561                   dflow->problem->reset_fun (blocks_to_reset);
562                 }
563             }
564           if (blocks_to_reset)
565             BITMAP_FREE (blocks_to_reset);
566
567           df->blocks_to_analyze = BITMAP_ALLOC (&df_bitmap_obstack);
568         }
569       bitmap_copy (df->blocks_to_analyze, blocks);
570       df->analyze_subset = true;
571     }
572   else
573     {
574       /* This block is executed to reset the focus to the entire
575          function.  */
576       if (dump_file)
577         fprintf (dump_file, "clearing blocks_to_analyze\n");
578       if (df->blocks_to_analyze)
579         {
580           BITMAP_FREE (df->blocks_to_analyze);
581           df->blocks_to_analyze = NULL;
582         }
583       df->analyze_subset = false;
584     }
585
586   /* Setting the blocks causes the refs to be unorganized since only
587      the refs in the blocks are seen.  */
588   df_maybe_reorganize_def_refs (DF_REF_ORDER_NO_TABLE);
589   df_maybe_reorganize_use_refs (DF_REF_ORDER_NO_TABLE);
590   df_mark_solutions_dirty ();
591 }
592
593
594 /* Delete a DFLOW problem (and any problems that depend on this
595    problem).  */
596
597 void
598 df_remove_problem (struct dataflow *dflow)
599 {
600   struct df_problem *problem;
601   int i;
602
603   if (!dflow)
604     return;
605
606   problem = dflow->problem;
607   gcc_assert (problem->remove_problem_fun);
608
609   /* Delete any problems that depended on this problem first.  */
610   for (i = 0; i < df->num_problems_defined; i++)
611     if (df->problems_in_order[i]->problem->dependent_problem == problem)
612       df_remove_problem (df->problems_in_order[i]);
613
614   /* Now remove this problem.  */
615   for (i = 0; i < df->num_problems_defined; i++)
616     if (df->problems_in_order[i] == dflow)
617       {
618         int j;
619         for (j = i + 1; j < df->num_problems_defined; j++)
620           df->problems_in_order[j-1] = df->problems_in_order[j];
621         df->problems_in_order[j] = NULL;
622         df->num_problems_defined--;
623         break;
624       }
625
626   (problem->remove_problem_fun) ();
627   df->problems_by_index[problem->id] = NULL;
628 }
629
630
631 /* Remove all of the problems that are not permanent.  Scanning, lr,
632    ur and live are permanent, the rest are removable.  Also clear all
633    of the changeable_flags.  */
634
635 void
636 df_finish_pass (void)
637 {
638   int i;
639   int removed = 0;
640
641 #ifdef ENABLE_DF_CHECKING
642   enum df_changeable_flags saved_flags;
643 #endif
644
645   if (!df)
646     return;
647
648   df_maybe_reorganize_def_refs (DF_REF_ORDER_NO_TABLE);
649   df_maybe_reorganize_use_refs (DF_REF_ORDER_NO_TABLE);
650
651 #ifdef ENABLE_DF_CHECKING
652   saved_flags = df->changeable_flags;
653 #endif
654
655   for (i = 0; i < df->num_problems_defined; i++)
656     {
657       struct dataflow *dflow = df->problems_in_order[i];
658       struct df_problem *problem = dflow->problem;
659
660       if (dflow->optional_p)
661         {
662           gcc_assert (problem->remove_problem_fun);
663           (problem->remove_problem_fun) ();
664           df->problems_in_order[i] = NULL;
665           df->problems_by_index[problem->id] = NULL;
666           removed++;
667         }
668     }
669   df->num_problems_defined -= removed;
670
671   /* Clear all of the flags.  */
672   df->changeable_flags = 0;
673   df_process_deferred_rescans ();
674
675   /* Set the focus back to the whole function.  */
676   if (df->blocks_to_analyze)
677     {
678       BITMAP_FREE (df->blocks_to_analyze);
679       df->blocks_to_analyze = NULL;
680       df_mark_solutions_dirty ();
681       df->analyze_subset = false;
682     }
683
684 #ifdef ENABLE_DF_CHECKING
685   /* Verification will fail in DF_NO_INSN_RESCAN.  */
686   if (!(saved_flags & DF_NO_INSN_RESCAN))
687     {
688       df_lr_verify_transfer_functions ();
689       if (df_live)
690         df_live_verify_transfer_functions ();
691     }
692
693 #ifdef DF_DEBUG_CFG
694   df_set_clean_cfg ();
695 #endif
696 #endif
697 }
698
699
700 /* Set up the dataflow instance for the entire back end.  */
701
702 static unsigned int
703 rest_of_handle_df_initialize (void)
704 {
705   gcc_assert (!df);
706   df = XCNEW (struct df);
707   df->changeable_flags = 0;
708
709   bitmap_obstack_initialize (&df_bitmap_obstack);
710
711   /* Set this to a conservative value.  Stack_ptr_mod will compute it
712      correctly later.  */
713   current_function_sp_is_unchanging = 0;
714
715   df_scan_add_problem ();
716   df_scan_alloc (NULL);
717
718   /* These three problems are permanent.  */
719   df_lr_add_problem ();
720   if (optimize > 1)
721     df_live_add_problem ();
722
723   df->postorder = XNEWVEC (int, last_basic_block);
724   df->postorder_inverted = XNEWVEC (int, last_basic_block);
725   df->n_blocks = post_order_compute (df->postorder, true, true);
726   df->n_blocks_inverted = inverted_post_order_compute (df->postorder_inverted);
727   gcc_assert (df->n_blocks == df->n_blocks_inverted);
728
729   df->hard_regs_live_count = XNEWVEC (unsigned int, FIRST_PSEUDO_REGISTER);
730   memset (df->hard_regs_live_count, 0, 
731           sizeof (unsigned int) * FIRST_PSEUDO_REGISTER);
732
733   df_hard_reg_init ();
734   /* After reload, some ports add certain bits to regs_ever_live so
735      this cannot be reset.  */
736   df_compute_regs_ever_live (true);
737   df_scan_blocks ();
738   df_compute_regs_ever_live (false);
739   return 0;
740 }
741
742
743 static bool
744 gate_opt (void)
745 {
746   return optimize > 0;
747 }
748
749
750 struct tree_opt_pass pass_df_initialize_opt =
751 {
752   "dfinit",                             /* name */
753   gate_opt,                             /* gate */
754   rest_of_handle_df_initialize,         /* execute */
755   NULL,                                 /* sub */
756   NULL,                                 /* next */
757   0,                                    /* static_pass_number */
758   0,                                    /* tv_id */
759   0,                                    /* properties_required */
760   0,                                    /* properties_provided */
761   0,                                    /* properties_destroyed */
762   0,                                    /* todo_flags_start */
763   0,                                    /* todo_flags_finish */
764   'z'                                   /* letter */
765 };
766
767
768 static bool
769 gate_no_opt (void)
770 {
771   return optimize == 0;
772 }
773
774
775 struct tree_opt_pass pass_df_initialize_no_opt =
776 {
777   "dfinit",                             /* name */
778   gate_no_opt,                          /* gate */
779   rest_of_handle_df_initialize,         /* execute */
780   NULL,                                 /* sub */
781   NULL,                                 /* next */
782   0,                                    /* static_pass_number */
783   0,                                    /* tv_id */
784   0,                                    /* properties_required */
785   0,                                    /* properties_provided */
786   0,                                    /* properties_destroyed */
787   0,                                    /* todo_flags_start */
788   0,                                    /* todo_flags_finish */
789   'z'                                   /* letter */
790 };
791
792
793 /* Free all the dataflow info and the DF structure.  This should be
794    called from the df_finish macro which also NULLs the parm.  */
795
796 static unsigned int
797 rest_of_handle_df_finish (void)
798 {
799   int i;
800
801   gcc_assert (df);
802
803   for (i = 0; i < df->num_problems_defined; i++)
804     {
805       struct dataflow *dflow = df->problems_in_order[i];
806       dflow->problem->free_fun (); 
807     }
808
809   if (df->postorder)
810     free (df->postorder);
811   if (df->postorder_inverted)
812     free (df->postorder_inverted);
813   free (df->hard_regs_live_count);
814   free (df);
815   df = NULL;
816
817   bitmap_obstack_release (&df_bitmap_obstack);
818   return 0;
819 }
820
821
822 struct tree_opt_pass pass_df_finish =
823 {
824   "dfinish",                            /* name */
825   NULL,                                 /* gate */
826   rest_of_handle_df_finish,             /* execute */
827   NULL,                                 /* sub */
828   NULL,                                 /* next */
829   0,                                    /* static_pass_number */
830   0,                                    /* tv_id */
831   0,                                    /* properties_required */
832   0,                                    /* properties_provided */
833   0,                                    /* properties_destroyed */
834   0,                                    /* todo_flags_start */
835   0,                                    /* todo_flags_finish */
836   'z'                                   /* letter */
837 };
838
839
840
841
842 \f
843 /*----------------------------------------------------------------------------
844    The general data flow analysis engine.
845 ----------------------------------------------------------------------------*/
846
847
848 /* Helper function for df_worklist_dataflow.
849    Propagate the dataflow forward. 
850    Given a BB_INDEX, do the dataflow propagation
851    and set bits on for successors in PENDING
852    if the out set of the dataflow has changed. */
853
854 static void
855 df_worklist_propagate_forward (struct dataflow *dataflow,
856                                unsigned bb_index,
857                                unsigned *bbindex_to_postorder,
858                                bitmap pending,
859                                sbitmap considered)
860 {
861   edge e;
862   edge_iterator ei;
863   basic_block bb = BASIC_BLOCK (bb_index);
864
865   /*  Calculate <conf_op> of incoming edges.  */
866   if (EDGE_COUNT (bb->preds) > 0)
867     FOR_EACH_EDGE (e, ei, bb->preds)
868       {                                                         
869         if (TEST_BIT (considered, e->src->index))               
870           dataflow->problem->con_fun_n (e);
871       }                                                         
872   else if (dataflow->problem->con_fun_0)
873     dataflow->problem->con_fun_0 (bb);
874
875   if (dataflow->problem->trans_fun (bb_index))
876     {
877       /* The out set of this block has changed. 
878          Propagate to the outgoing blocks.  */
879       FOR_EACH_EDGE (e, ei, bb->succs)
880         {
881           unsigned ob_index = e->dest->index;
882
883           if (TEST_BIT (considered, ob_index))
884             bitmap_set_bit (pending, bbindex_to_postorder[ob_index]);
885         }
886     }
887 }
888
889
890 /* Helper function for df_worklist_dataflow.
891    Propagate the dataflow backward.  */
892
893 static void
894 df_worklist_propagate_backward (struct dataflow *dataflow,
895                                 unsigned bb_index,
896                                 unsigned *bbindex_to_postorder,
897                                 bitmap pending,
898                                 sbitmap considered)
899 {
900   edge e;
901   edge_iterator ei;
902   basic_block bb = BASIC_BLOCK (bb_index);
903
904   /*  Calculate <conf_op> of incoming edges.  */
905   if (EDGE_COUNT (bb->succs) > 0)
906     FOR_EACH_EDGE (e, ei, bb->succs)
907       {                                                         
908         if (TEST_BIT (considered, e->dest->index))              
909           dataflow->problem->con_fun_n (e);
910       }                                                         
911   else if (dataflow->problem->con_fun_0)
912     dataflow->problem->con_fun_0 (bb);
913
914   if (dataflow->problem->trans_fun (bb_index))
915     {
916       /* The out set of this block has changed. 
917          Propagate to the outgoing blocks.  */
918       FOR_EACH_EDGE (e, ei, bb->preds)
919         {
920           unsigned ob_index = e->src->index;
921
922           if (TEST_BIT (considered, ob_index))
923             bitmap_set_bit (pending, bbindex_to_postorder[ob_index]);
924         }
925     }
926 }
927
928
929 /* Worklist-based dataflow solver. It uses sbitmap as a worklist,
930    with "n"-th bit representing the n-th block in the reverse-postorder order. 
931    This is so-called over-eager algorithm where it propagates
932    changes on demand. This algorithm may visit blocks more than
933    iterative method if there are deeply nested loops. 
934    Worklist algorithm works better than iterative algorithm
935    for CFGs with no nested loops.
936    In practice, the measurement shows worklist algorithm beats 
937    iterative algorithm by some margin overall.  
938    Note that this is slightly different from the traditional textbook worklist solver,
939    in that the worklist is effectively sorted by the reverse postorder.
940    For CFGs with no nested loops, this is optimal.  */
941
942 void 
943 df_worklist_dataflow (struct dataflow *dataflow,
944                       bitmap blocks_to_consider,
945                       int *blocks_in_postorder,
946                       int n_blocks)
947 {
948   bitmap pending = BITMAP_ALLOC (&df_bitmap_obstack);
949   sbitmap considered = sbitmap_alloc (last_basic_block);
950   bitmap_iterator bi;
951   unsigned int *bbindex_to_postorder;
952   int i;
953   unsigned int index;
954   enum df_flow_dir dir = dataflow->problem->dir;
955
956   gcc_assert (dir != DF_NONE);
957
958   /* BBINDEX_TO_POSTORDER maps the bb->index to the reverse postorder.  */
959   bbindex_to_postorder =
960     (unsigned int *)xmalloc (last_basic_block * sizeof (unsigned int));
961
962   /* Initialize the array to an out-of-bound value.  */
963   for (i = 0; i < last_basic_block; i++)
964     bbindex_to_postorder[i] = last_basic_block;
965
966   /* Initialize the considered map.  */
967   sbitmap_zero (considered);
968   EXECUTE_IF_SET_IN_BITMAP (blocks_to_consider, 0, index, bi)
969     {
970       SET_BIT (considered, index);
971     }
972
973   /* Initialize the mapping of block index to postorder.  */
974   for (i = 0; i < n_blocks; i++)
975     {
976       bbindex_to_postorder[blocks_in_postorder[i]] = i;
977       /* Add all blocks to the worklist.  */
978       bitmap_set_bit (pending, i);
979     }
980
981   if (dataflow->problem->init_fun)
982     dataflow->problem->init_fun (blocks_to_consider);
983
984   while (!bitmap_empty_p (pending))
985     {
986       unsigned bb_index;
987
988       index = bitmap_first_set_bit (pending);
989       bitmap_clear_bit (pending, index);
990
991       bb_index = blocks_in_postorder[index];
992
993       if (dir == DF_FORWARD)
994         df_worklist_propagate_forward (dataflow, bb_index,
995                                        bbindex_to_postorder,
996                                        pending, considered);
997       else 
998         df_worklist_propagate_backward (dataflow, bb_index,
999                                         bbindex_to_postorder,
1000                                         pending, considered);
1001     }
1002
1003   BITMAP_FREE (pending);
1004   sbitmap_free (considered);
1005   free (bbindex_to_postorder);
1006 }
1007
1008
1009 /* Remove the entries not in BLOCKS from the LIST of length LEN, preserving
1010    the order of the remaining entries.  Returns the length of the resulting
1011    list.  */
1012
1013 static unsigned
1014 df_prune_to_subcfg (int list[], unsigned len, bitmap blocks)
1015 {
1016   unsigned act, last;
1017
1018   for (act = 0, last = 0; act < len; act++)
1019     if (bitmap_bit_p (blocks, list[act]))
1020       list[last++] = list[act];
1021
1022   return last;
1023 }
1024
1025
1026 /* Execute dataflow analysis on a single dataflow problem. 
1027
1028    BLOCKS_TO_CONSIDER are the blocks whose solution can either be
1029    examined or will be computed.  For calls from DF_ANALYZE, this is
1030    the set of blocks that has been passed to DF_SET_BLOCKS.  
1031 */
1032
1033 void
1034 df_analyze_problem (struct dataflow *dflow, 
1035                     bitmap blocks_to_consider, 
1036                     int *postorder, int n_blocks)
1037 {
1038   timevar_push (dflow->problem->tv_id);
1039
1040 #ifdef ENABLE_DF_CHECKING
1041   if (dflow->problem->verify_start_fun)
1042     dflow->problem->verify_start_fun ();
1043 #endif
1044
1045   /* (Re)Allocate the datastructures necessary to solve the problem.  */ 
1046   if (dflow->problem->alloc_fun)
1047     dflow->problem->alloc_fun (blocks_to_consider);
1048
1049   /* Set up the problem and compute the local information.  */
1050   if (dflow->problem->local_compute_fun)
1051     dflow->problem->local_compute_fun (blocks_to_consider);
1052
1053   /* Solve the equations.  */
1054   if (dflow->problem->dataflow_fun)
1055     dflow->problem->dataflow_fun (dflow, blocks_to_consider,
1056                                   postorder, n_blocks);
1057
1058   /* Massage the solution.  */
1059   if (dflow->problem->finalize_fun)
1060     dflow->problem->finalize_fun (blocks_to_consider);
1061
1062 #ifdef ENABLE_DF_CHECKING
1063   if (dflow->problem->verify_end_fun)
1064     dflow->problem->verify_end_fun ();
1065 #endif
1066
1067   timevar_pop (dflow->problem->tv_id);
1068
1069   dflow->computed = true;
1070 }
1071
1072
1073 /* Analyze dataflow info for the basic blocks specified by the bitmap
1074    BLOCKS, or for the whole CFG if BLOCKS is zero.  */
1075
1076 void
1077 df_analyze (void)
1078 {
1079   bitmap current_all_blocks = BITMAP_ALLOC (&df_bitmap_obstack);
1080   bool everything;
1081   int i;
1082   
1083   if (df->postorder)
1084     free (df->postorder);
1085   if (df->postorder_inverted)
1086     free (df->postorder_inverted);
1087   df->postorder = XNEWVEC (int, last_basic_block);
1088   df->postorder_inverted = XNEWVEC (int, last_basic_block);
1089   df->n_blocks = post_order_compute (df->postorder, true, true);
1090   df->n_blocks_inverted = inverted_post_order_compute (df->postorder_inverted);
1091
1092   /* These should be the same.  */
1093   gcc_assert (df->n_blocks == df->n_blocks_inverted);
1094
1095   /* We need to do this before the df_verify_all because this is
1096      not kept incrementally up to date.  */
1097   df_compute_regs_ever_live (false);
1098   df_process_deferred_rescans ();
1099
1100   if (dump_file)
1101     fprintf (dump_file, "df_analyze called\n");
1102
1103 #ifdef ENABLE_DF_CHECKING
1104   df_verify ();
1105 #endif 
1106
1107   for (i = 0; i < df->n_blocks; i++)
1108     bitmap_set_bit (current_all_blocks, df->postorder[i]);
1109
1110 #ifdef ENABLE_CHECKING
1111   /* Verify that POSTORDER_INVERTED only contains blocks reachable from
1112      the ENTRY block.  */
1113   for (i = 0; i < df->n_blocks_inverted; i++)
1114     gcc_assert (bitmap_bit_p (current_all_blocks, df->postorder_inverted[i]));
1115 #endif
1116
1117   /* Make sure that we have pruned any unreachable blocks from these
1118      sets.  */
1119   if (df->analyze_subset)
1120     {
1121       everything = false;
1122       bitmap_and_into (df->blocks_to_analyze, current_all_blocks);
1123       df->n_blocks = df_prune_to_subcfg (df->postorder, 
1124                                          df->n_blocks, df->blocks_to_analyze);
1125       df->n_blocks_inverted = df_prune_to_subcfg (df->postorder_inverted, 
1126                                                   df->n_blocks_inverted, 
1127                                                   df->blocks_to_analyze);
1128       BITMAP_FREE (current_all_blocks);
1129     }
1130   else
1131     {
1132       everything = true;
1133       df->blocks_to_analyze = current_all_blocks;
1134       current_all_blocks = NULL;
1135     }
1136
1137   /* Skip over the DF_SCAN problem. */
1138   for (i = 1; i < df->num_problems_defined; i++)
1139     {
1140       struct dataflow *dflow = df->problems_in_order[i];
1141       if (dflow->solutions_dirty)
1142         {
1143           if (dflow->problem->dir == DF_FORWARD)
1144             df_analyze_problem (dflow,
1145                                 df->blocks_to_analyze,
1146                                 df->postorder_inverted,
1147                                 df->n_blocks_inverted);
1148           else
1149             df_analyze_problem (dflow,
1150                                 df->blocks_to_analyze,
1151                                 df->postorder,
1152                                 df->n_blocks);
1153         }
1154     }
1155
1156   if (everything)
1157     {
1158       BITMAP_FREE (df->blocks_to_analyze);
1159       df->blocks_to_analyze = NULL;
1160     }
1161
1162 #ifdef DF_DEBUG_CFG
1163   df_set_clean_cfg ();
1164 #endif
1165 }
1166
1167
1168 /* Return the number of basic blocks from the last call to df_analyze.  */
1169
1170 int 
1171 df_get_n_blocks (enum df_flow_dir dir)
1172 {
1173   gcc_assert (dir != DF_NONE);
1174
1175   if (dir == DF_FORWARD)
1176     {
1177       gcc_assert (df->postorder_inverted);
1178       return df->n_blocks_inverted;
1179     }
1180
1181   gcc_assert (df->postorder);
1182   return df->n_blocks;
1183 }
1184
1185
1186 /* Return a pointer to the array of basic blocks in the reverse postorder. 
1187    Depending on the direction of the dataflow problem,
1188    it returns either the usual reverse postorder array
1189    or the reverse postorder of inverted traversal. */
1190 int *
1191 df_get_postorder (enum df_flow_dir dir)
1192 {
1193   gcc_assert (dir != DF_NONE);
1194
1195   if (dir == DF_FORWARD)
1196     {
1197       gcc_assert (df->postorder_inverted);
1198       return df->postorder_inverted;
1199     }
1200   gcc_assert (df->postorder);
1201   return df->postorder;
1202 }
1203
1204 static struct df_problem user_problem; 
1205 static struct dataflow user_dflow;
1206
1207 /* Interface for calling iterative dataflow with user defined
1208    confluence and transfer functions.  All that is necessary is to
1209    supply DIR, a direction, CONF_FUN_0, a confluence function for
1210    blocks with no logical preds (or NULL), CONF_FUN_N, the normal
1211    confluence function, TRANS_FUN, the basic block transfer function,
1212    and BLOCKS, the set of blocks to examine, POSTORDER the blocks in
1213    postorder, and N_BLOCKS, the number of blocks in POSTORDER. */
1214
1215 void
1216 df_simple_dataflow (enum df_flow_dir dir,
1217                     df_init_function init_fun,
1218                     df_confluence_function_0 con_fun_0,
1219                     df_confluence_function_n con_fun_n,
1220                     df_transfer_function trans_fun,
1221                     bitmap blocks, int * postorder, int n_blocks)
1222 {
1223   memset (&user_problem, 0, sizeof (struct df_problem));
1224   user_problem.dir = dir;
1225   user_problem.init_fun = init_fun;
1226   user_problem.con_fun_0 = con_fun_0;
1227   user_problem.con_fun_n = con_fun_n;
1228   user_problem.trans_fun = trans_fun;
1229   user_dflow.problem = &user_problem;
1230   df_worklist_dataflow (&user_dflow, blocks, postorder, n_blocks);
1231 }
1232
1233                               
1234 \f
1235 /*----------------------------------------------------------------------------
1236    Functions to support limited incremental change.
1237 ----------------------------------------------------------------------------*/
1238
1239
1240 /* Get basic block info.  */
1241
1242 static void *
1243 df_get_bb_info (struct dataflow *dflow, unsigned int index)
1244 {
1245   if (dflow->block_info == NULL)
1246     return NULL;
1247   if (index >= dflow->block_info_size)
1248     return NULL;
1249   return (struct df_scan_bb_info *) dflow->block_info[index];
1250 }
1251
1252
1253 /* Set basic block info.  */
1254
1255 static void
1256 df_set_bb_info (struct dataflow *dflow, unsigned int index, 
1257                 void *bb_info)
1258 {
1259   gcc_assert (dflow->block_info);
1260   dflow->block_info[index] = bb_info;
1261 }
1262
1263
1264 /* Mark the solutions as being out of date.  */
1265
1266 void 
1267 df_mark_solutions_dirty (void)
1268 {
1269   if (df)
1270     {
1271       int p; 
1272       for (p = 1; p < df->num_problems_defined; p++)
1273         df->problems_in_order[p]->solutions_dirty = true;
1274     }
1275 }
1276
1277
1278 /* Return true if BB needs it's transfer functions recomputed.  */
1279
1280 bool 
1281 df_get_bb_dirty (basic_block bb)
1282 {
1283   if (df && df_live)
1284     return bitmap_bit_p (df_live->out_of_date_transfer_functions, bb->index);
1285   else 
1286     return false;
1287 }
1288
1289
1290 /* Mark BB as needing it's transfer functions as being out of
1291    date.  */
1292
1293 void 
1294 df_set_bb_dirty (basic_block bb)
1295 {
1296   if (df)
1297     {
1298       int p; 
1299       for (p = 1; p < df->num_problems_defined; p++)
1300         {
1301           struct dataflow *dflow = df->problems_in_order[p];
1302           if (dflow->out_of_date_transfer_functions)
1303             bitmap_set_bit (dflow->out_of_date_transfer_functions, bb->index);
1304         }
1305       df_mark_solutions_dirty ();
1306     }
1307 }
1308
1309
1310 /* Clear the dirty bits.  This is called from places that delete
1311    blocks.  */
1312 static void
1313 df_clear_bb_dirty (basic_block bb)
1314 {
1315   int p; 
1316   for (p = 1; p < df->num_problems_defined; p++)
1317     {
1318       struct dataflow *dflow = df->problems_in_order[p];
1319       if (dflow->out_of_date_transfer_functions)
1320         bitmap_clear_bit (dflow->out_of_date_transfer_functions, bb->index);
1321     }
1322 }
1323 /* Called from the rtl_compact_blocks to reorganize the problems basic
1324    block info.  */
1325
1326 void 
1327 df_compact_blocks (void)
1328 {
1329   int i, p;
1330   basic_block bb;
1331   void **problem_temps;
1332   int size = last_basic_block * sizeof (void *);
1333   bitmap tmp = BITMAP_ALLOC (&df_bitmap_obstack);
1334   problem_temps = xmalloc (size);
1335
1336   for (p = 0; p < df->num_problems_defined; p++)
1337     {
1338       struct dataflow *dflow = df->problems_in_order[p];
1339
1340       /* Need to reorganize the out_of_date_transfer_functions for the
1341          dflow problem.  */
1342       if (dflow->out_of_date_transfer_functions)
1343         {
1344           bitmap_copy (tmp, dflow->out_of_date_transfer_functions);
1345           bitmap_clear (dflow->out_of_date_transfer_functions);
1346           if (bitmap_bit_p (tmp, ENTRY_BLOCK))
1347             bitmap_set_bit (dflow->out_of_date_transfer_functions, ENTRY_BLOCK);
1348           if (bitmap_bit_p (tmp, EXIT_BLOCK))
1349             bitmap_set_bit (dflow->out_of_date_transfer_functions, EXIT_BLOCK);
1350
1351           i = NUM_FIXED_BLOCKS;
1352           FOR_EACH_BB (bb) 
1353             {
1354               if (bitmap_bit_p (tmp, bb->index))
1355                 bitmap_set_bit (dflow->out_of_date_transfer_functions, i);
1356               i++;
1357             }
1358         }
1359
1360       /* Now shuffle the block info for the problem.  */
1361       if (dflow->problem->free_bb_fun)
1362         {
1363           df_grow_bb_info (dflow);
1364           memcpy (problem_temps, dflow->block_info, size);
1365
1366           /* Copy the bb info from the problem tmps to the proper
1367              place in the block_info vector.  Null out the copied
1368              item.  The entry and exit blocks never move.  */
1369           i = NUM_FIXED_BLOCKS;
1370           FOR_EACH_BB (bb) 
1371             {
1372               df_set_bb_info (dflow, i, problem_temps[bb->index]);
1373               problem_temps[bb->index] = NULL;
1374               i++;
1375             }
1376           memset (dflow->block_info + i, 0, 
1377                   (last_basic_block - i) *sizeof (void *));
1378
1379           /* Free any block infos that were not copied (and NULLed).
1380              These are from orphaned blocks.  */
1381           for (i = NUM_FIXED_BLOCKS; i < last_basic_block; i++)
1382             {
1383               basic_block bb = BASIC_BLOCK (i); 
1384               if (problem_temps[i] && bb)
1385                 dflow->problem->free_bb_fun
1386                   (bb, problem_temps[i]);
1387             }
1388         }
1389     }
1390
1391   /* Shuffle the bits in the basic_block indexed arrays.  */
1392
1393   if (df->blocks_to_analyze)
1394     {
1395       if (bitmap_bit_p (tmp, ENTRY_BLOCK))
1396         bitmap_set_bit (df->blocks_to_analyze, ENTRY_BLOCK);
1397       if (bitmap_bit_p (tmp, EXIT_BLOCK))
1398         bitmap_set_bit (df->blocks_to_analyze, EXIT_BLOCK);
1399       bitmap_copy (tmp, df->blocks_to_analyze);
1400       bitmap_clear (df->blocks_to_analyze);
1401       i = NUM_FIXED_BLOCKS;
1402       FOR_EACH_BB (bb) 
1403         {
1404           if (bitmap_bit_p (tmp, bb->index))
1405             bitmap_set_bit (df->blocks_to_analyze, i);
1406           i++;
1407         }
1408     }
1409
1410   BITMAP_FREE (tmp);
1411
1412   free (problem_temps);
1413
1414   i = NUM_FIXED_BLOCKS;
1415   FOR_EACH_BB (bb) 
1416     {
1417       SET_BASIC_BLOCK (i, bb);
1418       bb->index = i;
1419       i++;
1420     }
1421
1422   gcc_assert (i == n_basic_blocks);
1423
1424   for (; i < last_basic_block; i++)
1425     SET_BASIC_BLOCK (i, NULL);
1426
1427 #ifdef DF_DEBUG_CFG
1428   if (!df_lr->solutions_dirty)
1429     df_set_clean_cfg ();
1430 #endif
1431 }
1432
1433
1434 /* Shove NEW_BLOCK in at OLD_INDEX.  Called from ifcvt to hack a
1435    block.  There is no excuse for people to do this kind of thing.  */
1436
1437 void 
1438 df_bb_replace (int old_index, basic_block new_block)
1439 {
1440   int new_block_index = new_block->index;
1441   int p;
1442
1443   if (dump_file)
1444     fprintf (dump_file, "shoving block %d into %d\n", new_block_index, old_index);
1445
1446   gcc_assert (df);
1447   gcc_assert (BASIC_BLOCK (old_index) == NULL);
1448
1449   for (p = 0; p < df->num_problems_defined; p++)
1450     {
1451       struct dataflow *dflow = df->problems_in_order[p];
1452       if (dflow->block_info)
1453         {
1454           df_grow_bb_info (dflow);
1455           gcc_assert (df_get_bb_info (dflow, old_index) == NULL);
1456           df_set_bb_info (dflow, old_index, 
1457                           df_get_bb_info (dflow, new_block_index));
1458         }
1459     }
1460
1461   df_clear_bb_dirty (new_block);
1462   SET_BASIC_BLOCK (old_index, new_block);
1463   new_block->index = old_index;
1464   df_set_bb_dirty (BASIC_BLOCK (old_index));
1465   SET_BASIC_BLOCK (new_block_index, NULL);
1466 }
1467
1468
1469 /* Free all of the per basic block dataflow from all of the problems.
1470    This is typically called before a basic block is deleted and the
1471    problem will be reanalyzed.  */
1472
1473 void
1474 df_bb_delete (int bb_index)
1475 {
1476   basic_block bb = BASIC_BLOCK (bb_index);
1477   int i;
1478
1479   if (!df)
1480     return;
1481   
1482   for (i = 0; i < df->num_problems_defined; i++)
1483     {
1484       struct dataflow *dflow = df->problems_in_order[i];
1485       if (dflow->problem->free_bb_fun)
1486         {
1487           void *bb_info = df_get_bb_info (dflow, bb_index);
1488           if (bb_info)
1489             {
1490               dflow->problem->free_bb_fun (bb, bb_info); 
1491               df_set_bb_info (dflow, bb_index, NULL);
1492             }
1493         }
1494     }
1495   df_clear_bb_dirty (bb);
1496   df_mark_solutions_dirty ();
1497 }
1498
1499
1500 /* Verify that there is a place for everything and everything is in
1501    its place.  This is too expensive to run after every pass in the
1502    mainline.  However this is an excellent debugging tool if the
1503    dataflow information is not being updated properly.  You can just
1504    sprinkle calls in until you find the place that is changing an
1505    underlying structure without calling the proper updating
1506    routine.  */
1507
1508 void
1509 df_verify (void)
1510 {
1511   df_scan_verify ();
1512   df_lr_verify_transfer_functions ();
1513   if (df_live)
1514     df_live_verify_transfer_functions ();
1515 }
1516
1517 #ifdef DF_DEBUG_CFG
1518
1519 /* Compute an array of ints that describes the cfg.  This can be used
1520    to discover places where the cfg is modified by the appropriate
1521    calls have not been made to the keep df informed.  The internals of
1522    this are unexciting, the key is that two instances of this can be
1523    compared to see if any changes have been made to the cfg.  */
1524
1525 static int *
1526 df_compute_cfg_image (void)
1527 {
1528   basic_block bb;
1529   int size = 2 + (2 * n_basic_blocks);
1530   int i;
1531   int * map;
1532
1533   FOR_ALL_BB (bb)
1534     {
1535       size += EDGE_COUNT (bb->succs);
1536     }
1537
1538   map = XNEWVEC (int, size);
1539   map[0] = size;
1540   i = 1;
1541   FOR_ALL_BB (bb)
1542     {
1543       edge_iterator ei;
1544       edge e;
1545
1546       map[i++] = bb->index;
1547       FOR_EACH_EDGE (e, ei, bb->succs)
1548         map[i++] = e->dest->index;
1549       map[i++] = -1;
1550     }
1551   map[i] = -1;
1552   return map;
1553 }
1554
1555 static int *saved_cfg = NULL;
1556
1557
1558 /* This function compares the saved version of the cfg with the
1559    current cfg and aborts if the two are identical.  The function
1560    silently returns if the cfg has been marked as dirty or the two are
1561    the same.  */
1562
1563 void
1564 df_check_cfg_clean (void)
1565 {
1566   int *new_map;
1567
1568   if (!df)
1569     return;
1570
1571   if (df_lr->solutions_dirty)
1572     return;
1573
1574   if (saved_cfg == NULL) 
1575     return;
1576
1577   new_map = df_compute_cfg_image ();
1578   gcc_assert (memcmp (saved_cfg, new_map, saved_cfg[0] * sizeof (int)) == 0);
1579   free (new_map);
1580 }
1581
1582
1583 /* This function builds a cfg fingerprint and squirrels it away in
1584    saved_cfg.  */
1585
1586 static void
1587 df_set_clean_cfg (void)
1588 {
1589   if (saved_cfg)
1590     free (saved_cfg);
1591   saved_cfg = df_compute_cfg_image ();
1592 }
1593
1594 #endif /* DF_DEBUG_CFG  */
1595 /*----------------------------------------------------------------------------
1596    PUBLIC INTERFACES TO QUERY INFORMATION.
1597 ----------------------------------------------------------------------------*/
1598
1599
1600 /* Return first def of REGNO within BB.  */
1601
1602 struct df_ref *
1603 df_bb_regno_first_def_find (basic_block bb, unsigned int regno)
1604 {
1605   rtx insn;
1606   struct df_ref **def_rec;
1607   unsigned int uid;
1608
1609   FOR_BB_INSNS (bb, insn)
1610     {
1611       if (!INSN_P (insn))
1612         continue;
1613
1614       uid = INSN_UID (insn);
1615       for (def_rec = DF_INSN_UID_DEFS (uid); *def_rec; def_rec++)
1616         {
1617           struct df_ref *def = *def_rec;
1618           if (DF_REF_REGNO (def) == regno)
1619             return def;
1620         }
1621     }
1622   return NULL;
1623 }
1624
1625
1626 /* Return last def of REGNO within BB.  */
1627
1628 struct df_ref *
1629 df_bb_regno_last_def_find (basic_block bb, unsigned int regno)
1630 {
1631   rtx insn;
1632   struct df_ref **def_rec;
1633   unsigned int uid;
1634
1635   FOR_BB_INSNS_REVERSE (bb, insn)
1636     {
1637       if (!INSN_P (insn))
1638         continue;
1639
1640       uid = INSN_UID (insn);
1641       for (def_rec = DF_INSN_UID_DEFS (uid); *def_rec; def_rec++)
1642         {
1643           struct df_ref *def = *def_rec;
1644           if (DF_REF_REGNO (def) == regno)
1645             return def;
1646         }
1647     }
1648
1649   return NULL;
1650 }
1651
1652 /* Finds the reference corresponding to the definition of REG in INSN.
1653    DF is the dataflow object.  */
1654
1655 struct df_ref *
1656 df_find_def (rtx insn, rtx reg)
1657 {
1658   unsigned int uid;
1659   struct df_ref **def_rec;
1660
1661   if (GET_CODE (reg) == SUBREG)
1662     reg = SUBREG_REG (reg);
1663   gcc_assert (REG_P (reg));
1664
1665   uid = INSN_UID (insn);
1666   for (def_rec = DF_INSN_UID_DEFS (uid); *def_rec; def_rec++)
1667     {
1668       struct df_ref *def = *def_rec;
1669       if (rtx_equal_p (DF_REF_REAL_REG (def), reg))
1670         return def;
1671     }
1672
1673   return NULL;
1674 }
1675
1676
1677 /* Return true if REG is defined in INSN, zero otherwise.  */ 
1678
1679 bool
1680 df_reg_defined (rtx insn, rtx reg)
1681 {
1682   return df_find_def (insn, reg) != NULL;
1683 }
1684   
1685
1686 /* Finds the reference corresponding to the use of REG in INSN.
1687    DF is the dataflow object.  */
1688   
1689 struct df_ref *
1690 df_find_use (rtx insn, rtx reg)
1691 {
1692   unsigned int uid;
1693   struct df_ref **use_rec;
1694
1695   if (GET_CODE (reg) == SUBREG)
1696     reg = SUBREG_REG (reg);
1697   gcc_assert (REG_P (reg));
1698
1699   uid = INSN_UID (insn);
1700   for (use_rec = DF_INSN_UID_USES (uid); *use_rec; use_rec++)
1701     {
1702       struct df_ref *use = *use_rec;
1703       if (rtx_equal_p (DF_REF_REAL_REG (use), reg))
1704         return use;
1705     } 
1706   if (df->changeable_flags & DF_EQ_NOTES)
1707     for (use_rec = DF_INSN_UID_EQ_USES (uid); *use_rec; use_rec++)
1708       {
1709         struct df_ref *use = *use_rec;
1710         if (rtx_equal_p (DF_REF_REAL_REG (use), reg))
1711           return use; 
1712       }
1713   return NULL;
1714 }
1715
1716
1717 /* Return true if REG is referenced in INSN, zero otherwise.  */ 
1718
1719 bool
1720 df_reg_used (rtx insn, rtx reg)
1721 {
1722   return df_find_use (insn, reg) != NULL;
1723 }
1724   
1725 \f
1726 /*----------------------------------------------------------------------------
1727    Debugging and printing functions.
1728 ----------------------------------------------------------------------------*/
1729
1730
1731 /* Write information about registers and basic blocks into FILE.
1732    This is part of making a debugging dump.  */
1733
1734 void
1735 df_print_regset (FILE *file, bitmap r)
1736 {
1737   unsigned int i;
1738   bitmap_iterator bi;
1739
1740   if (r == NULL)
1741     fputs (" (nil)", file);
1742   else
1743     {
1744       EXECUTE_IF_SET_IN_BITMAP (r, 0, i, bi)
1745         {
1746           fprintf (file, " %d", i);
1747           if (i < FIRST_PSEUDO_REGISTER)
1748             fprintf (file, " [%s]", reg_names[i]);
1749         }
1750     }
1751   fprintf (file, "\n");
1752 }
1753
1754
1755 /* Dump dataflow info.  */
1756 void
1757 df_dump (FILE *file)
1758 {
1759   basic_block bb;
1760   df_dump_start (file);
1761
1762   FOR_ALL_BB (bb)
1763     {
1764       df_print_bb_index (bb, file);
1765       df_dump_top (bb, file);
1766       df_dump_bottom (bb, file);
1767     }
1768
1769   fprintf (file, "\n");
1770 }
1771
1772
1773 /* Dump the introductory information for each problem defined.  */
1774
1775 void
1776 df_dump_start (FILE *file)
1777 {
1778   int i;
1779
1780   if (!df || !file)
1781     return;
1782
1783   fprintf (file, "\n\n%s\n", current_function_name ());
1784   fprintf (file, "\nDataflow summary:\n");
1785   if (df->blocks_to_analyze)
1786     fprintf (file, "def_info->table_size = %d, use_info->table_size = %d\n",
1787              DF_DEFS_TABLE_SIZE (), DF_USES_TABLE_SIZE ());
1788
1789   for (i = 0; i < df->num_problems_defined; i++)
1790     {
1791       struct dataflow *dflow = df->problems_in_order[i];
1792       if (dflow->computed)
1793         {
1794           df_dump_problem_function fun = dflow->problem->dump_start_fun;
1795           if (fun)
1796             fun(file); 
1797         }
1798     }
1799 }
1800
1801
1802 /* Dump the top of the block information for BB.  */ 
1803
1804 void
1805 df_dump_top (basic_block bb, FILE *file)
1806 {
1807   int i;
1808
1809   if (!df || !file)
1810     return;
1811
1812   for (i = 0; i < df->num_problems_defined; i++)
1813     {
1814       struct dataflow *dflow = df->problems_in_order[i];
1815       if (dflow->computed)
1816         {
1817           df_dump_bb_problem_function bbfun = dflow->problem->dump_top_fun;
1818           if (bbfun)
1819             bbfun (bb, file); 
1820         }
1821     }
1822 }
1823
1824
1825 /* Dump the bottom of the block information for BB.  */ 
1826
1827 void
1828 df_dump_bottom (basic_block bb, FILE *file)
1829 {
1830   int i;
1831
1832   if (!df || !file)
1833     return;
1834
1835   for (i = 0; i < df->num_problems_defined; i++)
1836     {
1837       struct dataflow *dflow = df->problems_in_order[i];
1838       if (dflow->computed)
1839         {
1840           df_dump_bb_problem_function bbfun = dflow->problem->dump_bottom_fun;
1841           if (bbfun)
1842             bbfun (bb, file); 
1843         }
1844     }
1845 }
1846
1847
1848 void
1849 df_refs_chain_dump (struct df_ref **ref_rec, bool follow_chain, FILE *file)
1850 {
1851   fprintf (file, "{ ");
1852   while (*ref_rec)
1853     {
1854       struct df_ref *ref = *ref_rec;
1855       fprintf (file, "%c%d(%d)",
1856                DF_REF_REG_DEF_P (ref) ? 'd' : (DF_REF_FLAGS (ref) & DF_REF_IN_NOTE) ? 'e' : 'u',
1857                DF_REF_ID (ref),
1858                DF_REF_REGNO (ref));
1859       if (follow_chain)
1860         df_chain_dump (DF_REF_CHAIN (ref), file);
1861       ref_rec++;
1862     }
1863   fprintf (file, "}");
1864 }
1865
1866
1867 /* Dump either a ref-def or reg-use chain.  */
1868
1869 void
1870 df_regs_chain_dump (struct df_ref *ref,  FILE *file)
1871 {
1872   fprintf (file, "{ ");
1873   while (ref)
1874     {
1875       fprintf (file, "%c%d(%d) ",
1876                DF_REF_REG_DEF_P (ref) ? 'd' : 'u',
1877                DF_REF_ID (ref),
1878                DF_REF_REGNO (ref));
1879       ref = ref->next_reg;
1880     }
1881   fprintf (file, "}");
1882 }
1883
1884
1885 static void
1886 df_mws_dump (struct df_mw_hardreg **mws, FILE *file)
1887 {
1888   while (*mws)
1889     {
1890       fprintf (file, "mw %c r[%d..%d]\n", 
1891                ((*mws)->type == DF_REF_REG_DEF) ? 'd' : 'u',
1892                (*mws)->start_regno, (*mws)->end_regno);
1893       mws++;
1894     }
1895 }
1896
1897
1898 static void 
1899 df_insn_uid_debug (unsigned int uid, 
1900                    bool follow_chain, FILE *file)
1901 {
1902   fprintf (file, "insn %d luid %d",
1903            uid, DF_INSN_UID_LUID (uid));
1904
1905   if (DF_INSN_UID_DEFS (uid))
1906     {
1907       fprintf (file, " defs ");
1908       df_refs_chain_dump (DF_INSN_UID_DEFS (uid), follow_chain, file);
1909     }
1910
1911   if (DF_INSN_UID_USES (uid))
1912     {
1913       fprintf (file, " uses ");
1914       df_refs_chain_dump (DF_INSN_UID_USES (uid), follow_chain, file);
1915     }
1916
1917   if (DF_INSN_UID_EQ_USES (uid))
1918     {
1919       fprintf (file, " eq uses ");
1920       df_refs_chain_dump (DF_INSN_UID_EQ_USES (uid), follow_chain, file);
1921     }
1922
1923   if (DF_INSN_UID_MWS (uid))
1924     {
1925       fprintf (file, " mws ");
1926       df_mws_dump (DF_INSN_UID_MWS (uid), file);
1927     }
1928   fprintf (file, "\n");
1929 }
1930
1931
1932 void
1933 df_insn_debug (rtx insn, bool follow_chain, FILE *file)
1934 {
1935   df_insn_uid_debug (INSN_UID (insn), follow_chain, file);
1936 }
1937
1938 void
1939 df_insn_debug_regno (rtx insn, FILE *file)
1940 {
1941   unsigned int uid = INSN_UID(insn);
1942
1943   fprintf (file, "insn %d bb %d luid %d defs ",
1944            uid, BLOCK_FOR_INSN (insn)->index, DF_INSN_LUID (insn));
1945   df_refs_chain_dump (DF_INSN_UID_DEFS (uid), false, file);
1946     
1947   fprintf (file, " uses ");
1948   df_refs_chain_dump (DF_INSN_UID_USES (uid), false, file);
1949
1950   fprintf (file, " eq_uses ");
1951   df_refs_chain_dump (DF_INSN_UID_EQ_USES (uid), false, file);
1952   fprintf (file, "\n");
1953 }
1954
1955 void
1956 df_regno_debug (unsigned int regno, FILE *file)
1957 {
1958   fprintf (file, "reg %d defs ", regno);
1959   df_regs_chain_dump (DF_REG_DEF_CHAIN (regno), file);
1960   fprintf (file, " uses ");
1961   df_regs_chain_dump (DF_REG_USE_CHAIN (regno), file);
1962   fprintf (file, " eq_uses ");
1963   df_regs_chain_dump (DF_REG_EQ_USE_CHAIN (regno), file);
1964   fprintf (file, "\n");
1965 }
1966
1967
1968 void
1969 df_ref_debug (struct df_ref *ref, FILE *file)
1970 {
1971   fprintf (file, "%c%d ",
1972            DF_REF_REG_DEF_P (ref) ? 'd' : 'u',
1973            DF_REF_ID (ref));
1974   fprintf (file, "reg %d bb %d insn %d flag 0x%x type 0x%x ",
1975            DF_REF_REGNO (ref),
1976            DF_REF_BBNO (ref),
1977            DF_REF_INSN (ref) ? INSN_UID (DF_REF_INSN (ref)) : -1,
1978            DF_REF_FLAGS (ref),
1979            DF_REF_TYPE (ref));
1980   if (DF_REF_LOC (ref))
1981     fprintf (file, "loc %p(%p) chain ", (void *)DF_REF_LOC (ref), (void *)*DF_REF_LOC (ref));
1982   else
1983     fprintf (file, "chain ");
1984   df_chain_dump (DF_REF_CHAIN (ref), file);
1985   fprintf (file, "\n");
1986 }
1987 \f
1988 /* Functions for debugging from GDB.  */
1989
1990 void
1991 debug_df_insn (rtx insn)
1992 {
1993   df_insn_debug (insn, true, stderr);
1994   debug_rtx (insn);
1995 }
1996
1997
1998 void
1999 debug_df_reg (rtx reg)
2000 {
2001   df_regno_debug (REGNO (reg), stderr);
2002 }
2003
2004
2005 void
2006 debug_df_regno (unsigned int regno)
2007 {
2008   df_regno_debug (regno, stderr);
2009 }
2010
2011
2012 void
2013 debug_df_ref (struct df_ref *ref)
2014 {
2015   df_ref_debug (ref, stderr);
2016 }
2017
2018
2019 void
2020 debug_df_defno (unsigned int defno)
2021 {
2022   df_ref_debug (DF_DEFS_GET (defno), stderr);
2023 }
2024
2025
2026 void
2027 debug_df_useno (unsigned int defno)
2028 {
2029   df_ref_debug (DF_USES_GET (defno), stderr);
2030 }
2031
2032
2033 void
2034 debug_df_chain (struct df_link *link)
2035 {
2036   df_chain_dump (link, stderr);
2037   fputc ('\n', stderr);
2038 }