OSDN Git Service

Add missing ChangeLog entries.
[pf3gnuchains/gcc-fork.git] / gcc / df-core.c
1 /* Allocation for dataflow support routines.
2    Copyright (C) 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007
3    Free Software Foundation, Inc.
4    Originally contributed by Michael P. Hayes 
5              (m.hayes@elec.canterbury.ac.nz, mhayes@redhat.com)
6    Major rewrite contributed by Danny Berlin (dberlin@dberlin.org)
7              and Kenneth Zadeck (zadeck@naturalbridge.com).
8
9 This file is part of GCC.
10
11 GCC is free software; you can redistribute it and/or modify it under
12 the terms of the GNU General Public License as published by the Free
13 Software Foundation; either version 3, or (at your option) any later
14 version.
15
16 GCC is distributed in the hope that it will be useful, but WITHOUT ANY
17 WARRANTY; without even the implied warranty of MERCHANTABILITY or
18 FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
19 for more details.
20
21 You should have received a copy of the GNU General Public License
22 along with GCC; see the file COPYING3.  If not see
23 <http://www.gnu.org/licenses/>.  */
24
25 /*
26 OVERVIEW:
27
28 The files in this collection (df*.c,df.h) provide a general framework
29 for solving dataflow problems.  The global dataflow is performed using
30 a good implementation of iterative dataflow analysis.
31
32 The file df-problems.c provides problem instance for the most common
33 dataflow problems: reaching defs, upward exposed uses, live variables,
34 uninitialized variables, def-use chains, and use-def chains.  However,
35 the interface allows other dataflow problems to be defined as well.
36
37 Dataflow analysis is available in most of the rtl backend (the parts
38 between pass_df_initialize and pass_df_finish).  It is quite likely
39 that these boundaries will be expanded in the future.  The only
40 requirement is that there be a correct control flow graph.
41
42 There are three variations of the live variable problem that are
43 available whenever dataflow is available.  The LR problem finds the
44 areas that can reach a use of a variable, the UR problems finds the
45 areas tha can be reached from a definition of a variable.  The LIVE
46 problem finds the intersection of these two areas.  
47
48 There are several optional problems.  These can be enabled when they
49 are needed and disabled when they are not needed.
50
51 Dataflow problems are generally solved in three layers.  The bottom
52 layer is called scanning where a data structure is built for each rtl
53 insn that describes the set of defs and uses of that insn.  Scanning
54 is generally kept up to date, i.e. as the insns changes, the scanned
55 version of that insn changes also.  There are various mechanisms for
56 making this happen and are described in the INCREMENTAL SCANNING
57 section.
58
59 In the middle layer, basic blocks are scanned to produce transfer
60 functions which describe the effects of that block on the a global
61 dataflow solution.  The transfer functions are only rebuilt if the
62 some instruction within the block has changed.  
63
64 The top layer is the dataflow solution itself.  The dataflow solution
65 is computed by using an efficient iterative solver and the transfer
66 functions.  The dataflow solution must be recomputed whenever the
67 control changes or if one of the transfer function changes.
68
69
70 USAGE:
71
72 Here is an example of using the dataflow routines.
73
74       df_[chain,live,note,rd]_add_problem (flags);
75
76       df_set_blocks (blocks);
77
78       df_analyze ();
79
80       df_dump (stderr);
81
82       df_finish_pass (false);
83
84 DF_[chain,live,note,rd]_ADD_PROBLEM adds a problem, defined by an
85 instance to struct df_problem, to the set of problems solved in this
86 instance of df.  All calls to add a problem for a given instance of df
87 must occur before the first call to DF_ANALYZE.
88
89 Problems can be dependent on other problems.  For instance, solving
90 def-use or use-def chains is dependent on solving reaching
91 definitions. As long as these dependencies are listed in the problem
92 definition, the order of adding the problems is not material.
93 Otherwise, the problems will be solved in the order of calls to
94 df_add_problem.  Note that it is not necessary to have a problem.  In
95 that case, df will just be used to do the scanning.
96
97
98
99 DF_SET_BLOCKS is an optional call used to define a region of the
100 function on which the analysis will be performed.  The normal case is
101 to analyze the entire function and no call to df_set_blocks is made.
102 DF_SET_BLOCKS only effects the blocks that are effected when computing
103 the transfer functions and final solution.  The insn level information
104 is always kept up to date.
105
106 When a subset is given, the analysis behaves as if the function only
107 contains those blocks and any edges that occur directly between the
108 blocks in the set.  Care should be taken to call df_set_blocks right
109 before the call to analyze in order to eliminate the possibility that
110 optimizations that reorder blocks invalidate the bitvector.
111
112 DF_ANALYZE causes all of the defined problems to be (re)solved.  When
113 DF_ANALYZE is completes, the IN and OUT sets for each basic block
114 contain the computer information.  The DF_*_BB_INFO macros can be used
115 to access these bitvectors.  All deferred rescannings are down before
116 the transfer functions are recomputed.
117
118 DF_DUMP can then be called to dump the information produce to some
119 file.  This calls DF_DUMP_START, to print the information that is not
120 basic block specific, and then calls DF_DUMP_TOP and DF_DUMP_BOTTOM
121 for each block to print the basic specific information.  These parts
122 can all be called separately as part of a larger dump function.
123
124
125 DF_FINISH_PASS causes df_remove_problem to be called on all of the
126 optional problems.  It also causes any insns whose scanning has been
127 deferred to be rescanned as well as clears all of the changeable flags.
128 Setting the pass manager TODO_df_finish flag causes this function to
129 be run.  However, the pass manager will call df_finish_pass AFTER the
130 pass dumping has been done, so if you want to see the results of the
131 optional problems in the pass dumps, use the TODO flag rather than
132 calling the function yourself.
133
134 INCREMENTAL SCANNING
135
136 There are four ways of doing the incremental scanning:
137
138 1) Immediate rescanning - Calls to df_insn_rescan, df_notes_rescan,
139    df_bb_delete, df_insn_change_bb have been added to most of
140    the low level service functions that maintain the cfg and change
141    rtl.  Calling and of these routines many cause some number of insns
142    to be rescanned.
143
144    For most modern rtl passes, this is certainly the easiest way to
145    manage rescanning the insns.  This technique also has the advantage
146    that the scanning information is always correct and can be relied
147    upon even after changes have been made to the instructions.  This
148    technique is contra indicated in several cases:
149
150    a) If def-use chains OR use-def chains (but not both) are built,
151       using this is SIMPLY WRONG.  The problem is that when a ref is
152       deleted that is the target of an edge, there is not enough
153       information to efficiently find the source of the edge and
154       delete the edge.  This leaves a dangling reference that may
155       cause problems.
156
157    b) If def-use chains AND use-def chains are built, this may
158       produce unexpected results.  The problem is that the incremental
159       scanning of an insn does not know how to repair the chains that
160       point into an insn when the insn changes.  So the incremental
161       scanning just deletes the chains that enter and exit the insn
162       being changed.  The dangling reference issue in (a) is not a
163       problem here, but if the pass is depending on the chains being
164       maintained after insns have been modified, this technique will
165       not do the correct thing.
166
167    c) If the pass modifies insns several times, this incremental
168       updating may be expensive.
169
170    d) If the pass modifies all of the insns, as does register
171       allocation, it is simply better to rescan the entire function.
172
173    e) If the pass uses either non-standard or ancient techniques to
174       modify insns, automatic detection of the insns that need to be
175       rescanned may be impractical.  Cse and regrename fall into this
176       category.
177
178 2) Deferred rescanning - Calls to df_insn_rescan, df_notes_rescan, and
179    df_insn_delete do not immediately change the insn but instead make
180    a note that the insn needs to be rescanned.  The next call to
181    df_analyze, df_finish_pass, or df_process_deferred_rescans will
182    cause all of the pending rescans to be processed.
183
184    This is the technique of choice if either 1a, 1b, or 1c are issues
185    in the pass.  In the case of 1a or 1b, a call to df_remove_problem
186    (df_chain) should be made before the next call to df_analyze or
187    df_process_deferred_rescans.
188
189    To enable this mode, call df_set_flags (DF_DEFER_INSN_RESCAN).
190    (This mode can be cleared by calling df_clear_flags
191    (DF_DEFER_INSN_RESCAN) but this does not cause the deferred insns to
192    be rescanned.
193
194    3) Total rescanning - In this mode the rescanning is disabled.
195    However, the df information associated with deleted insn is delete
196    at the time the insn is deleted.  At the end of the pass, a call
197    must be made to df_insn_rescan_all.  This method is used by the
198    register allocator since it generally changes each insn multiple
199    times (once for each ref) and does not need to make use of the
200    updated scanning information.
201
202    It is also currently used by two older passes (cse, and regrename)
203    which change insns in hard to track ways.  It is hoped that this
204    will be fixed soon since this it is expensive to rescan all of the
205    insns when only a small number of them have really changed.
206
207 4) Do it yourself - In this mechanism, the pass updates the insns
208    itself using the low level df primitives.  Currently no pass does
209    this, but it has the advantage that it is quite efficient given
210    that the pass generally has exact knowledge of what it is changing.  
211
212 DATA STRUCTURES
213
214 Scanning produces a `struct df_ref' data structure (ref) is allocated
215 for every register reference (def or use) and this records the insn
216 and bb the ref is found within.  The refs are linked together in
217 chains of uses and defs for each insn and for each register.  Each ref
218 also has a chain field that links all the use refs for a def or all
219 the def refs for a use.  This is used to create use-def or def-use
220 chains.
221
222 Different optimizations have different needs.  Ultimately, only
223 register allocation and schedulers should be using the bitmaps
224 produced for the live register and uninitialized register problems.
225 The rest of the backend should be upgraded to using and maintaining
226 the linked information such as def use or use def chains.
227
228
229 PHILOSOPHY:
230
231 While incremental bitmaps are not worthwhile to maintain, incremental
232 chains may be perfectly reasonable.  The fastest way to build chains
233 from scratch or after significant modifications is to build reaching
234 definitions (RD) and build the chains from this.
235
236 However, general algorithms for maintaining use-def or def-use chains
237 are not practical.  The amount of work to recompute the chain any
238 chain after an arbitrary change is large.  However, with a modest
239 amount of work it is generally possible to have the application that
240 uses the chains keep them up to date.  The high level knowledge of
241 what is really happening is essential to crafting efficient
242 incremental algorithms.
243
244 As for the bit vector problems, there is no interface to give a set of
245 blocks over with to resolve the iteration.  In general, restarting a
246 dataflow iteration is difficult and expensive.  Again, the best way to
247 keep the dataflow information up to data (if this is really what is
248 needed) it to formulate a problem specific solution.
249
250 There are fine grained calls for creating and deleting references from
251 instructions in df-scan.c.  However, these are not currently connected
252 to the engine that resolves the dataflow equations.
253
254
255 DATA STRUCTURES:
256
257 The basic object is a DF_REF (reference) and this may either be a 
258 DEF (definition) or a USE of a register.
259
260 These are linked into a variety of lists; namely reg-def, reg-use,
261 insn-def, insn-use, def-use, and use-def lists.  For example, the
262 reg-def lists contain all the locations that define a given register
263 while the insn-use lists contain all the locations that use a
264 register.
265
266 Note that the reg-def and reg-use chains are generally short for
267 pseudos and long for the hard registers.
268
269 ACCESSING INSNS:
270
271 1) The df insn information is kept in the insns array.  This array is
272    indexed by insn uid.  
273
274 2) Each insn has three sets of refs: They are linked into one of three
275    lists: the insn's defs list (accessed by the DF_INSN_DEFS or
276    DF_INSN_UID_DEFS macros), the insn's uses list (accessed by the
277    DF_INSN_USES or DF_INSN_UID_USES macros) or the insn's eq_uses list
278    (accessed by the DF_INSN_EQ_USES or DF_INSN_UID_EQ_USES macros).
279    The latter list are the list of references in REG_EQUAL or
280    REG_EQUIV notes.  These macros produce a ref (or NULL), the rest of
281    the list can be obtained by traversal of the NEXT_REF field
282    (accessed by the DF_REF_NEXT_REF macro.)  There is no significance
283    to the ordering of the uses or refs in an instruction.
284
285 3) Each insn has a logical uid field (LUID).  When properly set, this
286    is an integer that numbers each insn in the basic block, in order from
287    the start of the block.  The numbers are only correct after a call to
288    df_analyse.  They will rot after insns are added deleted or moved
289    around.
290
291 ACCESSING REFS:
292
293 There are 4 ways to obtain access to refs:
294
295 1) References are divided into two categories, REAL and ARTIFICIAL.
296
297    REAL refs are associated with instructions.  
298
299    ARTIFICIAL refs are associated with basic blocks.  The heads of
300    these lists can be accessed by calling df_get_artificial_defs or
301    df_get_artificial_uses for the particular basic block.  
302  
303    Artificial defs and uses occur both at the beginning and ends of blocks.
304
305      For blocks that area at the destination of eh edges, the
306      artificial uses and defs occur at the beginning.  The defs relate
307      to the registers specified in EH_RETURN_DATA_REGNO and the uses
308      relate to the registers specified in ED_USES.  Logically these
309      defs and uses should really occur along the eh edge, but there is
310      no convenient way to do this.  Artificial edges that occur at the
311      beginning of the block have the DF_REF_AT_TOP flag set.
312
313      Artificial uses occur at the end of all blocks.  These arise from
314      the hard registers that are always live, such as the stack
315      register and are put there to keep the code from forgetting about
316      them.
317
318      Artificial defs occur at the end of the entry block.  These arise
319      from registers that are live at entry to the function.
320
321 2) There are three types of refs: defs, uses and eq_uses.  (Eq_uses are 
322    uses that appear inside a REG_EQUAL or REG_EQUIV note.)
323
324    All of the eq_uses, uses and defs associated with each pseudo or
325    hard register may be linked in a bidirectional chain.  These are
326    called reg-use or reg_def chains.  If the changeable flag
327    DF_EQ_NOTES is set when the chains are built, the eq_uses will be
328    treated like uses.  If it is not set they are ignored.  
329
330    The first use, eq_use or def for a register can be obtained using
331    the DF_REG_USE_CHAIN, DF_REG_EQ_USE_CHAIN or DF_REG_DEF_CHAIN
332    macros.  Subsequent uses for the same regno can be obtained by
333    following the next_reg field of the ref.  The number of elements in
334    each of the chains can be found by using the DF_REG_USE_COUNT,
335    DF_REG_EQ_USE_COUNT or DF_REG_DEF_COUNT macros.
336
337    In previous versions of this code, these chains were ordered.  It
338    has not been practical to continue this practice.
339
340 3) If def-use or use-def chains are built, these can be traversed to
341    get to other refs.  If the flag DF_EQ_NOTES has been set, the chains
342    include the eq_uses.  Otherwise these are ignored when building the
343    chains.
344
345 4) An array of all of the uses (and an array of all of the defs) can
346
347    be built.  These arrays are indexed by the value in the id
348    structure.  These arrays are only lazily kept up to date, and that
349    process can be expensive.  To have these arrays built, call
350    df_reorganize_defs or df_reorganize_uses.  If the flag DF_EQ_NOTES
351    has been set the array will contain the eq_uses.  Otherwise these
352    are ignored when building the array and assigning the ids.  Note
353    that the values in the id field of a ref may change across calls to
354    df_analyze or df_reorganize_defs or df_reorganize_uses. 
355
356    If the only use of this array is to find all of the refs, it is
357    better to traverse all of the registers and then traverse all of
358    reg-use or reg-def chains.
359
360 NOTES:
361  
362 Embedded addressing side-effects, such as POST_INC or PRE_INC, generate
363 both a use and a def.  These are both marked read/write to show that they
364 are dependent. For example, (set (reg 40) (mem (post_inc (reg 42))))
365 will generate a use of reg 42 followed by a def of reg 42 (both marked
366 read/write).  Similarly, (set (reg 40) (mem (pre_dec (reg 41))))
367 generates a use of reg 41 then a def of reg 41 (both marked read/write),
368 even though reg 41 is decremented before it is used for the memory
369 address in this second example.
370
371 A set to a REG inside a ZERO_EXTRACT, or a set to a non-paradoxical SUBREG
372 for which the number of word_mode units covered by the outer mode is
373 smaller than that covered by the inner mode, invokes a read-modify-write.
374 operation.  We generate both a use and a def and again mark them
375 read/write.
376
377 Paradoxical subreg writes do not leave a trace of the old content, so they
378 are write-only operations.  
379 */
380
381
382 #include "config.h"
383 #include "system.h"
384 #include "coretypes.h"
385 #include "tm.h"
386 #include "rtl.h"
387 #include "tm_p.h"
388 #include "insn-config.h"
389 #include "recog.h"
390 #include "function.h"
391 #include "regs.h"
392 #include "output.h"
393 #include "alloc-pool.h"
394 #include "flags.h"
395 #include "hard-reg-set.h"
396 #include "basic-block.h"
397 #include "sbitmap.h"
398 #include "bitmap.h"
399 #include "timevar.h"
400 #include "df.h"
401 #include "tree-pass.h"
402 #include "params.h"
403
404 static void *df_get_bb_info (struct dataflow *, unsigned int);
405 static void df_set_bb_info (struct dataflow *, unsigned int, void *);
406 #ifdef DF_DEBUG_CFG
407 static void df_set_clean_cfg (void);
408 #endif
409
410 /* An obstack for bitmap not related to specific dataflow problems.
411    This obstack should e.g. be used for bitmaps with a short life time
412    such as temporary bitmaps.  */
413
414 bitmap_obstack df_bitmap_obstack;
415
416
417 /*----------------------------------------------------------------------------
418   Functions to create, destroy and manipulate an instance of df.
419 ----------------------------------------------------------------------------*/
420
421 struct df *df;
422
423 /* Add PROBLEM (and any dependent problems) to the DF instance.  */
424
425 void
426 df_add_problem (struct df_problem *problem)
427 {
428   struct dataflow *dflow;
429   int i;
430
431   /* First try to add the dependent problem. */
432   if (problem->dependent_problem)
433     df_add_problem (problem->dependent_problem);
434
435   /* Check to see if this problem has already been defined.  If it
436      has, just return that instance, if not, add it to the end of the
437      vector.  */
438   dflow = df->problems_by_index[problem->id];
439   if (dflow)
440     return;
441
442   /* Make a new one and add it to the end.  */
443   dflow = XCNEW (struct dataflow);
444   dflow->problem = problem;
445   dflow->computed = false;
446   dflow->solutions_dirty = true;
447   df->problems_by_index[dflow->problem->id] = dflow;
448
449   /* Keep the defined problems ordered by index.  This solves the
450      problem that RI will use the information from UREC if UREC has
451      been defined, or from LIVE if LIVE is defined and otherwise LR.
452      However for this to work, the computation of RI must be pushed
453      after which ever of those problems is defined, but we do not
454      require any of those except for LR to have actually been
455      defined.  */ 
456   df->num_problems_defined++;
457   for (i = df->num_problems_defined - 2; i >= 0; i--)
458     {
459       if (problem->id < df->problems_in_order[i]->problem->id)
460         df->problems_in_order[i+1] = df->problems_in_order[i];
461       else
462         {
463           df->problems_in_order[i+1] = dflow;
464           return;
465         }
466     }
467   df->problems_in_order[0] = dflow;
468 }
469
470
471 /* Set the MASK flags in the DFLOW problem.  The old flags are
472    returned.  If a flag is not allowed to be changed this will fail if
473    checking is enabled.  */
474 enum df_changeable_flags
475 df_set_flags (enum df_changeable_flags changeable_flags)
476 {
477   enum df_changeable_flags old_flags = df->changeable_flags;
478   df->changeable_flags |= changeable_flags;
479   return old_flags;
480 }
481
482
483 /* Clear the MASK flags in the DFLOW problem.  The old flags are
484    returned.  If a flag is not allowed to be changed this will fail if
485    checking is enabled.  */
486 enum df_changeable_flags
487 df_clear_flags (enum df_changeable_flags changeable_flags)
488 {
489   enum df_changeable_flags old_flags = df->changeable_flags;
490   df->changeable_flags &= ~changeable_flags;
491   return old_flags;
492 }
493
494
495 /* Set the blocks that are to be considered for analysis.  If this is
496    not called or is called with null, the entire function in
497    analyzed.  */
498
499 void 
500 df_set_blocks (bitmap blocks)
501 {
502   if (blocks)
503     {
504       if (dump_file)
505         bitmap_print (dump_file, blocks, "setting blocks to analyze ", "\n");
506       if (df->blocks_to_analyze)
507         {
508           /* This block is called to change the focus from one subset
509              to another.  */
510           int p;
511           bitmap diff = BITMAP_ALLOC (&df_bitmap_obstack);
512           bitmap_and_compl (diff, df->blocks_to_analyze, blocks);
513           for (p = 0; p < df->num_problems_defined; p++)
514             {
515               struct dataflow *dflow = df->problems_in_order[p];
516               if (dflow->optional_p && dflow->problem->reset_fun)
517                 dflow->problem->reset_fun (df->blocks_to_analyze);
518               else if (dflow->problem->free_blocks_on_set_blocks)
519                 {
520                   bitmap_iterator bi;
521                   unsigned int bb_index;
522                   
523                   EXECUTE_IF_SET_IN_BITMAP (diff, 0, bb_index, bi)
524                     {
525                       basic_block bb = BASIC_BLOCK (bb_index);
526                       if (bb)
527                         {
528                           void *bb_info = df_get_bb_info (dflow, bb_index);
529                           if (bb_info)
530                             {
531                               dflow->problem->free_bb_fun (bb, bb_info);
532                               df_set_bb_info (dflow, bb_index, NULL);
533                             }
534                         }
535                     }
536                 }
537             }
538
539           BITMAP_FREE (diff);
540         }
541       else
542         {
543           /* This block of code is executed to change the focus from
544              the entire function to a subset.  */
545           bitmap blocks_to_reset = NULL;
546           int p;
547           for (p = 0; p < df->num_problems_defined; p++)
548             {
549               struct dataflow *dflow = df->problems_in_order[p];
550               if (dflow->optional_p && dflow->problem->reset_fun)
551                 {
552                   if (!blocks_to_reset)
553                     {
554                       basic_block bb;
555                       blocks_to_reset =
556                         BITMAP_ALLOC (&df_bitmap_obstack);
557                       FOR_ALL_BB(bb)
558                         {
559                           bitmap_set_bit (blocks_to_reset, bb->index); 
560                         }
561                     }
562                   dflow->problem->reset_fun (blocks_to_reset);
563                 }
564             }
565           if (blocks_to_reset)
566             BITMAP_FREE (blocks_to_reset);
567
568           df->blocks_to_analyze = BITMAP_ALLOC (&df_bitmap_obstack);
569         }
570       bitmap_copy (df->blocks_to_analyze, blocks);
571       df->analyze_subset = true;
572     }
573   else
574     {
575       /* This block is executed to reset the focus to the entire
576          function.  */
577       if (dump_file)
578         fprintf (dump_file, "clearing blocks_to_analyze\n");
579       if (df->blocks_to_analyze)
580         {
581           BITMAP_FREE (df->blocks_to_analyze);
582           df->blocks_to_analyze = NULL;
583         }
584       df->analyze_subset = false;
585     }
586
587   /* Setting the blocks causes the refs to be unorganized since only
588      the refs in the blocks are seen.  */
589   df_maybe_reorganize_def_refs (DF_REF_ORDER_NO_TABLE);
590   df_maybe_reorganize_use_refs (DF_REF_ORDER_NO_TABLE);
591   df_mark_solutions_dirty ();
592 }
593
594
595 /* Delete a DFLOW problem (and any problems that depend on this
596    problem).  */
597
598 void
599 df_remove_problem (struct dataflow *dflow)
600 {
601   struct df_problem *problem;
602   int i;
603
604   if (!dflow)
605     return;
606
607   problem = dflow->problem;
608   gcc_assert (problem->remove_problem_fun);
609
610   /* Delete any problems that depended on this problem first.  */
611   for (i = 0; i < df->num_problems_defined; i++)
612     if (df->problems_in_order[i]->problem->dependent_problem == problem)
613       df_remove_problem (df->problems_in_order[i]);
614
615   /* Now remove this problem.  */
616   for (i = 0; i < df->num_problems_defined; i++)
617     if (df->problems_in_order[i] == dflow)
618       {
619         int j;
620         for (j = i + 1; j < df->num_problems_defined; j++)
621           df->problems_in_order[j-1] = df->problems_in_order[j];
622         df->problems_in_order[j] = NULL;
623         df->num_problems_defined--;
624         break;
625       }
626
627   (problem->remove_problem_fun) ();
628   df->problems_by_index[problem->id] = NULL;
629 }
630
631
632 /* Remove all of the problems that are not permanent.  Scanning, LR
633    and (at -O2 or higher) LIVE are permanent, the rest are removable.
634    Also clear all of the changeable_flags.  */
635
636 void
637 df_finish_pass (bool verify ATTRIBUTE_UNUSED)
638 {
639   int i;
640   int removed = 0;
641
642 #ifdef ENABLE_DF_CHECKING
643   enum df_changeable_flags saved_flags;
644 #endif
645
646   if (!df)
647     return;
648
649   df_maybe_reorganize_def_refs (DF_REF_ORDER_NO_TABLE);
650   df_maybe_reorganize_use_refs (DF_REF_ORDER_NO_TABLE);
651
652 #ifdef ENABLE_DF_CHECKING
653   saved_flags = df->changeable_flags;
654 #endif
655
656   for (i = 0; i < df->num_problems_defined; i++)
657     {
658       struct dataflow *dflow = df->problems_in_order[i];
659       struct df_problem *problem = dflow->problem;
660
661       if (dflow->optional_p)
662         {
663           gcc_assert (problem->remove_problem_fun);
664           (problem->remove_problem_fun) ();
665           df->problems_in_order[i] = NULL;
666           df->problems_by_index[problem->id] = NULL;
667           removed++;
668         }
669     }
670   df->num_problems_defined -= removed;
671
672   /* Clear all of the flags.  */
673   df->changeable_flags = 0;
674   df_process_deferred_rescans ();
675
676   /* Set the focus back to the whole function.  */
677   if (df->blocks_to_analyze)
678     {
679       BITMAP_FREE (df->blocks_to_analyze);
680       df->blocks_to_analyze = NULL;
681       df_mark_solutions_dirty ();
682       df->analyze_subset = false;
683     }
684
685 #ifdef ENABLE_DF_CHECKING
686   /* Verification will fail in DF_NO_INSN_RESCAN.  */
687   if (!(saved_flags & DF_NO_INSN_RESCAN))
688     {
689       df_lr_verify_transfer_functions ();
690       if (df_live)
691         df_live_verify_transfer_functions ();
692     }
693
694 #ifdef DF_DEBUG_CFG
695   df_set_clean_cfg ();
696 #endif
697 #endif
698
699 #ifdef ENABLE_CHECKING
700   if (verify)
701     df->changeable_flags |= DF_VERIFY_SCHEDULED;
702 #endif
703 }
704
705
706 /* Set up the dataflow instance for the entire back end.  */
707
708 static unsigned int
709 rest_of_handle_df_initialize (void)
710 {
711   gcc_assert (!df);
712   df = XCNEW (struct df);
713   df->changeable_flags = 0;
714
715   bitmap_obstack_initialize (&df_bitmap_obstack);
716
717   /* Set this to a conservative value.  Stack_ptr_mod will compute it
718      correctly later.  */
719   current_function_sp_is_unchanging = 0;
720
721   df_scan_add_problem ();
722   df_scan_alloc (NULL);
723
724   /* These three problems are permanent.  */
725   df_lr_add_problem ();
726   if (optimize > 1)
727     df_live_add_problem ();
728
729   df->postorder = XNEWVEC (int, last_basic_block);
730   df->postorder_inverted = XNEWVEC (int, last_basic_block);
731   df->n_blocks = post_order_compute (df->postorder, true, true);
732   df->n_blocks_inverted = inverted_post_order_compute (df->postorder_inverted);
733   gcc_assert (df->n_blocks == df->n_blocks_inverted);
734
735   df->hard_regs_live_count = XNEWVEC (unsigned int, FIRST_PSEUDO_REGISTER);
736   memset (df->hard_regs_live_count, 0, 
737           sizeof (unsigned int) * FIRST_PSEUDO_REGISTER);
738
739   df_hard_reg_init ();
740   /* After reload, some ports add certain bits to regs_ever_live so
741      this cannot be reset.  */
742   df_compute_regs_ever_live (true);
743   df_scan_blocks ();
744   df_compute_regs_ever_live (false);
745   return 0;
746 }
747
748
749 static bool
750 gate_opt (void)
751 {
752   return optimize > 0;
753 }
754
755
756 struct tree_opt_pass pass_df_initialize_opt =
757 {
758   "dfinit",                             /* name */
759   gate_opt,                             /* gate */
760   rest_of_handle_df_initialize,         /* execute */
761   NULL,                                 /* sub */
762   NULL,                                 /* next */
763   0,                                    /* static_pass_number */
764   0,                                    /* tv_id */
765   0,                                    /* properties_required */
766   0,                                    /* properties_provided */
767   0,                                    /* properties_destroyed */
768   0,                                    /* todo_flags_start */
769   0,                                    /* todo_flags_finish */
770   'z'                                   /* letter */
771 };
772
773
774 static bool
775 gate_no_opt (void)
776 {
777   return optimize == 0;
778 }
779
780
781 struct tree_opt_pass pass_df_initialize_no_opt =
782 {
783   "dfinit",                             /* name */
784   gate_no_opt,                          /* gate */
785   rest_of_handle_df_initialize,         /* execute */
786   NULL,                                 /* sub */
787   NULL,                                 /* next */
788   0,                                    /* static_pass_number */
789   0,                                    /* tv_id */
790   0,                                    /* properties_required */
791   0,                                    /* properties_provided */
792   0,                                    /* properties_destroyed */
793   0,                                    /* todo_flags_start */
794   0,                                    /* todo_flags_finish */
795   'z'                                   /* letter */
796 };
797
798
799 /* Free all the dataflow info and the DF structure.  This should be
800    called from the df_finish macro which also NULLs the parm.  */
801
802 static unsigned int
803 rest_of_handle_df_finish (void)
804 {
805   int i;
806
807   gcc_assert (df);
808
809   for (i = 0; i < df->num_problems_defined; i++)
810     {
811       struct dataflow *dflow = df->problems_in_order[i];
812       dflow->problem->free_fun (); 
813     }
814
815   if (df->postorder)
816     free (df->postorder);
817   if (df->postorder_inverted)
818     free (df->postorder_inverted);
819   free (df->hard_regs_live_count);
820   free (df);
821   df = NULL;
822
823   bitmap_obstack_release (&df_bitmap_obstack);
824   return 0;
825 }
826
827
828 struct tree_opt_pass pass_df_finish =
829 {
830   "dfinish",                            /* name */
831   NULL,                                 /* gate */
832   rest_of_handle_df_finish,             /* execute */
833   NULL,                                 /* sub */
834   NULL,                                 /* next */
835   0,                                    /* static_pass_number */
836   0,                                    /* tv_id */
837   0,                                    /* properties_required */
838   0,                                    /* properties_provided */
839   0,                                    /* properties_destroyed */
840   0,                                    /* todo_flags_start */
841   0,                                    /* todo_flags_finish */
842   'z'                                   /* letter */
843 };
844
845
846
847
848 \f
849 /*----------------------------------------------------------------------------
850    The general data flow analysis engine.
851 ----------------------------------------------------------------------------*/
852
853
854 /* Helper function for df_worklist_dataflow.
855    Propagate the dataflow forward. 
856    Given a BB_INDEX, do the dataflow propagation
857    and set bits on for successors in PENDING
858    if the out set of the dataflow has changed. */
859
860 static void
861 df_worklist_propagate_forward (struct dataflow *dataflow,
862                                unsigned bb_index,
863                                unsigned *bbindex_to_postorder,
864                                bitmap pending,
865                                sbitmap considered)
866 {
867   edge e;
868   edge_iterator ei;
869   basic_block bb = BASIC_BLOCK (bb_index);
870
871   /*  Calculate <conf_op> of incoming edges.  */
872   if (EDGE_COUNT (bb->preds) > 0)
873     FOR_EACH_EDGE (e, ei, bb->preds)
874       {                                                         
875         if (TEST_BIT (considered, e->src->index))               
876           dataflow->problem->con_fun_n (e);
877       }                                                         
878   else if (dataflow->problem->con_fun_0)
879     dataflow->problem->con_fun_0 (bb);
880
881   if (dataflow->problem->trans_fun (bb_index))
882     {
883       /* The out set of this block has changed. 
884          Propagate to the outgoing blocks.  */
885       FOR_EACH_EDGE (e, ei, bb->succs)
886         {
887           unsigned ob_index = e->dest->index;
888
889           if (TEST_BIT (considered, ob_index))
890             bitmap_set_bit (pending, bbindex_to_postorder[ob_index]);
891         }
892     }
893 }
894
895
896 /* Helper function for df_worklist_dataflow.
897    Propagate the dataflow backward.  */
898
899 static void
900 df_worklist_propagate_backward (struct dataflow *dataflow,
901                                 unsigned bb_index,
902                                 unsigned *bbindex_to_postorder,
903                                 bitmap pending,
904                                 sbitmap considered)
905 {
906   edge e;
907   edge_iterator ei;
908   basic_block bb = BASIC_BLOCK (bb_index);
909
910   /*  Calculate <conf_op> of incoming edges.  */
911   if (EDGE_COUNT (bb->succs) > 0)
912     FOR_EACH_EDGE (e, ei, bb->succs)
913       {                                                         
914         if (TEST_BIT (considered, e->dest->index))              
915           dataflow->problem->con_fun_n (e);
916       }                                                         
917   else if (dataflow->problem->con_fun_0)
918     dataflow->problem->con_fun_0 (bb);
919
920   if (dataflow->problem->trans_fun (bb_index))
921     {
922       /* The out set of this block has changed. 
923          Propagate to the outgoing blocks.  */
924       FOR_EACH_EDGE (e, ei, bb->preds)
925         {
926           unsigned ob_index = e->src->index;
927
928           if (TEST_BIT (considered, ob_index))
929             bitmap_set_bit (pending, bbindex_to_postorder[ob_index]);
930         }
931     }
932 }
933
934
935
936 /* This will free "pending". */
937 static void 
938 df_worklist_dataflow_overeager (struct dataflow *dataflow,
939                                 bitmap pending,
940                                 sbitmap considered,
941                                 int *blocks_in_postorder,
942                                 unsigned *bbindex_to_postorder)
943 {
944   enum df_flow_dir dir = dataflow->problem->dir;
945   int count = 0;
946
947   while (!bitmap_empty_p (pending))
948     {
949       unsigned bb_index;
950       int index;
951       count++;
952
953       index = bitmap_first_set_bit (pending);
954       bitmap_clear_bit (pending, index);
955
956       bb_index = blocks_in_postorder[index];
957
958       if (dir == DF_FORWARD)
959         df_worklist_propagate_forward (dataflow, bb_index,
960                                        bbindex_to_postorder,
961                                        pending, considered);
962       else 
963         df_worklist_propagate_backward (dataflow, bb_index,
964                                         bbindex_to_postorder,
965                                         pending, considered);
966     }
967
968   BITMAP_FREE (pending);
969
970   /* Dump statistics. */
971   if (dump_file)
972     fprintf (dump_file, "df_worklist_dataflow_overeager:"
973              "n_basic_blocks %d n_edges %d"
974              " count %d (%5.2g)\n",
975              n_basic_blocks, n_edges,
976              count, count / (float)n_basic_blocks);
977 }
978
979 static void 
980 df_worklist_dataflow_doublequeue (struct dataflow *dataflow,
981                                   bitmap pending,
982                                   sbitmap considered,
983                                   int *blocks_in_postorder,
984                                   unsigned *bbindex_to_postorder)
985 {
986   enum df_flow_dir dir = dataflow->problem->dir;
987   int dcount = 0;
988   bitmap worklist = BITMAP_ALLOC (&df_bitmap_obstack);
989
990   /* Double-queueing. Worklist is for the current iteration,
991      and pending is for the next. */
992   while (!bitmap_empty_p (pending))
993     {
994       /* Swap pending and worklist. */
995       bitmap temp = worklist;
996       worklist = pending;
997       pending = temp;
998
999       do
1000         {
1001           int index;
1002           unsigned bb_index;
1003           dcount++;
1004
1005           index = bitmap_first_set_bit (worklist);
1006           bitmap_clear_bit (worklist, index);
1007
1008           bb_index = blocks_in_postorder[index];
1009
1010           if (dir == DF_FORWARD)
1011             df_worklist_propagate_forward (dataflow, bb_index,
1012                                            bbindex_to_postorder,
1013                                            pending, considered);
1014           else 
1015             df_worklist_propagate_backward (dataflow, bb_index,
1016                                             bbindex_to_postorder,
1017                                             pending, considered);
1018         }
1019       while (!bitmap_empty_p (worklist));
1020     }
1021
1022   BITMAP_FREE (worklist);
1023   BITMAP_FREE (pending);
1024
1025   /* Dump statistics. */
1026   if (dump_file)
1027     fprintf (dump_file, "df_worklist_dataflow_doublequeue:"
1028              "n_basic_blocks %d n_edges %d"
1029              " count %d (%5.2g)\n",
1030              n_basic_blocks, n_edges,
1031              dcount, dcount / (float)n_basic_blocks);
1032 }
1033
1034 /* Worklist-based dataflow solver. It uses sbitmap as a worklist,
1035    with "n"-th bit representing the n-th block in the reverse-postorder order. 
1036    This is so-called over-eager algorithm where it propagates
1037    changes on demand. This algorithm may visit blocks more than
1038    iterative method if there are deeply nested loops. 
1039    Worklist algorithm works better than iterative algorithm
1040    for CFGs with no nested loops.
1041    In practice, the measurement shows worklist algorithm beats 
1042    iterative algorithm by some margin overall.  
1043    Note that this is slightly different from the traditional textbook worklist solver,
1044    in that the worklist is effectively sorted by the reverse postorder.
1045    For CFGs with no nested loops, this is optimal. 
1046    
1047    The overeager algorithm while works well for typical inputs,
1048    it could degenerate into excessive iterations given CFGs with high loop nests
1049    and unstructured loops. To cap the excessive iteration on such case,
1050    we switch to double-queueing when the original algorithm seems to 
1051    get into such.
1052    */
1053
1054 void 
1055 df_worklist_dataflow (struct dataflow *dataflow,
1056                       bitmap blocks_to_consider,
1057                       int *blocks_in_postorder,
1058                       int n_blocks)
1059 {
1060   bitmap pending = BITMAP_ALLOC (&df_bitmap_obstack);
1061   sbitmap considered = sbitmap_alloc (last_basic_block);
1062   bitmap_iterator bi;
1063   unsigned int *bbindex_to_postorder;
1064   int i;
1065   unsigned int index;
1066   enum df_flow_dir dir = dataflow->problem->dir;
1067
1068   gcc_assert (dir != DF_NONE);
1069
1070   /* BBINDEX_TO_POSTORDER maps the bb->index to the reverse postorder.  */
1071   bbindex_to_postorder =
1072     (unsigned int *)xmalloc (last_basic_block * sizeof (unsigned int));
1073
1074   /* Initialize the array to an out-of-bound value.  */
1075   for (i = 0; i < last_basic_block; i++)
1076     bbindex_to_postorder[i] = last_basic_block;
1077
1078   /* Initialize the considered map.  */
1079   sbitmap_zero (considered);
1080   EXECUTE_IF_SET_IN_BITMAP (blocks_to_consider, 0, index, bi)
1081     {
1082       SET_BIT (considered, index);
1083     }
1084
1085   /* Initialize the mapping of block index to postorder.  */
1086   for (i = 0; i < n_blocks; i++)
1087     {
1088       bbindex_to_postorder[blocks_in_postorder[i]] = i;
1089       /* Add all blocks to the worklist.  */
1090       bitmap_set_bit (pending, i);
1091     }
1092
1093   /* Initialize the problem. */
1094   if (dataflow->problem->init_fun)
1095     dataflow->problem->init_fun (blocks_to_consider);
1096
1097   /* Solve it. Determine the solving algorithm
1098      based on a simple heuristic. */
1099   if (n_edges > PARAM_VALUE (PARAM_DF_DOUBLE_QUEUE_THRESHOLD_FACTOR)
1100       * n_basic_blocks)
1101     {
1102       /* High average connectivity, meaning dense graph
1103          with more likely deep nested loops
1104          or unstructured loops. */
1105       df_worklist_dataflow_doublequeue (dataflow, pending, considered,
1106                                         blocks_in_postorder,
1107                                         bbindex_to_postorder);
1108     }
1109   else 
1110     {
1111       /* Most inputs fall into this case
1112         with relatively flat or structured CFG. */
1113       df_worklist_dataflow_overeager (dataflow, pending, considered,
1114                                       blocks_in_postorder,
1115                                       bbindex_to_postorder);
1116     }
1117
1118   sbitmap_free (considered);
1119   free (bbindex_to_postorder);
1120 }
1121
1122
1123 /* Remove the entries not in BLOCKS from the LIST of length LEN, preserving
1124    the order of the remaining entries.  Returns the length of the resulting
1125    list.  */
1126
1127 static unsigned
1128 df_prune_to_subcfg (int list[], unsigned len, bitmap blocks)
1129 {
1130   unsigned act, last;
1131
1132   for (act = 0, last = 0; act < len; act++)
1133     if (bitmap_bit_p (blocks, list[act]))
1134       list[last++] = list[act];
1135
1136   return last;
1137 }
1138
1139
1140 /* Execute dataflow analysis on a single dataflow problem. 
1141
1142    BLOCKS_TO_CONSIDER are the blocks whose solution can either be
1143    examined or will be computed.  For calls from DF_ANALYZE, this is
1144    the set of blocks that has been passed to DF_SET_BLOCKS.  
1145 */
1146
1147 void
1148 df_analyze_problem (struct dataflow *dflow, 
1149                     bitmap blocks_to_consider, 
1150                     int *postorder, int n_blocks)
1151 {
1152   timevar_push (dflow->problem->tv_id);
1153
1154 #ifdef ENABLE_DF_CHECKING
1155   if (dflow->problem->verify_start_fun)
1156     dflow->problem->verify_start_fun ();
1157 #endif
1158
1159   /* (Re)Allocate the datastructures necessary to solve the problem.  */ 
1160   if (dflow->problem->alloc_fun)
1161     dflow->problem->alloc_fun (blocks_to_consider);
1162
1163   /* Set up the problem and compute the local information.  */
1164   if (dflow->problem->local_compute_fun)
1165     dflow->problem->local_compute_fun (blocks_to_consider);
1166
1167   /* Solve the equations.  */
1168   if (dflow->problem->dataflow_fun)
1169     dflow->problem->dataflow_fun (dflow, blocks_to_consider,
1170                                   postorder, n_blocks);
1171
1172   /* Massage the solution.  */
1173   if (dflow->problem->finalize_fun)
1174     dflow->problem->finalize_fun (blocks_to_consider);
1175
1176 #ifdef ENABLE_DF_CHECKING
1177   if (dflow->problem->verify_end_fun)
1178     dflow->problem->verify_end_fun ();
1179 #endif
1180
1181   timevar_pop (dflow->problem->tv_id);
1182
1183   dflow->computed = true;
1184 }
1185
1186
1187 /* Analyze dataflow info for the basic blocks specified by the bitmap
1188    BLOCKS, or for the whole CFG if BLOCKS is zero.  */
1189
1190 void
1191 df_analyze (void)
1192 {
1193   bitmap current_all_blocks = BITMAP_ALLOC (&df_bitmap_obstack);
1194   bool everything;
1195   int i;
1196   
1197   if (df->postorder)
1198     free (df->postorder);
1199   if (df->postorder_inverted)
1200     free (df->postorder_inverted);
1201   df->postorder = XNEWVEC (int, last_basic_block);
1202   df->postorder_inverted = XNEWVEC (int, last_basic_block);
1203   df->n_blocks = post_order_compute (df->postorder, true, true);
1204   df->n_blocks_inverted = inverted_post_order_compute (df->postorder_inverted);
1205
1206   /* These should be the same.  */
1207   gcc_assert (df->n_blocks == df->n_blocks_inverted);
1208
1209   /* We need to do this before the df_verify_all because this is
1210      not kept incrementally up to date.  */
1211   df_compute_regs_ever_live (false);
1212   df_process_deferred_rescans ();
1213
1214   if (dump_file)
1215     fprintf (dump_file, "df_analyze called\n");
1216
1217 #ifndef ENABLE_DF_CHECKING
1218   if (df->changeable_flags & DF_VERIFY_SCHEDULED)
1219 #endif
1220     df_verify ();
1221
1222   for (i = 0; i < df->n_blocks; i++)
1223     bitmap_set_bit (current_all_blocks, df->postorder[i]);
1224
1225 #ifdef ENABLE_CHECKING
1226   /* Verify that POSTORDER_INVERTED only contains blocks reachable from
1227      the ENTRY block.  */
1228   for (i = 0; i < df->n_blocks_inverted; i++)
1229     gcc_assert (bitmap_bit_p (current_all_blocks, df->postorder_inverted[i]));
1230 #endif
1231
1232   /* Make sure that we have pruned any unreachable blocks from these
1233      sets.  */
1234   if (df->analyze_subset)
1235     {
1236       everything = false;
1237       bitmap_and_into (df->blocks_to_analyze, current_all_blocks);
1238       df->n_blocks = df_prune_to_subcfg (df->postorder, 
1239                                          df->n_blocks, df->blocks_to_analyze);
1240       df->n_blocks_inverted = df_prune_to_subcfg (df->postorder_inverted, 
1241                                                   df->n_blocks_inverted, 
1242                                                   df->blocks_to_analyze);
1243       BITMAP_FREE (current_all_blocks);
1244     }
1245   else
1246     {
1247       everything = true;
1248       df->blocks_to_analyze = current_all_blocks;
1249       current_all_blocks = NULL;
1250     }
1251
1252   /* Skip over the DF_SCAN problem. */
1253   for (i = 1; i < df->num_problems_defined; i++)
1254     {
1255       struct dataflow *dflow = df->problems_in_order[i];
1256       if (dflow->solutions_dirty)
1257         {
1258           if (dflow->problem->dir == DF_FORWARD)
1259             df_analyze_problem (dflow,
1260                                 df->blocks_to_analyze,
1261                                 df->postorder_inverted,
1262                                 df->n_blocks_inverted);
1263           else
1264             df_analyze_problem (dflow,
1265                                 df->blocks_to_analyze,
1266                                 df->postorder,
1267                                 df->n_blocks);
1268         }
1269     }
1270
1271   if (everything)
1272     {
1273       BITMAP_FREE (df->blocks_to_analyze);
1274       df->blocks_to_analyze = NULL;
1275     }
1276
1277 #ifdef DF_DEBUG_CFG
1278   df_set_clean_cfg ();
1279 #endif
1280 }
1281
1282
1283 /* Return the number of basic blocks from the last call to df_analyze.  */
1284
1285 int 
1286 df_get_n_blocks (enum df_flow_dir dir)
1287 {
1288   gcc_assert (dir != DF_NONE);
1289
1290   if (dir == DF_FORWARD)
1291     {
1292       gcc_assert (df->postorder_inverted);
1293       return df->n_blocks_inverted;
1294     }
1295
1296   gcc_assert (df->postorder);
1297   return df->n_blocks;
1298 }
1299
1300
1301 /* Return a pointer to the array of basic blocks in the reverse postorder. 
1302    Depending on the direction of the dataflow problem,
1303    it returns either the usual reverse postorder array
1304    or the reverse postorder of inverted traversal. */
1305 int *
1306 df_get_postorder (enum df_flow_dir dir)
1307 {
1308   gcc_assert (dir != DF_NONE);
1309
1310   if (dir == DF_FORWARD)
1311     {
1312       gcc_assert (df->postorder_inverted);
1313       return df->postorder_inverted;
1314     }
1315   gcc_assert (df->postorder);
1316   return df->postorder;
1317 }
1318
1319 static struct df_problem user_problem; 
1320 static struct dataflow user_dflow;
1321
1322 /* Interface for calling iterative dataflow with user defined
1323    confluence and transfer functions.  All that is necessary is to
1324    supply DIR, a direction, CONF_FUN_0, a confluence function for
1325    blocks with no logical preds (or NULL), CONF_FUN_N, the normal
1326    confluence function, TRANS_FUN, the basic block transfer function,
1327    and BLOCKS, the set of blocks to examine, POSTORDER the blocks in
1328    postorder, and N_BLOCKS, the number of blocks in POSTORDER. */
1329
1330 void
1331 df_simple_dataflow (enum df_flow_dir dir,
1332                     df_init_function init_fun,
1333                     df_confluence_function_0 con_fun_0,
1334                     df_confluence_function_n con_fun_n,
1335                     df_transfer_function trans_fun,
1336                     bitmap blocks, int * postorder, int n_blocks)
1337 {
1338   memset (&user_problem, 0, sizeof (struct df_problem));
1339   user_problem.dir = dir;
1340   user_problem.init_fun = init_fun;
1341   user_problem.con_fun_0 = con_fun_0;
1342   user_problem.con_fun_n = con_fun_n;
1343   user_problem.trans_fun = trans_fun;
1344   user_dflow.problem = &user_problem;
1345   df_worklist_dataflow (&user_dflow, blocks, postorder, n_blocks);
1346 }
1347
1348                               
1349 \f
1350 /*----------------------------------------------------------------------------
1351    Functions to support limited incremental change.
1352 ----------------------------------------------------------------------------*/
1353
1354
1355 /* Get basic block info.  */
1356
1357 static void *
1358 df_get_bb_info (struct dataflow *dflow, unsigned int index)
1359 {
1360   if (dflow->block_info == NULL)
1361     return NULL;
1362   if (index >= dflow->block_info_size)
1363     return NULL;
1364   return (struct df_scan_bb_info *) dflow->block_info[index];
1365 }
1366
1367
1368 /* Set basic block info.  */
1369
1370 static void
1371 df_set_bb_info (struct dataflow *dflow, unsigned int index, 
1372                 void *bb_info)
1373 {
1374   gcc_assert (dflow->block_info);
1375   dflow->block_info[index] = bb_info;
1376 }
1377
1378
1379 /* Mark the solutions as being out of date.  */
1380
1381 void 
1382 df_mark_solutions_dirty (void)
1383 {
1384   if (df)
1385     {
1386       int p; 
1387       for (p = 1; p < df->num_problems_defined; p++)
1388         df->problems_in_order[p]->solutions_dirty = true;
1389     }
1390 }
1391
1392
1393 /* Return true if BB needs it's transfer functions recomputed.  */
1394
1395 bool 
1396 df_get_bb_dirty (basic_block bb)
1397 {
1398   if (df && df_live)
1399     return bitmap_bit_p (df_live->out_of_date_transfer_functions, bb->index);
1400   else 
1401     return false;
1402 }
1403
1404
1405 /* Mark BB as needing it's transfer functions as being out of
1406    date.  */
1407
1408 void 
1409 df_set_bb_dirty (basic_block bb)
1410 {
1411   if (df)
1412     {
1413       int p; 
1414       for (p = 1; p < df->num_problems_defined; p++)
1415         {
1416           struct dataflow *dflow = df->problems_in_order[p];
1417           if (dflow->out_of_date_transfer_functions)
1418             bitmap_set_bit (dflow->out_of_date_transfer_functions, bb->index);
1419         }
1420       df_mark_solutions_dirty ();
1421     }
1422 }
1423
1424
1425 /* Clear the dirty bits.  This is called from places that delete
1426    blocks.  */
1427 static void
1428 df_clear_bb_dirty (basic_block bb)
1429 {
1430   int p; 
1431   for (p = 1; p < df->num_problems_defined; p++)
1432     {
1433       struct dataflow *dflow = df->problems_in_order[p];
1434       if (dflow->out_of_date_transfer_functions)
1435         bitmap_clear_bit (dflow->out_of_date_transfer_functions, bb->index);
1436     }
1437 }
1438 /* Called from the rtl_compact_blocks to reorganize the problems basic
1439    block info.  */
1440
1441 void 
1442 df_compact_blocks (void)
1443 {
1444   int i, p;
1445   basic_block bb;
1446   void **problem_temps;
1447   int size = last_basic_block * sizeof (void *);
1448   bitmap tmp = BITMAP_ALLOC (&df_bitmap_obstack);
1449   problem_temps = xmalloc (size);
1450
1451   for (p = 0; p < df->num_problems_defined; p++)
1452     {
1453       struct dataflow *dflow = df->problems_in_order[p];
1454
1455       /* Need to reorganize the out_of_date_transfer_functions for the
1456          dflow problem.  */
1457       if (dflow->out_of_date_transfer_functions)
1458         {
1459           bitmap_copy (tmp, dflow->out_of_date_transfer_functions);
1460           bitmap_clear (dflow->out_of_date_transfer_functions);
1461           if (bitmap_bit_p (tmp, ENTRY_BLOCK))
1462             bitmap_set_bit (dflow->out_of_date_transfer_functions, ENTRY_BLOCK);
1463           if (bitmap_bit_p (tmp, EXIT_BLOCK))
1464             bitmap_set_bit (dflow->out_of_date_transfer_functions, EXIT_BLOCK);
1465
1466           i = NUM_FIXED_BLOCKS;
1467           FOR_EACH_BB (bb) 
1468             {
1469               if (bitmap_bit_p (tmp, bb->index))
1470                 bitmap_set_bit (dflow->out_of_date_transfer_functions, i);
1471               i++;
1472             }
1473         }
1474
1475       /* Now shuffle the block info for the problem.  */
1476       if (dflow->problem->free_bb_fun)
1477         {
1478           df_grow_bb_info (dflow);
1479           memcpy (problem_temps, dflow->block_info, size);
1480
1481           /* Copy the bb info from the problem tmps to the proper
1482              place in the block_info vector.  Null out the copied
1483              item.  The entry and exit blocks never move.  */
1484           i = NUM_FIXED_BLOCKS;
1485           FOR_EACH_BB (bb) 
1486             {
1487               df_set_bb_info (dflow, i, problem_temps[bb->index]);
1488               problem_temps[bb->index] = NULL;
1489               i++;
1490             }
1491           memset (dflow->block_info + i, 0, 
1492                   (last_basic_block - i) *sizeof (void *));
1493
1494           /* Free any block infos that were not copied (and NULLed).
1495              These are from orphaned blocks.  */
1496           for (i = NUM_FIXED_BLOCKS; i < last_basic_block; i++)
1497             {
1498               basic_block bb = BASIC_BLOCK (i); 
1499               if (problem_temps[i] && bb)
1500                 dflow->problem->free_bb_fun
1501                   (bb, problem_temps[i]);
1502             }
1503         }
1504     }
1505
1506   /* Shuffle the bits in the basic_block indexed arrays.  */
1507
1508   if (df->blocks_to_analyze)
1509     {
1510       if (bitmap_bit_p (tmp, ENTRY_BLOCK))
1511         bitmap_set_bit (df->blocks_to_analyze, ENTRY_BLOCK);
1512       if (bitmap_bit_p (tmp, EXIT_BLOCK))
1513         bitmap_set_bit (df->blocks_to_analyze, EXIT_BLOCK);
1514       bitmap_copy (tmp, df->blocks_to_analyze);
1515       bitmap_clear (df->blocks_to_analyze);
1516       i = NUM_FIXED_BLOCKS;
1517       FOR_EACH_BB (bb) 
1518         {
1519           if (bitmap_bit_p (tmp, bb->index))
1520             bitmap_set_bit (df->blocks_to_analyze, i);
1521           i++;
1522         }
1523     }
1524
1525   BITMAP_FREE (tmp);
1526
1527   free (problem_temps);
1528
1529   i = NUM_FIXED_BLOCKS;
1530   FOR_EACH_BB (bb) 
1531     {
1532       SET_BASIC_BLOCK (i, bb);
1533       bb->index = i;
1534       i++;
1535     }
1536
1537   gcc_assert (i == n_basic_blocks);
1538
1539   for (; i < last_basic_block; i++)
1540     SET_BASIC_BLOCK (i, NULL);
1541
1542 #ifdef DF_DEBUG_CFG
1543   if (!df_lr->solutions_dirty)
1544     df_set_clean_cfg ();
1545 #endif
1546 }
1547
1548
1549 /* Shove NEW_BLOCK in at OLD_INDEX.  Called from ifcvt to hack a
1550    block.  There is no excuse for people to do this kind of thing.  */
1551
1552 void 
1553 df_bb_replace (int old_index, basic_block new_block)
1554 {
1555   int new_block_index = new_block->index;
1556   int p;
1557
1558   if (dump_file)
1559     fprintf (dump_file, "shoving block %d into %d\n", new_block_index, old_index);
1560
1561   gcc_assert (df);
1562   gcc_assert (BASIC_BLOCK (old_index) == NULL);
1563
1564   for (p = 0; p < df->num_problems_defined; p++)
1565     {
1566       struct dataflow *dflow = df->problems_in_order[p];
1567       if (dflow->block_info)
1568         {
1569           df_grow_bb_info (dflow);
1570           gcc_assert (df_get_bb_info (dflow, old_index) == NULL);
1571           df_set_bb_info (dflow, old_index, 
1572                           df_get_bb_info (dflow, new_block_index));
1573         }
1574     }
1575
1576   df_clear_bb_dirty (new_block);
1577   SET_BASIC_BLOCK (old_index, new_block);
1578   new_block->index = old_index;
1579   df_set_bb_dirty (BASIC_BLOCK (old_index));
1580   SET_BASIC_BLOCK (new_block_index, NULL);
1581 }
1582
1583
1584 /* Free all of the per basic block dataflow from all of the problems.
1585    This is typically called before a basic block is deleted and the
1586    problem will be reanalyzed.  */
1587
1588 void
1589 df_bb_delete (int bb_index)
1590 {
1591   basic_block bb = BASIC_BLOCK (bb_index);
1592   int i;
1593
1594   if (!df)
1595     return;
1596   
1597   for (i = 0; i < df->num_problems_defined; i++)
1598     {
1599       struct dataflow *dflow = df->problems_in_order[i];
1600       if (dflow->problem->free_bb_fun)
1601         {
1602           void *bb_info = df_get_bb_info (dflow, bb_index);
1603           if (bb_info)
1604             {
1605               dflow->problem->free_bb_fun (bb, bb_info); 
1606               df_set_bb_info (dflow, bb_index, NULL);
1607             }
1608         }
1609     }
1610   df_clear_bb_dirty (bb);
1611   df_mark_solutions_dirty ();
1612 }
1613
1614
1615 /* Verify that there is a place for everything and everything is in
1616    its place.  This is too expensive to run after every pass in the
1617    mainline.  However this is an excellent debugging tool if the
1618    dataflow information is not being updated properly.  You can just
1619    sprinkle calls in until you find the place that is changing an
1620    underlying structure without calling the proper updating
1621    routine.  */
1622
1623 void
1624 df_verify (void)
1625 {
1626   df_scan_verify ();
1627 #ifdef ENABLE_DF_CHECKING
1628   df_lr_verify_transfer_functions ();
1629   if (df_live)
1630     df_live_verify_transfer_functions ();
1631 #endif
1632 }
1633
1634 #ifdef DF_DEBUG_CFG
1635
1636 /* Compute an array of ints that describes the cfg.  This can be used
1637    to discover places where the cfg is modified by the appropriate
1638    calls have not been made to the keep df informed.  The internals of
1639    this are unexciting, the key is that two instances of this can be
1640    compared to see if any changes have been made to the cfg.  */
1641
1642 static int *
1643 df_compute_cfg_image (void)
1644 {
1645   basic_block bb;
1646   int size = 2 + (2 * n_basic_blocks);
1647   int i;
1648   int * map;
1649
1650   FOR_ALL_BB (bb)
1651     {
1652       size += EDGE_COUNT (bb->succs);
1653     }
1654
1655   map = XNEWVEC (int, size);
1656   map[0] = size;
1657   i = 1;
1658   FOR_ALL_BB (bb)
1659     {
1660       edge_iterator ei;
1661       edge e;
1662
1663       map[i++] = bb->index;
1664       FOR_EACH_EDGE (e, ei, bb->succs)
1665         map[i++] = e->dest->index;
1666       map[i++] = -1;
1667     }
1668   map[i] = -1;
1669   return map;
1670 }
1671
1672 static int *saved_cfg = NULL;
1673
1674
1675 /* This function compares the saved version of the cfg with the
1676    current cfg and aborts if the two are identical.  The function
1677    silently returns if the cfg has been marked as dirty or the two are
1678    the same.  */
1679
1680 void
1681 df_check_cfg_clean (void)
1682 {
1683   int *new_map;
1684
1685   if (!df)
1686     return;
1687
1688   if (df_lr->solutions_dirty)
1689     return;
1690
1691   if (saved_cfg == NULL) 
1692     return;
1693
1694   new_map = df_compute_cfg_image ();
1695   gcc_assert (memcmp (saved_cfg, new_map, saved_cfg[0] * sizeof (int)) == 0);
1696   free (new_map);
1697 }
1698
1699
1700 /* This function builds a cfg fingerprint and squirrels it away in
1701    saved_cfg.  */
1702
1703 static void
1704 df_set_clean_cfg (void)
1705 {
1706   if (saved_cfg)
1707     free (saved_cfg);
1708   saved_cfg = df_compute_cfg_image ();
1709 }
1710
1711 #endif /* DF_DEBUG_CFG  */
1712 /*----------------------------------------------------------------------------
1713    PUBLIC INTERFACES TO QUERY INFORMATION.
1714 ----------------------------------------------------------------------------*/
1715
1716
1717 /* Return first def of REGNO within BB.  */
1718
1719 struct df_ref *
1720 df_bb_regno_first_def_find (basic_block bb, unsigned int regno)
1721 {
1722   rtx insn;
1723   struct df_ref **def_rec;
1724   unsigned int uid;
1725
1726   FOR_BB_INSNS (bb, insn)
1727     {
1728       if (!INSN_P (insn))
1729         continue;
1730
1731       uid = INSN_UID (insn);
1732       for (def_rec = DF_INSN_UID_DEFS (uid); *def_rec; def_rec++)
1733         {
1734           struct df_ref *def = *def_rec;
1735           if (DF_REF_REGNO (def) == regno)
1736             return def;
1737         }
1738     }
1739   return NULL;
1740 }
1741
1742
1743 /* Return last def of REGNO within BB.  */
1744
1745 struct df_ref *
1746 df_bb_regno_last_def_find (basic_block bb, unsigned int regno)
1747 {
1748   rtx insn;
1749   struct df_ref **def_rec;
1750   unsigned int uid;
1751
1752   FOR_BB_INSNS_REVERSE (bb, insn)
1753     {
1754       if (!INSN_P (insn))
1755         continue;
1756
1757       uid = INSN_UID (insn);
1758       for (def_rec = DF_INSN_UID_DEFS (uid); *def_rec; def_rec++)
1759         {
1760           struct df_ref *def = *def_rec;
1761           if (DF_REF_REGNO (def) == regno)
1762             return def;
1763         }
1764     }
1765
1766   return NULL;
1767 }
1768
1769 /* Finds the reference corresponding to the definition of REG in INSN.
1770    DF is the dataflow object.  */
1771
1772 struct df_ref *
1773 df_find_def (rtx insn, rtx reg)
1774 {
1775   unsigned int uid;
1776   struct df_ref **def_rec;
1777
1778   if (GET_CODE (reg) == SUBREG)
1779     reg = SUBREG_REG (reg);
1780   gcc_assert (REG_P (reg));
1781
1782   uid = INSN_UID (insn);
1783   for (def_rec = DF_INSN_UID_DEFS (uid); *def_rec; def_rec++)
1784     {
1785       struct df_ref *def = *def_rec;
1786       if (rtx_equal_p (DF_REF_REAL_REG (def), reg))
1787         return def;
1788     }
1789
1790   return NULL;
1791 }
1792
1793
1794 /* Return true if REG is defined in INSN, zero otherwise.  */ 
1795
1796 bool
1797 df_reg_defined (rtx insn, rtx reg)
1798 {
1799   return df_find_def (insn, reg) != NULL;
1800 }
1801   
1802
1803 /* Finds the reference corresponding to the use of REG in INSN.
1804    DF is the dataflow object.  */
1805   
1806 struct df_ref *
1807 df_find_use (rtx insn, rtx reg)
1808 {
1809   unsigned int uid;
1810   struct df_ref **use_rec;
1811
1812   if (GET_CODE (reg) == SUBREG)
1813     reg = SUBREG_REG (reg);
1814   gcc_assert (REG_P (reg));
1815
1816   uid = INSN_UID (insn);
1817   for (use_rec = DF_INSN_UID_USES (uid); *use_rec; use_rec++)
1818     {
1819       struct df_ref *use = *use_rec;
1820       if (rtx_equal_p (DF_REF_REAL_REG (use), reg))
1821         return use;
1822     } 
1823   if (df->changeable_flags & DF_EQ_NOTES)
1824     for (use_rec = DF_INSN_UID_EQ_USES (uid); *use_rec; use_rec++)
1825       {
1826         struct df_ref *use = *use_rec;
1827         if (rtx_equal_p (DF_REF_REAL_REG (use), reg))
1828           return use; 
1829       }
1830   return NULL;
1831 }
1832
1833
1834 /* Return true if REG is referenced in INSN, zero otherwise.  */ 
1835
1836 bool
1837 df_reg_used (rtx insn, rtx reg)
1838 {
1839   return df_find_use (insn, reg) != NULL;
1840 }
1841   
1842 \f
1843 /*----------------------------------------------------------------------------
1844    Debugging and printing functions.
1845 ----------------------------------------------------------------------------*/
1846
1847
1848 /* Write information about registers and basic blocks into FILE.
1849    This is part of making a debugging dump.  */
1850
1851 void
1852 df_print_regset (FILE *file, bitmap r)
1853 {
1854   unsigned int i;
1855   bitmap_iterator bi;
1856
1857   if (r == NULL)
1858     fputs (" (nil)", file);
1859   else
1860     {
1861       EXECUTE_IF_SET_IN_BITMAP (r, 0, i, bi)
1862         {
1863           fprintf (file, " %d", i);
1864           if (i < FIRST_PSEUDO_REGISTER)
1865             fprintf (file, " [%s]", reg_names[i]);
1866         }
1867     }
1868   fprintf (file, "\n");
1869 }
1870
1871
1872 /* Dump dataflow info.  */
1873
1874 void
1875 df_dump (FILE *file)
1876 {
1877   basic_block bb;
1878   df_dump_start (file);
1879
1880   FOR_ALL_BB (bb)
1881     {
1882       df_print_bb_index (bb, file);
1883       df_dump_top (bb, file);
1884       df_dump_bottom (bb, file);
1885     }
1886
1887   fprintf (file, "\n");
1888 }
1889
1890
1891 /* Dump dataflow info for df->blocks_to_analyze.  */
1892
1893 void
1894 df_dump_region (FILE *file)
1895 {
1896   if (df->blocks_to_analyze)
1897     {
1898       bitmap_iterator bi;
1899       unsigned int bb_index;
1900
1901       fprintf (file, "\n\nstarting region dump\n");
1902       df_dump_start (file);
1903       
1904       EXECUTE_IF_SET_IN_BITMAP (df->blocks_to_analyze, 0, bb_index, bi) 
1905         {
1906           basic_block bb = BASIC_BLOCK (bb_index);
1907           
1908           df_print_bb_index (bb, file);
1909           df_dump_top (bb, file);
1910           df_dump_bottom (bb, file);
1911         }
1912       fprintf (file, "\n");
1913     }
1914   else 
1915     df_dump (file);
1916 }
1917
1918
1919 /* Dump the introductory information for each problem defined.  */
1920
1921 void
1922 df_dump_start (FILE *file)
1923 {
1924   int i;
1925
1926   if (!df || !file)
1927     return;
1928
1929   fprintf (file, "\n\n%s\n", current_function_name ());
1930   fprintf (file, "\nDataflow summary:\n");
1931   if (df->blocks_to_analyze)
1932     fprintf (file, "def_info->table_size = %d, use_info->table_size = %d\n",
1933              DF_DEFS_TABLE_SIZE (), DF_USES_TABLE_SIZE ());
1934
1935   for (i = 0; i < df->num_problems_defined; i++)
1936     {
1937       struct dataflow *dflow = df->problems_in_order[i];
1938       if (dflow->computed)
1939         {
1940           df_dump_problem_function fun = dflow->problem->dump_start_fun;
1941           if (fun)
1942             fun(file); 
1943         }
1944     }
1945 }
1946
1947
1948 /* Dump the top of the block information for BB.  */ 
1949
1950 void
1951 df_dump_top (basic_block bb, FILE *file)
1952 {
1953   int i;
1954
1955   if (!df || !file)
1956     return;
1957
1958   for (i = 0; i < df->num_problems_defined; i++)
1959     {
1960       struct dataflow *dflow = df->problems_in_order[i];
1961       if (dflow->computed)
1962         {
1963           df_dump_bb_problem_function bbfun = dflow->problem->dump_top_fun;
1964           if (bbfun)
1965             bbfun (bb, file); 
1966         }
1967     }
1968 }
1969
1970
1971 /* Dump the bottom of the block information for BB.  */ 
1972
1973 void
1974 df_dump_bottom (basic_block bb, FILE *file)
1975 {
1976   int i;
1977
1978   if (!df || !file)
1979     return;
1980
1981   for (i = 0; i < df->num_problems_defined; i++)
1982     {
1983       struct dataflow *dflow = df->problems_in_order[i];
1984       if (dflow->computed)
1985         {
1986           df_dump_bb_problem_function bbfun = dflow->problem->dump_bottom_fun;
1987           if (bbfun)
1988             bbfun (bb, file); 
1989         }
1990     }
1991 }
1992
1993
1994 void
1995 df_refs_chain_dump (struct df_ref **ref_rec, bool follow_chain, FILE *file)
1996 {
1997   fprintf (file, "{ ");
1998   while (*ref_rec)
1999     {
2000       struct df_ref *ref = *ref_rec;
2001       fprintf (file, "%c%d(%d)",
2002                DF_REF_REG_DEF_P (ref) ? 'd' : (DF_REF_FLAGS (ref) & DF_REF_IN_NOTE) ? 'e' : 'u',
2003                DF_REF_ID (ref),
2004                DF_REF_REGNO (ref));
2005       if (follow_chain)
2006         df_chain_dump (DF_REF_CHAIN (ref), file);
2007       ref_rec++;
2008     }
2009   fprintf (file, "}");
2010 }
2011
2012
2013 /* Dump either a ref-def or reg-use chain.  */
2014
2015 void
2016 df_regs_chain_dump (struct df_ref *ref,  FILE *file)
2017 {
2018   fprintf (file, "{ ");
2019   while (ref)
2020     {
2021       fprintf (file, "%c%d(%d) ",
2022                DF_REF_REG_DEF_P (ref) ? 'd' : 'u',
2023                DF_REF_ID (ref),
2024                DF_REF_REGNO (ref));
2025       ref = ref->next_reg;
2026     }
2027   fprintf (file, "}");
2028 }
2029
2030
2031 static void
2032 df_mws_dump (struct df_mw_hardreg **mws, FILE *file)
2033 {
2034   while (*mws)
2035     {
2036       fprintf (file, "mw %c r[%d..%d]\n", 
2037                ((*mws)->type == DF_REF_REG_DEF) ? 'd' : 'u',
2038                (*mws)->start_regno, (*mws)->end_regno);
2039       mws++;
2040     }
2041 }
2042
2043
2044 static void 
2045 df_insn_uid_debug (unsigned int uid, 
2046                    bool follow_chain, FILE *file)
2047 {
2048   fprintf (file, "insn %d luid %d",
2049            uid, DF_INSN_UID_LUID (uid));
2050
2051   if (DF_INSN_UID_DEFS (uid))
2052     {
2053       fprintf (file, " defs ");
2054       df_refs_chain_dump (DF_INSN_UID_DEFS (uid), follow_chain, file);
2055     }
2056
2057   if (DF_INSN_UID_USES (uid))
2058     {
2059       fprintf (file, " uses ");
2060       df_refs_chain_dump (DF_INSN_UID_USES (uid), follow_chain, file);
2061     }
2062
2063   if (DF_INSN_UID_EQ_USES (uid))
2064     {
2065       fprintf (file, " eq uses ");
2066       df_refs_chain_dump (DF_INSN_UID_EQ_USES (uid), follow_chain, file);
2067     }
2068
2069   if (DF_INSN_UID_MWS (uid))
2070     {
2071       fprintf (file, " mws ");
2072       df_mws_dump (DF_INSN_UID_MWS (uid), file);
2073     }
2074   fprintf (file, "\n");
2075 }
2076
2077
2078 void
2079 df_insn_debug (rtx insn, bool follow_chain, FILE *file)
2080 {
2081   df_insn_uid_debug (INSN_UID (insn), follow_chain, file);
2082 }
2083
2084 void
2085 df_insn_debug_regno (rtx insn, FILE *file)
2086 {
2087   unsigned int uid = INSN_UID(insn);
2088
2089   fprintf (file, "insn %d bb %d luid %d defs ",
2090            uid, BLOCK_FOR_INSN (insn)->index, DF_INSN_LUID (insn));
2091   df_refs_chain_dump (DF_INSN_UID_DEFS (uid), false, file);
2092     
2093   fprintf (file, " uses ");
2094   df_refs_chain_dump (DF_INSN_UID_USES (uid), false, file);
2095
2096   fprintf (file, " eq_uses ");
2097   df_refs_chain_dump (DF_INSN_UID_EQ_USES (uid), false, file);
2098   fprintf (file, "\n");
2099 }
2100
2101 void
2102 df_regno_debug (unsigned int regno, FILE *file)
2103 {
2104   fprintf (file, "reg %d defs ", regno);
2105   df_regs_chain_dump (DF_REG_DEF_CHAIN (regno), file);
2106   fprintf (file, " uses ");
2107   df_regs_chain_dump (DF_REG_USE_CHAIN (regno), file);
2108   fprintf (file, " eq_uses ");
2109   df_regs_chain_dump (DF_REG_EQ_USE_CHAIN (regno), file);
2110   fprintf (file, "\n");
2111 }
2112
2113
2114 void
2115 df_ref_debug (struct df_ref *ref, FILE *file)
2116 {
2117   fprintf (file, "%c%d ",
2118            DF_REF_REG_DEF_P (ref) ? 'd' : 'u',
2119            DF_REF_ID (ref));
2120   fprintf (file, "reg %d bb %d insn %d flag 0x%x type 0x%x ",
2121            DF_REF_REGNO (ref),
2122            DF_REF_BBNO (ref),
2123            DF_REF_INSN (ref) ? INSN_UID (DF_REF_INSN (ref)) : -1,
2124            DF_REF_FLAGS (ref),
2125            DF_REF_TYPE (ref));
2126   if (DF_REF_LOC (ref))
2127     fprintf (file, "loc %p(%p) chain ", (void *)DF_REF_LOC (ref), (void *)*DF_REF_LOC (ref));
2128   else
2129     fprintf (file, "chain ");
2130   df_chain_dump (DF_REF_CHAIN (ref), file);
2131   fprintf (file, "\n");
2132 }
2133 \f
2134 /* Functions for debugging from GDB.  */
2135
2136 void
2137 debug_df_insn (rtx insn)
2138 {
2139   df_insn_debug (insn, true, stderr);
2140   debug_rtx (insn);
2141 }
2142
2143
2144 void
2145 debug_df_reg (rtx reg)
2146 {
2147   df_regno_debug (REGNO (reg), stderr);
2148 }
2149
2150
2151 void
2152 debug_df_regno (unsigned int regno)
2153 {
2154   df_regno_debug (regno, stderr);
2155 }
2156
2157
2158 void
2159 debug_df_ref (struct df_ref *ref)
2160 {
2161   df_ref_debug (ref, stderr);
2162 }
2163
2164
2165 void
2166 debug_df_defno (unsigned int defno)
2167 {
2168   df_ref_debug (DF_DEFS_GET (defno), stderr);
2169 }
2170
2171
2172 void
2173 debug_df_useno (unsigned int defno)
2174 {
2175   df_ref_debug (DF_USES_GET (defno), stderr);
2176 }
2177
2178
2179 void
2180 debug_df_chain (struct df_link *link)
2181 {
2182   df_chain_dump (link, stderr);
2183   fputc ('\n', stderr);
2184 }