OSDN Git Service

* except.c (find_exception_handler_labels): Free LABELS when we're
[pf3gnuchains/gcc-fork.git] / gcc / except.c
1 /* Implements exception handling.
2    Copyright (C) 1989, 92-95, 1996 Free Software Foundation, Inc.
3    Contributed by Mike Stump <mrs@cygnus.com>.
4
5 This file is part of GNU CC.
6
7 GNU CC is free software; you can redistribute it and/or modify
8 it under the terms of the GNU General Public License as published by
9 the Free Software Foundation; either version 2, or (at your option)
10 any later version.
11
12 GNU CC is distributed in the hope that it will be useful,
13 but WITHOUT ANY WARRANTY; without even the implied warranty of
14 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15 GNU General Public License for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GNU CC; see the file COPYING.  If not, write to
19 the Free Software Foundation, 59 Temple Place - Suite 330,
20 Boston, MA 02111-1307, USA.  */
21
22
23 /* An exception is an event that can be signaled from within a
24    function. This event can then be "caught" or "trapped" by the
25    callers of this function. This potentially allows program flow to
26    be transferred to any arbitrary code assocated with a function call
27    several levels up the stack.
28
29    The intended use for this mechanism is for signaling "exceptional
30    events" in an out-of-band fashion, hence its name. The C++ language
31    (and many other OO-styled or functional languages) practically
32    requires such a mechanism, as otherwise it becomes very difficult
33    or even impossible to signal failure conditions in complex
34    situations.  The traditional C++ example is when an error occurs in
35    the process of constructing an object; without such a mechanism, it
36    is impossible to signal that the error occurs without adding global
37    state variables and error checks around every object construction.
38
39    The act of causing this event to occur is referred to as "throwing
40    an exception". (Alternate terms include "raising an exception" or
41    "signaling an exception".) The term "throw" is used because control
42    is returned to the callers of the function that is signaling the
43    exception, and thus there is the concept of "throwing" the
44    exception up the call stack.
45
46    There are two major codegen options for exception handling.  The
47    flag -fsjlj-exceptions can be used to select the setjmp/longjmp
48    approach, which is the default.  -fnosjlj-exceptions can be used to
49    get the PC range table approach.  While this is a compile time
50    flag, an entire application must be compiled with the same codegen
51    option.  The first is a PC range table approach, the second is a
52    setjmp/longjmp based scheme.  We will first discuss the PC range
53    table approach, after that, we will discuss the setjmp/longjmp
54    based approach.
55
56    It is appropriate to speak of the "context of a throw". This
57    context refers to the address where the exception is thrown from,
58    and is used to determine which exception region will handle the
59    exception.
60
61    Regions of code within a function can be marked such that if it
62    contains the context of a throw, control will be passed to a
63    designated "exception handler". These areas are known as "exception
64    regions".  Exception regions cannot overlap, but they can be nested
65    to any arbitrary depth. Also, exception regions cannot cross
66    function boundaries.
67
68    Exception handlers can either be specified by the user (which we
69    will call a "user-defined handler") or generated by the compiler
70    (which we will designate as a "cleanup"). Cleanups are used to
71    perform tasks such as destruction of objects allocated on the
72    stack.
73
74    In the current implementaion, cleanups are handled by allocating an
75    exception region for the area that the cleanup is designated for,
76    and the handler for the region performs the cleanup and then
77    rethrows the exception to the outer exception region. From the
78    standpoint of the current implementation, there is little
79    distinction made between a cleanup and a user-defined handler, and
80    the phrase "exception handler" can be used to refer to either one
81    equally well. (The section "Future Directions" below discusses how
82    this will change).
83
84    Each object file that is compiled with exception handling contains
85    a static array of exception handlers named __EXCEPTION_TABLE__.
86    Each entry contains the starting and ending addresses of the
87    exception region, and the address of the handler designated for
88    that region.
89
90    If the target does not use the DWARF 2 frame unwind information, at
91    program startup each object file invokes a function named
92    __register_exceptions with the address of its local
93    __EXCEPTION_TABLE__. __register_exceptions is defined in libgcc2.c, and
94    is responsible for recording all of the exception regions into one list
95    (which is kept in a static variable named exception_table_list).
96
97    On targets that support crtstuff.c, the unwind information
98    is stored in a section named .eh_frame and the information for the
99    entire shared object or program is registered with a call to
100    __register_frame.  On other targets, the information for each
101    translation unit is registered separately with a static constructor.
102    __register_frame is defined in frame.c, and is responsible for
103    recording all of the unwind regions into one list (which is kept in a
104    static variable named unwind_table_list).
105
106    The function __throw is actually responsible for doing the
107    throw. On machines that have unwind info support, __throw is generated
108    by code in libgcc2.c, otherwise __throw is generated on a
109    per-object-file basis for each source file compiled with
110    -fexceptions by the the C++ frontend.  Before __throw is invoked,
111    the current context of the throw needs to be placed in the global
112    variable __eh_pc.
113
114    __throw attempts to find the appropriate exception handler for the 
115    PC value stored in __eh_pc by calling __find_first_exception_table_match
116    (which is defined in libgcc2.c). If __find_first_exception_table_match
117    finds a relevant handler, __throw transfers control directly to it.
118
119    If a handler for the context being thrown from can't be found, __throw
120    walks (see Walking the stack below) the stack up the dynamic call chain to
121    continue searching for an appropriate exception handler based upon the
122    caller of the function it last sought a exception handler for.  It stops
123    then either an exception handler is found, or when the top of the
124    call chain is reached.
125
126    If no handler is found, an external library function named
127    __terminate is called.  If a handler is found, then we restart
128    our search for a handler at the end of the call chain, and repeat
129    the search process, but instead of just walking up the call chain,
130    we unwind the call chain as we walk up it.
131
132    Internal implementation details:
133
134    To associate a user-defined handler with a block of statements, the
135    function expand_start_try_stmts is used to mark the start of the
136    block of statements with which the handler is to be associated
137    (which is known as a "try block"). All statements that appear
138    afterwards will be associated with the try block.
139
140    A call to expand_start_all_catch marks the end of the try block,
141    and also marks the start of the "catch block" (the user-defined
142    handler) associated with the try block.
143
144    This user-defined handler will be invoked for *every* exception
145    thrown with the context of the try block. It is up to the handler
146    to decide whether or not it wishes to handle any given exception,
147    as there is currently no mechanism in this implementation for doing
148    this. (There are plans for conditionally processing an exception
149    based on its "type", which will provide a language-independent
150    mechanism).
151
152    If the handler chooses not to process the exception (perhaps by
153    looking at an "exception type" or some other additional data
154    supplied with the exception), it can fall through to the end of the
155    handler. expand_end_all_catch and expand_leftover_cleanups
156    add additional code to the end of each handler to take care of
157    rethrowing to the outer exception handler.
158
159    The handler also has the option to continue with "normal flow of
160    code", or in other words to resume executing at the statement
161    immediately after the end of the exception region. The variable
162    caught_return_label_stack contains a stack of labels, and jumping
163    to the topmost entry's label via expand_goto will resume normal
164    flow to the statement immediately after the end of the exception
165    region. If the handler falls through to the end, the exception will
166    be rethrown to the outer exception region.
167
168    The instructions for the catch block are kept as a separate
169    sequence, and will be emitted at the end of the function along with
170    the handlers specified via expand_eh_region_end. The end of the
171    catch block is marked with expand_end_all_catch.
172
173    Any data associated with the exception must currently be handled by
174    some external mechanism maintained in the frontend.  For example,
175    the C++ exception mechanism passes an arbitrary value along with
176    the exception, and this is handled in the C++ frontend by using a
177    global variable to hold the value. (This will be changing in the
178    future.)
179
180    The mechanism in C++ for handling data associated with the
181    exception is clearly not thread-safe. For a thread-based
182    environment, another mechanism must be used (possibly using a
183    per-thread allocation mechanism if the size of the area that needs
184    to be allocated isn't known at compile time.)
185
186    Internally-generated exception regions (cleanups) are marked by
187    calling expand_eh_region_start to mark the start of the region,
188    and expand_eh_region_end (handler) is used to both designate the
189    end of the region and to associate a specified handler/cleanup with
190    the region. The rtl code in HANDLER will be invoked whenever an
191    exception occurs in the region between the calls to
192    expand_eh_region_start and expand_eh_region_end. After HANDLER is
193    executed, additional code is emitted to handle rethrowing the
194    exception to the outer exception handler. The code for HANDLER will
195    be emitted at the end of the function.
196
197    TARGET_EXPRs can also be used to designate exception regions. A
198    TARGET_EXPR gives an unwind-protect style interface commonly used
199    in functional languages such as LISP. The associated expression is
200    evaluated, and whether or not it (or any of the functions that it
201    calls) throws an exception, the protect expression is always
202    invoked. This implementation takes care of the details of
203    associating an exception table entry with the expression and
204    generating the necessary code (it actually emits the protect
205    expression twice, once for normal flow and once for the exception
206    case). As for the other handlers, the code for the exception case
207    will be emitted at the end of the function.
208
209    Cleanups can also be specified by using add_partial_entry (handler)
210    and end_protect_partials. add_partial_entry creates the start of
211    a new exception region; HANDLER will be invoked if an exception is
212    thrown with the context of the region between the calls to
213    add_partial_entry and end_protect_partials. end_protect_partials is
214    used to mark the end of these regions. add_partial_entry can be
215    called as many times as needed before calling end_protect_partials.
216    However, end_protect_partials should only be invoked once for each
217    group of calls to add_partial_entry as the entries are queued
218    and all of the outstanding entries are processed simultaneously
219    when end_protect_partials is invoked. Similarly to the other
220    handlers, the code for HANDLER will be emitted at the end of the
221    function.
222
223    The generated RTL for an exception region includes
224    NOTE_INSN_EH_REGION_BEG and NOTE_INSN_EH_REGION_END notes that mark
225    the start and end of the exception region. A unique label is also
226    generated at the start of the exception region, which is available
227    by looking at the ehstack variable. The topmost entry corresponds
228    to the current region.
229
230    In the current implementation, an exception can only be thrown from
231    a function call (since the mechanism used to actually throw an
232    exception involves calling __throw).  If an exception region is
233    created but no function calls occur within that region, the region
234    can be safely optimized away (along with its exception handlers)
235    since no exceptions can ever be caught in that region.  This
236    optimization is performed unless -fasynchronous-exceptions is
237    given.  If the user wishes to throw from a signal handler, or other
238    asynchronous place, -fasynchronous-exceptions should be used when
239    compiling for maximally correct code, at the cost of additional
240    exception regions.  Using -fasynchronous-exceptions only produces
241    code that is reasonably safe in such situations, but a correct
242    program cannot rely upon this working.  It can be used in failsafe
243    code, where trying to continue on, and proceeding with potentially
244    incorrect results is better than halting the program.
245
246
247    Walking the stack:
248
249    The stack is walked by starting with a pointer to the current
250    frame, and finding the pointer to the callers frame.  The unwind info
251    tells __throw how to find it.
252
253    Unwinding the stack:
254
255    When we use the term unwinding the stack, we mean undoing the
256    effects of the function prologue in a controlled fashion so that we
257    still have the flow of control.  Otherwise, we could just return
258    (jump to the normal end of function epilogue).
259
260    This is done in __throw in libgcc2.c when we know that a handler exists
261    in a frame higher up the call stack than its immediate caller.
262
263    To unwind, we find the unwind data associated with the frame, if any.
264    If we don't find any, we call the library routine __terminate.  If we do
265    find it, we use the information to copy the saved register values from
266    that frame into the register save area in the frame for __throw, return
267    into a stub which updates the stack pointer, and jump to the handler.
268    The normal function epilogue for __throw handles restoring the saved
269    values into registers.
270
271    When unwinding, we use this method if we know it will
272    work (if DWARF2_UNWIND_INFO is defined).  Otherwise, we know that
273    an inline unwinder will have been emitted for any function that
274    __unwind_function cannot unwind.  The inline unwinder appears as a
275    normal exception handler for the entire function, for any function
276    that we know cannot be unwound by __unwind_function.  We inform the
277    compiler of whether a function can be unwound with
278    __unwind_function by having DOESNT_NEED_UNWINDER evaluate to true
279    when the unwinder isn't needed.  __unwind_function is used as an
280    action of last resort.  If no other method can be used for
281    unwinding, __unwind_function is used.  If it cannot unwind, it
282    should call __teminate.
283
284    By default, if the target-specific backend doesn't supply a definition
285    for __unwind_function and doesn't support DWARF2_UNWIND_INFO, inlined
286    unwinders will be used instead. The main tradeoff here is in text space
287    utilization.  Obviously, if inline unwinders have to be generated
288    repeatedly, this uses much more space than if a single routine is used.
289
290    However, it is simply not possible on some platforms to write a
291    generalized routine for doing stack unwinding without having some
292    form of additional data associated with each function.  The current
293    implementation can encode this data in the form of additional
294    machine instructions or as static data in tabular form.  The later
295    is called the unwind data.
296
297    The backend macro DOESNT_NEED_UNWINDER is used to conditionalize whether
298    or not per-function unwinders are needed. If DOESNT_NEED_UNWINDER is
299    defined and has a non-zero value, a per-function unwinder is not emitted
300    for the current function.  If the static unwind data is supported, then
301    a per-function unwinder is not emitted.
302
303    On some platforms it is possible that neither __unwind_function
304    nor inlined unwinders are available. For these platforms it is not
305    possible to throw through a function call, and abort will be
306    invoked instead of performing the throw. 
307
308    The reason the unwind data may be needed is that on some platforms
309    the order and types of data stored on the stack can vary depending
310    on the type of function, its arguments and returned values, and the
311    compilation options used (optimization versus non-optimization,
312    -fomit-frame-pointer, processor variations, etc).
313
314    Unfortunately, this also means that throwing through functions that
315    aren't compiled with exception handling support will still not be
316    possible on some platforms. This problem is currently being
317    investigated, but no solutions have been found that do not imply
318    some unacceptable performance penalties.
319
320    Future directions:
321
322    Currently __throw makes no differentiation between cleanups and
323    user-defined exception regions. While this makes the implementation
324    simple, it also implies that it is impossible to determine if a
325    user-defined exception handler exists for a given exception without
326    completely unwinding the stack in the process. This is undesirable
327    from the standpoint of debugging, as ideally it would be possible
328    to trap unhandled exceptions in the debugger before the process of
329    unwinding has even started.
330
331    This problem can be solved by marking user-defined handlers in a
332    special way (probably by adding additional bits to exception_table_list).
333    A two-pass scheme could then be used by __throw to iterate
334    through the table. The first pass would search for a relevant
335    user-defined handler for the current context of the throw, and if
336    one is found, the second pass would then invoke all needed cleanups
337    before jumping to the user-defined handler.
338
339    Many languages (including C++ and Ada) make execution of a
340    user-defined handler conditional on the "type" of the exception
341    thrown. (The type of the exception is actually the type of the data
342    that is thrown with the exception.) It will thus be necessary for
343    __throw to be able to determine if a given user-defined
344    exception handler will actually be executed, given the type of
345    exception.
346
347    One scheme is to add additional information to exception_table_list
348    as to the types of exceptions accepted by each handler. __throw
349    can do the type comparisons and then determine if the handler is
350    actually going to be executed.
351
352    There is currently no significant level of debugging support
353    available, other than to place a breakpoint on __throw. While
354    this is sufficient in most cases, it would be helpful to be able to
355    know where a given exception was going to be thrown to before it is
356    actually thrown, and to be able to choose between stopping before
357    every exception region (including cleanups), or just user-defined
358    exception regions. This should be possible to do in the two-pass
359    scheme by adding additional labels to __throw for appropriate
360    breakpoints, and additional debugger commands could be added to
361    query various state variables to determine what actions are to be
362    performed next.
363
364    Another major problem that is being worked on is the issue with stack
365    unwinding on various platforms. Currently the only platforms that have
366    support for the generation of a generic unwinder are the SPARC and MIPS.
367    All other ports require per-function unwinders, which produce large
368    amounts of code bloat.
369
370    For setjmp/longjmp based exception handling, some of the details
371    are as above, but there are some additional details.  This section
372    discusses the details.
373
374    We don't use NOTE_INSN_EH_REGION_{BEG,END} pairs.  We don't
375    optimize EH regions yet.  We don't have to worry about machine
376    specific issues with unwinding the stack, as we rely upon longjmp
377    for all the machine specific details.  There is no variable context
378    of a throw, just the one implied by the dynamic handler stack
379    pointed to by the dynamic handler chain.  There is no exception
380    table, and no calls to __register_excetpions.  __sjthrow is used
381    instead of __throw, and it works by using the dynamic handler
382    chain, and longjmp.  -fasynchronous-exceptions has no effect, as
383    the elimination of trivial exception regions is not yet performed.
384
385    A frontend can set protect_cleanup_actions_with_terminate when all
386    the cleanup actions should be protected with an EH region that
387    calls terminate when an unhandled exception is throw.  C++ does
388    this, Ada does not.  */
389
390
391 #include "config.h"
392 #include "defaults.h"
393 #include <stdio.h>
394 #include "rtl.h"
395 #include "tree.h"
396 #include "flags.h"
397 #include "except.h"
398 #include "function.h"
399 #include "insn-flags.h"
400 #include "expr.h"
401 #include "insn-codes.h"
402 #include "regs.h"
403 #include "hard-reg-set.h"
404 #include "insn-config.h"
405 #include "recog.h"
406 #include "output.h"
407 #include "assert.h"
408
409 /* One to use setjmp/longjmp method of generating code for exception
410    handling.  */
411
412 #if DWARF2_UNWIND_INFO
413 int exceptions_via_longjmp = 0;
414 #else
415 int exceptions_via_longjmp = 1;
416 #endif
417
418 /* One to enable asynchronous exception support.  */
419
420 int asynchronous_exceptions = 0;
421
422 /* One to protect cleanup actions with a handler that calls
423    __terminate, zero otherwise.  */
424
425 int protect_cleanup_actions_with_terminate = 0;
426
427 /* A list of labels used for exception handlers.  Created by
428    find_exception_handler_labels for the optimization passes.  */
429
430 rtx exception_handler_labels;
431
432 /* Nonzero means that __throw was invoked. 
433
434    This is used by the C++ frontend to know if code needs to be emitted
435    for __throw or not.  */
436
437 int throw_used;
438
439 /* The dynamic handler chain.  Nonzero if the function has already
440    fetched a pointer to the dynamic handler chain for exception
441    handling.  */
442
443 rtx current_function_dhc;
444
445 /* The dynamic cleanup chain.  Nonzero if the function has already
446    fetched a pointer to the dynamic cleanup chain for exception
447    handling.  */
448
449 rtx current_function_dcc;
450
451 /* A stack used for keeping track of the currectly active exception
452    handling region.  As each exception region is started, an entry
453    describing the region is pushed onto this stack.  The current
454    region can be found by looking at the top of the stack, and as we
455    exit regions, the corresponding entries are popped. 
456
457    Entries cannot overlap; they can be nested. So there is only one
458    entry at most that corresponds to the current instruction, and that
459    is the entry on the top of the stack.  */
460
461 static struct eh_stack ehstack;
462
463 /* A queue used for tracking which exception regions have closed but
464    whose handlers have not yet been expanded. Regions are emitted in
465    groups in an attempt to improve paging performance.
466
467    As we exit a region, we enqueue a new entry. The entries are then
468    dequeued during expand_leftover_cleanups and expand_start_all_catch,
469
470    We should redo things so that we either take RTL for the handler,
471    or we expand the handler expressed as a tree immediately at region
472    end time.  */
473
474 static struct eh_queue ehqueue;
475
476 /* Insns for all of the exception handlers for the current function.
477    They are currently emitted by the frontend code.  */
478
479 rtx catch_clauses;
480
481 /* A TREE_CHAINed list of handlers for regions that are not yet
482    closed. The TREE_VALUE of each entry contains the handler for the
483    corresponding entry on the ehstack.  */
484
485 static tree protect_list;
486
487 /* Stacks to keep track of various labels.  */
488
489 /* Keeps track of the label to resume to should one want to resume
490    normal control flow out of a handler (instead of, say, returning to
491    the caller of the current function or exiting the program).  Also
492    used as the context of a throw to rethrow an exception to the outer
493    exception region.  */
494
495 struct label_node *caught_return_label_stack = NULL;
496
497 /* A random data area for the front end's own use.  */
498
499 struct label_node *false_label_stack = NULL;
500
501 /* The rtx and the tree for the saved PC value.  */
502
503 rtx eh_saved_pc_rtx;
504 tree eh_saved_pc;
505
506 rtx expand_builtin_return_addr  PROTO((enum built_in_function, int, rtx));
507 \f
508 /* Various support routines to manipulate the various data structures
509    used by the exception handling code.  */
510
511 /* Push a label entry onto the given STACK.  */
512
513 void
514 push_label_entry (stack, rlabel, tlabel)
515      struct label_node **stack;
516      rtx rlabel;
517      tree tlabel;
518 {
519   struct label_node *newnode
520     = (struct label_node *) xmalloc (sizeof (struct label_node));
521
522   if (rlabel)
523     newnode->u.rlabel = rlabel;
524   else
525     newnode->u.tlabel = tlabel;
526   newnode->chain = *stack;
527   *stack = newnode;
528 }
529
530 /* Pop a label entry from the given STACK.  */
531
532 rtx
533 pop_label_entry (stack)
534      struct label_node **stack;
535 {
536   rtx label;
537   struct label_node *tempnode;
538
539   if (! *stack)
540     return NULL_RTX;
541
542   tempnode = *stack;
543   label = tempnode->u.rlabel;
544   *stack = (*stack)->chain;
545   free (tempnode);
546
547   return label;
548 }
549
550 /* Return the top element of the given STACK.  */
551
552 tree
553 top_label_entry (stack)
554      struct label_node **stack;
555 {
556   if (! *stack)
557     return NULL_TREE;
558
559   return (*stack)->u.tlabel;
560 }
561
562 /* Make a copy of ENTRY using xmalloc to allocate the space.  */
563
564 static struct eh_entry *
565 copy_eh_entry (entry)
566      struct eh_entry *entry;
567 {
568   struct eh_entry *newentry;
569
570   newentry = (struct eh_entry *) xmalloc (sizeof (struct eh_entry));
571   bcopy ((char *) entry, (char *) newentry, sizeof (struct eh_entry));
572
573   return newentry;
574 }
575
576 /* Push a new eh_node entry onto STACK.  */
577
578 static void
579 push_eh_entry (stack)
580      struct eh_stack *stack;
581 {
582   struct eh_node *node = (struct eh_node *) xmalloc (sizeof (struct eh_node));
583   struct eh_entry *entry = (struct eh_entry *) xmalloc (sizeof (struct eh_entry));
584
585   entry->outer_context = gen_label_rtx ();
586   entry->exception_handler_label = gen_label_rtx ();
587   entry->finalization = NULL_TREE;
588
589   node->entry = entry;
590   node->chain = stack->top;
591   stack->top = node;
592 }
593
594 /* Pop an entry from the given STACK.  */
595
596 static struct eh_entry *
597 pop_eh_entry (stack)
598      struct eh_stack *stack;
599 {
600   struct eh_node *tempnode;
601   struct eh_entry *tempentry;
602   
603   tempnode = stack->top;
604   tempentry = tempnode->entry;
605   stack->top = stack->top->chain;
606   free (tempnode);
607
608   return tempentry;
609 }
610
611 /* Enqueue an ENTRY onto the given QUEUE.  */
612
613 static void
614 enqueue_eh_entry (queue, entry)
615      struct eh_queue *queue;
616      struct eh_entry *entry;
617 {
618   struct eh_node *node = (struct eh_node *) xmalloc (sizeof (struct eh_node));
619
620   node->entry = entry;
621   node->chain = NULL;
622
623   if (queue->head == NULL)
624     {
625       queue->head = node;
626     }
627   else
628     {
629       queue->tail->chain = node;
630     }
631   queue->tail = node;
632 }
633
634 /* Dequeue an entry from the given QUEUE.  */
635
636 static struct eh_entry *
637 dequeue_eh_entry (queue)
638      struct eh_queue *queue;
639 {
640   struct eh_node *tempnode;
641   struct eh_entry *tempentry;
642
643   if (queue->head == NULL)
644     return NULL;
645
646   tempnode = queue->head;
647   queue->head = queue->head->chain;
648
649   tempentry = tempnode->entry;
650   free (tempnode);
651
652   return tempentry;
653 }
654 \f
655 /* Routine to see if exception exception handling is turned on.
656    DO_WARN is non-zero if we want to inform the user that exception
657    handling is turned off. 
658
659    This is used to ensure that -fexceptions has been specified if the
660    compiler tries to use any exception-specific functions.  */
661
662 int
663 doing_eh (do_warn)
664      int do_warn;
665 {
666   if (! flag_exceptions)
667     {
668       static int warned = 0;
669       if (! warned && do_warn)
670         {
671           error ("exception handling disabled, use -fexceptions to enable");
672           warned = 1;
673         }
674       return 0;
675     }
676   return 1;
677 }
678
679 /* Given a return address in ADDR, determine the address we should use
680    to find the corresponding EH region.  */
681
682 rtx
683 eh_outer_context (addr)
684      rtx addr;
685 {
686   /* First mask out any unwanted bits.  */
687 #ifdef MASK_RETURN_ADDR
688   expand_and (addr, MASK_RETURN_ADDR, addr);
689 #endif
690
691   /* Then adjust to find the real return address.  */
692 #if defined (RETURN_ADDR_OFFSET)
693   addr = plus_constant (addr, RETURN_ADDR_OFFSET);
694 #endif
695
696   return addr;
697 }
698
699 /* Start a new exception region for a region of code that has a
700    cleanup action and push the HANDLER for the region onto
701    protect_list. All of the regions created with add_partial_entry
702    will be ended when end_protect_partials is invoked.  */
703
704 void
705 add_partial_entry (handler)
706      tree handler;
707 {
708   expand_eh_region_start ();
709
710   /* Make sure the entry is on the correct obstack.  */
711   push_obstacks_nochange ();
712   resume_temporary_allocation ();
713
714   /* Because this is a cleanup action, we may have to protect the handler
715      with __terminate.  */
716   handler = protect_with_terminate (handler);
717
718   protect_list = tree_cons (NULL_TREE, handler, protect_list);
719   pop_obstacks ();
720 }
721
722 /* Get a reference to the dynamic handler chain.  It points to the
723    pointer to the next element in the dynamic handler chain.  It ends
724    when there are no more elements in the dynamic handler chain, when
725    the value is &top_elt from libgcc2.c.  Immediately after the
726    pointer, is an area suitable for setjmp/longjmp when
727    DONT_USE_BUILTIN_SETJMP is defined, and an area suitable for
728    __builtin_setjmp/__builtin_longjmp when DONT_USE_BUILTIN_SETJMP
729    isn't defined.
730
731    This routine is here to facilitate the porting of this code to
732    systems with threads.  One can either replace the routine we emit a
733    call for here in libgcc2.c, or one can modify this routine to work
734    with their thread system.  */
735
736 rtx
737 get_dynamic_handler_chain ()
738 {
739 #if 0
740   /* Do this once we figure out how to get this to the front of the
741      function, and we really only want one per real function, not one
742      per inlined function.  */
743   if (current_function_dhc == 0)
744     {
745       rtx dhc, insns;
746       start_sequence ();
747
748       dhc = emit_library_call_value (get_dynamic_handler_chain_libfunc,
749                                      NULL_RTX, 1,
750                                      Pmode, 0);
751       current_function_dhc = copy_to_reg (dhc);
752       insns = get_insns ();
753       end_sequence ();
754       emit_insns_before (insns, get_first_nonparm_insn ());
755     }
756 #else
757   rtx dhc;
758   dhc = emit_library_call_value (get_dynamic_handler_chain_libfunc,
759                                  NULL_RTX, 1,
760                                  Pmode, 0);
761   current_function_dhc = copy_to_reg (dhc);
762 #endif
763
764   /* We don't want a copy of the dhc, but rather, the single dhc.  */
765   return gen_rtx (MEM, Pmode, current_function_dhc);
766 }
767
768 /* Get a reference to the dynamic cleanup chain.  It points to the
769    pointer to the next element in the dynamic cleanup chain.
770    Immediately after the pointer, are two Pmode variables, one for a
771    pointer to a function that performs the cleanup action, and the
772    second, the argument to pass to that function.  */
773
774 rtx
775 get_dynamic_cleanup_chain ()
776 {
777   rtx dhc, dcc;
778
779   dhc = get_dynamic_handler_chain ();
780   dcc = plus_constant (dhc, GET_MODE_SIZE (Pmode));
781
782   current_function_dcc = copy_to_reg (dcc);
783
784   /* We don't want a copy of the dcc, but rather, the single dcc.  */
785   return gen_rtx (MEM, Pmode, current_function_dcc);
786 }
787
788 /* Generate code to evaluate X and jump to LABEL if the value is nonzero.
789    LABEL is an rtx of code CODE_LABEL, in this function.  */
790
791 void
792 jumpif_rtx (x, label)
793      rtx x;
794      rtx label;
795 {
796   jumpif (make_tree (type_for_mode (GET_MODE (x), 0), x), label);
797 }
798
799 /* Generate code to evaluate X and jump to LABEL if the value is zero.
800    LABEL is an rtx of code CODE_LABEL, in this function.  */
801
802 void
803 jumpifnot_rtx (x, label)
804      rtx x;
805      rtx label;
806 {
807   jumpifnot (make_tree (type_for_mode (GET_MODE (x), 0), x), label);
808 }
809
810 /* Start a dynamic cleanup on the EH runtime dynamic cleanup stack.
811    We just need to create an element for the cleanup list, and push it
812    into the chain.
813
814    A dynamic cleanup is a cleanup action implied by the presence of an
815    element on the EH runtime dynamic cleanup stack that is to be
816    performed when an exception is thrown.  The cleanup action is
817    performed by __sjthrow when an exception is thrown.  Only certain
818    actions can be optimized into dynamic cleanup actions.  For the
819    restrictions on what actions can be performed using this routine,
820    see expand_eh_region_start_tree.  */
821
822 static void
823 start_dynamic_cleanup (func, arg)
824      tree func;
825      tree arg;
826 {
827   rtx dhc, dcc;
828   rtx new_func, new_arg;
829   rtx x, buf;
830   int size;
831
832   /* We allocate enough room for a pointer to the function, and
833      one argument.  */
834   size = 2;
835
836   /* XXX, FIXME: The stack space allocated this way is too long lived,
837      but there is no allocation routine that allocates at the level of
838      the last binding contour.  */
839   buf = assign_stack_local (BLKmode,
840                             GET_MODE_SIZE (Pmode)*(size+1),
841                             0);
842
843   buf = change_address (buf, Pmode, NULL_RTX);
844
845   /* Store dcc into the first word of the newly allocated buffer.  */
846
847   dcc = get_dynamic_cleanup_chain ();
848   emit_move_insn (buf, dcc);
849
850   /* Store func and arg into the cleanup list element.  */
851
852   new_func = gen_rtx (MEM, Pmode, plus_constant (XEXP (buf, 0),
853                                                  GET_MODE_SIZE (Pmode)));
854   new_arg = gen_rtx (MEM, Pmode, plus_constant (XEXP (buf, 0),
855                                                 GET_MODE_SIZE (Pmode)*2));
856   x = expand_expr (func, new_func, Pmode, 0);
857   if (x != new_func)
858     emit_move_insn (new_func, x);
859
860   x = expand_expr (arg, new_arg, Pmode, 0);
861   if (x != new_arg)
862     emit_move_insn (new_arg, x);
863
864   /* Update the cleanup chain.  */
865
866   emit_move_insn (dcc, XEXP (buf, 0));
867 }
868
869 /* Emit RTL to start a dynamic handler on the EH runtime dynamic
870    handler stack.  This should only be used by expand_eh_region_start
871    or expand_eh_region_start_tree.  */
872
873 static void
874 start_dynamic_handler ()
875 {
876   rtx dhc, dcc;
877   rtx x, arg, buf;
878   int size;
879
880 #ifndef DONT_USE_BUILTIN_SETJMP
881   /* The number of Pmode words for the setjmp buffer, when using the
882      builtin setjmp/longjmp, see expand_builtin, case
883      BUILT_IN_LONGJMP.  */
884   size = 5;
885 #else
886 #ifdef JMP_BUF_SIZE
887   size = JMP_BUF_SIZE;
888 #else
889   /* Should be large enough for most systems, if it is not,
890      JMP_BUF_SIZE should be defined with the proper value.  It will
891      also tend to be larger than necessary for most systems, a more
892      optimal port will define JMP_BUF_SIZE.  */
893   size = FIRST_PSEUDO_REGISTER+2;
894 #endif
895 #endif
896   /* XXX, FIXME: The stack space allocated this way is too long lived,
897      but there is no allocation routine that allocates at the level of
898      the last binding contour.  */
899   arg = assign_stack_local (BLKmode,
900                             GET_MODE_SIZE (Pmode)*(size+1),
901                             0);
902
903   arg = change_address (arg, Pmode, NULL_RTX);
904
905   /* Store dhc into the first word of the newly allocated buffer.  */
906
907   dhc = get_dynamic_handler_chain ();
908   dcc = gen_rtx (MEM, Pmode, plus_constant (XEXP (arg, 0),
909                                             GET_MODE_SIZE (Pmode)));
910   emit_move_insn (arg, dhc);
911
912   /* Zero out the start of the cleanup chain.  */
913   emit_move_insn (dcc, const0_rtx);
914
915   /* The jmpbuf starts two words into the area allocated.  */
916   buf = plus_constant (XEXP (arg, 0), GET_MODE_SIZE (Pmode)*2);
917
918 #ifdef DONT_USE_BUILTIN_SETJMP
919   x = emit_library_call_value (setjmp_libfunc, NULL_RTX, 1, SImode, 1,
920                                buf, Pmode);
921 #else
922   x = expand_builtin_setjmp (buf, NULL_RTX);
923 #endif
924
925   /* If we come back here for a catch, transfer control to the
926      handler.  */
927
928   jumpif_rtx (x, ehstack.top->entry->exception_handler_label);
929
930   /* We are committed to this, so update the handler chain.  */
931
932   emit_move_insn (dhc, XEXP (arg, 0));
933 }
934
935 /* Start an exception handling region for the given cleanup action.
936    All instructions emitted after this point are considered to be part
937    of the region until expand_eh_region_end is invoked.  CLEANUP is
938    the cleanup action to perform.  The return value is true if the
939    exception region was optimized away.  If that case,
940    expand_eh_region_end does not need to be called for this cleanup,
941    nor should it be.
942
943    This routine notices one particular common case in C++ code
944    generation, and optimizes it so as to not need the exception
945    region.  It works by creating a dynamic cleanup action, instead of
946    of a using an exception region.  */
947
948 int
949 expand_eh_region_start_tree (decl, cleanup)
950      tree decl;
951      tree cleanup;
952 {
953   rtx note;
954
955   /* This is the old code.  */
956   if (! doing_eh (0))
957     return 0;
958
959   /* The optimization only applies to actions protected with
960      terminate, and only applies if we are using the setjmp/longjmp
961      codegen method.  */
962   if (exceptions_via_longjmp
963       && protect_cleanup_actions_with_terminate)
964     {
965       tree func, arg;
966       tree args;
967
968       /* Ignore any UNSAVE_EXPR.  */
969       if (TREE_CODE (cleanup) == UNSAVE_EXPR)
970         cleanup = TREE_OPERAND (cleanup, 0);
971       
972       /* Further, it only applies if the action is a call, if there
973          are 2 arguments, and if the second argument is 2.  */
974
975       if (TREE_CODE (cleanup) == CALL_EXPR
976           && (args = TREE_OPERAND (cleanup, 1))
977           && (func = TREE_OPERAND (cleanup, 0))
978           && (arg = TREE_VALUE (args))
979           && (args = TREE_CHAIN (args))
980
981           /* is the second argument 2?  */
982           && TREE_CODE (TREE_VALUE (args)) == INTEGER_CST
983           && TREE_INT_CST_LOW (TREE_VALUE (args)) == 2
984           && TREE_INT_CST_HIGH (TREE_VALUE (args)) == 0
985
986           /* Make sure there are no other arguments.  */
987           && TREE_CHAIN (args) == NULL_TREE)
988         {
989           /* Arrange for returns and gotos to pop the entry we make on the
990              dynamic cleanup stack.  */
991           expand_dcc_cleanup (decl);
992           start_dynamic_cleanup (func, arg);
993           return 1;
994         }
995     }
996
997   expand_eh_region_start_for_decl (decl);
998
999   return 0;
1000 }
1001
1002 /* Just like expand_eh_region_start, except if a cleanup action is
1003    entered on the cleanup chain, the TREE_PURPOSE of the element put
1004    on the chain is DECL.  DECL should be the associated VAR_DECL, if
1005    any, otherwise it should be NULL_TREE.  */
1006
1007 void
1008 expand_eh_region_start_for_decl (decl)
1009      tree decl;
1010 {
1011   rtx note;
1012
1013   /* This is the old code.  */
1014   if (! doing_eh (0))
1015     return;
1016
1017   if (exceptions_via_longjmp)
1018     {
1019       /* We need a new block to record the start and end of the
1020          dynamic handler chain.  We could always do this, but we
1021          really want to permit jumping into such a block, and we want
1022          to avoid any errors or performance impact in the SJ EH code
1023          for now.  */
1024       expand_start_bindings (0);
1025
1026       /* But we don't need or want a new temporary level.  */
1027       pop_temp_slots ();
1028
1029       /* Mark this block as created by expand_eh_region_start.  This
1030          is so that we can pop the block with expand_end_bindings
1031          automatically.  */
1032       mark_block_as_eh_region ();
1033
1034       /* Arrange for returns and gotos to pop the entry we make on the
1035          dynamic handler stack.  */
1036       expand_dhc_cleanup (decl);
1037     }
1038
1039   if (exceptions_via_longjmp == 0)
1040     note = emit_note (NULL_PTR, NOTE_INSN_EH_REGION_BEG);
1041   push_eh_entry (&ehstack);
1042   if (exceptions_via_longjmp == 0)
1043     NOTE_BLOCK_NUMBER (note)
1044       = CODE_LABEL_NUMBER (ehstack.top->entry->exception_handler_label);
1045   if (exceptions_via_longjmp)
1046     start_dynamic_handler ();
1047 }
1048
1049 /* Start an exception handling region.  All instructions emitted after
1050    this point are considered to be part of the region until
1051    expand_eh_region_end is invoked.  */
1052
1053 void
1054 expand_eh_region_start ()
1055 {
1056   expand_eh_region_start_for_decl (NULL_TREE);
1057 }
1058
1059 /* End an exception handling region.  The information about the region
1060    is found on the top of ehstack.
1061
1062    HANDLER is either the cleanup for the exception region, or if we're
1063    marking the end of a try block, HANDLER is integer_zero_node.
1064
1065    HANDLER will be transformed to rtl when expand_leftover_cleanups
1066    is invoked.  */
1067
1068 void
1069 expand_eh_region_end (handler)
1070      tree handler;
1071 {
1072   struct eh_entry *entry;
1073
1074   if (! doing_eh (0))
1075     return;
1076
1077   entry = pop_eh_entry (&ehstack);
1078
1079   if (exceptions_via_longjmp == 0)
1080     {
1081       rtx label;
1082       rtx note = emit_note (NULL_PTR, NOTE_INSN_EH_REGION_END);
1083       NOTE_BLOCK_NUMBER (note) = CODE_LABEL_NUMBER (entry->exception_handler_label);
1084
1085       label = gen_label_rtx ();
1086       emit_jump (label);
1087
1088       /* Emit a label marking the end of this exception region that
1089          is used for rethrowing into the outer context.  */
1090       emit_label (entry->outer_context);
1091
1092       /* Put in something that takes up space, as otherwise the end
1093          address for this EH region could have the exact same address as
1094          its outer region. This would cause us to miss the fact that
1095          resuming exception handling with this PC value would be inside
1096          the outer region.  */
1097       emit_insn (gen_nop ());
1098       emit_barrier ();
1099       emit_label (label);
1100     }
1101
1102   entry->finalization = handler;
1103
1104   enqueue_eh_entry (&ehqueue, entry);
1105
1106   /* If we have already started ending the bindings, don't recurse.
1107      This only happens when exceptions_via_longjmp is true.  */
1108   if (is_eh_region ())
1109     {
1110       /* Because we don't need or want a new temporary level and
1111          because we didn't create one in expand_eh_region_start,
1112          create a fake one now to avoid removing one in
1113          expand_end_bindings.  */
1114       push_temp_slots ();
1115
1116       mark_block_as_not_eh_region ();
1117
1118       /* Maybe do this to prevent jumping in and so on...  */
1119       expand_end_bindings (NULL_TREE, 0, 0);
1120     }
1121 }
1122
1123 /* If we are using the setjmp/longjmp EH codegen method, we emit a
1124    call to __sjthrow.
1125
1126    Otherwise, we emit a call to __throw and note that we threw
1127    something, so we know we need to generate the necessary code for
1128    __throw.
1129
1130    Before invoking throw, the __eh_pc variable must have been set up
1131    to contain the PC being thrown from. This address is used by
1132    __throw to determine which exception region (if any) is
1133    responsible for handling the exception.  */
1134
1135 void
1136 emit_throw ()
1137 {
1138   if (exceptions_via_longjmp)
1139     {
1140       emit_library_call (sjthrow_libfunc, 0, VOIDmode, 0);
1141     }
1142   else
1143     {
1144 #ifdef JUMP_TO_THROW
1145       emit_indirect_jump (throw_libfunc);
1146 #else
1147 #ifndef DWARF2_UNWIND_INFO
1148       /* Prevent assemble_external from doing anything with this symbol.  */
1149       SYMBOL_REF_USED (throw_libfunc) = 1;
1150 #endif
1151       emit_library_call (throw_libfunc, 0, VOIDmode, 0);
1152 #endif
1153       throw_used = 1;
1154     }
1155   emit_barrier ();
1156 }
1157
1158 /* An internal throw with an indirect CONTEXT we want to throw from.
1159    CONTEXT evaluates to the context of the throw.  */
1160
1161 static void
1162 expand_internal_throw_indirect (context)
1163      rtx context;
1164 {
1165   assemble_external (eh_saved_pc);
1166   emit_move_insn (eh_saved_pc_rtx, context);
1167   emit_throw ();
1168 }
1169
1170 /* An internal throw with a direct CONTEXT we want to throw from.
1171    CONTEXT must be a label; its address will be used as the context of
1172    the throw.  */
1173
1174 void
1175 expand_internal_throw (context)
1176      rtx context;
1177 {
1178   expand_internal_throw_indirect (gen_rtx (LABEL_REF, Pmode, context));
1179 }
1180
1181 /* Called from expand_exception_blocks and expand_end_catch_block to
1182    emit any pending handlers/cleanups queued from expand_eh_region_end.  */
1183
1184 void
1185 expand_leftover_cleanups ()
1186 {
1187   struct eh_entry *entry;
1188
1189   while ((entry = dequeue_eh_entry (&ehqueue)) != 0)
1190     {
1191       rtx prev;
1192
1193       /* A leftover try block. Shouldn't be one here.  */
1194       if (entry->finalization == integer_zero_node)
1195         abort ();
1196
1197       /* Output the label for the start of the exception handler.  */
1198       emit_label (entry->exception_handler_label);
1199
1200 #ifdef HAVE_exception_receiver
1201       if (! exceptions_via_longjmp)
1202         if (HAVE_exception_receiver)
1203           emit_insn (gen_exception_receiver ());
1204 #endif
1205
1206 #ifdef HAVE_nonlocal_goto_receiver
1207       if (! exceptions_via_longjmp)
1208         if (HAVE_nonlocal_goto_receiver)
1209           emit_insn (gen_nonlocal_goto_receiver ());
1210 #endif
1211
1212       /* And now generate the insns for the handler.  */
1213       expand_expr (entry->finalization, const0_rtx, VOIDmode, 0);
1214
1215       prev = get_last_insn ();
1216       if (prev == NULL || GET_CODE (prev) != BARRIER)
1217         {
1218           if (exceptions_via_longjmp)
1219             emit_throw ();
1220           else
1221             {
1222               /* The below can be optimized away, and we could just
1223                  fall into the next EH handler, if we are certain they
1224                  are nested.  */
1225               /* Emit code to throw to the outer context if we fall off
1226                  the end of the handler.  */
1227               expand_internal_throw (entry->outer_context);
1228             }
1229         }
1230
1231       free (entry);
1232     }
1233 }
1234
1235 /* Called at the start of a block of try statements.  */
1236 void
1237 expand_start_try_stmts ()
1238 {
1239   if (! doing_eh (1))
1240     return;
1241
1242   expand_eh_region_start ();
1243 }
1244
1245 /* Generate RTL for the start of a group of catch clauses. 
1246
1247    It is responsible for starting a new instruction sequence for the
1248    instructions in the catch block, and expanding the handlers for the
1249    internally-generated exception regions nested within the try block
1250    corresponding to this catch block.  */
1251
1252 void
1253 expand_start_all_catch ()
1254 {
1255   struct eh_entry *entry;
1256   tree label;
1257
1258   if (! doing_eh (1))
1259     return;
1260
1261   /* End the try block.  */
1262   expand_eh_region_end (integer_zero_node);
1263
1264   emit_line_note (input_filename, lineno);
1265   label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
1266
1267   /* The label for the exception handling block that we will save.
1268      This is Lresume in the documention.  */
1269   expand_label (label);
1270   
1271   if (exceptions_via_longjmp == 0)
1272     {
1273       /* Put in something that takes up space, as otherwise the end
1274          address for the EH region could have the exact same address as
1275          the outer region, causing us to miss the fact that resuming
1276          exception handling with this PC value would be inside the outer
1277          region.  */
1278       emit_insn (gen_nop ());
1279     }
1280
1281   /* Push the label that points to where normal flow is resumed onto
1282      the top of the label stack.  */
1283   push_label_entry (&caught_return_label_stack, NULL_RTX, label);
1284
1285   /* Start a new sequence for all the catch blocks.  We will add this
1286      to the global sequence catch_clauses when we have completed all
1287      the handlers in this handler-seq.  */
1288   start_sequence ();
1289
1290   while (1)
1291     {
1292       rtx prev;
1293
1294       entry = dequeue_eh_entry (&ehqueue);
1295       /* Emit the label for the exception handler for this region, and
1296          expand the code for the handler. 
1297
1298          Note that a catch region is handled as a side-effect here;
1299          for a try block, entry->finalization will contain
1300          integer_zero_node, so no code will be generated in the
1301          expand_expr call below. But, the label for the handler will
1302          still be emitted, so any code emitted after this point will
1303          end up being the handler.  */
1304       emit_label (entry->exception_handler_label);
1305
1306 #ifdef HAVE_exception_receiver
1307       if (! exceptions_via_longjmp)
1308         if (HAVE_exception_receiver)
1309           emit_insn (gen_exception_receiver ());
1310 #endif
1311
1312 #ifdef HAVE_nonlocal_goto_receiver
1313       if (! exceptions_via_longjmp)
1314         if (HAVE_nonlocal_goto_receiver)
1315           emit_insn (gen_nonlocal_goto_receiver ());
1316 #endif
1317
1318       /* When we get down to the matching entry for this try block, stop.  */
1319       if (entry->finalization == integer_zero_node)
1320         {
1321           /* Don't forget to free this entry.  */
1322           free (entry);
1323           break;
1324         }
1325
1326       /* And now generate the insns for the handler.  */
1327       expand_expr (entry->finalization, const0_rtx, VOIDmode, 0);
1328
1329       prev = get_last_insn ();
1330       if (prev == NULL || GET_CODE (prev) != BARRIER)
1331         {
1332           if (exceptions_via_longjmp)
1333             emit_throw ();
1334           else
1335             {
1336               /* Code to throw out to outer context when we fall off end
1337                  of the handler. We can't do this here for catch blocks,
1338                  so it's done in expand_end_all_catch instead.
1339
1340                  The below can be optimized away (and we could just fall
1341                  into the next EH handler) if we are certain they are
1342                  nested.  */
1343
1344               expand_internal_throw (entry->outer_context);
1345             }
1346         }
1347       free (entry);
1348     }
1349 }
1350
1351 /* Finish up the catch block.  At this point all the insns for the
1352    catch clauses have already been generated, so we only have to add
1353    them to the catch_clauses list. We also want to make sure that if
1354    we fall off the end of the catch clauses that we rethrow to the
1355    outer EH region.  */
1356
1357 void
1358 expand_end_all_catch ()
1359 {
1360   rtx new_catch_clause;
1361
1362   if (! doing_eh (1))
1363     return;
1364
1365   if (exceptions_via_longjmp)
1366     emit_throw ();
1367   else
1368     {
1369       /* Code to throw out to outer context, if we fall off end of catch
1370          handlers.  This is rethrow (Lresume, same id, same obj) in the
1371          documentation. We use Lresume because we know that it will throw
1372          to the correct context.
1373
1374          In other words, if the catch handler doesn't exit or return, we
1375          do a "throw" (using the address of Lresume as the point being
1376          thrown from) so that the outer EH region can then try to process
1377          the exception.  */
1378
1379       expand_internal_throw (DECL_RTL (top_label_entry (&caught_return_label_stack)));
1380     }
1381
1382   /* Now we have the complete catch sequence.  */
1383   new_catch_clause = get_insns ();
1384   end_sequence ();
1385   
1386   /* This level of catch blocks is done, so set up the successful
1387      catch jump label for the next layer of catch blocks.  */
1388   pop_label_entry (&caught_return_label_stack);
1389
1390   /* Add the new sequence of catches to the main one for this function.  */
1391   push_to_sequence (catch_clauses);
1392   emit_insns (new_catch_clause);
1393   catch_clauses = get_insns ();
1394   end_sequence ();
1395   
1396   /* Here we fall through into the continuation code.  */
1397 }
1398
1399 /* End all the pending exception regions on protect_list. The handlers
1400    will be emitted when expand_leftover_cleanups is invoked.  */
1401
1402 void
1403 end_protect_partials ()
1404 {
1405   while (protect_list)
1406     {
1407       expand_eh_region_end (TREE_VALUE (protect_list));
1408       protect_list = TREE_CHAIN (protect_list);
1409     }
1410 }
1411
1412 /* Arrange for __terminate to be called if there is an unhandled throw
1413    from within E.  */
1414
1415 tree
1416 protect_with_terminate (e)
1417      tree e;
1418 {
1419   /* We only need to do this when using setjmp/longjmp EH and the
1420      language requires it, as otherwise we protect all of the handlers
1421      at once, if we need to.  */
1422   if (exceptions_via_longjmp && protect_cleanup_actions_with_terminate)
1423     {
1424       tree handler, result;
1425
1426       /* All cleanups must be on the function_obstack.  */
1427       push_obstacks_nochange ();
1428       resume_temporary_allocation ();
1429
1430       handler = make_node (RTL_EXPR);
1431       TREE_TYPE (handler) = void_type_node;
1432       RTL_EXPR_RTL (handler) = const0_rtx;
1433       TREE_SIDE_EFFECTS (handler) = 1;
1434       start_sequence_for_rtl_expr (handler);
1435
1436       emit_library_call (terminate_libfunc, 0, VOIDmode, 0);
1437       emit_barrier ();
1438
1439       RTL_EXPR_SEQUENCE (handler) = get_insns ();
1440       end_sequence ();
1441         
1442       result = build (TRY_CATCH_EXPR, TREE_TYPE (e), e, handler);
1443       TREE_SIDE_EFFECTS (result) = TREE_SIDE_EFFECTS (e);
1444       TREE_THIS_VOLATILE (result) = TREE_THIS_VOLATILE (e);
1445       TREE_READONLY (result) = TREE_READONLY (e);
1446
1447       pop_obstacks ();
1448
1449       e = result;
1450     }
1451
1452   return e;
1453 }
1454 \f
1455 /* The exception table that we build that is used for looking up and
1456    dispatching exceptions, the current number of entries, and its
1457    maximum size before we have to extend it. 
1458
1459    The number in eh_table is the code label number of the exception
1460    handler for the region. This is added by add_eh_table_entry and
1461    used by output_exception_table_entry.  */
1462
1463 static int *eh_table;
1464 static int eh_table_size;
1465 static int eh_table_max_size;
1466
1467 /* Note the need for an exception table entry for region N.  If we
1468    don't need to output an explicit exception table, avoid all of the
1469    extra work.
1470
1471    Called from final_scan_insn when a NOTE_INSN_EH_REGION_BEG is seen.
1472    N is the NOTE_BLOCK_NUMBER of the note, which comes from the code
1473    label number of the exception handler for the region.  */
1474
1475 void
1476 add_eh_table_entry (n)
1477      int n;
1478 {
1479 #ifndef OMIT_EH_TABLE
1480   if (eh_table_size >= eh_table_max_size)
1481     {
1482       if (eh_table)
1483         {
1484           eh_table_max_size += eh_table_max_size>>1;
1485
1486           if (eh_table_max_size < 0)
1487             abort ();
1488
1489           eh_table = (int *) xrealloc (eh_table,
1490                                        eh_table_max_size * sizeof (int));
1491         }
1492       else
1493         {
1494           eh_table_max_size = 252;
1495           eh_table = (int *) xmalloc (eh_table_max_size * sizeof (int));
1496         }
1497     }
1498   eh_table[eh_table_size++] = n;
1499 #endif
1500 }
1501
1502 /* Return a non-zero value if we need to output an exception table.
1503
1504    On some platforms, we don't have to output a table explicitly.
1505    This routine doesn't mean we don't have one.  */
1506
1507 int
1508 exception_table_p ()
1509 {
1510   if (eh_table)
1511     return 1;
1512
1513   return 0;
1514 }
1515
1516 /* 1 if we need a static constructor to register EH table info.  */
1517
1518 int
1519 register_exception_table_p ()
1520 {
1521 #if defined (DWARF2_UNWIND_INFO)
1522   return 0;
1523 #endif
1524
1525   return exception_table_p ();
1526 }
1527
1528 /* Output the entry of the exception table corresponding to to the
1529    exception region numbered N to file FILE. 
1530
1531    N is the code label number corresponding to the handler of the
1532    region.  */
1533
1534 static void
1535 output_exception_table_entry (file, n)
1536      FILE *file;
1537      int n;
1538 {
1539   char buf[256];
1540   rtx sym;
1541
1542   ASM_GENERATE_INTERNAL_LABEL (buf, "LEHB", n);
1543   sym = gen_rtx (SYMBOL_REF, Pmode, buf);
1544   assemble_integer (sym, POINTER_SIZE / BITS_PER_UNIT, 1);
1545
1546   ASM_GENERATE_INTERNAL_LABEL (buf, "LEHE", n);
1547   sym = gen_rtx (SYMBOL_REF, Pmode, buf);
1548   assemble_integer (sym, POINTER_SIZE / BITS_PER_UNIT, 1);
1549
1550   ASM_GENERATE_INTERNAL_LABEL (buf, "L", n);
1551   sym = gen_rtx (SYMBOL_REF, Pmode, buf);
1552   assemble_integer (sym, POINTER_SIZE / BITS_PER_UNIT, 1);
1553
1554   putc ('\n', file);            /* blank line */
1555 }
1556
1557 /* Output the exception table if we have and need one.  */
1558
1559 void
1560 output_exception_table ()
1561 {
1562   int i;
1563   extern FILE *asm_out_file;
1564
1565   if (! doing_eh (0) || ! eh_table)
1566     return;
1567
1568   exception_section ();
1569
1570   /* Beginning marker for table.  */
1571   assemble_align (GET_MODE_ALIGNMENT (ptr_mode));
1572   assemble_label ("__EXCEPTION_TABLE__");
1573
1574   for (i = 0; i < eh_table_size; ++i)
1575     output_exception_table_entry (asm_out_file, eh_table[i]);
1576
1577   free (eh_table);
1578
1579   /* Ending marker for table.  */
1580   assemble_label ("__EXCEPTION_END__");
1581   assemble_integer (constm1_rtx, POINTER_SIZE / BITS_PER_UNIT, 1);
1582   assemble_integer (constm1_rtx, POINTER_SIZE / BITS_PER_UNIT, 1);
1583   assemble_integer (constm1_rtx, POINTER_SIZE / BITS_PER_UNIT, 1);
1584   putc ('\n', asm_out_file);            /* blank line */
1585 }
1586
1587 /* Generate code to initialize the exception table at program startup
1588    time.  */
1589
1590 void
1591 register_exception_table ()
1592 {
1593   emit_library_call (gen_rtx (SYMBOL_REF, Pmode, "__register_exceptions"), 0,
1594                      VOIDmode, 1,
1595                      gen_rtx (SYMBOL_REF, Pmode, "__EXCEPTION_TABLE__"),
1596                      Pmode);
1597 }
1598 \f
1599 /* Emit the RTL for the start of the per-function unwinder for the
1600    current function. See emit_unwinder for further information.
1601
1602    DOESNT_NEED_UNWINDER is a target-specific macro that determines if
1603    the current function actually needs a per-function unwinder or not.
1604    By default, all functions need one.  */
1605
1606 void
1607 start_eh_unwinder ()
1608 {
1609 #ifdef DOESNT_NEED_UNWINDER
1610   if (DOESNT_NEED_UNWINDER)
1611     return;
1612 #endif
1613
1614   /* If we are using the setjmp/longjmp implementation, we don't need a
1615      per function unwinder.  */
1616
1617   if (exceptions_via_longjmp)
1618     return;
1619
1620 #ifdef DWARF2_UNWIND_INFO
1621   return;
1622 #endif
1623
1624   expand_eh_region_start ();
1625 }
1626
1627 /* Emit insns for the end of the per-function unwinder for the
1628    current function.  */
1629
1630 void
1631 end_eh_unwinder ()
1632 {
1633   tree expr;
1634   rtx return_val_rtx, ret_val, label, end, insns;
1635
1636   if (! doing_eh (0))
1637     return;
1638
1639 #ifdef DOESNT_NEED_UNWINDER
1640   if (DOESNT_NEED_UNWINDER)
1641     return;
1642 #endif
1643
1644   /* If we are using the setjmp/longjmp implementation, we don't need a
1645      per function unwinder.  */
1646
1647   if (exceptions_via_longjmp)
1648     return;
1649
1650 #ifdef DWARF2_UNWIND_INFO
1651   return;
1652 #else /* DWARF2_UNWIND_INFO */
1653
1654   assemble_external (eh_saved_pc);
1655
1656   expr = make_node (RTL_EXPR);
1657   TREE_TYPE (expr) = void_type_node;
1658   RTL_EXPR_RTL (expr) = const0_rtx;
1659   TREE_SIDE_EFFECTS (expr) = 1;
1660   start_sequence_for_rtl_expr (expr);
1661
1662   /* ret_val will contain the address of the code where the call
1663      to the current function occurred.  */
1664   ret_val = expand_builtin_return_addr (BUILT_IN_RETURN_ADDRESS,
1665                                         0, hard_frame_pointer_rtx);
1666   return_val_rtx = copy_to_reg (ret_val);
1667
1668   /* Get the address we need to use to determine what exception
1669      handler should be invoked, and store it in __eh_pc.  */
1670   return_val_rtx = eh_outer_context (return_val_rtx);
1671   return_val_rtx = expand_binop (Pmode, sub_optab, return_val_rtx, GEN_INT (1),
1672                                  NULL_RTX, 0, OPTAB_LIB_WIDEN);
1673   emit_move_insn (eh_saved_pc_rtx, return_val_rtx);
1674   
1675   /* Either set things up so we do a return directly to __throw, or
1676      we return here instead.  */
1677 #ifdef JUMP_TO_THROW
1678   emit_move_insn (ret_val, throw_libfunc);
1679 #else
1680   label = gen_label_rtx ();
1681   emit_move_insn (ret_val, gen_rtx (LABEL_REF, Pmode, label));
1682 #endif
1683
1684 #ifdef RETURN_ADDR_OFFSET
1685   return_val_rtx = plus_constant (ret_val, -RETURN_ADDR_OFFSET);
1686   if (return_val_rtx != ret_val)
1687     emit_move_insn (ret_val, return_val_rtx);
1688 #endif
1689   
1690   end = gen_label_rtx ();
1691   emit_jump (end);  
1692
1693   RTL_EXPR_SEQUENCE (expr) = get_insns ();
1694   end_sequence ();
1695
1696   expand_eh_region_end (expr);
1697
1698   emit_jump (end);
1699
1700 #ifndef JUMP_TO_THROW
1701   emit_label (label);
1702   emit_throw ();
1703 #endif
1704   
1705   expand_leftover_cleanups ();
1706
1707   emit_label (end);
1708
1709 #ifdef HAVE_return
1710   if (HAVE_return)
1711     {
1712       emit_jump_insn (gen_return ());
1713       emit_barrier ();
1714     }
1715 #endif
1716 #endif /* DWARF2_UNWIND_INFO */
1717 }
1718
1719 /* If necessary, emit insns for the per function unwinder for the
1720    current function.  Called after all the code that needs unwind
1721    protection is output.  
1722
1723    The unwinder takes care of catching any exceptions that have not
1724    been previously caught within the function, unwinding the stack to
1725    the next frame, and rethrowing using the address of the current
1726    function's caller as the context of the throw.
1727
1728    On some platforms __throw can do this by itself (or with the help
1729    of __unwind_function) so the per-function unwinder is
1730    unnecessary.
1731   
1732    We cannot place the unwinder into the function until after we know
1733    we are done inlining, as we don't want to have more than one
1734    unwinder per non-inlined function.  */
1735
1736 void
1737 emit_unwinder ()
1738 {
1739   rtx insns, insn;
1740
1741   start_sequence ();
1742   start_eh_unwinder ();
1743   insns = get_insns ();
1744   end_sequence ();
1745
1746   /* We place the start of the exception region associated with the
1747      per function unwinder at the top of the function.  */
1748   if (insns)
1749     emit_insns_after (insns, get_insns ());
1750
1751   start_sequence ();
1752   end_eh_unwinder ();
1753   insns = get_insns ();
1754   end_sequence ();
1755
1756   /* And we place the end of the exception region before the USE and
1757      CLOBBER insns that may come at the end of the function.  */
1758   if (insns == 0)
1759     return;
1760
1761   insn = get_last_insn ();
1762   while (GET_CODE (insn) == NOTE
1763          || (GET_CODE (insn) == INSN
1764              && (GET_CODE (PATTERN (insn)) == USE
1765                  || GET_CODE (PATTERN (insn)) == CLOBBER)))
1766     insn = PREV_INSN (insn);
1767
1768   if (GET_CODE (insn) == CODE_LABEL
1769       && GET_CODE (PREV_INSN (insn)) == BARRIER)
1770     {
1771       insn = PREV_INSN (insn);
1772     }
1773   else
1774     {
1775       rtx label = gen_label_rtx ();
1776       emit_label_after (label, insn);
1777       insn = emit_jump_insn_after (gen_jump (label), insn);
1778       insn = emit_barrier_after (insn);
1779     }
1780     
1781   emit_insns_after (insns, insn);
1782 }
1783
1784 /* Scan the current insns and build a list of handler labels. The
1785    resulting list is placed in the global variable exception_handler_labels.
1786
1787    It is called after the last exception handling region is added to
1788    the current function (when the rtl is almost all built for the
1789    current function) and before the jump optimization pass.  */
1790
1791 void
1792 find_exception_handler_labels ()
1793 {
1794   rtx insn;
1795   int max_labelno = max_label_num ();
1796   int min_labelno = get_first_label_num ();
1797   rtx *labels;
1798
1799   exception_handler_labels = NULL_RTX;
1800
1801   /* If we aren't doing exception handling, there isn't much to check.  */
1802   if (! doing_eh (0))
1803     return;
1804
1805   /* Generate a handy reference to each label.  */
1806
1807   /* We call xmalloc here instead of alloca; we did the latter in the past,
1808      but found that it can sometimes end up being asked to allocate space
1809      for more than 1 million labels.  */
1810   labels = (rtx *) xmalloc ((max_labelno - min_labelno) * sizeof (rtx));
1811   bzero ((char *) labels, (max_labelno - min_labelno) * sizeof (rtx));
1812
1813   /* Arrange for labels to be indexed directly by CODE_LABEL_NUMBER.  */
1814   labels -= min_labelno;
1815
1816   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1817     {
1818       if (GET_CODE (insn) == CODE_LABEL)
1819         if (CODE_LABEL_NUMBER (insn) >= min_labelno
1820             && CODE_LABEL_NUMBER (insn) < max_labelno)
1821           labels[CODE_LABEL_NUMBER (insn)] = insn;
1822     }
1823
1824   /* For each start of a region, add its label to the list.  */
1825
1826   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1827     {
1828       if (GET_CODE (insn) == NOTE
1829           && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG)
1830         {
1831           rtx label = NULL_RTX;
1832
1833           if (NOTE_BLOCK_NUMBER (insn) >= min_labelno
1834               && NOTE_BLOCK_NUMBER (insn) < max_labelno)
1835             {
1836               label = labels[NOTE_BLOCK_NUMBER (insn)];
1837
1838               if (label)
1839                 exception_handler_labels
1840                   = gen_rtx (EXPR_LIST, VOIDmode,
1841                              label, exception_handler_labels);
1842               else
1843                 warning ("didn't find handler for EH region %d",
1844                          NOTE_BLOCK_NUMBER (insn));
1845             }
1846           else
1847             warning ("mismatched EH region %d", NOTE_BLOCK_NUMBER (insn));
1848         }
1849     }
1850
1851   free (labels);
1852 }
1853
1854 /* Perform sanity checking on the exception_handler_labels list.
1855
1856    Can be called after find_exception_handler_labels is called to
1857    build the list of exception handlers for the current function and
1858    before we finish processing the current function.  */
1859
1860 void
1861 check_exception_handler_labels ()
1862 {
1863   rtx insn, handler;
1864
1865   /* If we aren't doing exception handling, there isn't much to check.  */
1866   if (! doing_eh (0))
1867     return;
1868
1869   /* Ensure that the CODE_LABEL_NUMBER for the CODE_LABEL entry point
1870      in each handler corresponds to the CODE_LABEL_NUMBER of the
1871      handler.  */
1872
1873   for (handler = exception_handler_labels;
1874        handler;
1875        handler = XEXP (handler, 1))
1876     {
1877       for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1878         {
1879           if (GET_CODE (insn) == CODE_LABEL)
1880             {
1881               if (CODE_LABEL_NUMBER (insn)
1882                   == CODE_LABEL_NUMBER (XEXP (handler, 0)))
1883                 {
1884                   if (insn != XEXP (handler, 0))
1885                     warning ("mismatched handler %d",
1886                              CODE_LABEL_NUMBER (insn));
1887                   break;
1888                 }
1889             }
1890         }
1891       if (insn == NULL_RTX)
1892         warning ("handler not found %d",
1893                  CODE_LABEL_NUMBER (XEXP (handler, 0)));
1894     }
1895
1896   /* Now go through and make sure that for each region there is a
1897      corresponding label.  */
1898   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1899     {
1900       if (GET_CODE (insn) == NOTE
1901           && (NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG
1902               || NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_END))
1903         {
1904           for (handler = exception_handler_labels;
1905                handler;
1906                handler = XEXP (handler, 1))
1907             {
1908               if (CODE_LABEL_NUMBER (XEXP (handler, 0))
1909                   == NOTE_BLOCK_NUMBER (insn))
1910                 break;
1911             }
1912           if (handler == NULL_RTX)
1913             warning ("region exists, no handler %d",
1914                      NOTE_BLOCK_NUMBER (insn));
1915         }
1916     }
1917 }
1918 \f
1919 /* This group of functions initializes the exception handling data
1920    structures at the start of the compilation, initializes the data
1921    structures at the start of a function, and saves and restores the
1922    exception handling data structures for the start/end of a nested
1923    function.  */
1924
1925 /* Toplevel initialization for EH things.  */ 
1926
1927 void
1928 init_eh ()
1929 {
1930   /* Generate rtl to reference the variable in which the PC of the
1931      current context is saved.  */
1932   tree type = build_pointer_type (make_node (VOID_TYPE));
1933
1934   eh_saved_pc = build_decl (VAR_DECL, get_identifier ("__eh_pc"), type);
1935   DECL_EXTERNAL (eh_saved_pc) = 1;
1936   TREE_PUBLIC (eh_saved_pc) = 1;
1937   make_decl_rtl (eh_saved_pc, NULL_PTR, 1);
1938   eh_saved_pc_rtx = DECL_RTL (eh_saved_pc);
1939 }
1940
1941 /* Initialize the per-function EH information.  */
1942
1943 void
1944 init_eh_for_function ()
1945 {
1946   ehstack.top = 0;
1947   ehqueue.head = ehqueue.tail = 0;
1948   catch_clauses = NULL_RTX;
1949   false_label_stack = 0;
1950   caught_return_label_stack = 0;
1951   protect_list = NULL_TREE;
1952   current_function_dhc = NULL_RTX;
1953   current_function_dcc = NULL_RTX;
1954 }
1955
1956 /* Save some of the per-function EH info into the save area denoted by
1957    P. 
1958
1959    This is currently called from save_stmt_status.  */
1960
1961 void
1962 save_eh_status (p)
1963      struct function *p;
1964 {
1965   assert (p != NULL);
1966
1967   p->ehstack = ehstack;
1968   p->ehqueue = ehqueue;
1969   p->catch_clauses = catch_clauses;
1970   p->false_label_stack = false_label_stack;
1971   p->caught_return_label_stack = caught_return_label_stack;
1972   p->protect_list = protect_list;
1973   p->dhc = current_function_dhc;
1974   p->dcc = current_function_dcc;
1975
1976   init_eh ();
1977 }
1978
1979 /* Restore the per-function EH info saved into the area denoted by P.  
1980
1981    This is currently called from restore_stmt_status.  */
1982
1983 void
1984 restore_eh_status (p)
1985      struct function *p;
1986 {
1987   assert (p != NULL);
1988
1989   protect_list = p->protect_list;
1990   caught_return_label_stack = p->caught_return_label_stack;
1991   false_label_stack = p->false_label_stack;
1992   catch_clauses = p->catch_clauses;
1993   ehqueue = p->ehqueue;
1994   ehstack = p->ehstack;
1995   current_function_dhc = p->dhc;
1996   current_function_dcc = p->dcc;
1997 }
1998 \f
1999 /* This section is for the exception handling specific optimization
2000    pass.  First are the internal routines, and then the main
2001    optimization pass.  */
2002
2003 /* Determine if the given INSN can throw an exception.  */
2004
2005 static int
2006 can_throw (insn)
2007      rtx insn;
2008 {
2009   /* Calls can always potentially throw exceptions.  */
2010   if (GET_CODE (insn) == CALL_INSN)
2011     return 1;
2012
2013   if (asynchronous_exceptions)
2014     {
2015       /* If we wanted asynchronous exceptions, then everything but NOTEs
2016          and CODE_LABELs could throw.  */
2017       if (GET_CODE (insn) != NOTE && GET_CODE (insn) != CODE_LABEL)
2018         return 1;
2019     }
2020
2021   return 0;
2022 }
2023
2024 /* Scan a exception region looking for the matching end and then
2025    remove it if possible. INSN is the start of the region, N is the
2026    region number, and DELETE_OUTER is to note if anything in this
2027    region can throw.
2028
2029    Regions are removed if they cannot possibly catch an exception.
2030    This is determined by invoking can_throw on each insn within the
2031    region; if can_throw returns true for any of the instructions, the
2032    region can catch an exception, since there is an insn within the
2033    region that is capable of throwing an exception.
2034
2035    Returns the NOTE_INSN_EH_REGION_END corresponding to this region, or
2036    calls abort if it can't find one.
2037
2038    Can abort if INSN is not a NOTE_INSN_EH_REGION_BEGIN, or if N doesn't
2039    correspond to the region number, or if DELETE_OUTER is NULL.  */
2040
2041 static rtx
2042 scan_region (insn, n, delete_outer)
2043      rtx insn;
2044      int n;
2045      int *delete_outer;
2046 {
2047   rtx start = insn;
2048
2049   /* Assume we can delete the region.  */
2050   int delete = 1;
2051
2052   assert (insn != NULL_RTX
2053           && GET_CODE (insn) == NOTE
2054           && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG
2055           && NOTE_BLOCK_NUMBER (insn) == n
2056           && delete_outer != NULL);
2057
2058   insn = NEXT_INSN (insn);
2059
2060   /* Look for the matching end.  */
2061   while (! (GET_CODE (insn) == NOTE
2062             && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_END))
2063     {
2064       /* If anything can throw, we can't remove the region.  */
2065       if (delete && can_throw (insn))
2066         {
2067           delete = 0;
2068         }
2069
2070       /* Watch out for and handle nested regions.  */
2071       if (GET_CODE (insn) == NOTE
2072           && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG)
2073         {
2074           insn = scan_region (insn, NOTE_BLOCK_NUMBER (insn), &delete);
2075         }
2076
2077       insn = NEXT_INSN (insn);
2078     }
2079
2080   /* The _BEG/_END NOTEs must match and nest.  */
2081   if (NOTE_BLOCK_NUMBER (insn) != n)
2082     abort ();
2083
2084   /* If anything in this exception region can throw, we can throw.  */
2085   if (! delete)
2086     *delete_outer = 0;
2087   else
2088     {
2089       /* Delete the start and end of the region.  */
2090       delete_insn (start);
2091       delete_insn (insn);
2092
2093       /* Only do this part if we have built the exception handler
2094          labels.  */
2095       if (exception_handler_labels)
2096         {
2097           rtx x, *prev = &exception_handler_labels;
2098
2099           /* Find it in the list of handlers.  */
2100           for (x = exception_handler_labels; x; x = XEXP (x, 1))
2101             {
2102               rtx label = XEXP (x, 0);
2103               if (CODE_LABEL_NUMBER (label) == n)
2104                 {
2105                   /* If we are the last reference to the handler,
2106                      delete it.  */
2107                   if (--LABEL_NUSES (label) == 0)
2108                     delete_insn (label);
2109
2110                   if (optimize)
2111                     {
2112                       /* Remove it from the list of exception handler
2113                          labels, if we are optimizing.  If we are not, then
2114                          leave it in the list, as we are not really going to
2115                          remove the region.  */
2116                       *prev = XEXP (x, 1);
2117                       XEXP (x, 1) = 0;
2118                       XEXP (x, 0) = 0;
2119                     }
2120
2121                   break;
2122                 }
2123               prev = &XEXP (x, 1);
2124             }
2125         }
2126     }
2127   return insn;
2128 }
2129
2130 /* Perform various interesting optimizations for exception handling
2131    code.
2132
2133    We look for empty exception regions and make them go (away). The
2134    jump optimization code will remove the handler if nothing else uses
2135    it.  */
2136
2137 void
2138 exception_optimize ()
2139 {
2140   rtx insn, regions = NULL_RTX;
2141   int n;
2142
2143   /* The below doesn't apply to setjmp/longjmp EH.  */
2144   if (exceptions_via_longjmp)
2145     return;
2146
2147   /* Remove empty regions.  */
2148   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
2149     {
2150       if (GET_CODE (insn) == NOTE
2151           && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG)
2152         {
2153           /* Since scan_region will return the NOTE_INSN_EH_REGION_END
2154              insn, we will indirectly skip through all the insns
2155              inbetween. We are also guaranteed that the value of insn
2156              returned will be valid, as otherwise scan_region won't
2157              return.  */
2158           insn = scan_region (insn, NOTE_BLOCK_NUMBER (insn), &n);
2159         }
2160     }
2161 }
2162 \f
2163 /* Various hooks for the DWARF 2 __throw routine.  */
2164
2165 /* Do any necessary initialization to access arbitrary stack frames.
2166    On the SPARC, this means flushing the register windows.  */
2167
2168 void
2169 expand_builtin_unwind_init ()
2170 {
2171   /* Set this so all the registers get saved in our frame; we need to be
2172      able to copy the saved values for any registers from frames we unwind. */
2173   current_function_has_nonlocal_label = 1;
2174
2175 #ifdef SETUP_FRAME_ADDRESSES
2176   SETUP_FRAME_ADDRESSES ();
2177 #endif
2178 }
2179
2180 /* Given a value extracted from the return address register or stack slot,
2181    return the actual address encoded in that value.  */
2182
2183 rtx
2184 expand_builtin_extract_return_addr (addr_tree)
2185      tree addr_tree;
2186 {
2187   rtx addr = expand_expr (addr_tree, NULL_RTX, Pmode, 0);
2188   return eh_outer_context (addr);
2189 }
2190
2191 /* Given an actual address in addr_tree, do any necessary encoding
2192    and return the value to be stored in the return address register or
2193    stack slot so the epilogue will return to that address.  */
2194
2195 rtx
2196 expand_builtin_frob_return_addr (addr_tree)
2197      tree addr_tree;
2198 {
2199   rtx addr = expand_expr (addr_tree, NULL_RTX, Pmode, 0);
2200 #ifdef RETURN_ADDR_OFFSET
2201   addr = plus_constant (addr, -RETURN_ADDR_OFFSET);
2202 #endif
2203   return addr;
2204 }
2205
2206 /* Given an actual address in addr_tree, set the return address register up
2207    so the epilogue will return to that address.  If the return address is
2208    not in a register, do nothing.  */
2209
2210 void
2211 expand_builtin_set_return_addr_reg (addr_tree)
2212      tree addr_tree;
2213 {
2214   rtx tmp;
2215   rtx ra = expand_builtin_return_addr (BUILT_IN_RETURN_ADDRESS,
2216                                        0, hard_frame_pointer_rtx);
2217
2218   if (GET_CODE (ra) != REG || REGNO (ra) >= FIRST_PSEUDO_REGISTER)
2219     return;
2220
2221   tmp = force_operand (expand_builtin_frob_return_addr (addr_tree), ra);
2222   if (tmp != ra)
2223     emit_move_insn (ra, tmp);
2224 }
2225
2226 /* Choose two registers for communication between the main body of
2227    __throw and the stub for adjusting the stack pointer.  The first register
2228    is used to pass the address of the exception handler; the second register
2229    is used to pass the stack pointer offset.
2230
2231    For register 1 we use the return value register for a void *.
2232    For register 2 we use the static chain register if it exists and is
2233      different from register 1, otherwise some arbitrary call-clobbered
2234      register.  */
2235
2236 static void
2237 eh_regs (r1, r2, outgoing)
2238      rtx *r1, *r2;
2239      int outgoing;
2240 {
2241   rtx reg1, reg2;
2242
2243 #ifdef FUNCTION_OUTGOING_VALUE
2244   if (outgoing)
2245     reg1 = FUNCTION_OUTGOING_VALUE (build_pointer_type (void_type_node),
2246                                     current_function_decl);
2247   else
2248 #endif
2249     reg1 = FUNCTION_VALUE (build_pointer_type (void_type_node),
2250                            current_function_decl);
2251
2252 #ifdef STATIC_CHAIN_REGNUM
2253   if (outgoing)
2254     reg2 = static_chain_incoming_rtx;
2255   else
2256     reg2 = static_chain_rtx;
2257   if (REGNO (reg2) == REGNO (reg1))
2258 #endif /* STATIC_CHAIN_REGNUM */
2259     reg2 = NULL_RTX;
2260
2261   if (reg2 == NULL_RTX)
2262     {
2263       int i;
2264       for (i = 0; i < FIRST_PSEUDO_REGISTER; ++i)
2265         if (call_used_regs[i] && ! fixed_regs[i] && i != REGNO (reg1))
2266           {
2267             reg2 = gen_rtx (REG, Pmode, i);
2268             break;
2269           }
2270
2271       if (reg2 == NULL_RTX)
2272         abort ();
2273     }
2274
2275   *r1 = reg1;
2276   *r2 = reg2;
2277 }
2278
2279 /* Emit inside of __throw a stub which adjusts the stack pointer and jumps
2280    to the exception handler.  __throw will set up the necessary values
2281    and then return to the stub.  */
2282
2283 rtx
2284 expand_builtin_eh_stub ()
2285 {
2286   rtx stub_start = gen_label_rtx ();
2287   rtx after_stub = gen_label_rtx ();
2288   rtx handler, offset, temp;
2289
2290   emit_jump (after_stub);
2291   emit_label (stub_start);
2292
2293   eh_regs (&handler, &offset, 0);
2294
2295   adjust_stack (offset);
2296   emit_indirect_jump (handler);
2297
2298   emit_label (after_stub);
2299   return gen_rtx (LABEL_REF, Pmode, stub_start);
2300 }
2301
2302 /* Set up the registers for passing the handler address and stack offset
2303    to the stub above.  */
2304
2305 void
2306 expand_builtin_set_eh_regs (handler, offset)
2307      tree handler, offset;
2308 {
2309   rtx reg1, reg2;
2310
2311   eh_regs (&reg1, &reg2, 1);
2312
2313   store_expr (offset,  reg2, 0);
2314   store_expr (handler, reg1, 0);
2315
2316   /* These will be used by the stub.  */
2317   emit_insn (gen_rtx (USE, VOIDmode, reg1));
2318   emit_insn (gen_rtx (USE, VOIDmode, reg2));
2319 }