OSDN Git Service

Major cutover to using system.h:
[pf3gnuchains/gcc-fork.git] / gcc / except.c
1 /* Implements exception handling.
2    Copyright (C) 1989, 92-96, 1997 Free Software Foundation, Inc.
3    Contributed by Mike Stump <mrs@cygnus.com>.
4
5 This file is part of GNU CC.
6
7 GNU CC is free software; you can redistribute it and/or modify
8 it under the terms of the GNU General Public License as published by
9 the Free Software Foundation; either version 2, or (at your option)
10 any later version.
11
12 GNU CC is distributed in the hope that it will be useful,
13 but WITHOUT ANY WARRANTY; without even the implied warranty of
14 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15 GNU General Public License for more details.
16
17 You should have received a copy of the GNU General Public License
18 along with GNU CC; see the file COPYING.  If not, write to
19 the Free Software Foundation, 59 Temple Place - Suite 330,
20 Boston, MA 02111-1307, USA.  */
21
22
23 /* An exception is an event that can be signaled from within a
24    function. This event can then be "caught" or "trapped" by the
25    callers of this function. This potentially allows program flow to
26    be transferred to any arbitrary code associated with a function call
27    several levels up the stack.
28
29    The intended use for this mechanism is for signaling "exceptional
30    events" in an out-of-band fashion, hence its name. The C++ language
31    (and many other OO-styled or functional languages) practically
32    requires such a mechanism, as otherwise it becomes very difficult
33    or even impossible to signal failure conditions in complex
34    situations.  The traditional C++ example is when an error occurs in
35    the process of constructing an object; without such a mechanism, it
36    is impossible to signal that the error occurs without adding global
37    state variables and error checks around every object construction.
38
39    The act of causing this event to occur is referred to as "throwing
40    an exception". (Alternate terms include "raising an exception" or
41    "signaling an exception".) The term "throw" is used because control
42    is returned to the callers of the function that is signaling the
43    exception, and thus there is the concept of "throwing" the
44    exception up the call stack.
45
46    There are two major codegen options for exception handling.  The
47    flag -fsjlj-exceptions can be used to select the setjmp/longjmp
48    approach, which is the default.  -fno-sjlj-exceptions can be used to
49    get the PC range table approach.  While this is a compile time
50    flag, an entire application must be compiled with the same codegen
51    option.  The first is a PC range table approach, the second is a
52    setjmp/longjmp based scheme.  We will first discuss the PC range
53    table approach, after that, we will discuss the setjmp/longjmp
54    based approach.
55
56    It is appropriate to speak of the "context of a throw". This
57    context refers to the address where the exception is thrown from,
58    and is used to determine which exception region will handle the
59    exception.
60
61    Regions of code within a function can be marked such that if it
62    contains the context of a throw, control will be passed to a
63    designated "exception handler". These areas are known as "exception
64    regions".  Exception regions cannot overlap, but they can be nested
65    to any arbitrary depth. Also, exception regions cannot cross
66    function boundaries.
67
68    Exception handlers can either be specified by the user (which we
69    will call a "user-defined handler") or generated by the compiler
70    (which we will designate as a "cleanup"). Cleanups are used to
71    perform tasks such as destruction of objects allocated on the
72    stack.
73
74    In the current implementation, cleanups are handled by allocating an
75    exception region for the area that the cleanup is designated for,
76    and the handler for the region performs the cleanup and then
77    rethrows the exception to the outer exception region. From the
78    standpoint of the current implementation, there is little
79    distinction made between a cleanup and a user-defined handler, and
80    the phrase "exception handler" can be used to refer to either one
81    equally well. (The section "Future Directions" below discusses how
82    this will change).
83
84    Each object file that is compiled with exception handling contains
85    a static array of exception handlers named __EXCEPTION_TABLE__.
86    Each entry contains the starting and ending addresses of the
87    exception region, and the address of the handler designated for
88    that region.
89
90    If the target does not use the DWARF 2 frame unwind information, at
91    program startup each object file invokes a function named
92    __register_exceptions with the address of its local
93    __EXCEPTION_TABLE__. __register_exceptions is defined in libgcc2.c, and
94    is responsible for recording all of the exception regions into one list
95    (which is kept in a static variable named exception_table_list).
96
97    On targets that support crtstuff.c, the unwind information
98    is stored in a section named .eh_frame and the information for the
99    entire shared object or program is registered with a call to
100    __register_frame_info.  On other targets, the information for each
101    translation unit is registered from the file generated by collect2.
102    __register_frame_info is defined in frame.c, and is responsible for
103    recording all of the unwind regions into one list (which is kept in a
104    static variable named unwind_table_list).
105
106    The function __throw is actually responsible for doing the
107    throw. On machines that have unwind info support, __throw is generated
108    by code in libgcc2.c, otherwise __throw is generated on a
109    per-object-file basis for each source file compiled with
110    -fexceptions by the the C++ frontend.  Before __throw is invoked,
111    the current context of the throw needs to be placed in the global
112    variable __eh_pc.
113
114    __throw attempts to find the appropriate exception handler for the 
115    PC value stored in __eh_pc by calling __find_first_exception_table_match
116    (which is defined in libgcc2.c). If __find_first_exception_table_match
117    finds a relevant handler, __throw transfers control directly to it.
118
119    If a handler for the context being thrown from can't be found, __throw
120    walks (see Walking the stack below) the stack up the dynamic call chain to
121    continue searching for an appropriate exception handler based upon the
122    caller of the function it last sought a exception handler for.  It stops
123    then either an exception handler is found, or when the top of the
124    call chain is reached.
125
126    If no handler is found, an external library function named
127    __terminate is called.  If a handler is found, then we restart
128    our search for a handler at the end of the call chain, and repeat
129    the search process, but instead of just walking up the call chain,
130    we unwind the call chain as we walk up it.
131
132    Internal implementation details:
133
134    To associate a user-defined handler with a block of statements, the
135    function expand_start_try_stmts is used to mark the start of the
136    block of statements with which the handler is to be associated
137    (which is known as a "try block"). All statements that appear
138    afterwards will be associated with the try block.
139
140    A call to expand_start_all_catch marks the end of the try block,
141    and also marks the start of the "catch block" (the user-defined
142    handler) associated with the try block.
143
144    This user-defined handler will be invoked for *every* exception
145    thrown with the context of the try block. It is up to the handler
146    to decide whether or not it wishes to handle any given exception,
147    as there is currently no mechanism in this implementation for doing
148    this. (There are plans for conditionally processing an exception
149    based on its "type", which will provide a language-independent
150    mechanism).
151
152    If the handler chooses not to process the exception (perhaps by
153    looking at an "exception type" or some other additional data
154    supplied with the exception), it can fall through to the end of the
155    handler. expand_end_all_catch and expand_leftover_cleanups
156    add additional code to the end of each handler to take care of
157    rethrowing to the outer exception handler.
158
159    The handler also has the option to continue with "normal flow of
160    code", or in other words to resume executing at the statement
161    immediately after the end of the exception region. The variable
162    caught_return_label_stack contains a stack of labels, and jumping
163    to the topmost entry's label via expand_goto will resume normal
164    flow to the statement immediately after the end of the exception
165    region. If the handler falls through to the end, the exception will
166    be rethrown to the outer exception region.
167
168    The instructions for the catch block are kept as a separate
169    sequence, and will be emitted at the end of the function along with
170    the handlers specified via expand_eh_region_end. The end of the
171    catch block is marked with expand_end_all_catch.
172
173    Any data associated with the exception must currently be handled by
174    some external mechanism maintained in the frontend.  For example,
175    the C++ exception mechanism passes an arbitrary value along with
176    the exception, and this is handled in the C++ frontend by using a
177    global variable to hold the value. (This will be changing in the
178    future.)
179
180    The mechanism in C++ for handling data associated with the
181    exception is clearly not thread-safe. For a thread-based
182    environment, another mechanism must be used (possibly using a
183    per-thread allocation mechanism if the size of the area that needs
184    to be allocated isn't known at compile time.)
185
186    Internally-generated exception regions (cleanups) are marked by
187    calling expand_eh_region_start to mark the start of the region,
188    and expand_eh_region_end (handler) is used to both designate the
189    end of the region and to associate a specified handler/cleanup with
190    the region. The rtl code in HANDLER will be invoked whenever an
191    exception occurs in the region between the calls to
192    expand_eh_region_start and expand_eh_region_end. After HANDLER is
193    executed, additional code is emitted to handle rethrowing the
194    exception to the outer exception handler. The code for HANDLER will
195    be emitted at the end of the function.
196
197    TARGET_EXPRs can also be used to designate exception regions. A
198    TARGET_EXPR gives an unwind-protect style interface commonly used
199    in functional languages such as LISP. The associated expression is
200    evaluated, and whether or not it (or any of the functions that it
201    calls) throws an exception, the protect expression is always
202    invoked. This implementation takes care of the details of
203    associating an exception table entry with the expression and
204    generating the necessary code (it actually emits the protect
205    expression twice, once for normal flow and once for the exception
206    case). As for the other handlers, the code for the exception case
207    will be emitted at the end of the function.
208
209    Cleanups can also be specified by using add_partial_entry (handler)
210    and end_protect_partials. add_partial_entry creates the start of
211    a new exception region; HANDLER will be invoked if an exception is
212    thrown with the context of the region between the calls to
213    add_partial_entry and end_protect_partials. end_protect_partials is
214    used to mark the end of these regions. add_partial_entry can be
215    called as many times as needed before calling end_protect_partials.
216    However, end_protect_partials should only be invoked once for each
217    group of calls to add_partial_entry as the entries are queued
218    and all of the outstanding entries are processed simultaneously
219    when end_protect_partials is invoked. Similarly to the other
220    handlers, the code for HANDLER will be emitted at the end of the
221    function.
222
223    The generated RTL for an exception region includes
224    NOTE_INSN_EH_REGION_BEG and NOTE_INSN_EH_REGION_END notes that mark
225    the start and end of the exception region. A unique label is also
226    generated at the start of the exception region, which is available
227    by looking at the ehstack variable. The topmost entry corresponds
228    to the current region.
229
230    In the current implementation, an exception can only be thrown from
231    a function call (since the mechanism used to actually throw an
232    exception involves calling __throw).  If an exception region is
233    created but no function calls occur within that region, the region
234    can be safely optimized away (along with its exception handlers)
235    since no exceptions can ever be caught in that region.  This
236    optimization is performed unless -fasynchronous-exceptions is
237    given.  If the user wishes to throw from a signal handler, or other
238    asynchronous place, -fasynchronous-exceptions should be used when
239    compiling for maximally correct code, at the cost of additional
240    exception regions.  Using -fasynchronous-exceptions only produces
241    code that is reasonably safe in such situations, but a correct
242    program cannot rely upon this working.  It can be used in failsafe
243    code, where trying to continue on, and proceeding with potentially
244    incorrect results is better than halting the program.
245
246
247    Walking the stack:
248
249    The stack is walked by starting with a pointer to the current
250    frame, and finding the pointer to the callers frame.  The unwind info
251    tells __throw how to find it.
252
253    Unwinding the stack:
254
255    When we use the term unwinding the stack, we mean undoing the
256    effects of the function prologue in a controlled fashion so that we
257    still have the flow of control.  Otherwise, we could just return
258    (jump to the normal end of function epilogue).
259
260    This is done in __throw in libgcc2.c when we know that a handler exists
261    in a frame higher up the call stack than its immediate caller.
262
263    To unwind, we find the unwind data associated with the frame, if any.
264    If we don't find any, we call the library routine __terminate.  If we do
265    find it, we use the information to copy the saved register values from
266    that frame into the register save area in the frame for __throw, return
267    into a stub which updates the stack pointer, and jump to the handler.
268    The normal function epilogue for __throw handles restoring the saved
269    values into registers.
270
271    When unwinding, we use this method if we know it will
272    work (if DWARF2_UNWIND_INFO is defined).  Otherwise, we know that
273    an inline unwinder will have been emitted for any function that
274    __unwind_function cannot unwind.  The inline unwinder appears as a
275    normal exception handler for the entire function, for any function
276    that we know cannot be unwound by __unwind_function.  We inform the
277    compiler of whether a function can be unwound with
278    __unwind_function by having DOESNT_NEED_UNWINDER evaluate to true
279    when the unwinder isn't needed.  __unwind_function is used as an
280    action of last resort.  If no other method can be used for
281    unwinding, __unwind_function is used.  If it cannot unwind, it
282    should call __terminate.
283
284    By default, if the target-specific backend doesn't supply a definition
285    for __unwind_function and doesn't support DWARF2_UNWIND_INFO, inlined
286    unwinders will be used instead. The main tradeoff here is in text space
287    utilization.  Obviously, if inline unwinders have to be generated
288    repeatedly, this uses much more space than if a single routine is used.
289
290    However, it is simply not possible on some platforms to write a
291    generalized routine for doing stack unwinding without having some
292    form of additional data associated with each function.  The current
293    implementation can encode this data in the form of additional
294    machine instructions or as static data in tabular form.  The later
295    is called the unwind data.
296
297    The backend macro DOESNT_NEED_UNWINDER is used to conditionalize whether
298    or not per-function unwinders are needed. If DOESNT_NEED_UNWINDER is
299    defined and has a non-zero value, a per-function unwinder is not emitted
300    for the current function.  If the static unwind data is supported, then
301    a per-function unwinder is not emitted.
302
303    On some platforms it is possible that neither __unwind_function
304    nor inlined unwinders are available. For these platforms it is not
305    possible to throw through a function call, and abort will be
306    invoked instead of performing the throw. 
307
308    The reason the unwind data may be needed is that on some platforms
309    the order and types of data stored on the stack can vary depending
310    on the type of function, its arguments and returned values, and the
311    compilation options used (optimization versus non-optimization,
312    -fomit-frame-pointer, processor variations, etc).
313
314    Unfortunately, this also means that throwing through functions that
315    aren't compiled with exception handling support will still not be
316    possible on some platforms. This problem is currently being
317    investigated, but no solutions have been found that do not imply
318    some unacceptable performance penalties.
319
320    Future directions:
321
322    Currently __throw makes no differentiation between cleanups and
323    user-defined exception regions. While this makes the implementation
324    simple, it also implies that it is impossible to determine if a
325    user-defined exception handler exists for a given exception without
326    completely unwinding the stack in the process. This is undesirable
327    from the standpoint of debugging, as ideally it would be possible
328    to trap unhandled exceptions in the debugger before the process of
329    unwinding has even started.
330
331    This problem can be solved by marking user-defined handlers in a
332    special way (probably by adding additional bits to exception_table_list).
333    A two-pass scheme could then be used by __throw to iterate
334    through the table. The first pass would search for a relevant
335    user-defined handler for the current context of the throw, and if
336    one is found, the second pass would then invoke all needed cleanups
337    before jumping to the user-defined handler.
338
339    Many languages (including C++ and Ada) make execution of a
340    user-defined handler conditional on the "type" of the exception
341    thrown. (The type of the exception is actually the type of the data
342    that is thrown with the exception.) It will thus be necessary for
343    __throw to be able to determine if a given user-defined
344    exception handler will actually be executed, given the type of
345    exception.
346
347    One scheme is to add additional information to exception_table_list
348    as to the types of exceptions accepted by each handler. __throw
349    can do the type comparisons and then determine if the handler is
350    actually going to be executed.
351
352    There is currently no significant level of debugging support
353    available, other than to place a breakpoint on __throw. While
354    this is sufficient in most cases, it would be helpful to be able to
355    know where a given exception was going to be thrown to before it is
356    actually thrown, and to be able to choose between stopping before
357    every exception region (including cleanups), or just user-defined
358    exception regions. This should be possible to do in the two-pass
359    scheme by adding additional labels to __throw for appropriate
360    breakpoints, and additional debugger commands could be added to
361    query various state variables to determine what actions are to be
362    performed next.
363
364    Another major problem that is being worked on is the issue with stack
365    unwinding on various platforms. Currently the only platforms that have
366    support for the generation of a generic unwinder are the SPARC and MIPS.
367    All other ports require per-function unwinders, which produce large
368    amounts of code bloat.
369
370    For setjmp/longjmp based exception handling, some of the details
371    are as above, but there are some additional details.  This section
372    discusses the details.
373
374    We don't use NOTE_INSN_EH_REGION_{BEG,END} pairs.  We don't
375    optimize EH regions yet.  We don't have to worry about machine
376    specific issues with unwinding the stack, as we rely upon longjmp
377    for all the machine specific details.  There is no variable context
378    of a throw, just the one implied by the dynamic handler stack
379    pointed to by the dynamic handler chain.  There is no exception
380    table, and no calls to __register_exceptions.  __sjthrow is used
381    instead of __throw, and it works by using the dynamic handler
382    chain, and longjmp.  -fasynchronous-exceptions has no effect, as
383    the elimination of trivial exception regions is not yet performed.
384
385    A frontend can set protect_cleanup_actions_with_terminate when all
386    the cleanup actions should be protected with an EH region that
387    calls terminate when an unhandled exception is throw.  C++ does
388    this, Ada does not.  */
389
390
391 #include "config.h"
392 #include "defaults.h"
393 #include "system.h"
394 #include "rtl.h"
395 #include "tree.h"
396 #include "flags.h"
397 #include "except.h"
398 #include "function.h"
399 #include "insn-flags.h"
400 #include "expr.h"
401 #include "insn-codes.h"
402 #include "regs.h"
403 #include "hard-reg-set.h"
404 #include "insn-config.h"
405 #include "recog.h"
406 #include "output.h"
407
408 /* One to use setjmp/longjmp method of generating code for exception
409    handling.  */
410
411 int exceptions_via_longjmp = 2;
412
413 /* One to enable asynchronous exception support.  */
414
415 int asynchronous_exceptions = 0;
416
417 /* One to protect cleanup actions with a handler that calls
418    __terminate, zero otherwise.  */
419
420 int protect_cleanup_actions_with_terminate;
421
422 /* A list of labels used for exception handlers.  Created by
423    find_exception_handler_labels for the optimization passes.  */
424
425 rtx exception_handler_labels;
426
427 /* The EH context.  Nonzero if the function has already
428    fetched a pointer to the EH context  for exception handling.  */
429
430 rtx current_function_ehc;
431
432 /* A stack used for keeping track of the currently active exception
433    handling region.  As each exception region is started, an entry
434    describing the region is pushed onto this stack.  The current
435    region can be found by looking at the top of the stack, and as we
436    exit regions, the corresponding entries are popped. 
437
438    Entries cannot overlap; they can be nested. So there is only one
439    entry at most that corresponds to the current instruction, and that
440    is the entry on the top of the stack.  */
441
442 static struct eh_stack ehstack;
443
444 /* A queue used for tracking which exception regions have closed but
445    whose handlers have not yet been expanded. Regions are emitted in
446    groups in an attempt to improve paging performance.
447
448    As we exit a region, we enqueue a new entry. The entries are then
449    dequeued during expand_leftover_cleanups and expand_start_all_catch,
450
451    We should redo things so that we either take RTL for the handler,
452    or we expand the handler expressed as a tree immediately at region
453    end time.  */
454
455 static struct eh_queue ehqueue;
456
457 /* Insns for all of the exception handlers for the current function.
458    They are currently emitted by the frontend code.  */
459
460 rtx catch_clauses;
461
462 /* A TREE_CHAINed list of handlers for regions that are not yet
463    closed. The TREE_VALUE of each entry contains the handler for the
464    corresponding entry on the ehstack.  */
465
466 static tree protect_list;
467
468 /* Stacks to keep track of various labels.  */
469
470 /* Keeps track of the label to resume to should one want to resume
471    normal control flow out of a handler (instead of, say, returning to
472    the caller of the current function or exiting the program).  */
473
474 struct label_node *caught_return_label_stack = NULL;
475
476 /* Keeps track of the label used as the context of a throw to rethrow an
477    exception to the outer exception region.  */
478
479 struct label_node *outer_context_label_stack = NULL;
480
481 /* A random data area for the front end's own use.  */
482
483 struct label_node *false_label_stack = NULL;
484
485 rtx expand_builtin_return_addr  PROTO((enum built_in_function, int, rtx));
486 static void expand_rethrow      PROTO((rtx));
487
488 \f
489 /* Various support routines to manipulate the various data structures
490    used by the exception handling code.  */
491
492 /* Push a label entry onto the given STACK.  */
493
494 void
495 push_label_entry (stack, rlabel, tlabel)
496      struct label_node **stack;
497      rtx rlabel;
498      tree tlabel;
499 {
500   struct label_node *newnode
501     = (struct label_node *) xmalloc (sizeof (struct label_node));
502
503   if (rlabel)
504     newnode->u.rlabel = rlabel;
505   else
506     newnode->u.tlabel = tlabel;
507   newnode->chain = *stack;
508   *stack = newnode;
509 }
510
511 /* Pop a label entry from the given STACK.  */
512
513 rtx
514 pop_label_entry (stack)
515      struct label_node **stack;
516 {
517   rtx label;
518   struct label_node *tempnode;
519
520   if (! *stack)
521     return NULL_RTX;
522
523   tempnode = *stack;
524   label = tempnode->u.rlabel;
525   *stack = (*stack)->chain;
526   free (tempnode);
527
528   return label;
529 }
530
531 /* Return the top element of the given STACK.  */
532
533 tree
534 top_label_entry (stack)
535      struct label_node **stack;
536 {
537   if (! *stack)
538     return NULL_TREE;
539
540   return (*stack)->u.tlabel;
541 }
542
543 /* Push a new eh_node entry onto STACK.  */
544
545 static void
546 push_eh_entry (stack)
547      struct eh_stack *stack;
548 {
549   struct eh_node *node = (struct eh_node *) xmalloc (sizeof (struct eh_node));
550   struct eh_entry *entry = (struct eh_entry *) xmalloc (sizeof (struct eh_entry));
551
552   entry->outer_context = gen_label_rtx ();
553   entry->exception_handler_label = gen_label_rtx ();
554   entry->finalization = NULL_TREE;
555
556   node->entry = entry;
557   node->chain = stack->top;
558   stack->top = node;
559 }
560
561 /* Pop an entry from the given STACK.  */
562
563 static struct eh_entry *
564 pop_eh_entry (stack)
565      struct eh_stack *stack;
566 {
567   struct eh_node *tempnode;
568   struct eh_entry *tempentry;
569   
570   tempnode = stack->top;
571   tempentry = tempnode->entry;
572   stack->top = stack->top->chain;
573   free (tempnode);
574
575   return tempentry;
576 }
577
578 /* Enqueue an ENTRY onto the given QUEUE.  */
579
580 static void
581 enqueue_eh_entry (queue, entry)
582      struct eh_queue *queue;
583      struct eh_entry *entry;
584 {
585   struct eh_node *node = (struct eh_node *) xmalloc (sizeof (struct eh_node));
586
587   node->entry = entry;
588   node->chain = NULL;
589
590   if (queue->head == NULL)
591     {
592       queue->head = node;
593     }
594   else
595     {
596       queue->tail->chain = node;
597     }
598   queue->tail = node;
599 }
600
601 /* Dequeue an entry from the given QUEUE.  */
602
603 static struct eh_entry *
604 dequeue_eh_entry (queue)
605      struct eh_queue *queue;
606 {
607   struct eh_node *tempnode;
608   struct eh_entry *tempentry;
609
610   if (queue->head == NULL)
611     return NULL;
612
613   tempnode = queue->head;
614   queue->head = queue->head->chain;
615
616   tempentry = tempnode->entry;
617   free (tempnode);
618
619   return tempentry;
620 }
621 \f
622 /* Routine to see if exception exception handling is turned on.
623    DO_WARN is non-zero if we want to inform the user that exception
624    handling is turned off. 
625
626    This is used to ensure that -fexceptions has been specified if the
627    compiler tries to use any exception-specific functions.  */
628
629 int
630 doing_eh (do_warn)
631      int do_warn;
632 {
633   if (! flag_exceptions)
634     {
635       static int warned = 0;
636       if (! warned && do_warn)
637         {
638           error ("exception handling disabled, use -fexceptions to enable");
639           warned = 1;
640         }
641       return 0;
642     }
643   return 1;
644 }
645
646 /* Given a return address in ADDR, determine the address we should use
647    to find the corresponding EH region.  */
648
649 rtx
650 eh_outer_context (addr)
651      rtx addr;
652 {
653   /* First mask out any unwanted bits.  */
654 #ifdef MASK_RETURN_ADDR
655   expand_and (addr, MASK_RETURN_ADDR, addr);
656 #endif
657
658   /* Then adjust to find the real return address.  */
659 #if defined (RETURN_ADDR_OFFSET)
660   addr = plus_constant (addr, RETURN_ADDR_OFFSET);
661 #endif
662
663   return addr;
664 }
665
666 /* Start a new exception region for a region of code that has a
667    cleanup action and push the HANDLER for the region onto
668    protect_list. All of the regions created with add_partial_entry
669    will be ended when end_protect_partials is invoked.  */
670
671 void
672 add_partial_entry (handler)
673      tree handler;
674 {
675   expand_eh_region_start ();
676
677   /* Make sure the entry is on the correct obstack.  */
678   push_obstacks_nochange ();
679   resume_temporary_allocation ();
680
681   /* Because this is a cleanup action, we may have to protect the handler
682      with __terminate.  */
683   handler = protect_with_terminate (handler);
684
685   protect_list = tree_cons (NULL_TREE, handler, protect_list);
686   pop_obstacks ();
687 }
688
689 /* Emit code to get EH context to current function.  */
690
691 static rtx
692 call_get_eh_context ()
693 {
694   static tree fn;
695   tree expr;
696
697   if (fn == NULL_TREE)
698     {
699       tree fntype;
700       fn = get_identifier ("__get_eh_context");
701       push_obstacks_nochange ();
702       end_temporary_allocation ();
703       fntype = build_pointer_type (build_pointer_type
704                                    (build_pointer_type (void_type_node)));
705       fntype = build_function_type (fntype, NULL_TREE);
706       fn = build_decl (FUNCTION_DECL, fn, fntype);
707       DECL_EXTERNAL (fn) = 1;
708       TREE_PUBLIC (fn) = 1;
709       DECL_ARTIFICIAL (fn) = 1;
710       TREE_READONLY (fn) = 1;
711       make_decl_rtl (fn, NULL_PTR, 1);
712       assemble_external (fn);
713       pop_obstacks ();
714     }
715
716   expr = build1 (ADDR_EXPR, build_pointer_type (TREE_TYPE (fn)), fn);
717   expr = build (CALL_EXPR, TREE_TYPE (TREE_TYPE (fn)),
718                 expr, NULL_TREE, NULL_TREE);
719   TREE_SIDE_EFFECTS (expr) = 1;
720
721   return copy_to_reg (expand_expr (expr, NULL_RTX, VOIDmode, 0));
722 }
723
724 /* Get a reference to the EH context.
725    We will only generate a register for the current function EH context here,
726    and emit a USE insn to mark that this is a EH context register.
727
728    Later, emit_eh_context will emit needed call to __get_eh_context
729    in libgcc2, and copy the value to the register we have generated. */
730
731 rtx
732 get_eh_context ()
733 {
734   if (current_function_ehc == 0)
735     {
736       rtx insn;
737
738       current_function_ehc = gen_reg_rtx (Pmode);
739       
740       insn = gen_rtx_USE (GET_MODE (current_function_ehc),
741                           current_function_ehc);
742       insn = emit_insn_before (insn, get_first_nonparm_insn ());
743
744       REG_NOTES (insn)
745         = gen_rtx_EXPR_LIST (REG_EH_CONTEXT, current_function_ehc,
746                              REG_NOTES (insn));
747     }
748   return current_function_ehc;
749 }
750      
751 /* Get a reference to the dynamic handler chain.  It points to the
752    pointer to the next element in the dynamic handler chain.  It ends
753    when there are no more elements in the dynamic handler chain, when
754    the value is &top_elt from libgcc2.c.  Immediately after the
755    pointer, is an area suitable for setjmp/longjmp when
756    DONT_USE_BUILTIN_SETJMP is defined, and an area suitable for
757    __builtin_setjmp/__builtin_longjmp when DONT_USE_BUILTIN_SETJMP
758    isn't defined. */
759
760 rtx
761 get_dynamic_handler_chain ()
762 {
763   rtx ehc, dhc, result;
764
765   ehc = get_eh_context ();
766   dhc = ehc;
767
768   result = copy_to_reg (dhc);
769
770   /* We don't want a copy of the dcc, but rather, the single dcc.  */
771   return gen_rtx_MEM (Pmode, result);
772 }
773
774 /* Get a reference to the dynamic cleanup chain.  It points to the
775    pointer to the next element in the dynamic cleanup chain.
776    Immediately after the pointer, are two Pmode variables, one for a
777    pointer to a function that performs the cleanup action, and the
778    second, the argument to pass to that function.  */
779
780 rtx
781 get_dynamic_cleanup_chain ()
782 {
783   rtx dhc, dcc, result;
784
785   dhc = get_dynamic_handler_chain ();
786   dcc = plus_constant (dhc, GET_MODE_SIZE (Pmode));
787
788   result = copy_to_reg (dcc);
789
790   /* We don't want a copy of the dcc, but rather, the single dcc.  */
791   return gen_rtx_MEM (Pmode, result);
792 }
793
794 /* Generate code to evaluate X and jump to LABEL if the value is nonzero.
795    LABEL is an rtx of code CODE_LABEL, in this function.  */
796
797 void
798 jumpif_rtx (x, label)
799      rtx x;
800      rtx label;
801 {
802   jumpif (make_tree (type_for_mode (GET_MODE (x), 0), x), label);
803 }
804
805 /* Generate code to evaluate X and jump to LABEL if the value is zero.
806    LABEL is an rtx of code CODE_LABEL, in this function.  */
807
808 void
809 jumpifnot_rtx (x, label)
810      rtx x;
811      rtx label;
812 {
813   jumpifnot (make_tree (type_for_mode (GET_MODE (x), 0), x), label);
814 }
815
816 /* Start a dynamic cleanup on the EH runtime dynamic cleanup stack.
817    We just need to create an element for the cleanup list, and push it
818    into the chain.
819
820    A dynamic cleanup is a cleanup action implied by the presence of an
821    element on the EH runtime dynamic cleanup stack that is to be
822    performed when an exception is thrown.  The cleanup action is
823    performed by __sjthrow when an exception is thrown.  Only certain
824    actions can be optimized into dynamic cleanup actions.  For the
825    restrictions on what actions can be performed using this routine,
826    see expand_eh_region_start_tree.  */
827
828 static void
829 start_dynamic_cleanup (func, arg)
830      tree func;
831      tree arg;
832 {
833   rtx dcc;
834   rtx new_func, new_arg;
835   rtx x, buf;
836   int size;
837
838   /* We allocate enough room for a pointer to the function, and
839      one argument.  */
840   size = 2;
841
842   /* XXX, FIXME: The stack space allocated this way is too long lived,
843      but there is no allocation routine that allocates at the level of
844      the last binding contour.  */
845   buf = assign_stack_local (BLKmode,
846                             GET_MODE_SIZE (Pmode)*(size+1),
847                             0);
848
849   buf = change_address (buf, Pmode, NULL_RTX);
850
851   /* Store dcc into the first word of the newly allocated buffer.  */
852
853   dcc = get_dynamic_cleanup_chain ();
854   emit_move_insn (buf, dcc);
855
856   /* Store func and arg into the cleanup list element.  */
857
858   new_func = gen_rtx_MEM (Pmode, plus_constant (XEXP (buf, 0),
859                                                 GET_MODE_SIZE (Pmode)));
860   new_arg = gen_rtx_MEM (Pmode, plus_constant (XEXP (buf, 0),
861                                                GET_MODE_SIZE (Pmode)*2));
862   x = expand_expr (func, new_func, Pmode, 0);
863   if (x != new_func)
864     emit_move_insn (new_func, x);
865
866   x = expand_expr (arg, new_arg, Pmode, 0);
867   if (x != new_arg)
868     emit_move_insn (new_arg, x);
869
870   /* Update the cleanup chain.  */
871
872   emit_move_insn (dcc, XEXP (buf, 0));
873 }
874
875 /* Emit RTL to start a dynamic handler on the EH runtime dynamic
876    handler stack.  This should only be used by expand_eh_region_start
877    or expand_eh_region_start_tree.  */
878
879 static void
880 start_dynamic_handler ()
881 {
882   rtx dhc, dcc;
883   rtx x, arg, buf;
884   int size;
885
886 #ifndef DONT_USE_BUILTIN_SETJMP
887   /* The number of Pmode words for the setjmp buffer, when using the
888      builtin setjmp/longjmp, see expand_builtin, case
889      BUILT_IN_LONGJMP.  */
890   size = 5;
891 #else
892 #ifdef JMP_BUF_SIZE
893   size = JMP_BUF_SIZE;
894 #else
895   /* Should be large enough for most systems, if it is not,
896      JMP_BUF_SIZE should be defined with the proper value.  It will
897      also tend to be larger than necessary for most systems, a more
898      optimal port will define JMP_BUF_SIZE.  */
899   size = FIRST_PSEUDO_REGISTER+2;
900 #endif
901 #endif
902   /* XXX, FIXME: The stack space allocated this way is too long lived,
903      but there is no allocation routine that allocates at the level of
904      the last binding contour.  */
905   arg = assign_stack_local (BLKmode,
906                             GET_MODE_SIZE (Pmode)*(size+1),
907                             0);
908
909   arg = change_address (arg, Pmode, NULL_RTX);
910
911   /* Store dhc into the first word of the newly allocated buffer.  */
912
913   dhc = get_dynamic_handler_chain ();
914   dcc = gen_rtx_MEM (Pmode, plus_constant (XEXP (arg, 0),
915                                            GET_MODE_SIZE (Pmode)));
916   emit_move_insn (arg, dhc);
917
918   /* Zero out the start of the cleanup chain.  */
919   emit_move_insn (dcc, const0_rtx);
920
921   /* The jmpbuf starts two words into the area allocated.  */
922   buf = plus_constant (XEXP (arg, 0), GET_MODE_SIZE (Pmode)*2);
923
924 #ifdef DONT_USE_BUILTIN_SETJMP
925   x = emit_library_call_value (setjmp_libfunc, NULL_RTX, 1, SImode, 1,
926                                buf, Pmode);
927   /* If we come back here for a catch, transfer control to the handler.  */
928   jumpif_rtx (x, ehstack.top->entry->exception_handler_label);
929 #else
930   {
931     /* A label to continue execution for the no exception case.  */
932     rtx noex = gen_label_rtx();
933     x = expand_builtin_setjmp (buf, NULL_RTX, noex,
934                                ehstack.top->entry->exception_handler_label);
935     emit_label (noex);
936   }
937 #endif
938
939   /* We are committed to this, so update the handler chain.  */
940
941   emit_move_insn (dhc, XEXP (arg, 0));
942 }
943
944 /* Start an exception handling region for the given cleanup action.
945    All instructions emitted after this point are considered to be part
946    of the region until expand_eh_region_end is invoked.  CLEANUP is
947    the cleanup action to perform.  The return value is true if the
948    exception region was optimized away.  If that case,
949    expand_eh_region_end does not need to be called for this cleanup,
950    nor should it be.
951
952    This routine notices one particular common case in C++ code
953    generation, and optimizes it so as to not need the exception
954    region.  It works by creating a dynamic cleanup action, instead of
955    of a using an exception region.  */
956
957 int
958 expand_eh_region_start_tree (decl, cleanup)
959      tree decl;
960      tree cleanup;
961 {
962   /* This is the old code.  */
963   if (! doing_eh (0))
964     return 0;
965
966   /* The optimization only applies to actions protected with
967      terminate, and only applies if we are using the setjmp/longjmp
968      codegen method.  */
969   if (exceptions_via_longjmp
970       && protect_cleanup_actions_with_terminate)
971     {
972       tree func, arg;
973       tree args;
974
975       /* Ignore any UNSAVE_EXPR.  */
976       if (TREE_CODE (cleanup) == UNSAVE_EXPR)
977         cleanup = TREE_OPERAND (cleanup, 0);
978       
979       /* Further, it only applies if the action is a call, if there
980          are 2 arguments, and if the second argument is 2.  */
981
982       if (TREE_CODE (cleanup) == CALL_EXPR
983           && (args = TREE_OPERAND (cleanup, 1))
984           && (func = TREE_OPERAND (cleanup, 0))
985           && (arg = TREE_VALUE (args))
986           && (args = TREE_CHAIN (args))
987
988           /* is the second argument 2?  */
989           && TREE_CODE (TREE_VALUE (args)) == INTEGER_CST
990           && TREE_INT_CST_LOW (TREE_VALUE (args)) == 2
991           && TREE_INT_CST_HIGH (TREE_VALUE (args)) == 0
992
993           /* Make sure there are no other arguments.  */
994           && TREE_CHAIN (args) == NULL_TREE)
995         {
996           /* Arrange for returns and gotos to pop the entry we make on the
997              dynamic cleanup stack.  */
998           expand_dcc_cleanup (decl);
999           start_dynamic_cleanup (func, arg);
1000           return 1;
1001         }
1002     }
1003
1004   expand_eh_region_start_for_decl (decl);
1005   ehstack.top->entry->finalization = cleanup;
1006
1007   return 0;
1008 }
1009
1010 /* Just like expand_eh_region_start, except if a cleanup action is
1011    entered on the cleanup chain, the TREE_PURPOSE of the element put
1012    on the chain is DECL.  DECL should be the associated VAR_DECL, if
1013    any, otherwise it should be NULL_TREE.  */
1014
1015 void
1016 expand_eh_region_start_for_decl (decl)
1017      tree decl;
1018 {
1019   rtx note;
1020
1021   /* This is the old code.  */
1022   if (! doing_eh (0))
1023     return;
1024
1025   if (exceptions_via_longjmp)
1026     {
1027       /* We need a new block to record the start and end of the
1028          dynamic handler chain.  We could always do this, but we
1029          really want to permit jumping into such a block, and we want
1030          to avoid any errors or performance impact in the SJ EH code
1031          for now.  */
1032       expand_start_bindings (0);
1033
1034       /* But we don't need or want a new temporary level.  */
1035       pop_temp_slots ();
1036
1037       /* Mark this block as created by expand_eh_region_start.  This
1038          is so that we can pop the block with expand_end_bindings
1039          automatically.  */
1040       mark_block_as_eh_region ();
1041
1042       /* Arrange for returns and gotos to pop the entry we make on the
1043          dynamic handler stack.  */
1044       expand_dhc_cleanup (decl);
1045     }
1046
1047   push_eh_entry (&ehstack);
1048   note = emit_note (NULL_PTR, NOTE_INSN_EH_REGION_BEG);
1049   NOTE_BLOCK_NUMBER (note)
1050     = CODE_LABEL_NUMBER (ehstack.top->entry->exception_handler_label);
1051   if (exceptions_via_longjmp)
1052     start_dynamic_handler ();
1053 }
1054
1055 /* Start an exception handling region.  All instructions emitted after
1056    this point are considered to be part of the region until
1057    expand_eh_region_end is invoked.  */
1058
1059 void
1060 expand_eh_region_start ()
1061 {
1062   expand_eh_region_start_for_decl (NULL_TREE);
1063 }
1064
1065 /* End an exception handling region.  The information about the region
1066    is found on the top of ehstack.
1067
1068    HANDLER is either the cleanup for the exception region, or if we're
1069    marking the end of a try block, HANDLER is integer_zero_node.
1070
1071    HANDLER will be transformed to rtl when expand_leftover_cleanups
1072    is invoked.  */
1073
1074 void
1075 expand_eh_region_end (handler)
1076      tree handler;
1077 {
1078   struct eh_entry *entry;
1079   rtx note;
1080
1081   if (! doing_eh (0))
1082     return;
1083
1084   entry = pop_eh_entry (&ehstack);
1085
1086   note = emit_note (NULL_PTR, NOTE_INSN_EH_REGION_END);
1087   NOTE_BLOCK_NUMBER (note)
1088     = CODE_LABEL_NUMBER (entry->exception_handler_label);
1089   if (exceptions_via_longjmp == 0
1090       /* We share outer_context between regions; only emit it once.  */
1091       && INSN_UID (entry->outer_context) == 0)
1092     {
1093       rtx label;
1094
1095       label = gen_label_rtx ();
1096       emit_jump (label);
1097
1098       /* Emit a label marking the end of this exception region that
1099          is used for rethrowing into the outer context.  */
1100       emit_label (entry->outer_context);
1101       expand_internal_throw ();
1102
1103       emit_label (label);
1104     }
1105
1106   entry->finalization = handler;
1107
1108   enqueue_eh_entry (&ehqueue, entry);
1109
1110   /* If we have already started ending the bindings, don't recurse.
1111      This only happens when exceptions_via_longjmp is true.  */
1112   if (is_eh_region ())
1113     {
1114       /* Because we don't need or want a new temporary level and
1115          because we didn't create one in expand_eh_region_start,
1116          create a fake one now to avoid removing one in
1117          expand_end_bindings.  */
1118       push_temp_slots ();
1119
1120       mark_block_as_not_eh_region ();
1121
1122       /* Maybe do this to prevent jumping in and so on...  */
1123       expand_end_bindings (NULL_TREE, 0, 0);
1124     }
1125 }
1126
1127 /* End the EH region for a goto fixup.  We only need them in the region-based
1128    EH scheme.  */
1129
1130 void
1131 expand_fixup_region_start ()
1132 {
1133   if (! doing_eh (0) || exceptions_via_longjmp)
1134     return;
1135
1136   expand_eh_region_start ();
1137 }
1138
1139 /* End the EH region for a goto fixup.  CLEANUP is the cleanup we just
1140    expanded; to avoid running it twice if it throws, we look through the
1141    ehqueue for a matching region and rethrow from its outer_context.  */
1142
1143 void
1144 expand_fixup_region_end (cleanup)
1145      tree cleanup;
1146 {
1147   struct eh_node *node;
1148
1149   if (! doing_eh (0) || exceptions_via_longjmp)
1150     return;
1151
1152   for (node = ehstack.top; node && node->entry->finalization != cleanup; )
1153     node = node->chain;
1154   if (node == 0)
1155     for (node = ehqueue.head; node && node->entry->finalization != cleanup; )
1156       node = node->chain;
1157   if (node == 0)
1158     abort ();
1159
1160   ehstack.top->entry->outer_context = node->entry->outer_context;
1161
1162   /* Just rethrow.  size_zero_node is just a NOP.  */
1163   expand_eh_region_end (size_zero_node);
1164 }
1165
1166 /* If we are using the setjmp/longjmp EH codegen method, we emit a
1167    call to __sjthrow.
1168
1169    Otherwise, we emit a call to __throw and note that we threw
1170    something, so we know we need to generate the necessary code for
1171    __throw.
1172
1173    Before invoking throw, the __eh_pc variable must have been set up
1174    to contain the PC being thrown from. This address is used by
1175    __throw to determine which exception region (if any) is
1176    responsible for handling the exception.  */
1177
1178 void
1179 emit_throw ()
1180 {
1181   if (exceptions_via_longjmp)
1182     {
1183       emit_library_call (sjthrow_libfunc, 0, VOIDmode, 0);
1184     }
1185   else
1186     {
1187 #ifdef JUMP_TO_THROW
1188       emit_indirect_jump (throw_libfunc);
1189 #else
1190       emit_library_call (throw_libfunc, 0, VOIDmode, 0);
1191 #endif
1192     }
1193   emit_barrier ();
1194 }
1195
1196 /* Throw the current exception.  If appropriate, this is done by jumping
1197    to the next handler.  */
1198
1199 void
1200 expand_internal_throw ()
1201 {
1202   emit_throw ();
1203 }
1204
1205 /* Called from expand_exception_blocks and expand_end_catch_block to
1206    emit any pending handlers/cleanups queued from expand_eh_region_end.  */
1207
1208 void
1209 expand_leftover_cleanups ()
1210 {
1211   struct eh_entry *entry;
1212
1213   while ((entry = dequeue_eh_entry (&ehqueue)) != 0)
1214     {
1215       rtx prev;
1216
1217       /* A leftover try block. Shouldn't be one here.  */
1218       if (entry->finalization == integer_zero_node)
1219         abort ();
1220
1221       /* Output the label for the start of the exception handler.  */
1222       emit_label (entry->exception_handler_label);
1223
1224 #ifdef HAVE_exception_receiver
1225       if (! exceptions_via_longjmp)
1226         if (HAVE_exception_receiver)
1227           emit_insn (gen_exception_receiver ());
1228 #endif
1229
1230 #ifdef HAVE_nonlocal_goto_receiver
1231       if (! exceptions_via_longjmp)
1232         if (HAVE_nonlocal_goto_receiver)
1233           emit_insn (gen_nonlocal_goto_receiver ());
1234 #endif
1235
1236       /* And now generate the insns for the handler.  */
1237       expand_expr (entry->finalization, const0_rtx, VOIDmode, 0);
1238
1239       prev = get_last_insn ();
1240       if (prev == NULL || GET_CODE (prev) != BARRIER)
1241         /* Emit code to throw to the outer context if we fall off
1242            the end of the handler.  */
1243         expand_rethrow (entry->outer_context);
1244
1245       do_pending_stack_adjust ();
1246       free (entry);
1247     }
1248 }
1249
1250 /* Called at the start of a block of try statements.  */
1251 void
1252 expand_start_try_stmts ()
1253 {
1254   if (! doing_eh (1))
1255     return;
1256
1257   expand_eh_region_start ();
1258 }
1259
1260 /* Generate RTL for the start of a group of catch clauses. 
1261
1262    It is responsible for starting a new instruction sequence for the
1263    instructions in the catch block, and expanding the handlers for the
1264    internally-generated exception regions nested within the try block
1265    corresponding to this catch block.  */
1266
1267 void
1268 expand_start_all_catch ()
1269 {
1270   struct eh_entry *entry;
1271   tree label;
1272   rtx outer_context;
1273
1274   if (! doing_eh (1))
1275     return;
1276
1277   outer_context = ehstack.top->entry->outer_context;
1278
1279   /* End the try block.  */
1280   expand_eh_region_end (integer_zero_node);
1281
1282   emit_line_note (input_filename, lineno);
1283   label = build_decl (LABEL_DECL, NULL_TREE, NULL_TREE);
1284
1285   /* The label for the exception handling block that we will save.
1286      This is Lresume in the documentation.  */
1287   expand_label (label);
1288   
1289   /* Push the label that points to where normal flow is resumed onto
1290      the top of the label stack.  */
1291   push_label_entry (&caught_return_label_stack, NULL_RTX, label);
1292
1293   /* Start a new sequence for all the catch blocks.  We will add this
1294      to the global sequence catch_clauses when we have completed all
1295      the handlers in this handler-seq.  */
1296   start_sequence ();
1297
1298   while (1)
1299     {
1300       rtx prev;
1301
1302       entry = dequeue_eh_entry (&ehqueue);
1303       /* Emit the label for the exception handler for this region, and
1304          expand the code for the handler. 
1305
1306          Note that a catch region is handled as a side-effect here;
1307          for a try block, entry->finalization will contain
1308          integer_zero_node, so no code will be generated in the
1309          expand_expr call below. But, the label for the handler will
1310          still be emitted, so any code emitted after this point will
1311          end up being the handler.  */
1312       emit_label (entry->exception_handler_label);
1313
1314 #ifdef HAVE_exception_receiver
1315       if (! exceptions_via_longjmp)
1316         if (HAVE_exception_receiver)
1317           emit_insn (gen_exception_receiver ());
1318 #endif
1319
1320 #ifdef HAVE_nonlocal_goto_receiver
1321       if (! exceptions_via_longjmp)
1322         if (HAVE_nonlocal_goto_receiver)
1323           emit_insn (gen_nonlocal_goto_receiver ());
1324 #endif
1325
1326       /* When we get down to the matching entry for this try block, stop.  */
1327       if (entry->finalization == integer_zero_node)
1328         {
1329           /* Don't forget to free this entry.  */
1330           free (entry);
1331           break;
1332         }
1333
1334       /* And now generate the insns for the handler.  */
1335       expand_expr (entry->finalization, const0_rtx, VOIDmode, 0);
1336
1337       prev = get_last_insn ();
1338       if (prev == NULL || GET_CODE (prev) != BARRIER)
1339         /* Code to throw out to outer context when we fall off end
1340            of the handler. We can't do this here for catch blocks,
1341            so it's done in expand_end_all_catch instead.  */
1342         expand_rethrow (entry->outer_context);
1343
1344       do_pending_stack_adjust ();
1345       free (entry);
1346     }
1347
1348   /* If we are not doing setjmp/longjmp EH, because we are reordered
1349      out of line, we arrange to rethrow in the outer context.  We need to
1350      do this because we are not physically within the region, if any, that
1351      logically contains this catch block.  */
1352   if (! exceptions_via_longjmp)
1353     {
1354       expand_eh_region_start ();
1355       ehstack.top->entry->outer_context = outer_context;
1356     }
1357 }
1358
1359 /* Finish up the catch block.  At this point all the insns for the
1360    catch clauses have already been generated, so we only have to add
1361    them to the catch_clauses list. We also want to make sure that if
1362    we fall off the end of the catch clauses that we rethrow to the
1363    outer EH region.  */
1364
1365 void
1366 expand_end_all_catch ()
1367 {
1368   rtx new_catch_clause, outer_context = NULL_RTX;
1369
1370   if (! doing_eh (1))
1371     return;
1372
1373   if (! exceptions_via_longjmp)
1374     {
1375       outer_context = ehstack.top->entry->outer_context;
1376
1377       /* Finish the rethrow region.  size_zero_node is just a NOP.  */
1378       expand_eh_region_end (size_zero_node);
1379     }
1380
1381   /* Code to throw out to outer context, if we fall off end of catch
1382      handlers.  This is rethrow (Lresume, same id, same obj) in the
1383      documentation. We use Lresume because we know that it will throw
1384      to the correct context.
1385
1386      In other words, if the catch handler doesn't exit or return, we
1387      do a "throw" (using the address of Lresume as the point being
1388      thrown from) so that the outer EH region can then try to process
1389      the exception.  */
1390   expand_rethrow (outer_context);
1391
1392   /* Now we have the complete catch sequence.  */
1393   new_catch_clause = get_insns ();
1394   end_sequence ();
1395   
1396   /* This level of catch blocks is done, so set up the successful
1397      catch jump label for the next layer of catch blocks.  */
1398   pop_label_entry (&caught_return_label_stack);
1399   pop_label_entry (&outer_context_label_stack);
1400
1401   /* Add the new sequence of catches to the main one for this function.  */
1402   push_to_sequence (catch_clauses);
1403   emit_insns (new_catch_clause);
1404   catch_clauses = get_insns ();
1405   end_sequence ();
1406   
1407   /* Here we fall through into the continuation code.  */
1408 }
1409
1410 /* Rethrow from the outer context LABEL.  */
1411
1412 static void
1413 expand_rethrow (label)
1414      rtx label;
1415 {
1416   if (exceptions_via_longjmp)
1417     emit_throw ();
1418   else
1419     emit_jump (label);
1420 }
1421
1422 /* End all the pending exception regions on protect_list. The handlers
1423    will be emitted when expand_leftover_cleanups is invoked.  */
1424
1425 void
1426 end_protect_partials ()
1427 {
1428   while (protect_list)
1429     {
1430       expand_eh_region_end (TREE_VALUE (protect_list));
1431       protect_list = TREE_CHAIN (protect_list);
1432     }
1433 }
1434
1435 /* Arrange for __terminate to be called if there is an unhandled throw
1436    from within E.  */
1437
1438 tree
1439 protect_with_terminate (e)
1440      tree e;
1441 {
1442   /* We only need to do this when using setjmp/longjmp EH and the
1443      language requires it, as otherwise we protect all of the handlers
1444      at once, if we need to.  */
1445   if (exceptions_via_longjmp && protect_cleanup_actions_with_terminate)
1446     {
1447       tree handler, result;
1448
1449       /* All cleanups must be on the function_obstack.  */
1450       push_obstacks_nochange ();
1451       resume_temporary_allocation ();
1452
1453       handler = make_node (RTL_EXPR);
1454       TREE_TYPE (handler) = void_type_node;
1455       RTL_EXPR_RTL (handler) = const0_rtx;
1456       TREE_SIDE_EFFECTS (handler) = 1;
1457       start_sequence_for_rtl_expr (handler);
1458
1459       emit_library_call (terminate_libfunc, 0, VOIDmode, 0);
1460       emit_barrier ();
1461
1462       RTL_EXPR_SEQUENCE (handler) = get_insns ();
1463       end_sequence ();
1464         
1465       result = build (TRY_CATCH_EXPR, TREE_TYPE (e), e, handler);
1466       TREE_SIDE_EFFECTS (result) = TREE_SIDE_EFFECTS (e);
1467       TREE_THIS_VOLATILE (result) = TREE_THIS_VOLATILE (e);
1468       TREE_READONLY (result) = TREE_READONLY (e);
1469
1470       pop_obstacks ();
1471
1472       e = result;
1473     }
1474
1475   return e;
1476 }
1477 \f
1478 /* The exception table that we build that is used for looking up and
1479    dispatching exceptions, the current number of entries, and its
1480    maximum size before we have to extend it. 
1481
1482    The number in eh_table is the code label number of the exception
1483    handler for the region. This is added by add_eh_table_entry and
1484    used by output_exception_table_entry.  */
1485
1486 static int *eh_table;
1487 static int eh_table_size;
1488 static int eh_table_max_size;
1489
1490 /* Note the need for an exception table entry for region N.  If we
1491    don't need to output an explicit exception table, avoid all of the
1492    extra work.
1493
1494    Called from final_scan_insn when a NOTE_INSN_EH_REGION_BEG is seen.
1495    N is the NOTE_BLOCK_NUMBER of the note, which comes from the code
1496    label number of the exception handler for the region.  */
1497
1498 void
1499 add_eh_table_entry (n)
1500      int n;
1501 {
1502 #ifndef OMIT_EH_TABLE
1503   if (eh_table_size >= eh_table_max_size)
1504     {
1505       if (eh_table)
1506         {
1507           eh_table_max_size += eh_table_max_size>>1;
1508
1509           if (eh_table_max_size < 0)
1510             abort ();
1511
1512           eh_table = (int *) xrealloc (eh_table,
1513                                        eh_table_max_size * sizeof (int));
1514         }
1515       else
1516         {
1517           eh_table_max_size = 252;
1518           eh_table = (int *) xmalloc (eh_table_max_size * sizeof (int));
1519         }
1520     }
1521   eh_table[eh_table_size++] = n;
1522 #endif
1523 }
1524
1525 /* Return a non-zero value if we need to output an exception table.
1526
1527    On some platforms, we don't have to output a table explicitly.
1528    This routine doesn't mean we don't have one.  */
1529
1530 int
1531 exception_table_p ()
1532 {
1533   if (eh_table)
1534     return 1;
1535
1536   return 0;
1537 }
1538
1539 /* Output the entry of the exception table corresponding to to the
1540    exception region numbered N to file FILE. 
1541
1542    N is the code label number corresponding to the handler of the
1543    region.  */
1544
1545 static void
1546 output_exception_table_entry (file, n)
1547      FILE *file;
1548      int n;
1549 {
1550   char buf[256];
1551   rtx sym;
1552
1553   ASM_GENERATE_INTERNAL_LABEL (buf, "LEHB", n);
1554   sym = gen_rtx_SYMBOL_REF (Pmode, buf);
1555   assemble_integer (sym, POINTER_SIZE / BITS_PER_UNIT, 1);
1556
1557   ASM_GENERATE_INTERNAL_LABEL (buf, "LEHE", n);
1558   sym = gen_rtx_SYMBOL_REF (Pmode, buf);
1559   assemble_integer (sym, POINTER_SIZE / BITS_PER_UNIT, 1);
1560
1561   ASM_GENERATE_INTERNAL_LABEL (buf, "L", n);
1562   sym = gen_rtx_SYMBOL_REF (Pmode, buf);
1563   assemble_integer (sym, POINTER_SIZE / BITS_PER_UNIT, 1);
1564
1565   putc ('\n', file);            /* blank line */
1566 }
1567
1568 /* Output the exception table if we have and need one.  */
1569
1570 void
1571 output_exception_table ()
1572 {
1573   int i;
1574   extern FILE *asm_out_file;
1575
1576   if (! doing_eh (0) || ! eh_table)
1577     return;
1578
1579   exception_section ();
1580
1581   /* Beginning marker for table.  */
1582   assemble_align (GET_MODE_ALIGNMENT (ptr_mode));
1583   assemble_label ("__EXCEPTION_TABLE__");
1584
1585   for (i = 0; i < eh_table_size; ++i)
1586     output_exception_table_entry (asm_out_file, eh_table[i]);
1587
1588   free (eh_table);
1589
1590   /* Ending marker for table.  */
1591   assemble_integer (constm1_rtx, POINTER_SIZE / BITS_PER_UNIT, 1);
1592   assemble_integer (constm1_rtx, POINTER_SIZE / BITS_PER_UNIT, 1);
1593   assemble_integer (constm1_rtx, POINTER_SIZE / BITS_PER_UNIT, 1);
1594   putc ('\n', asm_out_file);            /* blank line */
1595 }
1596 \f
1597 /* Emit code to get EH context.
1598    
1599    We have to scan thru the code to find possible EH context registers.
1600    Inlined functions may use it too, and thus we'll have to be able
1601    to change them too.
1602
1603    This is done only if using exceptions_via_longjmp. */
1604
1605 void
1606 emit_eh_context ()
1607 {
1608   rtx insn;
1609   rtx ehc = 0;
1610
1611   if (! doing_eh (0))
1612     return;
1613
1614   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1615     if (GET_CODE (insn) == INSN
1616         && GET_CODE (PATTERN (insn)) == USE)
1617       {
1618         rtx reg = find_reg_note (insn, REG_EH_CONTEXT, 0);
1619         if (reg)
1620           {
1621             rtx insns;
1622             
1623             start_sequence ();
1624
1625             /* If this is the first use insn, emit the call here.  This
1626                will always be at the top of our function, because if
1627                expand_inline_function notices a REG_EH_CONTEXT note, it
1628                adds a use insn to this function as well.  */
1629             if (ehc == 0)
1630               ehc = call_get_eh_context ();
1631
1632             emit_move_insn (XEXP (reg, 0), ehc);
1633             insns = get_insns ();
1634             end_sequence ();
1635
1636             emit_insns_before (insns, insn);
1637           }
1638       }
1639 }
1640
1641 /* Scan the current insns and build a list of handler labels. The
1642    resulting list is placed in the global variable exception_handler_labels.
1643
1644    It is called after the last exception handling region is added to
1645    the current function (when the rtl is almost all built for the
1646    current function) and before the jump optimization pass.  */
1647
1648 void
1649 find_exception_handler_labels ()
1650 {
1651   rtx insn;
1652   int max_labelno = max_label_num ();
1653   int min_labelno = get_first_label_num ();
1654   rtx *labels;
1655
1656   exception_handler_labels = NULL_RTX;
1657
1658   /* If we aren't doing exception handling, there isn't much to check.  */
1659   if (! doing_eh (0))
1660     return;
1661
1662   /* Generate a handy reference to each label.  */
1663
1664   /* We call xmalloc here instead of alloca; we did the latter in the past,
1665      but found that it can sometimes end up being asked to allocate space
1666      for more than 1 million labels.  */
1667   labels = (rtx *) xmalloc ((max_labelno - min_labelno) * sizeof (rtx));
1668   bzero ((char *) labels, (max_labelno - min_labelno) * sizeof (rtx));
1669
1670   /* Arrange for labels to be indexed directly by CODE_LABEL_NUMBER.  */
1671   labels -= min_labelno;
1672
1673   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1674     {
1675       if (GET_CODE (insn) == CODE_LABEL)
1676         if (CODE_LABEL_NUMBER (insn) >= min_labelno
1677             && CODE_LABEL_NUMBER (insn) < max_labelno)
1678           labels[CODE_LABEL_NUMBER (insn)] = insn;
1679     }
1680
1681   /* For each start of a region, add its label to the list.  */
1682
1683   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1684     {
1685       if (GET_CODE (insn) == NOTE
1686           && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG)
1687         {
1688           rtx label = NULL_RTX;
1689
1690           if (NOTE_BLOCK_NUMBER (insn) >= min_labelno
1691               && NOTE_BLOCK_NUMBER (insn) < max_labelno)
1692             {
1693               label = labels[NOTE_BLOCK_NUMBER (insn)];
1694
1695               if (label)
1696                 exception_handler_labels
1697                   = gen_rtx_EXPR_LIST (VOIDmode,
1698                                        label, exception_handler_labels);
1699               else
1700                 warning ("didn't find handler for EH region %d",
1701                          NOTE_BLOCK_NUMBER (insn));
1702             }
1703           else
1704             warning ("mismatched EH region %d", NOTE_BLOCK_NUMBER (insn));
1705         }
1706     }
1707
1708   free (labels + min_labelno);
1709 }
1710
1711 /* Perform sanity checking on the exception_handler_labels list.
1712
1713    Can be called after find_exception_handler_labels is called to
1714    build the list of exception handlers for the current function and
1715    before we finish processing the current function.  */
1716
1717 void
1718 check_exception_handler_labels ()
1719 {
1720   rtx insn, handler;
1721
1722   /* If we aren't doing exception handling, there isn't much to check.  */
1723   if (! doing_eh (0))
1724     return;
1725
1726   /* Ensure that the CODE_LABEL_NUMBER for the CODE_LABEL entry point
1727      in each handler corresponds to the CODE_LABEL_NUMBER of the
1728      handler.  */
1729
1730   for (handler = exception_handler_labels;
1731        handler;
1732        handler = XEXP (handler, 1))
1733     {
1734       for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1735         {
1736           if (GET_CODE (insn) == CODE_LABEL)
1737             {
1738               if (CODE_LABEL_NUMBER (insn)
1739                   == CODE_LABEL_NUMBER (XEXP (handler, 0)))
1740                 {
1741                   if (insn != XEXP (handler, 0))
1742                     warning ("mismatched handler %d",
1743                              CODE_LABEL_NUMBER (insn));
1744                   break;
1745                 }
1746             }
1747         }
1748       if (insn == NULL_RTX)
1749         warning ("handler not found %d",
1750                  CODE_LABEL_NUMBER (XEXP (handler, 0)));
1751     }
1752
1753   /* Now go through and make sure that for each region there is a
1754      corresponding label.  */
1755   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1756     {
1757       if (GET_CODE (insn) == NOTE
1758           && (NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG
1759               || NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_END))
1760         {
1761           for (handler = exception_handler_labels;
1762                handler;
1763                handler = XEXP (handler, 1))
1764             {
1765               if (CODE_LABEL_NUMBER (XEXP (handler, 0))
1766                   == NOTE_BLOCK_NUMBER (insn))
1767                 break;
1768             }
1769           if (handler == NULL_RTX && !flag_syntax_only)
1770             warning ("region exists, no handler %d",
1771                      NOTE_BLOCK_NUMBER (insn));
1772         }
1773     }
1774 }
1775 \f
1776 /* This group of functions initializes the exception handling data
1777    structures at the start of the compilation, initializes the data
1778    structures at the start of a function, and saves and restores the
1779    exception handling data structures for the start/end of a nested
1780    function.  */
1781
1782 /* Toplevel initialization for EH things.  */ 
1783
1784 void
1785 init_eh ()
1786 {
1787 }
1788
1789 /* Initialize the per-function EH information.  */
1790
1791 void
1792 init_eh_for_function ()
1793 {
1794   ehstack.top = 0;
1795   ehqueue.head = ehqueue.tail = 0;
1796   catch_clauses = NULL_RTX;
1797   false_label_stack = 0;
1798   caught_return_label_stack = 0;
1799   protect_list = NULL_TREE;
1800   current_function_ehc = NULL_RTX;
1801 }
1802
1803 /* Save some of the per-function EH info into the save area denoted by
1804    P. 
1805
1806    This is currently called from save_stmt_status.  */
1807
1808 void
1809 save_eh_status (p)
1810      struct function *p;
1811 {
1812   if (p == NULL)
1813     abort ();
1814
1815   p->ehstack = ehstack;
1816   p->ehqueue = ehqueue;
1817   p->catch_clauses = catch_clauses;
1818   p->false_label_stack = false_label_stack;
1819   p->caught_return_label_stack = caught_return_label_stack;
1820   p->protect_list = protect_list;
1821   p->ehc = current_function_ehc;
1822
1823   init_eh_for_function ();
1824 }
1825
1826 /* Restore the per-function EH info saved into the area denoted by P.  
1827
1828    This is currently called from restore_stmt_status.  */
1829
1830 void
1831 restore_eh_status (p)
1832      struct function *p;
1833 {
1834   if (p == NULL)
1835     abort ();
1836
1837   protect_list = p->protect_list;
1838   caught_return_label_stack = p->caught_return_label_stack;
1839   false_label_stack = p->false_label_stack;
1840   catch_clauses = p->catch_clauses;
1841   ehqueue = p->ehqueue;
1842   ehstack = p->ehstack;
1843   current_function_ehc = p->ehc;
1844 }
1845 \f
1846 /* This section is for the exception handling specific optimization
1847    pass.  First are the internal routines, and then the main
1848    optimization pass.  */
1849
1850 /* Determine if the given INSN can throw an exception.  */
1851
1852 static int
1853 can_throw (insn)
1854      rtx insn;
1855 {
1856   /* Calls can always potentially throw exceptions.  */
1857   if (GET_CODE (insn) == CALL_INSN)
1858     return 1;
1859
1860   if (asynchronous_exceptions)
1861     {
1862       /* If we wanted asynchronous exceptions, then everything but NOTEs
1863          and CODE_LABELs could throw.  */
1864       if (GET_CODE (insn) != NOTE && GET_CODE (insn) != CODE_LABEL)
1865         return 1;
1866     }
1867
1868   return 0;
1869 }
1870
1871 /* Scan a exception region looking for the matching end and then
1872    remove it if possible. INSN is the start of the region, N is the
1873    region number, and DELETE_OUTER is to note if anything in this
1874    region can throw.
1875
1876    Regions are removed if they cannot possibly catch an exception.
1877    This is determined by invoking can_throw on each insn within the
1878    region; if can_throw returns true for any of the instructions, the
1879    region can catch an exception, since there is an insn within the
1880    region that is capable of throwing an exception.
1881
1882    Returns the NOTE_INSN_EH_REGION_END corresponding to this region, or
1883    calls abort if it can't find one.
1884
1885    Can abort if INSN is not a NOTE_INSN_EH_REGION_BEGIN, or if N doesn't
1886    correspond to the region number, or if DELETE_OUTER is NULL.  */
1887
1888 static rtx
1889 scan_region (insn, n, delete_outer)
1890      rtx insn;
1891      int n;
1892      int *delete_outer;
1893 {
1894   rtx start = insn;
1895
1896   /* Assume we can delete the region.  */
1897   int delete = 1;
1898
1899   if (insn == NULL_RTX
1900       || GET_CODE (insn) != NOTE
1901       || NOTE_LINE_NUMBER (insn) != NOTE_INSN_EH_REGION_BEG
1902       || NOTE_BLOCK_NUMBER (insn) != n
1903       || delete_outer == NULL)
1904     abort ();
1905
1906   insn = NEXT_INSN (insn);
1907
1908   /* Look for the matching end.  */
1909   while (! (GET_CODE (insn) == NOTE
1910             && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_END))
1911     {
1912       /* If anything can throw, we can't remove the region.  */
1913       if (delete && can_throw (insn))
1914         {
1915           delete = 0;
1916         }
1917
1918       /* Watch out for and handle nested regions.  */
1919       if (GET_CODE (insn) == NOTE
1920           && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG)
1921         {
1922           insn = scan_region (insn, NOTE_BLOCK_NUMBER (insn), &delete);
1923         }
1924
1925       insn = NEXT_INSN (insn);
1926     }
1927
1928   /* The _BEG/_END NOTEs must match and nest.  */
1929   if (NOTE_BLOCK_NUMBER (insn) != n)
1930     abort ();
1931
1932   /* If anything in this exception region can throw, we can throw.  */
1933   if (! delete)
1934     *delete_outer = 0;
1935   else
1936     {
1937       /* Delete the start and end of the region.  */
1938       delete_insn (start);
1939       delete_insn (insn);
1940
1941       /* Only do this part if we have built the exception handler
1942          labels.  */
1943       if (exception_handler_labels)
1944         {
1945           rtx x, *prev = &exception_handler_labels;
1946
1947           /* Find it in the list of handlers.  */
1948           for (x = exception_handler_labels; x; x = XEXP (x, 1))
1949             {
1950               rtx label = XEXP (x, 0);
1951               if (CODE_LABEL_NUMBER (label) == n)
1952                 {
1953                   /* If we are the last reference to the handler,
1954                      delete it.  */
1955                   if (--LABEL_NUSES (label) == 0)
1956                     delete_insn (label);
1957
1958                   if (optimize)
1959                     {
1960                       /* Remove it from the list of exception handler
1961                          labels, if we are optimizing.  If we are not, then
1962                          leave it in the list, as we are not really going to
1963                          remove the region.  */
1964                       *prev = XEXP (x, 1);
1965                       XEXP (x, 1) = 0;
1966                       XEXP (x, 0) = 0;
1967                     }
1968
1969                   break;
1970                 }
1971               prev = &XEXP (x, 1);
1972             }
1973         }
1974     }
1975   return insn;
1976 }
1977
1978 /* Perform various interesting optimizations for exception handling
1979    code.
1980
1981    We look for empty exception regions and make them go (away). The
1982    jump optimization code will remove the handler if nothing else uses
1983    it.  */
1984
1985 void
1986 exception_optimize ()
1987 {
1988   rtx insn;
1989   int n;
1990
1991   /* Remove empty regions.  */
1992   for (insn = get_insns (); insn; insn = NEXT_INSN (insn))
1993     {
1994       if (GET_CODE (insn) == NOTE
1995           && NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG)
1996         {
1997           /* Since scan_region will return the NOTE_INSN_EH_REGION_END
1998              insn, we will indirectly skip through all the insns
1999              inbetween. We are also guaranteed that the value of insn
2000              returned will be valid, as otherwise scan_region won't
2001              return.  */
2002           insn = scan_region (insn, NOTE_BLOCK_NUMBER (insn), &n);
2003         }
2004     }
2005 }
2006 \f
2007 /* Various hooks for the DWARF 2 __throw routine.  */
2008
2009 /* Do any necessary initialization to access arbitrary stack frames.
2010    On the SPARC, this means flushing the register windows.  */
2011
2012 void
2013 expand_builtin_unwind_init ()
2014 {
2015   /* Set this so all the registers get saved in our frame; we need to be
2016      able to copy the saved values for any registers from frames we unwind. */
2017   current_function_has_nonlocal_label = 1;
2018
2019 #ifdef SETUP_FRAME_ADDRESSES
2020   SETUP_FRAME_ADDRESSES ();
2021 #endif
2022 }
2023
2024 /* Given a value extracted from the return address register or stack slot,
2025    return the actual address encoded in that value.  */
2026
2027 rtx
2028 expand_builtin_extract_return_addr (addr_tree)
2029      tree addr_tree;
2030 {
2031   rtx addr = expand_expr (addr_tree, NULL_RTX, Pmode, 0);
2032   return eh_outer_context (addr);
2033 }
2034
2035 /* Given an actual address in addr_tree, do any necessary encoding
2036    and return the value to be stored in the return address register or
2037    stack slot so the epilogue will return to that address.  */
2038
2039 rtx
2040 expand_builtin_frob_return_addr (addr_tree)
2041      tree addr_tree;
2042 {
2043   rtx addr = expand_expr (addr_tree, NULL_RTX, Pmode, 0);
2044 #ifdef RETURN_ADDR_OFFSET
2045   addr = plus_constant (addr, -RETURN_ADDR_OFFSET);
2046 #endif
2047   return addr;
2048 }
2049
2050 /* Given an actual address in addr_tree, set the return address register up
2051    so the epilogue will return to that address.  If the return address is
2052    not in a register, do nothing.  */
2053
2054 void
2055 expand_builtin_set_return_addr_reg (addr_tree)
2056      tree addr_tree;
2057 {
2058   rtx tmp;
2059   rtx ra = expand_builtin_return_addr (BUILT_IN_RETURN_ADDRESS,
2060                                        0, hard_frame_pointer_rtx);
2061
2062   if (GET_CODE (ra) != REG || REGNO (ra) >= FIRST_PSEUDO_REGISTER)
2063     return;
2064
2065   tmp = force_operand (expand_builtin_frob_return_addr (addr_tree), ra);
2066   if (tmp != ra)
2067     emit_move_insn (ra, tmp);
2068 }
2069
2070 /* Choose two registers for communication between the main body of
2071    __throw and the stub for adjusting the stack pointer.  The first register
2072    is used to pass the address of the exception handler; the second register
2073    is used to pass the stack pointer offset.
2074
2075    For register 1 we use the return value register for a void *.
2076    For register 2 we use the static chain register if it exists and is
2077      different from register 1, otherwise some arbitrary call-clobbered
2078      register.  */
2079
2080 static void
2081 eh_regs (r1, r2, outgoing)
2082      rtx *r1, *r2;
2083      int outgoing;
2084 {
2085   rtx reg1, reg2;
2086
2087 #ifdef FUNCTION_OUTGOING_VALUE
2088   if (outgoing)
2089     reg1 = FUNCTION_OUTGOING_VALUE (build_pointer_type (void_type_node),
2090                                     current_function_decl);
2091   else
2092 #endif
2093     reg1 = FUNCTION_VALUE (build_pointer_type (void_type_node),
2094                            current_function_decl);
2095
2096 #ifdef STATIC_CHAIN_REGNUM
2097   if (outgoing)
2098     reg2 = static_chain_incoming_rtx;
2099   else
2100     reg2 = static_chain_rtx;
2101   if (REGNO (reg2) == REGNO (reg1))
2102 #endif /* STATIC_CHAIN_REGNUM */
2103     reg2 = NULL_RTX;
2104
2105   if (reg2 == NULL_RTX)
2106     {
2107       int i;
2108       for (i = 0; i < FIRST_PSEUDO_REGISTER; ++i)
2109         if (call_used_regs[i] && ! fixed_regs[i] && i != REGNO (reg1))
2110           {
2111             reg2 = gen_rtx_REG (Pmode, i);
2112             break;
2113           }
2114
2115       if (reg2 == NULL_RTX)
2116         abort ();
2117     }
2118
2119   *r1 = reg1;
2120   *r2 = reg2;
2121 }
2122
2123 /* Emit inside of __throw a stub which adjusts the stack pointer and jumps
2124    to the exception handler.  __throw will set up the necessary values
2125    and then return to the stub.  */
2126
2127 rtx
2128 expand_builtin_eh_stub ()
2129 {
2130   rtx stub_start = gen_label_rtx ();
2131   rtx after_stub = gen_label_rtx ();
2132   rtx handler, offset;
2133
2134   emit_jump (after_stub);
2135   emit_label (stub_start);
2136
2137   eh_regs (&handler, &offset, 0);
2138
2139   adjust_stack (offset);
2140   emit_indirect_jump (handler);
2141
2142   emit_label (after_stub);
2143   return gen_rtx_LABEL_REF (Pmode, stub_start);
2144 }
2145
2146 /* Set up the registers for passing the handler address and stack offset
2147    to the stub above.  */
2148
2149 void
2150 expand_builtin_set_eh_regs (handler, offset)
2151      tree handler, offset;
2152 {
2153   rtx reg1, reg2;
2154
2155   eh_regs (&reg1, &reg2, 1);
2156
2157   store_expr (offset,  reg2, 0);
2158   store_expr (handler, reg1, 0);
2159
2160   /* These will be used by the stub.  */
2161   emit_insn (gen_rtx_USE (VOIDmode, reg1));
2162   emit_insn (gen_rtx_USE (VOIDmode, reg2));
2163 }
2164
2165 \f
2166
2167 /* This contains the code required to verify whether arbitrary instructions
2168    are in the same exception region. */
2169
2170 static int *insn_eh_region = (int *)0;
2171 static int maximum_uid;
2172
2173 static void set_insn_eh_region (first, region_num)
2174      rtx *first;
2175      int region_num;
2176 {
2177   rtx insn;
2178   int rnum;
2179
2180   for (insn = *first; insn; insn = NEXT_INSN (insn))
2181     {
2182       if ((GET_CODE (insn) == NOTE) && 
2183                         (NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_BEG))
2184         {
2185           rnum = NOTE_BLOCK_NUMBER (insn);
2186           insn_eh_region[INSN_UID (insn)] =  rnum;
2187           insn = NEXT_INSN (insn);
2188           set_insn_eh_region (&insn, rnum);
2189           /* Upon return, insn points to the EH_REGION_END of nested region */
2190           continue;
2191         }
2192       insn_eh_region[INSN_UID (insn)] = region_num;
2193       if ((GET_CODE (insn) == NOTE) && 
2194             (NOTE_LINE_NUMBER (insn) == NOTE_INSN_EH_REGION_END))
2195         break;
2196     }
2197   *first = insn;
2198 }
2199
2200 /* Free the insn table, an make sure it cannot be used again. */
2201
2202 void free_insn_eh_region () 
2203 {
2204   if (!doing_eh (0))
2205     return;
2206
2207   if (insn_eh_region)
2208     {
2209       free (insn_eh_region);
2210       insn_eh_region = (int *)0;
2211     }
2212 }
2213
2214 /* Initialize the table. max_uid must be calculated and handed into 
2215    this routine. If it is unavailable, passing a value of 0 will 
2216    cause this routine to calculate it as well. */
2217
2218 void init_insn_eh_region (first, max_uid)
2219      rtx first;
2220      int max_uid;
2221 {
2222   rtx insn;
2223
2224   if (!doing_eh (0))
2225     return;
2226
2227   if (insn_eh_region)
2228     free_insn_eh_region();
2229
2230   if (max_uid == 0) 
2231     for (insn = first; insn; insn = NEXT_INSN (insn))
2232       if (INSN_UID (insn) > max_uid)       /* find largest UID */
2233         max_uid = INSN_UID (insn);
2234
2235   maximum_uid = max_uid;
2236   insn_eh_region = (int *) malloc ((max_uid + 1) * sizeof (int));
2237   insn = first;
2238   set_insn_eh_region (&insn, 0);
2239 }
2240
2241
2242 /* Check whether 2 instructions are within the same region. */
2243
2244 int in_same_eh_region(insn1, insn2) 
2245      rtx insn1,insn2;
2246 {
2247   int ret, uid1, uid2;
2248
2249   /* If no exceptions, instructions are always in same region. */
2250   if (!doing_eh (0))
2251     return 1;
2252
2253   /* If the table isn't allocated, assume the worst. */
2254   if (!insn_eh_region)  
2255     return 0;
2256
2257   uid1 = INSN_UID (insn1);
2258   uid2 = INSN_UID (insn2);
2259
2260   /* if instructions have been allocated beyond the end, either
2261      the table is out of date, or this is a late addition, or
2262      something... Assume the worst. */
2263   if (uid1 > maximum_uid || uid2 > maximum_uid)
2264     return 0;
2265
2266   ret = (insn_eh_region[uid1] == insn_eh_region[uid2]);
2267   return ret;
2268 }
2269