OSDN Git Service

* arm/ieee754-df.S (aeabi_ul2d, aeabi_l2d, floatundidf)
authorrearnsha <rearnsha@138bc75d-0d04-0410-961f-82ee72b054a4>
Wed, 1 Sep 2004 11:14:21 +0000 (11:14 +0000)
committerrearnsha <rearnsha@138bc75d-0d04-0410-961f-82ee72b054a4>
Wed, 1 Sep 2004 11:14:21 +0000 (11:14 +0000)
(floatdidf): New functions.
* arm/ieee754-sf.S (aeabi_ul2f, aeabi_l2f, floatundisf)
(floatdisf): New functions.
* t-arm-elf: Use them.

git-svn-id: svn+ssh://gcc.gnu.org/svn/gcc/trunk@86882 138bc75d-0d04-0410-961f-82ee72b054a4

gcc/ChangeLog
gcc/config/arm/ieee754-df.S
gcc/config/arm/ieee754-sf.S
gcc/config/arm/t-arm-elf

index 66740f4..f5c3ca6 100644 (file)
@@ -1,3 +1,11 @@
+2004-09-01  Richard Earnshaw  <rearnsha@arm.com>
+
+       * arm/ieee754-df.S (aeabi_ul2d, aeabi_l2d, floatundidf)
+       (floatdidf): New functions.
+       * arm/ieee754-sf.S (aeabi_ul2f, aeabi_l2f, floatundisf)
+       (floatdisf): New functions.
+       * t-arm-elf: Use them.
+
 2004-09-01  Ziemowit Laski  <zlaski@apple.com>
 
        * c-common.h (lookup_interface): Remove prototype.
index 11b356a..af32b9e 100644 (file)
@@ -449,6 +449,83 @@ ARM_FUNC_ALIAS aeabi_f2d extendsfdf2
        FUNC_END aeabi_f2d
        FUNC_END extendsfdf2
 
+ARM_FUNC_START floatundidf
+ARM_FUNC_ALIAS aeabi_ul2d floatundidf
+       
+       orrs    r2, r0, r1
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       mvfeqd  f0, #0.0
+#endif
+       RETc(eq)
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       @ For hard FPA code we want to return via the tail below so that
+       @ we can return the result in f0 as well as in r0/r1 for backwards
+       @ compatibility.
+       adr     ip, 1f
+       stmfd   sp!, {r4, r5, ip, lr}
+#else
+       stmfd   sp!, {r4, r5, lr}
+#endif
+       mov     r5, #0
+       b       2f
+
+ARM_FUNC_START floatdidf
+ARM_FUNC_ALIAS aeabi_l2d floatdidf
+       orrs    r2, r0, r1
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       mvfeqd  f0, #0.0
+#endif
+       RETc(eq)
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       @ For hard FPA code we want to return via the tail below so that
+       @ we can return the result in f0 as well as in r0/r1 for backwards
+       @ compatibility.
+       adr     ip, 1f
+       stmfd   sp!, {r4, r5, ip, lr}
+#else
+       stmfd   sp!, {r4, r5, lr}
+#endif
+       ands    r5, ah, #0x80000000     @ sign bit in r5
+       bpl     2f
+       rsbs    al, al, #0
+       rsc     ah, ah, #0
+2:
+       mov     r4, #(0x400 << 20)      @ initial exponent
+       add     r4, r4, #((52 - 1) << 20)
+#if !defined (__VFP_FP__) && !defined(__ARMEB__)
+       @ FPA little-endian: must swap the word order.
+       mov     ip, al
+       mov     xh, ah
+       mov     xl, ip
+#endif
+       movs    ip, xh, lsr #23
+       beq     LSYM(Lad_p)
+       @ The value's too big.  Scale it down a bit...
+       mov     r2, #3
+       movs    ip, ip, lsr #3
+       addne   r2, r2, #3
+       movs    ip, ip, lsr #3
+       addne   r2, r2, #3
+       rsb     r3, r2, #32
+       mov     ip, xl, lsl r3
+       mov     xl, xl, lsr r2
+       orr     xl, xl, xh, lsl r3
+       mov     xh, xh, lsr r2
+       add     r4, r4, r2, lsl #20
+       b       LSYM(Lad_p)
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+1:
+       @ Legacy code expects the result to be returned in f0.  Copy it
+       @ there as well.
+       stmfd   sp!, {r0, r1}
+       ldfd    f0, [sp], #8
+       RETLDM
+#endif
+       FUNC_END floatdidf
+       FUNC_END aeabi_l2d
+       FUNC_END floatundidf
+       FUNC_END aeabi_ul2d
+
 #endif /* L_addsubdf3 */
 
 #ifdef L_muldivdf3
index 627fd72..d82fa8c 100644 (file)
@@ -290,6 +290,7 @@ ARM_FUNC_ALIAS aeabi_i2f floatsisf
 1:     teq     r0, #0
        RETc(eq)
 
+3:
        mov     r1, #0
        mov     r2, #((127 + 23) << 23)
        tst     r0, #0xfc000000
@@ -297,7 +298,8 @@ ARM_FUNC_ALIAS aeabi_i2f floatsisf
 
        @ We need to scale the value a little before branching to code above.
        tst     r0, #0xf0000000
-       movne   r1, r0, lsl #28
+4:
+       orrne   r1, r1, r0, lsl #28
        movne   r0, r0, lsr #4
        addne   r2, r2, #(4 << 23)
        tst     r0, #0x0c000000
@@ -313,6 +315,110 @@ ARM_FUNC_ALIAS aeabi_i2f floatsisf
        FUNC_END aeabi_ui2f
        FUNC_END floatunsisf
 
+ARM_FUNC_START floatundisf
+ARM_FUNC_ALIAS aeabi_ul2f floatundisf
+       orrs    r2, r0, r1
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       mvfeqs  f0, #0.0
+#endif
+       RETc(eq)
+       
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       @ For hard FPA code we want to return via the tail below so that
+       @ we can return the result in f0 as well as in r0 for backwards
+       @ compatibility.
+       str     lr, [sp, #-4]!
+       adr     lr, 4f
+#endif
+
+       mov     r3, #0
+       b       2f
+
+ARM_FUNC_START floatdisf
+ARM_FUNC_ALIAS aeabi_l2f floatdisf
+
+       orrs    r2, r0, r1
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       mvfeqs  f0, #0.0
+#endif
+       RETc(eq)
+       
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+       @ For hard FPA code we want to return via the tail below so that
+       @ we can return the result in f0 as well as in r0 for backwards
+       @ compatibility.
+       str     lr, [sp, #-4]!
+       adr     lr, 4f
+#endif
+       ands    r3, ah, #0x80000000     @ sign bit in r3
+       bpl     2f
+       rsbs    al, al, #0
+       rsc     ah, ah, #0
+2:
+       movs    ip, ah
+#ifdef __ARMEB__
+       moveq   r0, al
+#endif
+       beq     3b
+       mov     r2, #((127 + 23 + 32) << 23)    @ initial exponent
+#ifndef __ARMEB__
+       mov     r1, al
+       mov     r0, ip
+#endif
+       tst     r0, #0xfc000000
+       bne     3f
+
+#if __ARM_ARCH__ < 5
+       cmp     r0, #(1 << 13)
+       movlo   ip, #13
+       movlo   r0, r0, lsl #13
+       movhs   ip, #0
+       tst     r0, #0x03fc0000
+       addeq   ip, ip, #8
+       moveq   r0, r0, lsl #8
+       tst     r0, #0x03c00000
+       addeq   ip, ip, #4
+       moveq   r0, r0, lsl #4
+       tst     r0, #0x03000000
+       addeq   ip, ip, #2
+       moveq   r0, r0, lsl #2
+#else
+       clz     ip, r0
+       sub     ip, ip, #6
+       mov     r0, r0, lsl ip
+#endif
+       sub     r2, r2, ip, lsl #23
+       rsb     ip, ip, #32
+       orr     r0, r0, r1, lsr ip
+       rsb     ip, ip, #32
+       mov     r1, r1, asl ip
+       @ At this point we no-longer care about the precise value in r1, only
+       @ whether only the top bit is set, or if the top bit and some others
+       @ are set.
+       and     ip, r1, #0xff
+       orr     r1, r1, ip, lsl #8
+       b       LSYM(Lad_p)
+3:
+       @ We need to scale the value a little before branching to code above.
+       @ At this point we no-longer care about the precise value in r1, only
+       @ whether only the top bit is set, or if the top bit and some others
+       @ are set.
+       and     ip, r1, #0xff
+       orr     r1, r1, ip, lsl #8
+       tst     r0, #0xf0000000
+       movne   r1, r1, lsr #4
+       b       4b
+#if !defined (__VFP_FP__) && !defined(__SOFTFP__)
+4:
+       str     r0, [sp, #-4]!
+       ldfs    f0, [sp], #4
+       RETLDM
+#endif
+       FUNC_END floatdisf
+       FUNC_END aeabi_l2f
+       FUNC_END floatundisf
+       FUNC_END aeabi_ul2f
+
 #endif /* L_addsubsf3 */
 
 #ifdef L_muldivsf3
index ecc24e5..b4e19b0 100644 (file)
@@ -4,7 +4,7 @@ LIB1ASMFUNCS = _udivsi3 _divsi3 _umodsi3 _modsi3 _dvmd_tls _bb_init_func \
        _lshrdi3 _ashrdi3 _ashldi3 \
        _negdf2 _addsubdf3 _muldivdf3 _cmpdf2 _unorddf2 _fixdfsi _fixunsdfsi \
        _truncdfsf2 _negsf2 _addsubsf3 _muldivsf3 _cmpsf2 _unordsf2 \
-       _fixsfsi _fixunssfsi
+       _fixsfsi _fixunssfsi _floatdidf _floatdisf
 
 MULTILIB_OPTIONS     = marm/mthumb
 MULTILIB_DIRNAMES    = arm thumb