OSDN Git Service

PR libfortran/26985
[pf3gnuchains/gcc-fork.git] / libgfortran / generated / matmul_c8.c
index bc51e4a..f491ea0 100644 (file)
@@ -1,23 +1,32 @@
 /* Implementation of the MATMUL intrinsic
-   Copyright 2002 Free Software Foundation, Inc.
+   Copyright 2002, 2005 Free Software Foundation, Inc.
    Contributed by Paul Brook <paul@nowt.org>
 
 This file is part of the GNU Fortran 95 runtime library (libgfortran).
 
 Libgfortran is free software; you can redistribute it and/or
-modify it under the terms of the GNU Lesser General Public
+modify it under the terms of the GNU General Public
 License as published by the Free Software Foundation; either
-version 2.1 of the License, or (at your option) any later version.
+version 2 of the License, or (at your option) any later version.
+
+In addition to the permissions in the GNU General Public License, the
+Free Software Foundation gives you unlimited permission to link the
+compiled version of this file into combinations with other programs,
+and to distribute those combinations without any restriction coming
+from the use of this file.  (The General Public License restrictions
+do apply in other respects; for example, they cover modification of
+the file, and distribution when not linked into a combine
+executable.)
 
 Libgfortran is distributed in the hope that it will be useful,
 but WITHOUT ANY WARRANTY; without even the implied warranty of
 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
-GNU Lesser General Public License for more details.
+GNU General Public License for more details.
 
-You should have received a copy of the GNU Lesser General Public
-License along with libgfor; see the file COPYING.LIB.  If not,
-write to the Free Software Foundation, Inc., 59 Temple Place - Suite 330,
-Boston, MA 02111-1307, USA.  */
+You should have received a copy of the GNU General Public
+License along with libgfortran; see the file COPYING.  If not,
+write to the Free Software Foundation, Inc., 51 Franklin Street, Fifth Floor,
+Boston, MA 02110-1301, USA.  */
 
 #include "config.h"
 #include <stdlib.h>
@@ -25,24 +34,44 @@ Boston, MA 02111-1307, USA.  */
 #include <assert.h>
 #include "libgfortran.h"
 
-/* This is a C version of the following fortran pseudo-code. The key
-   point is the loop order -- we access all arrays column-first, which
-   improves the performance enough to boost galgel spec score by 50%.
+#if defined (HAVE_GFC_COMPLEX_8)
+
+/* The order of loops is different in the case of plain matrix
+   multiplication C=MATMUL(A,B), and in the frequent special case where
+   the argument A is the temporary result of a TRANSPOSE intrinsic:
+   C=MATMUL(TRANSPOSE(A),B).  Transposed temporaries are detected by
+   looking at their strides.
+
+   The equivalent Fortran pseudo-code is:
 
    DIMENSION A(M,COUNT), B(COUNT,N), C(M,N)
-   C = 0
-   DO J=1,N
-     DO K=1,COUNT
+   IF (.NOT.IS_TRANSPOSED(A)) THEN
+     C = 0
+     DO J=1,N
+       DO K=1,COUNT
+         DO I=1,M
+           C(I,J) = C(I,J)+A(I,K)*B(K,J)
+   ELSE
+     DO J=1,N
        DO I=1,M
-         C(I,J) = C(I,J)+A(I,K)*B(K,J)
+         S = 0
+         DO K=1,COUNT
+           S = S+A(I,K)+B(K,J)
+         C(I,J) = S
+   ENDIF
 */
 
+extern void matmul_c8 (gfc_array_c8 * const restrict retarray, 
+       gfc_array_c8 * const restrict a, gfc_array_c8 * const restrict b);
+export_proto(matmul_c8);
+
 void
-__matmul_c8 (gfc_array_c8 * retarray, gfc_array_c8 * a, gfc_array_c8 * b)
+matmul_c8 (gfc_array_c8 * const restrict retarray, 
+       gfc_array_c8 * const restrict a, gfc_array_c8 * const restrict b)
 {
-  GFC_COMPLEX_8 *abase;
-  GFC_COMPLEX_8 *bbase;
-  GFC_COMPLEX_8 *dest;
+  const GFC_COMPLEX_8 * restrict abase;
+  const GFC_COMPLEX_8 * restrict bbase;
+  GFC_COMPLEX_8 * restrict dest;
 
   index_type rxstride, rystride, axstride, aystride, bxstride, bystride;
   index_type x, y, n, count, xcount, ycount;
@@ -80,22 +109,21 @@ __matmul_c8 (gfc_array_c8 * retarray, gfc_array_c8 * a, gfc_array_c8 * b)
           retarray->dim[0].lbound = 0;
           retarray->dim[0].ubound = a->dim[0].ubound - a->dim[0].lbound;
           retarray->dim[0].stride = 1;
-          
+
           retarray->dim[1].lbound = 0;
           retarray->dim[1].ubound = b->dim[1].ubound - b->dim[1].lbound;
           retarray->dim[1].stride = retarray->dim[0].ubound+1;
         }
-          
-      retarray->data = internal_malloc (sizeof (GFC_COMPLEX_8) * size0 (retarray));
-      retarray->base = 0;
-    }
 
-  abase = a->data;
-  bbase = b->data;
-  dest = retarray->data;
+      retarray->data
+       = internal_malloc_size (sizeof (GFC_COMPLEX_8) * size0 ((array_t *) retarray));
+      retarray->offset = 0;
+    }
 
   if (retarray->dim[0].stride == 0)
     retarray->dim[0].stride = 1;
+
+  /* This prevents constifying the input arguments.  */
   if (a->dim[0].stride == 0)
     a->dim[0].stride = 1;
   if (b->dim[0].stride == 0)
@@ -144,7 +172,7 @@ __matmul_c8 (gfc_array_c8 * retarray, gfc_array_c8 * a, gfc_array_c8 * b)
       /* bystride should never be used for 1-dimensional b.
         in case it is we want it to cause a segfault, rather than
         an incorrect result. */
-      bystride = 0xDEADBEEF; 
+      bystride = 0xDEADBEEF;
       ycount = 1;
     }
   else
@@ -154,22 +182,25 @@ __matmul_c8 (gfc_array_c8 * retarray, gfc_array_c8 * a, gfc_array_c8 * b)
       ycount = b->dim[1].ubound + 1 - b->dim[1].lbound;
     }
 
-  assert (a->base == 0);
-  assert (b->base == 0);
-  assert (retarray->base == 0);
-
   abase = a->data;
   bbase = b->data;
   dest = retarray->data;
 
   if (rxstride == 1 && axstride == 1 && bxstride == 1)
     {
-      GFC_COMPLEX_8 *bbase_y;
-      GFC_COMPLEX_8 *dest_y;
-      GFC_COMPLEX_8 *abase_n;
+      const GFC_COMPLEX_8 * restrict bbase_y;
+      GFC_COMPLEX_8 * restrict dest_y;
+      const GFC_COMPLEX_8 * restrict abase_n;
       GFC_COMPLEX_8 bbase_yn;
 
-      memset (dest, 0, (sizeof (GFC_COMPLEX_8) * size0(retarray)));
+      if (rystride == xcount)
+       memset (dest, 0, (sizeof (GFC_COMPLEX_8) * xcount * ycount));
+      else
+       {
+         for (y = 0; y < ycount; y++)
+           for (x = 0; x < xcount; x++)
+             dest[x + y*rystride] = (GFC_COMPLEX_8)0;
+       }
 
       for (y = 0; y < ycount; y++)
        {
@@ -186,7 +217,28 @@ __matmul_c8 (gfc_array_c8 * retarray, gfc_array_c8 * a, gfc_array_c8 * b)
            }
        }
     }
-  else
+  else if (rxstride == 1 && aystride == 1 && bxstride == 1)
+    {
+      const GFC_COMPLEX_8 *restrict abase_x;
+      const GFC_COMPLEX_8 *restrict bbase_y;
+      GFC_COMPLEX_8 *restrict dest_y;
+      GFC_COMPLEX_8 s;
+
+      for (y = 0; y < ycount; y++)
+       {
+         bbase_y = &bbase[y*bystride];
+         dest_y = &dest[y*rystride];
+         for (x = 0; x < xcount; x++)
+           {
+             abase_x = &abase[x*axstride];
+             s = (GFC_COMPLEX_8) 0;
+             for (n = 0; n < count; n++)
+               s += abase_x[n] * bbase_y[n];
+             dest_y[x] = s;
+           }
+       }
+    }
+  else if (axstride < aystride)
     {
       for (y = 0; y < ycount; y++)
        for (x = 0; x < xcount; x++)
@@ -198,5 +250,27 @@ __matmul_c8 (gfc_array_c8 * retarray, gfc_array_c8 * a, gfc_array_c8 * b)
            /* dest[x,y] += a[x,n] * b[n,y] */
            dest[x*rxstride + y*rystride] += abase[x*axstride + n*aystride] * bbase[n*bxstride + y*bystride];
     }
+  else
+    {
+      const GFC_COMPLEX_8 *restrict abase_x;
+      const GFC_COMPLEX_8 *restrict bbase_y;
+      GFC_COMPLEX_8 *restrict dest_y;
+      GFC_COMPLEX_8 s;
+
+      for (y = 0; y < ycount; y++)
+       {
+         bbase_y = &bbase[y*bystride];
+         dest_y = &dest[y*rystride];
+         for (x = 0; x < xcount; x++)
+           {
+             abase_x = &abase[x*axstride];
+             s = (GFC_COMPLEX_8) 0;
+             for (n = 0; n < count; n++)
+               s += abase_x[n*aystride] * bbase_y[n*bxstride];
+             dest_y[x*rxstride] = s;
+           }
+       }
+    }
 }
 
+#endif