OSDN Git Service

2011-05-30 Jonathan Wakely <jwakely.gcc@gmail.com>
[pf3gnuchains/gcc-fork.git] / libstdc++-v3 / include / std / atomic
index de75b43..a19891d 100644 (file)
@@ -1,7 +1,6 @@
 // -*- C++ -*- header.
 
-// Copyright (C) 2008, 2009
-// Free Software Foundation, Inc.
+// Copyright (C) 2008, 2009, 2010, 2011 Free Software Foundation, Inc.
 //
 // This file is part of the GNU ISO C++ Library.  This library is free
 // software; you can redistribute it and/or modify it under the
@@ -23,7 +22,7 @@
 // see the files COPYING3 and COPYING.RUNTIME respectively.  If not, see
 // <http://www.gnu.org/licenses/>.
 
-/** @file atomic
+/** @file include/atomic
  *  This is a Standard C++ Library header.
  */
 
 #pragma GCC system_header
 
 #ifndef __GXX_EXPERIMENTAL_CXX0X__
-# include <c++0x_warning.h>
+# include <bits/c++0x_warning.h>
 #endif
 
 #include <bits/atomic_base.h>
-#include <cstddef>
+#include <bits/atomic_0.h>
+#include <bits/atomic_2.h>
 
-_GLIBCXX_BEGIN_NAMESPACE(std)
+namespace std _GLIBCXX_VISIBILITY(default)
+{
+_GLIBCXX_BEGIN_NAMESPACE_VERSION
 
   /**
    * @addtogroup atomics
    * @{
    */
 
-  /// kill_dependency
-  template<typename _Tp>
-    inline _Tp
-    kill_dependency(_Tp __y)
-    {
-      _Tp ret(__y);
-      return ret;
-    }
-
-  inline memory_order
-  __calculate_memory_order(memory_order __m)
+  /// atomic_bool
+  // NB: No operators or fetch-operations for this type.
+  struct atomic_bool
   {
-    const bool __cond1 = __m == memory_order_release;
-    const bool __cond2 = __m == memory_order_acq_rel;
-    memory_order __mo1(__cond1 ? memory_order_relaxed : __m);
-    memory_order __mo2(__cond2 ? memory_order_acquire : __mo1);
-    return __mo2;
-  }
-
-  //
-  // Three nested namespaces for atomic implementation details.
-  //
-  // The nested namespace inlined into std:: is determined by the value
-  // of the _GLIBCXX_ATOMIC_PROPERTY macro and the resulting
-  // ATOMIC_*_LOCK_FREE macros. See file atomic_base.h.
-  //
-  // 0 == __atomic0 == Never lock-free
-  // 1 == __atomic1 == Best available, sometimes lock-free
-  // 2 == __atomic2 == Always lock-free
-#include <bits/atomic_0.h>
-#include <bits/atomic_2.h>
+  private:
+    __atomic_base<bool>        _M_base;
+
+  public:
+    atomic_bool() = default;
+    ~atomic_bool() = default;
+    atomic_bool(const atomic_bool&) = delete;
+    atomic_bool& operator=(const atomic_bool&) = delete;
+    atomic_bool& operator=(const atomic_bool&) volatile = delete;
+
+    constexpr atomic_bool(bool __i) : _M_base(__i) { }
+
+    bool
+    operator=(bool __i)
+    { return _M_base.operator=(__i); }
+
+    operator bool() const
+    { return _M_base.load(); }
+
+    operator bool() const volatile
+    { return _M_base.load(); }
+
+    bool
+    is_lock_free() const { return _M_base.is_lock_free(); }
+
+    bool
+    is_lock_free() const volatile { return _M_base.is_lock_free(); }
+
+    void
+    store(bool __i, memory_order __m = memory_order_seq_cst)
+    { _M_base.store(__i, __m); }
+
+    void
+    store(bool __i, memory_order __m = memory_order_seq_cst) volatile
+    { _M_base.store(__i, __m); }
+
+    bool
+    load(memory_order __m = memory_order_seq_cst) const
+    { return _M_base.load(__m); }
+
+    bool
+    load(memory_order __m = memory_order_seq_cst) const volatile
+    { return _M_base.load(__m); }
+
+    bool
+    exchange(bool __i, memory_order __m = memory_order_seq_cst)
+    { return _M_base.exchange(__i, __m); }
+
+    bool
+    exchange(bool __i, memory_order __m = memory_order_seq_cst) volatile
+    { return _M_base.exchange(__i, __m); }
+
+    bool
+    compare_exchange_weak(bool& __i1, bool __i2, memory_order __m1,
+                         memory_order __m2)
+    { return _M_base.compare_exchange_weak(__i1, __i2, __m1, __m2); }
+
+    bool
+    compare_exchange_weak(bool& __i1, bool __i2, memory_order __m1,
+                         memory_order __m2) volatile
+    { return _M_base.compare_exchange_weak(__i1, __i2, __m1, __m2); }
+
+    bool
+    compare_exchange_weak(bool& __i1, bool __i2,
+                         memory_order __m = memory_order_seq_cst)
+    { return _M_base.compare_exchange_weak(__i1, __i2, __m); }
+
+    bool
+    compare_exchange_weak(bool& __i1, bool __i2,
+                         memory_order __m = memory_order_seq_cst) volatile
+    { return _M_base.compare_exchange_weak(__i1, __i2, __m); }
+
+    bool
+    compare_exchange_strong(bool& __i1, bool __i2, memory_order __m1,
+                           memory_order __m2)
+    { return _M_base.compare_exchange_strong(__i1, __i2, __m1, __m2); }
+
+    bool
+    compare_exchange_strong(bool& __i1, bool __i2, memory_order __m1,
+                           memory_order __m2) volatile
+    { return _M_base.compare_exchange_strong(__i1, __i2, __m1, __m2); }
+
+    bool
+    compare_exchange_strong(bool& __i1, bool __i2,
+                           memory_order __m = memory_order_seq_cst)
+    { return _M_base.compare_exchange_strong(__i1, __i2, __m); }
+
+    bool
+    compare_exchange_strong(bool& __i1, bool __i2,
+                           memory_order __m = memory_order_seq_cst) volatile
+    { return _M_base.compare_exchange_strong(__i1, __i2, __m); }
+  };
+
 
   /// atomic
   /// 29.4.3, Generic atomic type, primary class template.
@@ -93,38 +161,68 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(_Tp __i) : _M_i(__i) { }
+      constexpr atomic(_Tp __i) : _M_i(__i) { }
 
       operator _Tp() const;
 
+      operator _Tp() const volatile;
+
       _Tp
       operator=(_Tp __i) { store(__i); return __i; }
 
+      _Tp
+      operator=(_Tp __i) volatile { store(__i); return __i; }
+
+      bool
+      is_lock_free() const;
+
       bool
       is_lock_free() const volatile;
 
       void
+      store(_Tp, memory_order = memory_order_seq_cst);
+
+      void
       store(_Tp, memory_order = memory_order_seq_cst) volatile;
 
       _Tp
+      load(memory_order = memory_order_seq_cst) const;
+
+      _Tp
       load(memory_order = memory_order_seq_cst) const volatile;
 
       _Tp
+      exchange(_Tp __i, memory_order = memory_order_seq_cst);
+
+      _Tp
       exchange(_Tp __i, memory_order = memory_order_seq_cst) volatile;
 
       bool
+      compare_exchange_weak(_Tp&, _Tp, memory_order, memory_order);
+
+      bool
       compare_exchange_weak(_Tp&, _Tp, memory_order, memory_order) volatile;
 
       bool
-      compare_exchange_strong(_Tp&, _Tp, memory_order, memory_order) volatile;
+      compare_exchange_weak(_Tp&, _Tp, memory_order = memory_order_seq_cst);
 
       bool
       compare_exchange_weak(_Tp&, _Tp,
                            memory_order = memory_order_seq_cst) volatile;
 
       bool
+      compare_exchange_strong(_Tp&, _Tp, memory_order, memory_order);
+
+      bool
+      compare_exchange_strong(_Tp&, _Tp, memory_order, memory_order) volatile;
+
+      bool
+      compare_exchange_strong(_Tp&, _Tp, memory_order = memory_order_seq_cst);
+
+      bool
       compare_exchange_strong(_Tp&, _Tp,
                              memory_order = memory_order_seq_cst) volatile;
     };
@@ -132,92 +230,188 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
 
   /// Partial specialization for pointer types.
   template<typename _Tp>
-    struct atomic<_Tp*> : atomic_address
+    struct atomic<_Tp*>
     {
+      typedef _Tp*                     __pointer_type;
+      typedef __atomic_base<_Tp*>      __base_type;
+      __base_type                      _M_b;
+
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(_Tp* __v) : atomic_address(__v) { }
+      constexpr atomic(__pointer_type __p) : _M_b(__p) { }
 
-      void
-      store(_Tp*, memory_order = memory_order_seq_cst);
+      operator __pointer_type() const
+      { return __pointer_type(_M_b); }
 
-      _Tp*
-      load(memory_order = memory_order_seq_cst) const;
+      operator __pointer_type() const volatile
+      { return __pointer_type(_M_b); }
 
-      _Tp*
-      exchange(_Tp*, memory_order = memory_order_seq_cst);
+      __pointer_type
+      operator=(__pointer_type __p)
+      { return _M_b.operator=(__p); }
 
-      bool
-      compare_exchange_weak(_Tp*&, _Tp*, memory_order, memory_order);
+      __pointer_type
+      operator=(__pointer_type __p) volatile
+      { return _M_b.operator=(__p); }
 
-      bool
-      compare_exchange_strong(_Tp*&, _Tp*, memory_order, memory_order);
+      __pointer_type
+      operator++(int)
+      { return _M_b++; }
+
+      __pointer_type
+      operator++(int) volatile
+      { return _M_b++; }
+
+      __pointer_type
+      operator--(int)
+      { return _M_b--; }
+
+      __pointer_type
+      operator--(int) volatile
+      { return _M_b--; }
+
+      __pointer_type
+      operator++()
+      { return ++_M_b; }
+
+      __pointer_type
+      operator++() volatile
+      { return ++_M_b; }
+
+      __pointer_type
+      operator--()
+      { return --_M_b; }
+
+      __pointer_type
+      operator--() volatile
+      { return --_M_b; }
+
+      __pointer_type
+      operator+=(ptrdiff_t __d)
+      { return _M_b.operator+=(__d); }
+
+      __pointer_type
+      operator+=(ptrdiff_t __d) volatile
+      { return _M_b.operator+=(__d); }
+
+      __pointer_type
+      operator-=(ptrdiff_t __d)
+      { return _M_b.operator-=(__d); }
+
+      __pointer_type
+      operator-=(ptrdiff_t __d) volatile
+      { return _M_b.operator-=(__d); }
 
       bool
-      compare_exchange_weak(_Tp*&, _Tp*, memory_order = memory_order_seq_cst);
+      is_lock_free() const
+      { return _M_b.is_lock_free(); }
 
       bool
-      compare_exchange_strong(_Tp*&, _Tp*, memory_order = memory_order_seq_cst);
+      is_lock_free() const volatile
+      { return _M_b.is_lock_free(); }
 
-      _Tp*
-      fetch_add(ptrdiff_t, memory_order = memory_order_seq_cst);
+      void
+      store(__pointer_type __p, memory_order __m = memory_order_seq_cst)
+      { return _M_b.store(__p, __m); }
 
-      _Tp*
-      fetch_sub(ptrdiff_t, memory_order = memory_order_seq_cst);
+      void
+      store(__pointer_type __p,
+           memory_order __m = memory_order_seq_cst) volatile
+      { return _M_b.store(__p, __m); }
 
-      operator _Tp*() const
-      { return load(); }
+      __pointer_type
+      load(memory_order __m = memory_order_seq_cst) const
+      { return _M_b.load(__m); }
 
-      _Tp*
-      operator=(_Tp* __v)
-      {
-       store(__v);
-       return __v;
-      }
+      __pointer_type
+      load(memory_order __m = memory_order_seq_cst) const volatile
+      { return _M_b.load(__m); }
 
-      _Tp*
-      operator++(int) { return fetch_add(1); }
+      __pointer_type
+      exchange(__pointer_type __p, memory_order __m = memory_order_seq_cst)
+      { return _M_b.exchange(__p, __m); }
 
-      _Tp*
-      operator--(int) { return fetch_sub(1); }
+      __pointer_type
+      exchange(__pointer_type __p,
+              memory_order __m = memory_order_seq_cst) volatile
+      { return _M_b.exchange(__p, __m); }
 
-      _Tp*
-      operator++() { return fetch_add(1) + 1; }
+      bool
+      compare_exchange_weak(__pointer_type& __p1, __pointer_type __p2,
+                           memory_order __m1, memory_order __m2)
+      { return _M_b.compare_exchange_strong(__p1, __p2, __m1, __m2); }
 
-      _Tp*
-      operator--() { return fetch_sub(1) - 1; }
+      bool
+      compare_exchange_weak(__pointer_type& __p1, __pointer_type __p2,
+                           memory_order __m1, memory_order __m2) volatile
+      { return _M_b.compare_exchange_strong(__p1, __p2, __m1, __m2); }
 
-      _Tp*
-      operator+=(ptrdiff_t __d)
-      { return fetch_add(__d) + __d; }
+      bool
+      compare_exchange_weak(__pointer_type& __p1, __pointer_type __p2,
+                           memory_order __m = memory_order_seq_cst)
+      {
+       return compare_exchange_weak(__p1, __p2, __m,
+                                    __calculate_memory_order(__m));
+      }
 
-      _Tp*
-      operator-=(ptrdiff_t __d)
-      { return fetch_sub(__d) - __d; }
-    };
+      bool
+      compare_exchange_weak(__pointer_type& __p1, __pointer_type __p2,
+                           memory_order __m = memory_order_seq_cst) volatile
+      {
+       return compare_exchange_weak(__p1, __p2, __m,
+                                    __calculate_memory_order(__m));
+      }
 
+      bool
+      compare_exchange_strong(__pointer_type& __p1, __pointer_type __p2,
+                             memory_order __m1, memory_order __m2)
+      { return _M_b.compare_exchange_strong(__p1, __p2, __m1, __m2); }
 
-  /// Explicit specialization for void*
-  template<>
-    struct atomic<void*> : public atomic_address
-    {
-      typedef void*                    __integral_type;
-      typedef atomic_address           __base_type;
+      bool
+      compare_exchange_strong(__pointer_type& __p1, __pointer_type __p2,
+                             memory_order __m1, memory_order __m2) volatile
+      { return _M_b.compare_exchange_strong(__p1, __p2, __m1, __m2); }
 
-      atomic() = default;
-      ~atomic() = default;
-      atomic(const atomic&) = delete;
-      atomic& operator=(const atomic&) volatile = delete;
+      bool
+      compare_exchange_strong(__pointer_type& __p1, __pointer_type __p2,
+                             memory_order __m = memory_order_seq_cst)
+      {
+       return _M_b.compare_exchange_strong(__p1, __p2, __m,
+                                           __calculate_memory_order(__m));
+      }
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      bool
+      compare_exchange_strong(__pointer_type& __p1, __pointer_type __p2,
+                             memory_order __m = memory_order_seq_cst) volatile
+      {
+       return _M_b.compare_exchange_strong(__p1, __p2, __m,
+                                           __calculate_memory_order(__m));
+      }
 
-      using __base_type::operator __integral_type;
-      using __base_type::operator=;
+      __pointer_type
+      fetch_add(ptrdiff_t __d, memory_order __m = memory_order_seq_cst)
+      { return _M_b.fetch_add(__d, __m); }
+
+      __pointer_type
+      fetch_add(ptrdiff_t __d,
+               memory_order __m = memory_order_seq_cst) volatile
+      { return _M_b.fetch_add(__d, __m); }
+
+      __pointer_type
+      fetch_sub(ptrdiff_t __d, memory_order __m = memory_order_seq_cst)
+      { return _M_b.fetch_sub(__d, __m); }
+
+      __pointer_type
+      fetch_sub(ptrdiff_t __d,
+               memory_order __m = memory_order_seq_cst) volatile
+      { return _M_b.fetch_sub(__d, __m); }
     };
 
+
   /// Explicit specialization for bool.
   template<>
     struct atomic<bool> : public atomic_bool
@@ -228,9 +422,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -246,9 +441,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -264,9 +460,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -282,9 +479,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -300,9 +498,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -318,9 +517,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -336,9 +536,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -354,9 +555,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -372,9 +574,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -390,9 +593,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -408,9 +612,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -426,9 +631,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -444,9 +650,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -462,9 +669,10 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
@@ -480,308 +688,168 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
       atomic() = default;
       ~atomic() = default;
       atomic(const atomic&) = delete;
+      atomic& operator=(const atomic&) = delete;
       atomic& operator=(const atomic&) volatile = delete;
 
-      atomic(__integral_type __i) : __base_type(__i) { }
+      constexpr atomic(__integral_type __i) : __base_type(__i) { }
 
       using __base_type::operator __integral_type;
       using __base_type::operator=;
     };
 
 
-  template<typename _Tp>
-    _Tp*
-    atomic<_Tp*>::load(memory_order __m) const
-    { return static_cast<_Tp*>(atomic_address::load(__m)); }
-
-  template<typename _Tp>
-    _Tp*
-    atomic<_Tp*>::exchange(_Tp* __v, memory_order __m)
-    { return static_cast<_Tp*>(atomic_address::exchange(__v, __m)); }
-
-  template<typename _Tp>
-    bool
-    atomic<_Tp*>::compare_exchange_weak(_Tp*& __r, _Tp* __v, memory_order __m1,
-                                       memory_order __m2)
-    {
-      void** __vr = reinterpret_cast<void**>(&__r);
-      void* __vv = static_cast<void*>(__v);
-      return atomic_address::compare_exchange_weak(*__vr, __vv, __m1, __m2);
-    }
-
-  template<typename _Tp>
-    bool
-    atomic<_Tp*>::compare_exchange_strong(_Tp*& __r, _Tp* __v,
-                                         memory_order __m1,
-                                         memory_order __m2)
-    {
-      void** __vr = reinterpret_cast<void**>(&__r);
-      void* __vv = static_cast<void*>(__v);
-      return atomic_address::compare_exchange_strong(*__vr, __vv, __m1, __m2);
-    }
-
-  template<typename _Tp>
-    bool
-    atomic<_Tp*>::compare_exchange_weak(_Tp*& __r, _Tp* __v,
-                                       memory_order __m)
-    {
-      return compare_exchange_weak(__r, __v, __m,
-                                  __calculate_memory_order(__m));
-    }
-
-  template<typename _Tp>
-    bool
-    atomic<_Tp*>::compare_exchange_strong(_Tp*& __r, _Tp* __v,
-                                       memory_order __m)
-    {
-      return compare_exchange_strong(__r, __v, __m,
-                                    __calculate_memory_order(__m));
-    }
-
-  template<typename _Tp>
-    _Tp*
-    atomic<_Tp*>::fetch_add(ptrdiff_t __d, memory_order __m)
-    {
-      void* __p = atomic_fetch_add_explicit(this, sizeof(_Tp) * __d, __m);
-      return static_cast<_Tp*>(__p);
-    }
-
-  template<typename _Tp>
-    _Tp*
-    atomic<_Tp*>::fetch_sub(ptrdiff_t __d, memory_order __m)
-    {
-      void* __p = atomic_fetch_sub_explicit(this, sizeof(_Tp) * __d, __m);
-      return static_cast<_Tp*>(__p);
-    }
-
-  // Convenience function definitions, atomic_flag.
+  // Function definitions, atomic_flag operations.
   inline bool
   atomic_flag_test_and_set_explicit(atomic_flag* __a, memory_order __m)
   { return __a->test_and_set(__m); }
 
-  inline void
-  atomic_flag_clear_explicit(atomic_flag* __a, memory_order __m)
-  { return __a->clear(__m); }
-
-
-  // Convenience function definitions, atomic_address.
   inline bool
-  atomic_is_lock_free(const atomic_address* __a)
-  { return __a->is_lock_free(); }
+  atomic_flag_test_and_set_explicit(volatile atomic_flag* __a,
+                                   memory_order __m)
+  { return __a->test_and_set(__m); }
 
   inline void
-  atomic_store(atomic_address* __a, void* __v)
-  { __a->store(__v); }
+  atomic_flag_clear_explicit(atomic_flag* __a, memory_order __m)
+  { __a->clear(__m); }
 
   inline void
-  atomic_store_explicit(atomic_address* __a, void* __v, memory_order __m)
-  { __a->store(__v, __m); }
-
-  inline void*
-  atomic_load(const atomic_address* __a)
-  { return __a->load(); }
-
-  inline void*
-  atomic_load_explicit(const atomic_address* __a, memory_order __m)
-  { return __a->load(__m); }
-
-  inline void*
-  atomic_exchange(atomic_address* __a, void* __v)
-  { return __a->exchange(__v); }
-
-  inline void*
-  atomic_exchange_explicit(atomic_address* __a, void* __v, memory_order __m)
-  { return __a->exchange(__v, __m); }
-
-  inline bool
-  atomic_compare_exchange_weak(atomic_address* __a, void** __v1, void* __v2)
-  {
-    return __a->compare_exchange_weak(*__v1, __v2, memory_order_seq_cst,
-                                     memory_order_seq_cst);
-  }
-
-  inline bool
-  atomic_compare_exchange_strong(atomic_address* __a,
-                              void** __v1, void* __v2)
-  {
-    return __a->compare_exchange_strong(*__v1, __v2, memory_order_seq_cst,
-                                     memory_order_seq_cst);
-  }
+  atomic_flag_clear_explicit(volatile atomic_flag* __a, memory_order __m)
+  { __a->clear(__m); }
 
   inline bool
-  atomic_compare_exchange_weak_explicit(atomic_address* __a,
-                                       void** __v1, void* __v2,
-                                       memory_order __m1, memory_order __m2)
-  { return __a->compare_exchange_weak(*__v1, __v2, __m1, __m2); }
+  atomic_flag_test_and_set(atomic_flag* __a)
+  { return atomic_flag_test_and_set_explicit(__a, memory_order_seq_cst); }
 
   inline bool
-  atomic_compare_exchange_strong_explicit(atomic_address* __a,
-                                         void** __v1, void* __v2,
-                                         memory_order __m1, memory_order __m2)
-  { return __a->compare_exchange_strong(*__v1, __v2, __m1, __m2); }
-
-  inline void*
-  atomic_fetch_add_explicit(atomic_address* __a, ptrdiff_t __d,
-                           memory_order __m)
-  { return __a->fetch_add(__d, __m); }
-
-  inline void*
-  atomic_fetch_add(atomic_address* __a, ptrdiff_t __d)
-  { return __a->fetch_add(__d); }
-
-  inline void*
-  atomic_fetch_sub_explicit(atomic_address* __a, ptrdiff_t __d,
-                           memory_order __m)
-  { return __a->fetch_sub(__d, __m); }
-
-  inline void*
-  atomic_fetch_sub(atomic_address* __a, ptrdiff_t __d)
-  { return __a->fetch_sub(__d); }
-
-
-  // Convenience function definitions, atomic_bool.
-  inline bool
-  atomic_is_lock_free(const atomic_bool* __a)
-  { return __a->is_lock_free(); }
+  atomic_flag_test_and_set(volatile atomic_flag* __a)
+  { return atomic_flag_test_and_set_explicit(__a, memory_order_seq_cst); }
 
   inline void
-  atomic_store(atomic_bool* __a, bool __i)
-  { __a->store(__i); }
+  atomic_flag_clear(atomic_flag* __a)
+  { atomic_flag_clear_explicit(__a, memory_order_seq_cst); }
 
   inline void
-  atomic_store_explicit(atomic_bool* __a, bool __i, memory_order __m)
-  { __a->store(__i, __m); }
-
-  inline bool
-  atomic_load(const atomic_bool* __a)
-  { return __a->load(); }
-
-  inline bool
-  atomic_load_explicit(const atomic_bool* __a, memory_order __m)
-  { return __a->load(__m); }
-
-  inline bool
-  atomic_exchange(atomic_bool* __a, bool __i)
-  { return __a->exchange(__i); }
-
-  inline bool
-  atomic_exchange_explicit(atomic_bool* __a, bool __i, memory_order __m)
-  { return __a->exchange(__i, __m); }
+  atomic_flag_clear(volatile atomic_flag* __a)
+  { atomic_flag_clear_explicit(__a, memory_order_seq_cst); }
 
-  inline bool
-  atomic_compare_exchange_weak(atomic_bool* __a, bool* __i1, bool __i2)
-  {
-    return __a->compare_exchange_weak(*__i1, __i2, memory_order_seq_cst,
-                                     memory_order_seq_cst);
-  }
 
-  inline bool
-  atomic_compare_exchange_strong(atomic_bool* __a, bool* __i1, bool __i2)
-  {
-    return __a->compare_exchange_strong(*__i1, __i2, memory_order_seq_cst,
-                                       memory_order_seq_cst);
-  }
+  // Function templates generally applicable to atomic types.
+  template<typename _ITp>
+    inline bool
+    atomic_is_lock_free(const atomic<_ITp>* __a)
+    { return __a->is_lock_free(); }
 
-  inline bool
-  atomic_compare_exchange_weak_explicit(atomic_bool* __a, bool* __i1,
-                                       bool __i2, memory_order __m1,
-                                       memory_order __m2)
-  { return __a->compare_exchange_weak(*__i1, __i2, __m1, __m2); }
+  template<typename _ITp>
+    inline bool
+    atomic_is_lock_free(const volatile atomic<_ITp>* __a)
+    { return __a->is_lock_free(); }
 
-  inline bool
-  atomic_compare_exchange_strong_explicit(atomic_bool* __a,
-                                         bool* __i1, bool __i2,
-                                         memory_order __m1, memory_order __m2)
-  { return __a->compare_exchange_strong(*__i1, __i2, __m1, __m2); }
+  template<typename _ITp>
+    inline void
+    atomic_init(atomic<_ITp>* __a, _ITp __i);
 
+  template<typename _ITp>
+    inline void
+    atomic_init(volatile atomic<_ITp>* __a, _ITp __i);
 
+  template<typename _ITp>
+    inline void
+    atomic_store_explicit(atomic<_ITp>* __a, _ITp __i, memory_order __m)
+    { __a->store(__i, __m); }
 
-  // Free standing functions. Template argument should be constricted
-  // to intergral types as specified in the standard.
   template<typename _ITp>
     inline void
-    atomic_store_explicit(__atomic_base<_ITp>* __a, _ITp __i, memory_order __m)
+    atomic_store_explicit(volatile atomic<_ITp>* __a, _ITp __i,
+                         memory_order __m)
     { __a->store(__i, __m); }
 
   template<typename _ITp>
     inline _ITp
-    atomic_load_explicit(const __atomic_base<_ITp>* __a, memory_order __m)
+    atomic_load_explicit(const atomic<_ITp>* __a, memory_order __m)
+    { return __a->load(__m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_load_explicit(const volatile atomic<_ITp>* __a,
+                        memory_order __m)
     { return __a->load(__m); }
 
   template<typename _ITp>
     inline _ITp
-    atomic_exchange_explicit(__atomic_base<_ITp>* __a, _ITp __i,
+    atomic_exchange_explicit(atomic<_ITp>* __a, _ITp __i,
                             memory_order __m)
     { return __a->exchange(__i, __m); }
 
   template<typename _ITp>
+    inline _ITp
+    atomic_exchange_explicit(volatile atomic<_ITp>* __a, _ITp __i,
+                            memory_order __m)
+    { return __a->exchange(__i, __m); }
+
+  template<typename _ITp>
+    inline bool
+    atomic_compare_exchange_weak_explicit(atomic<_ITp>* __a,
+                                         _ITp* __i1, _ITp __i2,
+                                         memory_order __m1, memory_order __m2)
+    { return __a->compare_exchange_weak(*__i1, __i2, __m1, __m2); }
+
+  template<typename _ITp>
     inline bool
-    atomic_compare_exchange_weak_explicit(__atomic_base<_ITp>* __a,
+    atomic_compare_exchange_weak_explicit(volatile atomic<_ITp>* __a,
                                          _ITp* __i1, _ITp __i2,
                                          memory_order __m1, memory_order __m2)
     { return __a->compare_exchange_weak(*__i1, __i2, __m1, __m2); }
 
   template<typename _ITp>
     inline bool
-    atomic_compare_exchange_strong_explicit(__atomic_base<_ITp>* __a,
+    atomic_compare_exchange_strong_explicit(atomic<_ITp>* __a,
                                            _ITp* __i1, _ITp __i2,
                                            memory_order __m1,
                                            memory_order __m2)
     { return __a->compare_exchange_strong(*__i1, __i2, __m1, __m2); }
 
   template<typename _ITp>
-    inline _ITp
-    atomic_fetch_add_explicit(__atomic_base<_ITp>* __a, _ITp __i,
-                             memory_order __m)
-    { return __a->fetch_add(__i, __m); }
+    inline bool
+    atomic_compare_exchange_strong_explicit(volatile atomic<_ITp>* __a,
+                                           _ITp* __i1, _ITp __i2,
+                                           memory_order __m1,
+                                           memory_order __m2)
+    { return __a->compare_exchange_strong(*__i1, __i2, __m1, __m2); }
 
-  template<typename _ITp>
-    inline _ITp
-    atomic_fetch_sub_explicit(__atomic_base<_ITp>* __a, _ITp __i,
-                             memory_order __m)
-    { return __a->fetch_sub(__i, __m); }
 
   template<typename _ITp>
-    inline _ITp
-    atomic_fetch_and_explicit(__atomic_base<_ITp>* __a, _ITp __i,
-                             memory_order __m)
-    { return __a->fetch_and(__i, __m); }
+    inline void
+    atomic_store(atomic<_ITp>* __a, _ITp __i)
+    { atomic_store_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
-    inline _ITp
-    atomic_fetch_or_explicit(__atomic_base<_ITp>* __a, _ITp __i,
-                            memory_order __m)
-    { return __a->fetch_or(__i, __m); }
+    inline void
+    atomic_store(volatile atomic<_ITp>* __a, _ITp __i)
+    { atomic_store_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline _ITp
-    atomic_fetch_xor_explicit(__atomic_base<_ITp>* __a, _ITp __i,
-                             memory_order __m)
-    { return __a->fetch_xor(__i, __m); }
-
-  template<typename _ITp>
-    inline bool
-    atomic_is_lock_free(const __atomic_base<_ITp>* __a)
-    { return __a->is_lock_free(); }
+    atomic_load(const atomic<_ITp>* __a)
+    { return atomic_load_explicit(__a, memory_order_seq_cst); }
 
   template<typename _ITp>
-    inline void
-    atomic_store(__atomic_base<_ITp>* __a, _ITp __i)
-    { atomic_store_explicit(__a, __i, memory_order_seq_cst); }
+    inline _ITp
+    atomic_load(const volatile atomic<_ITp>* __a)
+    { return atomic_load_explicit(__a, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline _ITp
-    atomic_load(const __atomic_base<_ITp>* __a)
-    { return atomic_load_explicit(__a, memory_order_seq_cst); }
+    atomic_exchange(atomic<_ITp>* __a, _ITp __i)
+    { return atomic_exchange_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline _ITp
-    atomic_exchange(__atomic_base<_ITp>* __a, _ITp __i)
+    atomic_exchange(volatile atomic<_ITp>* __a, _ITp __i)
     { return atomic_exchange_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline bool
-    atomic_compare_exchange_weak(__atomic_base<_ITp>* __a,
+    atomic_compare_exchange_weak(atomic<_ITp>* __a,
                                 _ITp* __i1, _ITp __i2)
     {
       return atomic_compare_exchange_weak_explicit(__a, __i1, __i2,
@@ -791,7 +859,17 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
 
   template<typename _ITp>
     inline bool
-    atomic_compare_exchange_strong(__atomic_base<_ITp>* __a,
+    atomic_compare_exchange_weak(volatile atomic<_ITp>* __a,
+                                _ITp* __i1, _ITp __i2)
+    {
+      return atomic_compare_exchange_weak_explicit(__a, __i1, __i2,
+                                                  memory_order_seq_cst,
+                                                  memory_order_seq_cst);
+    }
+
+  template<typename _ITp>
+    inline bool
+    atomic_compare_exchange_strong(atomic<_ITp>* __a,
                                   _ITp* __i1, _ITp __i2)
     {
       return atomic_compare_exchange_strong_explicit(__a, __i1, __i2,
@@ -800,32 +878,177 @@ _GLIBCXX_BEGIN_NAMESPACE(std)
     }
 
   template<typename _ITp>
+    inline bool
+    atomic_compare_exchange_strong(volatile atomic<_ITp>* __a,
+                                  _ITp* __i1, _ITp __i2)
+    {
+      return atomic_compare_exchange_strong_explicit(__a, __i1, __i2,
+                                                    memory_order_seq_cst,
+                                                    memory_order_seq_cst);
+    }
+
+  // Function templates for atomic_integral operations only, using
+  // __atomic_base. Template argument should be constricted to
+  // intergral types as specified in the standard, excluding address
+  // types.
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_add_explicit(__atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_add(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_add_explicit(volatile __atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_add(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_sub_explicit(__atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_sub(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_sub_explicit(volatile __atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_sub(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_and_explicit(__atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_and(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_and_explicit(volatile __atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_and(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_or_explicit(__atomic_base<_ITp>* __a, _ITp __i,
+                            memory_order __m)
+    { return __a->fetch_or(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_or_explicit(volatile __atomic_base<_ITp>* __a, _ITp __i,
+                            memory_order __m)
+    { return __a->fetch_or(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_xor_explicit(__atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_xor(__i, __m); }
+
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_xor_explicit(volatile __atomic_base<_ITp>* __a, _ITp __i,
+                             memory_order __m)
+    { return __a->fetch_xor(__i, __m); }
+
+  template<typename _ITp>
     inline _ITp
     atomic_fetch_add(__atomic_base<_ITp>* __a, _ITp __i)
     { return atomic_fetch_add_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline _ITp
+    atomic_fetch_add(volatile __atomic_base<_ITp>* __a, _ITp __i)
+    { return atomic_fetch_add_explicit(__a, __i, memory_order_seq_cst); }
+
+  template<typename _ITp>
+    inline _ITp
     atomic_fetch_sub(__atomic_base<_ITp>* __a, _ITp __i)
     { return atomic_fetch_sub_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline _ITp
+    atomic_fetch_sub(volatile __atomic_base<_ITp>* __a, _ITp __i)
+    { return atomic_fetch_sub_explicit(__a, __i, memory_order_seq_cst); }
+
+  template<typename _ITp>
+    inline _ITp
     atomic_fetch_and(__atomic_base<_ITp>* __a, _ITp __i)
     { return atomic_fetch_and_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline _ITp
+    atomic_fetch_and(volatile __atomic_base<_ITp>* __a, _ITp __i)
+    { return atomic_fetch_and_explicit(__a, __i, memory_order_seq_cst); }
+
+  template<typename _ITp>
+    inline _ITp
     atomic_fetch_or(__atomic_base<_ITp>* __a, _ITp __i)
     { return atomic_fetch_or_explicit(__a, __i, memory_order_seq_cst); }
 
   template<typename _ITp>
     inline _ITp
+    atomic_fetch_or(volatile __atomic_base<_ITp>* __a, _ITp __i)
+    { return atomic_fetch_or_explicit(__a, __i, memory_order_seq_cst); }
+
+  template<typename _ITp>
+    inline _ITp
     atomic_fetch_xor(__atomic_base<_ITp>* __a, _ITp __i)
     { return atomic_fetch_xor_explicit(__a, __i, memory_order_seq_cst); }
 
+  template<typename _ITp>
+    inline _ITp
+    atomic_fetch_xor(volatile __atomic_base<_ITp>* __a, _ITp __i)
+    { return atomic_fetch_xor_explicit(__a, __i, memory_order_seq_cst); }
+
+
+  // Partial specializations for pointers.
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_add_explicit(atomic<_ITp*>* __a, ptrdiff_t __d,
+                             memory_order __m)
+    { return __a->fetch_add(__d, __m); }
+
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_add_explicit(volatile atomic<_ITp*>* __a, ptrdiff_t __d,
+                             memory_order __m)
+    { return __a->fetch_add(__d, __m); }
+
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_add(volatile atomic<_ITp*>* __a, ptrdiff_t __d)
+    { return __a->fetch_add(__d); }
+
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_add(atomic<_ITp*>* __a, ptrdiff_t __d)
+    { return __a->fetch_add(__d); }
+
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_sub_explicit(volatile atomic<_ITp*>* __a,
+                             ptrdiff_t __d, memory_order __m)
+    { return __a->fetch_sub(__d, __m); }
+
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_sub_explicit(atomic<_ITp*>* __a, ptrdiff_t __d,
+                             memory_order __m)
+    { return __a->fetch_sub(__d, __m); }
+
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_sub(volatile atomic<_ITp*>* __a, ptrdiff_t __d)
+    { return __a->fetch_sub(__d); }
+
+  template<typename _ITp>
+    inline _ITp*
+    atomic_fetch_sub(atomic<_ITp*>* __a, ptrdiff_t __d)
+    { return __a->fetch_sub(__d); }
   // @} group atomics
 
-_GLIBCXX_END_NAMESPACE
+_GLIBCXX_END_NAMESPACE_VERSION
+} // namespace
 
 #endif