]> Cypherpunks repositories - gostls13.git/commitdiff
runtime: track how much memory is mapped in the Ready state
authorMichael Anthony Knyszek <mknyszek@google.com>
Tue, 15 Mar 2022 02:48:18 +0000 (02:48 +0000)
committerMichael Knyszek <mknyszek@google.com>
Tue, 3 May 2022 15:12:21 +0000 (15:12 +0000)
This change adds a field to memstats called mappedReady that tracks how
much memory is in the Ready state at any given time. In essence, it's
the total memory usage by the Go runtime (with one exception which is
documented). Essentially, all memory mapped read/write that has either
been paged in or will soon.

To make tracking this not involve the many different stats that track
mapped memory, we track this statistic at a very low level. The downside
of tracking this statistic at such a low level is that it managed to
catch lots of situations where the runtime wasn't fully accounting for
memory. This change rectifies these situations by always accounting for
memory that's mapped in some way (i.e. always passing a sysMemStat to a
mem.go function), with *two* exceptions.

Rectifying these situations means also having the memory mapped during
testing being accounted for, so that tests (i.e. ReadMemStats) that
ultimately check mappedReady continue to work correctly without special
exceptions. We choose to simply account for this memory in other_sys.

Let's talk about the exceptions. The first is the arenas array for
finding heap arena metadata from an address is mapped as read/write in
one large chunk. It's tens of MiB in size. On systems with demand
paging, we assume that the whole thing isn't paged in at once (after
all, it maps to the whole address space, and it's exceedingly difficult
with today's technology to even broach having as much physical memory as
the total address space). On systems where we have to commit memory
manually, we use a two-level structure.

Now, the reason why this is an exception is because we have no mechanism
to track what memory is paged in, and we can't just account for the
entire thing, because that would *look* like an enormous overhead.
Furthermore, this structure is on a few really, really critical paths in
the runtime, so doing more explicit tracking isn't really an option. So,
we explicitly don't and call sysAllocOS to map this memory.

The second exception is that we call sysFree with no accounting to clean
up address space reservations, or otherwise to throw out mappings we
don't care about. In this case, also drop down to a lower level and call
sysFreeOS to explicitly avoid accounting.

The third exception is debuglog allocations. That is purely a debugging
facility and ideally we want it to have as small an impact on the
runtime as possible. If we include it in mappedReady calculations, it
could cause GC pacing shifts in future CLs, especailly if one increases
the debuglog buffer sizes as a one-off.

As of this CL, these are the only three places in the runtime that would
pass nil for a stat to any of the functions in mem.go. As a result, this
CL makes sysMemStats mandatory to facilitate better accounting in the
future. It's now much easier to grep and find out where accounting is
explicitly elided, because one doesn't have to follow the trail of
sysMemStat nil pointer values, and can just look at the function name.

For #48409.

Change-Id: I274eb467fc2603881717482214fddc47c9eaf218
Reviewed-on: https://go-review.googlesource.com/c/go/+/393402
Reviewed-by: Michael Pratt <mpratt@google.com>
TryBot-Result: Gopher Robot <gobot@golang.org>
Run-TryBot: Michael Knyszek <mknyszek@google.com>

src/runtime/debuglog.go
src/runtime/export_test.go
src/runtime/malloc.go
src/runtime/mem.go
src/runtime/mheap.go
src/runtime/mpagealloc.go
src/runtime/mpagealloc_32bit.go
src/runtime/mpagealloc_64bit.go
src/runtime/mstats.go

index 75b91c4216d4cc401599e234435bc1e3f22f84d3..7f92a6baf8650b68e6f229dcd4a967d6ef41c326 100644 (file)
@@ -72,7 +72,9 @@ func dlog() *dlogger {
 
        // If that failed, allocate a new logger.
        if l == nil {
-               l = (*dlogger)(sysAlloc(unsafe.Sizeof(dlogger{}), nil))
+               // Use sysAllocOS instead of sysAlloc because we want to interfere
+               // with the runtime as little as possible, and sysAlloc updates accounting.
+               l = (*dlogger)(sysAllocOS(unsafe.Sizeof(dlogger{})))
                if l == nil {
                        throw("failed to allocate debug log")
                }
@@ -714,7 +716,9 @@ func printDebugLog() {
                lost     uint64
                nextTick uint64
        }
-       state1 := sysAlloc(unsafe.Sizeof(readState{})*uintptr(n), nil)
+       // Use sysAllocOS instead of sysAlloc because we want to interfere
+       // with the runtime as little as possible, and sysAlloc updates accounting.
+       state1 := sysAllocOS(unsafe.Sizeof(readState{}) * uintptr(n))
        if state1 == nil {
                println("failed to allocate read state for", n, "logs")
                printunlock()
index 2925c1b0a632e47be3f3b3a0975915c3298bad72..4025ac37433bb16c8fb1cdf8a3e804dd508ff579 100644 (file)
@@ -859,6 +859,12 @@ func (a AddrRange) Size() uintptr {
        return a.addrRange.size()
 }
 
+// testSysStat is the sysStat passed to test versions of various
+// runtime structures. We do actually have to keep track of this
+// because otherwise memstats.mappedReady won't actually line up
+// with other stats in the runtime during tests.
+var testSysStat = &memstats.other_sys
+
 // AddrRanges is a wrapper around addrRanges for testing.
 type AddrRanges struct {
        addrRanges
@@ -876,7 +882,7 @@ type AddrRanges struct {
 // Add.
 func NewAddrRanges() AddrRanges {
        r := addrRanges{}
-       r.init(new(sysMemStat))
+       r.init(testSysStat)
        return AddrRanges{r, true}
 }
 
@@ -900,7 +906,7 @@ func MakeAddrRanges(a ...AddrRange) AddrRanges {
        return AddrRanges{addrRanges{
                ranges:     ranges,
                totalBytes: total,
-               sysStat:    new(sysMemStat),
+               sysStat:    testSysStat,
        }, false}
 }
 
@@ -959,7 +965,7 @@ func NewPageAlloc(chunks, scav map[ChunkIdx][]BitRange) *PageAlloc {
        p := new(pageAlloc)
 
        // We've got an entry, so initialize the pageAlloc.
-       p.init(new(mutex), nil)
+       p.init(new(mutex), testSysStat)
        lockInit(p.mheapLock, lockRankMheap)
        p.test = true
 
@@ -1027,22 +1033,28 @@ func FreePageAlloc(pp *PageAlloc) {
        // Free all the mapped space for the summary levels.
        if pageAlloc64Bit != 0 {
                for l := 0; l < summaryLevels; l++ {
-                       sysFree(unsafe.Pointer(&p.summary[l][0]), uintptr(cap(p.summary[l]))*pallocSumBytes, nil)
+                       sysFreeOS(unsafe.Pointer(&p.summary[l][0]), uintptr(cap(p.summary[l]))*pallocSumBytes)
                }
        } else {
                resSize := uintptr(0)
                for _, s := range p.summary {
                        resSize += uintptr(cap(s)) * pallocSumBytes
                }
-               sysFree(unsafe.Pointer(&p.summary[0][0]), alignUp(resSize, physPageSize), nil)
+               sysFreeOS(unsafe.Pointer(&p.summary[0][0]), alignUp(resSize, physPageSize))
        }
+       // Subtract back out whatever we mapped for the summaries.
+       // sysUsed adds to p.sysStat and memstats.mappedReady no matter what
+       // (and in anger should actually be accounted for), and there's no other
+       // way to figure out how much we actually mapped.
+       memstats.mappedReady.Add(-int64(p.summaryMappedReady))
+       testSysStat.add(-int64(p.summaryMappedReady))
 
        // Free the mapped space for chunks.
        for i := range p.chunks {
                if x := p.chunks[i]; x != nil {
                        p.chunks[i] = nil
                        // This memory comes from sysAlloc and will always be page-aligned.
-                       sysFree(unsafe.Pointer(x), unsafe.Sizeof(*p.chunks[0]), nil)
+                       sysFree(unsafe.Pointer(x), unsafe.Sizeof(*p.chunks[0]), testSysStat)
                }
        }
 }
index c182197782159b0bfea11534bd2d062d00f2a3f8..ae41da876461bda77dede4ce8d0e91c3cbfcdbc1 100644 (file)
@@ -603,7 +603,7 @@ func (h *mheap) sysAlloc(n uintptr) (v unsafe.Pointer, size uintptr) {
                // particular, this is already how Windows behaves, so
                // it would simplify things there.
                if v != nil {
-                       sysFree(v, n, nil)
+                       sysFreeOS(v, n)
                }
                h.arenaHints = hint.next
                h.arenaHintAlloc.free(unsafe.Pointer(hint))
@@ -664,7 +664,14 @@ mapped:
                l2 := h.arenas[ri.l1()]
                if l2 == nil {
                        // Allocate an L2 arena map.
-                       l2 = (*[1 << arenaL2Bits]*heapArena)(persistentalloc(unsafe.Sizeof(*l2), goarch.PtrSize, nil))
+                       //
+                       // Use sysAllocOS instead of sysAlloc or persistentalloc because there's no
+                       // statistic we can comfortably account for this space in. With this structure,
+                       // we rely on demand paging to avoid large overheads, but tracking which memory
+                       // is paged in is too expensive. Trying to account for the whole region means
+                       // that it will appear like an enormous memory overhead in statistics, even though
+                       // it is not.
+                       l2 = (*[1 << arenaL2Bits]*heapArena)(sysAllocOS(unsafe.Sizeof(*l2)))
                        if l2 == nil {
                                throw("out of memory allocating heap arena map")
                        }
@@ -741,12 +748,12 @@ retry:
                // reservation, so we release the whole thing and
                // re-reserve the aligned sub-region. This may race,
                // so we may have to try again.
-               sysFree(unsafe.Pointer(p), size+align, nil)
+               sysFreeOS(unsafe.Pointer(p), size+align)
                p = alignUp(p, align)
                p2 := sysReserve(unsafe.Pointer(p), size)
                if p != uintptr(p2) {
                        // Must have raced. Try again.
-                       sysFree(p2, size, nil)
+                       sysFreeOS(p2, size)
                        if retries++; retries == 100 {
                                throw("failed to allocate aligned heap memory; too many retries")
                        }
@@ -757,11 +764,11 @@ retry:
        default:
                // Trim off the unaligned parts.
                pAligned := alignUp(p, align)
-               sysFree(unsafe.Pointer(p), pAligned-p, nil)
+               sysFreeOS(unsafe.Pointer(p), pAligned-p)
                end := pAligned + size
                endLen := (p + size + align) - end
                if endLen > 0 {
-                       sysFree(unsafe.Pointer(end), endLen, nil)
+                       sysFreeOS(unsafe.Pointer(end), endLen)
                }
                return unsafe.Pointer(pAligned), size
        }
@@ -1314,6 +1321,7 @@ var persistentChunks *notInHeap
 // Intended for things like function/type/debug-related persistent data.
 // If align is 0, uses default align (currently 8).
 // The returned memory will be zeroed.
+// sysStat must be non-nil.
 //
 // Consider marking persistentalloc'd types go:notinheap.
 func persistentalloc(size, align uintptr, sysStat *sysMemStat) unsafe.Pointer {
@@ -1444,8 +1452,9 @@ func (l *linearAlloc) alloc(size, align uintptr, sysStat *sysMemStat) unsafe.Poi
        if pEnd := alignUp(l.next-1, physPageSize); pEnd > l.mapped {
                if l.mapMemory {
                        // Transition from Reserved to Prepared to Ready.
-                       sysMap(unsafe.Pointer(l.mapped), pEnd-l.mapped, sysStat)
-                       sysUsed(unsafe.Pointer(l.mapped), pEnd-l.mapped)
+                       n := pEnd - l.mapped
+                       sysMap(unsafe.Pointer(l.mapped), n, sysStat)
+                       sysUsed(unsafe.Pointer(l.mapped), n, n)
                }
                l.mapped = pEnd
        }
index 67af9c057f78527d474fcf641b8ab465c184ab32..f28e5367604f1d32e22b9612e63c1ced7fac4e92 100644 (file)
@@ -40,11 +40,14 @@ import "unsafe"
 // operating system, typically on the order of a hundred kilobytes
 // or a megabyte. This memory is always immediately available for use.
 //
+// sysStat must be non-nil.
+//
 // Don't split the stack as this function may be invoked without a valid G,
 // which prevents us from allocating more stack.
 //go:nosplit
 func sysAlloc(n uintptr, sysStat *sysMemStat) unsafe.Pointer {
        sysStat.add(int64(n))
+       memstats.mappedReady.Add(int64(n))
        return sysAllocOS(n)
 }
 
@@ -54,6 +57,7 @@ func sysAlloc(n uintptr, sysStat *sysMemStat) unsafe.Pointer {
 // sysUnused memory region are considered forfeit and the region must not be
 // accessed again until sysUsed is called.
 func sysUnused(v unsafe.Pointer, n uintptr) {
+       memstats.mappedReady.Add(-int64(n))
        sysUnusedOS(v, n)
 }
 
@@ -62,7 +66,13 @@ func sysUnused(v unsafe.Pointer, n uintptr) {
 // may be safely accessed. This is typically a no-op on systems that don't have
 // an explicit commit step and hard over-commit limits, but is critical on
 // Windows, for example.
-func sysUsed(v unsafe.Pointer, n uintptr) {
+//
+// This operation is idempotent for memory already in the Prepared state, so
+// it is safe to refer, with v and n, to a range of memory that includes both
+// Prepared and Ready memory. However, the caller must provide the exact amout
+// of Prepared memory for accounting purposes.
+func sysUsed(v unsafe.Pointer, n, prepared uintptr) {
+       memstats.mappedReady.Add(int64(prepared))
        sysUsedOS(v, n)
 }
 
@@ -80,18 +90,28 @@ func sysHugePage(v unsafe.Pointer, n uintptr) {
 // returns a memory region aligned to the heap allocator's alignment
 // restrictions.
 //
+// sysStat must be non-nil.
+//
 // Don't split the stack as this function may be invoked without a valid G,
 // which prevents us from allocating more stack.
 //go:nosplit
 func sysFree(v unsafe.Pointer, n uintptr, sysStat *sysMemStat) {
        sysStat.add(-int64(n))
+       memstats.mappedReady.Add(-int64(n))
        sysFreeOS(v, n)
 }
 
-// sysFault transitions a memory region from Ready or Prepared to Reserved. It
+// sysFault transitions a memory region from Ready to Reserved. It
 // marks a region such that it will always fault if accessed. Used only for
 // debugging the runtime.
+//
+// TODO(mknyszek): Currently it's true that all uses of sysFault transition
+// memory from Ready to Reserved, but this may not be true in the future
+// since on every platform the operation is much more general than that.
+// If a transition from Prepared is ever introduced, create a new function
+// that elides the Ready state accounting.
 func sysFault(v unsafe.Pointer, n uintptr) {
+       memstats.mappedReady.Add(-int64(n))
        sysFaultOS(v, n)
 }
 
@@ -113,6 +133,8 @@ func sysReserve(v unsafe.Pointer, n uintptr) unsafe.Pointer {
 
 // sysMap transitions a memory region from Reserved to Prepared. It ensures the
 // memory region can be efficiently transitioned to Ready.
+//
+// sysStat must be non-nil.
 func sysMap(v unsafe.Pointer, n uintptr, sysStat *sysMemStat) {
        sysStat.add(int64(n))
        sysMapOS(v, n)
index 1c98afcfcca0f8fe20fe6c0d02b7eb78dcf60cb9..49d1177005c5be62a98c6b8c3fa91596e9eae237 100644 (file)
@@ -80,7 +80,7 @@ type mheap struct {
        // access (since that may free the backing store).
        allspans []*mspan // all spans out there
 
-       // _ uint32 // align uint64 fields on 32-bit for atomics
+       _ uint32 // align uint64 fields on 32-bit for atomics
 
        // Proportional sweep
        //
@@ -1278,7 +1278,7 @@ HaveSpan:
        if scav != 0 {
                // sysUsed all the pages that are actually available
                // in the span since some of them might be scavenged.
-               sysUsed(unsafe.Pointer(base), nbytes)
+               sysUsed(unsafe.Pointer(base), nbytes, scav)
                atomic.Xadd64(&memstats.heap_released, -int64(scav))
        }
        // Update stats.
index 2725e3b7c7b59b4d7f8d3ab36b823533c82d4454..c4ca2a5d6100d6b552a4c636bc241d1fddd08b47 100644 (file)
@@ -309,6 +309,12 @@ type pageAlloc struct {
        // memory is committed by the pageAlloc for allocation metadata.
        sysStat *sysMemStat
 
+       // summaryMappedReady is the number of bytes mapped in the Ready state
+       // in the summary structure. Used only for testing currently.
+       //
+       // Protected by mheapLock.
+       summaryMappedReady uintptr
+
        // Whether or not this struct is being used in tests.
        test bool
 }
@@ -336,6 +342,9 @@ func (p *pageAlloc) init(mheapLock *mutex, sysStat *sysMemStat) {
        // Set the mheapLock.
        p.mheapLock = mheapLock
 
+       // Initialize p.scav.inUse.
+       p.scav.inUse.init(sysStat)
+
        // Initialize scavenge tracking state.
        p.scav.scavLWM = maxSearchAddr
 }
index 8c83b934123b91f875d43308ebe4f74e89814e79..e072f70cd7631f91d02b6c093f11990e9ab1243f 100644 (file)
@@ -71,7 +71,8 @@ func (p *pageAlloc) sysInit() {
        }
        // There isn't much. Just map it and mark it as used immediately.
        sysMap(reservation, totalSize, p.sysStat)
-       sysUsed(reservation, totalSize)
+       sysUsed(reservation, totalSize, totalSize)
+       p.summaryMappedReady += totalSize
 
        // Iterate over the reservation and cut it up into slices.
        //
index 76b54baa5566d7ce1ea12896d2aa5526c24b47ba..0b99209d994409cd65b50bae07a56cd9c8136394 100644 (file)
@@ -174,6 +174,7 @@ func (p *pageAlloc) sysGrow(base, limit uintptr) {
 
                // Map and commit need.
                sysMap(unsafe.Pointer(need.base.addr()), need.size(), p.sysStat)
-               sysUsed(unsafe.Pointer(need.base.addr()), need.size())
+               sysUsed(unsafe.Pointer(need.base.addr()), need.size(), need.size())
+               p.summaryMappedReady += need.size()
        }
 }
index e066ac002320ae0da0fe8fc9a654d915f1c9c055..0843775553b69e567391a989cdf796c078d51d90 100644 (file)
@@ -20,6 +20,9 @@ import (
 // Many of these fields are updated on the fly, while others are only
 // updated when updatememstats is called.
 type mstats struct {
+       // Total virtual memory in the Ready state (see mem.go).
+       mappedReady atomic.Uint64
+
        // Statistics about malloc heap.
 
        heapStats consistentHeapStats
@@ -451,6 +454,10 @@ func readmemstats_m(stats *MemStats) {
        gcWorkBufInUse := uint64(consStats.inWorkBufs)
        gcProgPtrScalarBitsInUse := uint64(consStats.inPtrScalarBits)
 
+       totalMapped := memstats.heap_sys.load() + memstats.stacks_sys.load() + memstats.mspan_sys.load() +
+               memstats.mcache_sys.load() + memstats.buckhash_sys.load() + memstats.gcMiscSys.load() +
+               memstats.other_sys.load() + stackInUse + gcWorkBufInUse + gcProgPtrScalarBitsInUse
+
        // The world is stopped, so the consistent stats (after aggregation)
        // should be identical to some combination of memstats. In particular:
        //
@@ -492,14 +499,22 @@ func readmemstats_m(stats *MemStats) {
                print("runtime: consistent value=", totalFree, "\n")
                throw("totalFree and consistent stats are not equal")
        }
+       // Also check that mappedReady lines up with totalMapped - released.
+       // This isn't really the same type of "make sure consistent stats line up" situation,
+       // but this is an opportune time to check.
+       if memstats.mappedReady.Load() != totalMapped-uint64(consStats.released) {
+               print("runtime: mappedReady=", memstats.mappedReady.Load(), "\n")
+               print("runtime: totalMapped=", totalMapped, "\n")
+               print("runtime: released=", uint64(consStats.released), "\n")
+               print("runtime: totalMapped-released=", totalMapped-uint64(consStats.released), "\n")
+               throw("mappedReady and other memstats are not equal")
+       }
 
        // We've calculated all the values we need. Now, populate stats.
 
        stats.Alloc = totalAlloc - totalFree
        stats.TotalAlloc = totalAlloc
-       stats.Sys = memstats.heap_sys.load() + memstats.stacks_sys.load() + memstats.mspan_sys.load() +
-               memstats.mcache_sys.load() + memstats.buckhash_sys.load() + memstats.gcMiscSys.load() +
-               memstats.other_sys.load() + stackInUse + gcWorkBufInUse + gcProgPtrScalarBitsInUse
+       stats.Sys = totalMapped
        stats.Mallocs = nMalloc
        stats.Frees = nFree
        stats.HeapAlloc = totalAlloc - totalFree
@@ -649,9 +664,6 @@ func (s *sysMemStat) load() uint64 {
 //
 //go:nosplit
 func (s *sysMemStat) add(n int64) {
-       if s == nil {
-               return
-       }
        val := atomic.Xadd64((*uint64)(s), n)
        if (n > 0 && int64(val) < n) || (n < 0 && int64(val)+n < n) {
                print("runtime: val=", val, " n=", n, "\n")