]> Cypherpunks repositories - gostls13.git/commitdiff
internal/abi, runtime, cmd: merge StackSmall, StackBig consts into internal/abi
authorAustin Clements <austin@google.com>
Wed, 19 Apr 2023 17:21:02 +0000 (13:21 -0400)
committerAustin Clements <austin@google.com>
Thu, 20 Apr 2023 16:05:19 +0000 (16:05 +0000)
For #59670.

Change-Id: I04a17079b351b9b4999ca252825373c17afb8a88
Reviewed-on: https://go-review.googlesource.com/c/go/+/486379
Run-TryBot: Austin Clements <austin@google.com>
TryBot-Result: Gopher Robot <gobot@golang.org>
Reviewed-by: Cherry Mui <cherryyz@google.com>
12 files changed:
src/cmd/internal/obj/arm/obj5.go
src/cmd/internal/obj/arm64/obj7.go
src/cmd/internal/obj/loong64/obj.go
src/cmd/internal/obj/mips/obj0.go
src/cmd/internal/obj/ppc64/obj9.go
src/cmd/internal/obj/riscv/obj.go
src/cmd/internal/obj/s390x/objz.go
src/cmd/internal/obj/wasm/wasmobj.go
src/cmd/internal/obj/x86/obj6.go
src/cmd/internal/objabi/stack.go
src/internal/abi/stack.go [new file with mode: 0644]
src/runtime/stack.go

index 38aa11cde9845e3868787cf96ced56947940e247..3a53628fe11523b01cfd3e36cde84a5f26eb86a2 100644 (file)
@@ -708,7 +708,7 @@ func (c *ctxt5) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
        // unnecessarily. See issue #35470.
        p = c.ctxt.StartUnsafePoint(p, c.newprog)
 
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack: SP < stackguard
                //      CMP     stackguard, SP
                p = obj.Appendp(p, c.newprog)
@@ -717,7 +717,7 @@ func (c *ctxt5) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p.From.Type = obj.TYPE_REG
                p.From.Reg = REG_R1
                p.Reg = REGSP
-       } else if framesize <= objabi.StackBig {
+       } else if framesize <= abi.StackBig {
                // large stack: SP-framesize < stackguard-StackSmall
                //      MOVW $-(framesize-StackSmall)(SP), R2
                //      CMP stackguard, R2
@@ -726,7 +726,7 @@ func (c *ctxt5) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p.As = AMOVW
                p.From.Type = obj.TYPE_ADDR
                p.From.Reg = REGSP
-               p.From.Offset = -(int64(framesize) - objabi.StackSmall)
+               p.From.Offset = -(int64(framesize) - abi.StackSmall)
                p.To.Type = obj.TYPE_REG
                p.To.Reg = REG_R2
 
@@ -753,7 +753,7 @@ func (c *ctxt5) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p.As = ASUB
                p.Scond = C_SBIT
                p.From.Type = obj.TYPE_CONST
-               p.From.Offset = int64(framesize) - objabi.StackSmall
+               p.From.Offset = int64(framesize) - abi.StackSmall
                p.Reg = REGSP
                p.To.Type = obj.TYPE_REG
                p.To.Reg = REG_R2
index 6c2cb63e9b4467ed41eb4e1b4fdd45ed607e03d9..a2599563614c078a784d781b0ce60640089fb3a2 100644 (file)
@@ -169,7 +169,7 @@ func (c *ctxt7) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
        p = c.ctxt.StartUnsafePoint(p, c.newprog)
 
        q := (*obj.Prog)(nil)
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack: SP < stackguard
                //      CMP     stackguard, SP
 
@@ -178,7 +178,7 @@ func (c *ctxt7) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p.From.Type = obj.TYPE_REG
                p.From.Reg = REGRT1
                p.Reg = REGSP
-       } else if framesize <= objabi.StackBig {
+       } else if framesize <= abi.StackBig {
                // large stack: SP-framesize < stackguard-StackSmall
                //      SUB     $(framesize-StackSmall), SP, RT2
                //      CMP     stackguard, RT2
@@ -186,7 +186,7 @@ func (c *ctxt7) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
 
                p.As = ASUB
                p.From.Type = obj.TYPE_CONST
-               p.From.Offset = int64(framesize) - objabi.StackSmall
+               p.From.Offset = int64(framesize) - abi.StackSmall
                p.Reg = REGSP
                p.To.Type = obj.TYPE_REG
                p.To.Reg = REGRT2
@@ -212,7 +212,7 @@ func (c *ctxt7) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p = obj.Appendp(p, c.newprog)
                p.As = ASUBS
                p.From.Type = obj.TYPE_CONST
-               p.From.Offset = int64(framesize) - objabi.StackSmall
+               p.From.Offset = int64(framesize) - abi.StackSmall
                p.Reg = REGSP
                p.To.Type = obj.TYPE_REG
                p.To.Reg = REGRT2
@@ -582,7 +582,7 @@ func preprocess(ctxt *obj.Link, cursym *obj.LSym, newprog obj.ProgAlloc) {
                                }
                        }
 
-                       if p.Mark&LEAF != 0 && c.autosize < objabi.StackSmall {
+                       if p.Mark&LEAF != 0 && c.autosize < abi.StackSmall {
                                // A leaf function with a small stack can be marked
                                // NOSPLIT, avoiding a stack check.
                                p.From.Sym.Set(obj.AttrNoSplit, true)
index 0c1f5c029da94b991ce508cdcb51ed60de4d80dd..8447a8dab396dd53e55dcb069864fdf2c8b8d4d7 100644 (file)
@@ -6,7 +6,6 @@ package loong64
 
 import (
        "cmd/internal/obj"
-       "cmd/internal/objabi"
        "cmd/internal/sys"
        "log"
        "math"
@@ -593,7 +592,7 @@ func (c *ctxt0) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
        p = c.ctxt.StartUnsafePoint(p, c.newprog)
 
        var q *obj.Prog
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack: SP < stackguard
                //      AGTU    SP, stackguard, R19
                p = obj.Appendp(p, c.newprog)
@@ -606,8 +605,8 @@ func (c *ctxt0) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p.To.Reg = REG_R19
        } else {
                // large stack: SP-framesize < stackguard-StackSmall
-               offset := int64(framesize) - objabi.StackSmall
-               if framesize > objabi.StackBig {
+               offset := int64(framesize) - abi.StackSmall
+               if framesize > abi.StackBig {
                        // Such a large stack we need to protect against underflow.
                        // The runtime guarantees SP > objabi.StackBig, but
                        // framesize is large enough that SP-framesize may
index 9241dfd6316d078d1a2c25f8ae3b8ce33d30f64f..469e649c3a77bd279d3b91549b1405d64c88d0c7 100644 (file)
@@ -31,7 +31,6 @@ package mips
 
 import (
        "cmd/internal/obj"
-       "cmd/internal/objabi"
        "cmd/internal/sys"
        "encoding/binary"
        "fmt"
@@ -774,7 +773,7 @@ func (c *ctxt0) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
        p = c.ctxt.StartUnsafePoint(p, c.newprog)
 
        var q *obj.Prog
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack: SP < stackguard
                //      AGTU    SP, stackguard, R1
                p = obj.Appendp(p, c.newprog)
@@ -787,8 +786,8 @@ func (c *ctxt0) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p.To.Reg = REG_R1
        } else {
                // large stack: SP-framesize < stackguard-StackSmall
-               offset := int64(framesize) - objabi.StackSmall
-               if framesize > objabi.StackBig {
+               offset := int64(framesize) - abi.StackSmall
+               if framesize > abi.StackBig {
                        // Such a large stack we need to protect against underflow.
                        // The runtime guarantees SP > objabi.StackBig, but
                        // framesize is large enough that SP-framesize may
index e9d47b2880871998ca05a61947bfe85622af3d4c..1d9d7584d7f46adc7e224e73054dcfb7b6969d72 100644 (file)
@@ -632,7 +632,7 @@ func preprocess(ctxt *obj.Link, cursym *obj.LSym, newprog obj.ProgAlloc) {
                                autosize += int32(c.ctxt.Arch.FixedFrameSize)
                        }
 
-                       if p.Mark&LEAF != 0 && autosize < objabi.StackSmall {
+                       if p.Mark&LEAF != 0 && autosize < abi.StackSmall {
                                // A leaf function with a small stack can be marked
                                // NOSPLIT, avoiding a stack check.
                                p.From.Sym.Set(obj.AttrNoSplit, true)
@@ -1177,7 +1177,7 @@ func (c *ctxt9) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
        p = c.ctxt.StartUnsafePoint(p, c.newprog)
 
        var q *obj.Prog
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack: SP < stackguard
                //      CMP     stackguard, SP
                p = obj.Appendp(p, c.newprog)
@@ -1189,8 +1189,8 @@ func (c *ctxt9) stacksplit(p *obj.Prog, framesize int32) *obj.Prog {
                p.To.Reg = REGSP
        } else {
                // large stack: SP-framesize < stackguard-StackSmall
-               offset := int64(framesize) - objabi.StackSmall
-               if framesize > objabi.StackBig {
+               offset := int64(framesize) - abi.StackSmall
+               if framesize > abi.StackBig {
                        // Such a large stack we need to protect against underflow.
                        // The runtime guarantees SP > objabi.StackBig, but
                        // framesize is large enough that SP-framesize may
index 0d97121e2c0f7efa6eb2d4897430d739d91bd2a8..f81e7cc2db5c65fa0794eebaf8ca8b18688c6092 100644 (file)
@@ -828,7 +828,7 @@ func stacksplit(ctxt *obj.Link, p *obj.Prog, cursym *obj.LSym, newprog obj.ProgA
 
        var to_done, to_more *obj.Prog
 
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack
                //      // if SP > stackguard { goto done }
                //      BLTU    stackguard, SP, done
@@ -841,8 +841,8 @@ func stacksplit(ctxt *obj.Link, p *obj.Prog, cursym *obj.LSym, newprog obj.ProgA
                to_done = p
        } else {
                // large stack: SP-framesize < stackguard-StackSmall
-               offset := int64(framesize) - objabi.StackSmall
-               if framesize > objabi.StackBig {
+               offset := int64(framesize) - abi.StackSmall
+               if framesize > abi.StackBig {
                        // Such a large stack we need to protect against underflow.
                        // The runtime guarantees SP > objabi.StackBig, but
                        // framesize is large enough that SP-framesize may
index 4e8475624df489d4f3c491d58fe33be79cf1b96d..1af5128670a7e04863164c326cff49c53d360396 100644 (file)
@@ -313,7 +313,7 @@ func preprocess(ctxt *obj.Link, cursym *obj.LSym, newprog obj.ProgAlloc) {
                                autosize += int32(c.ctxt.Arch.FixedFrameSize)
                        }
 
-                       if p.Mark&LEAF != 0 && autosize < objabi.StackSmall {
+                       if p.Mark&LEAF != 0 && autosize < abi.StackSmall {
                                // A leaf function with a small stack can be marked
                                // NOSPLIT, avoiding a stack check.
                                p.From.Sym.Set(obj.AttrNoSplit, true)
@@ -662,7 +662,7 @@ func (c *ctxtz) stacksplitPre(p *obj.Prog, framesize int32) (pPre, pPreempt, pCh
        // unnecessarily. See issue #35470.
        p = c.ctxt.StartUnsafePoint(p, c.newprog)
 
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack: SP < stackguard
                //      CMPUBGE stackguard, SP, label-of-call-to-morestack
 
@@ -678,8 +678,8 @@ func (c *ctxtz) stacksplitPre(p *obj.Prog, framesize int32) (pPre, pPreempt, pCh
 
        // large stack: SP-framesize < stackguard-StackSmall
 
-       offset := int64(framesize) - objabi.StackSmall
-       if framesize > objabi.StackBig {
+       offset := int64(framesize) - abi.StackSmall
+       if framesize > abi.StackBig {
                // Such a large stack we need to protect against underflow.
                // The runtime guarantees SP > objabi.StackBig, but
                // framesize is large enough that SP-framesize may
index 6bf49c602d2eee693e77118517bee2bb9dc06e07..83b9329f12ac4350b03422c084af8c4361b450b1 100644 (file)
@@ -11,6 +11,7 @@ import (
        "cmd/internal/sys"
        "encoding/binary"
        "fmt"
+       "internal/abi"
        "io"
        "math"
 )
@@ -472,7 +473,7 @@ func preprocess(ctxt *obj.Link, s *obj.LSym, newprog obj.ProgAlloc) {
        if needMoreStack {
                p := pMorestack
 
-               if framesize <= objabi.StackSmall {
+               if framesize <= abi.StackSmall {
                        // small stack: SP <= stackguard
                        // Get SP
                        // Get g
@@ -500,7 +501,7 @@ func preprocess(ctxt *obj.Link, s *obj.LSym, newprog obj.ProgAlloc) {
                        p = appendp(p, AGet, regAddr(REGG))
                        p = appendp(p, AI32WrapI64)
                        p = appendp(p, AI32Load, constAddr(2*int64(ctxt.Arch.PtrSize))) // G.stackguard0
-                       p = appendp(p, AI32Const, constAddr(framesize-objabi.StackSmall))
+                       p = appendp(p, AI32Const, constAddr(framesize-abi.StackSmall))
                        p = appendp(p, AI32Add)
                        p = appendp(p, AI32LeU)
                }
index 8c9ea4f2a912c84b1519c3f27ca95a8e32bba246..185ac78230e04587b777b935ec4496c815a96f73 100644 (file)
@@ -641,7 +641,7 @@ func preprocess(ctxt *obj.Link, cursym *obj.LSym, newprog obj.ProgAlloc) {
        }
 
        // TODO(rsc): Remove 'ctxt.Arch.Family == sys.AMD64 &&'.
-       if ctxt.Arch.Family == sys.AMD64 && autoffset < objabi.StackSmall && !p.From.Sym.NoSplit() {
+       if ctxt.Arch.Family == sys.AMD64 && autoffset < abi.StackSmall && !p.From.Sym.NoSplit() {
                leaf := true
        LeafSearch:
                for q := p; q != nil; q = q.Link {
@@ -655,7 +655,7 @@ func preprocess(ctxt *obj.Link, cursym *obj.LSym, newprog obj.ProgAlloc) {
                                }
                                fallthrough
                        case obj.ADUFFCOPY, obj.ADUFFZERO:
-                               if autoffset >= objabi.StackSmall-8 {
+                               if autoffset >= abi.StackSmall-8 {
                                        leaf = false
                                        break LeafSearch
                                }
@@ -1087,7 +1087,7 @@ func stacksplit(ctxt *obj.Link, cursym *obj.LSym, p *obj.Prog, newprog obj.ProgA
        p, rg = loadG(ctxt, cursym, p, newprog)
 
        var q1 *obj.Prog
-       if framesize <= objabi.StackSmall {
+       if framesize <= abi.StackSmall {
                // small stack: SP <= stackguard
                //      CMPQ SP, stackguard
                p = obj.Appendp(p, newprog)
@@ -1107,7 +1107,7 @@ func stacksplit(ctxt *obj.Link, cursym *obj.LSym, p *obj.Prog, newprog obj.ProgA
                // cleared, but we'll still call morestack, which will double the stack
                // unnecessarily. See issue #35470.
                p = ctxt.StartUnsafePoint(p, newprog)
-       } else if framesize <= objabi.StackBig {
+       } else if framesize <= abi.StackBig {
                // large stack: SP-framesize <= stackguard-StackSmall
                //      LEAQ -xxx(SP), tmp
                //      CMPQ tmp, stackguard
@@ -1116,7 +1116,7 @@ func stacksplit(ctxt *obj.Link, cursym *obj.LSym, p *obj.Prog, newprog obj.ProgA
                p.As = lea
                p.From.Type = obj.TYPE_MEM
                p.From.Reg = REG_SP
-               p.From.Offset = -(int64(framesize) - objabi.StackSmall)
+               p.From.Offset = -(int64(framesize) - abi.StackSmall)
                p.To.Type = obj.TYPE_REG
                p.To.Reg = tmp
 
@@ -1159,7 +1159,7 @@ func stacksplit(ctxt *obj.Link, cursym *obj.LSym, p *obj.Prog, newprog obj.ProgA
                p = obj.Appendp(p, newprog)
                p.As = sub
                p.From.Type = obj.TYPE_CONST
-               p.From.Offset = int64(framesize) - objabi.StackSmall
+               p.From.Offset = int64(framesize) - abi.StackSmall
                p.To.Type = obj.TYPE_REG
                p.To.Reg = tmp
 
index 88b4990d5e1b177196d608682eba8bd287f3f5ce..5a2f641a751dc2e86b3c9403fcdb0cda16210ecf 100644 (file)
@@ -4,21 +4,22 @@
 
 package objabi
 
-import "internal/buildcfg"
+import (
+       "internal/abi"
+       "internal/buildcfg"
+)
 
 // For the linkers. Must match Go definitions.
 
 const (
        STACKSYSTEM = 0
        StackSystem = STACKSYSTEM
-       StackBig    = 4096
-       StackSmall  = 128
 )
 
 func StackLimit(race bool) int {
        // This arithmetic must match that in runtime/stack.go:{_StackGuard,_StackLimit}.
        stackGuard := 928*stackGuardMultiplier(race) + StackSystem
-       stackLimit := stackGuard - StackSystem - StackSmall
+       stackLimit := stackGuard - StackSystem - abi.StackSmall
        return stackLimit
 }
 
diff --git a/src/internal/abi/stack.go b/src/internal/abi/stack.go
new file mode 100644 (file)
index 0000000..9efd21b
--- /dev/null
@@ -0,0 +1,25 @@
+// Copyright 2023 The Go Authors. All rights reserved.
+// Use of this source code is governed by a BSD-style
+// license that can be found in the LICENSE file.
+
+package abi
+
+const (
+       // We have three different sequences for stack bounds checks, depending on
+       // whether the stack frame of a function is small, big, or huge.
+
+       // After a stack split check the SP is allowed to be StackSmall bytes below
+       // the stack guard.
+       //
+       // Functions that need frames <= StackSmall can perform the stack check
+       // using a single comparison directly between the stack guard and the SP
+       // because we ensure that StackSmall bytes of stack space are available
+       // beyond the stack guard.
+       StackSmall = 128
+
+       // Functions that need frames <= StackBig can assume that neither
+       // SP-framesize nor stackGuard-StackSmall will underflow, and thus use a
+       // more efficient check. In order to ensure this, StackBig must be <= the
+       // size of the unmapped space at zero.
+       StackBig = 4096
+)
index e1e6c7e82a45feb8ae27545d9afdd89f09ac98fe..39dbed5114351ba359a2d1b1f072ef92e15f3af6 100644 (file)
@@ -85,13 +85,6 @@ const (
        _FixedStack6 = _FixedStack5 | (_FixedStack5 >> 16)
        _FixedStack  = _FixedStack6 + 1
 
-       // Functions that need frames bigger than this use an extra
-       // instruction to do the stack split check, to avoid overflow
-       // in case SP - framesize wraps below zero.
-       // This value can be no bigger than the size of the unmapped
-       // space at zero.
-       _StackBig = 4096
-
        // The stack guard is a pointer this many bytes above the
        // bottom of the stack.
        //
@@ -101,15 +94,10 @@ const (
        // This arithmetic must match that in cmd/internal/objabi/stack.go:StackLimit.
        _StackGuard = 928*sys.StackGuardMultiplier + _StackSystem
 
-       // After a stack split check the SP is allowed to be this
-       // many bytes below the stack guard. This saves an instruction
-       // in the checking sequence for tiny frames.
-       _StackSmall = 128
-
        // The maximum number of bytes that a chain of NOSPLIT
        // functions can use.
        // This arithmetic must match that in cmd/internal/objabi/stack.go:StackLimit.
-       _StackLimit = _StackGuard - _StackSystem - _StackSmall
+       _StackLimit = _StackGuard - _StackSystem - abi.StackSmall
 )
 
 const (