]> Cypherpunks repositories - gostls13.git/commitdiff
[dev.simd] cmd/compile, simd: jump table for imm ops
authorJunyang Shao <shaojunyang@google.com>
Fri, 8 Aug 2025 17:31:45 +0000 (17:31 +0000)
committerJunyang Shao <shaojunyang@google.com>
Mon, 11 Aug 2025 17:49:50 +0000 (10:49 -0700)
This CL fixes some errors in prog generation for imm operations, please
see the changes in ssa.go for details.

This CL also implements the jump table for non-const immediate arg. The
current implementation exhaust 0-255, the bound-checked version will be
in the next CL.

This CL is partially generated by CL 694375.

Change-Id: I75fe9900430b4fca5b39b0c0958a13b20b1104b7
Reviewed-on: https://go-review.googlesource.com/c/go/+/694395
Reviewed-by: David Chase <drchase@google.com>
LUCI-TryBot-Result: Go LUCI <golang-scoped@luci-project-accounts.iam.gserviceaccount.com>

src/cmd/compile/internal/amd64/ssa.go
src/cmd/compile/internal/ssa/_gen/simdAMD64.rules
src/cmd/compile/internal/ssa/_gen/simdAMD64ops.go
src/cmd/compile/internal/ssa/_gen/simdgenericOps.go
src/cmd/compile/internal/ssa/check.go
src/cmd/compile/internal/ssa/opGen.go
src/cmd/compile/internal/ssa/rewriteAMD64.go
src/cmd/compile/internal/ssagen/intrinsics.go
src/simd/ops_amd64.go
src/simd/simd_test.go

index 9a4203f7c6786f1fb73437e2247b764ca5bf4a9d..d3fae7ce14c8e6696857951116eac36db3a4b4e6 100644 (file)
@@ -1837,11 +1837,7 @@ func simdVkv(s *ssagen.State, v *ssa.Value) *obj.Prog {
 // Example instruction: VROUNDPD $7, X2, X2
 func simdV11Imm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
        p := s.Prog(v.Op.Asm())
-       imm := v.AuxInt
-       if imm < 0 || imm > 255 {
-               v.Fatalf("Invalid source selection immediate")
-       }
-       p.From.Offset = imm
+       p.From.Offset = int64(v.AuxUInt8())
        p.From.Type = obj.TYPE_CONST
        p.AddRestSourceReg(simdReg(v.Args[0]))
        p.To.Type = obj.TYPE_REG
@@ -1852,11 +1848,7 @@ func simdV11Imm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
 // Example instruction: VREDUCEPD $126, X1, K3, X31
 func simdVkvImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
        p := s.Prog(v.Op.Asm())
-       imm := v.AuxInt
-       if imm < 0 || imm > 255 {
-               v.Fatalf("Invalid source selection immediate")
-       }
-       p.From.Offset = imm
+       p.From.Offset = int64(v.AuxUInt8())
        p.From.Type = obj.TYPE_CONST
        p.AddRestSourceReg(simdReg(v.Args[0]))
        p.AddRestSourceReg(maskReg(v.Args[1]))
@@ -1868,11 +1860,7 @@ func simdVkvImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
 // Example instruction: VCMPPS $7, X2, X9, X2
 func simdV21Imm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
        p := s.Prog(v.Op.Asm())
-       imm := v.AuxInt
-       if imm < 0 || imm > 255 {
-               v.Fatalf("Invalid source selection immediate")
-       }
-       p.From.Offset = imm
+       p.From.Offset = int64(v.AuxUInt8())
        p.From.Type = obj.TYPE_CONST
        p.AddRestSourceReg(simdReg(v.Args[1]))
        p.AddRestSourceReg(simdReg(v.Args[0]))
@@ -1884,11 +1872,7 @@ func simdV21Imm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
 // Example instruction: VPINSRB $3, DX, X0, X0
 func simdVgpvImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
        p := s.Prog(v.Op.Asm())
-       imm := v.AuxInt
-       if imm < 0 || imm > 255 {
-               v.Fatalf("Invalid source selection immediate")
-       }
-       p.From.Offset = imm
+       p.From.Offset = int64(v.AuxUInt8())
        p.From.Type = obj.TYPE_CONST
        p.AddRestSourceReg(v.Args[1].Reg())
        p.AddRestSourceReg(simdReg(v.Args[0]))
@@ -1900,11 +1884,7 @@ func simdVgpvImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
 // Example instruction: VPCMPD $1, Z1, Z2, K1
 func simdV2kImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
        p := s.Prog(v.Op.Asm())
-       imm := v.AuxInt
-       if imm < 0 || imm > 255 {
-               v.Fatalf("Invalid source selection immediate")
-       }
-       p.From.Offset = imm
+       p.From.Offset = int64(v.AuxUInt8())
        p.From.Type = obj.TYPE_CONST
        p.AddRestSourceReg(simdReg(v.Args[1]))
        p.AddRestSourceReg(simdReg(v.Args[0]))
@@ -1916,11 +1896,7 @@ func simdV2kImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
 // Example instruction: VPCMPD $1, Z1, Z2, K2, K1
 func simdV2kkImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
        p := s.Prog(v.Op.Asm())
-       imm := v.AuxInt
-       if imm < 0 || imm > 255 {
-               v.Fatalf("Invalid source selection immediate")
-       }
-       p.From.Offset = imm
+       p.From.Offset = int64(v.AuxUInt8())
        p.From.Type = obj.TYPE_CONST
        p.AddRestSourceReg(simdReg(v.Args[1]))
        p.AddRestSourceReg(simdReg(v.Args[0]))
@@ -1931,7 +1907,15 @@ func simdV2kkImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
 }
 
 func simdV2kvImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
-       return simdV2kkImm8(s, v)
+       p := s.Prog(v.Op.Asm())
+       p.From.Offset = int64(v.AuxUInt8())
+       p.From.Type = obj.TYPE_CONST
+       p.AddRestSourceReg(simdReg(v.Args[1]))
+       p.AddRestSourceReg(simdReg(v.Args[0]))
+       p.AddRestSourceReg(maskReg(v.Args[2]))
+       p.To.Type = obj.TYPE_REG
+       p.To.Reg = simdReg(v)
+       return p
 }
 
 // Example instruction: VFMADD213PD Z2, Z1, Z0
@@ -1959,11 +1943,7 @@ func simdV3kvResultInArg0(s *ssagen.State, v *ssa.Value) *obj.Prog {
 
 func simdVgpImm8(s *ssagen.State, v *ssa.Value) *obj.Prog {
        p := s.Prog(v.Op.Asm())
-       imm := v.AuxInt
-       if imm < 0 || imm > 255 {
-               v.Fatalf("Invalid source selection immediate")
-       }
-       p.From.Offset = imm
+       p.From.Offset = int64(v.AuxUInt8())
        p.From.Type = obj.TYPE_CONST
        p.AddRestSourceReg(simdReg(v.Args[0]))
        p.To.Type = obj.TYPE_REG
index e294836cd26cc290203853ea619757a76d216e60..8ff638808abc3f22caa47ddee9aa60f5cadca904 100644 (file)
 (SetLoUint32x16 x y) => (VINSERTI64X4512 [0] x y)
 (SetLoUint64x4 x y) => (VINSERTI128256 [0] x y)
 (SetLoUint64x8 x y) => (VINSERTI64X4512 [0] x y)
-(ShiftAllLeftInt16x8 x (MOVQconst [c])) => (VPSLLW128const [int8(c)] x)
+(ShiftAllLeftInt16x8 x (MOVQconst [c])) => (VPSLLW128const [uint8(c)] x)
 (ShiftAllLeftInt16x8 x y) => (VPSLLW128 x y)
-(ShiftAllLeftInt16x16 x (MOVQconst [c])) => (VPSLLW256const [int8(c)] x)
+(ShiftAllLeftInt16x16 x (MOVQconst [c])) => (VPSLLW256const [uint8(c)] x)
 (ShiftAllLeftInt16x16 x y) => (VPSLLW256 x y)
-(ShiftAllLeftInt16x32 x (MOVQconst [c])) => (VPSLLW512const [int8(c)] x)
+(ShiftAllLeftInt16x32 x (MOVQconst [c])) => (VPSLLW512const [uint8(c)] x)
 (ShiftAllLeftInt16x32 x y) => (VPSLLW512 x y)
-(ShiftAllLeftInt32x4 x (MOVQconst [c])) => (VPSLLD128const [int8(c)] x)
+(ShiftAllLeftInt32x4 x (MOVQconst [c])) => (VPSLLD128const [uint8(c)] x)
 (ShiftAllLeftInt32x4 x y) => (VPSLLD128 x y)
-(ShiftAllLeftInt32x8 x (MOVQconst [c])) => (VPSLLD256const [int8(c)] x)
+(ShiftAllLeftInt32x8 x (MOVQconst [c])) => (VPSLLD256const [uint8(c)] x)
 (ShiftAllLeftInt32x8 x y) => (VPSLLD256 x y)
-(ShiftAllLeftInt32x16 x (MOVQconst [c])) => (VPSLLD512const [int8(c)] x)
+(ShiftAllLeftInt32x16 x (MOVQconst [c])) => (VPSLLD512const [uint8(c)] x)
 (ShiftAllLeftInt32x16 x y) => (VPSLLD512 x y)
-(ShiftAllLeftInt64x2 x (MOVQconst [c])) => (VPSLLQ128const [int8(c)] x)
+(ShiftAllLeftInt64x2 x (MOVQconst [c])) => (VPSLLQ128const [uint8(c)] x)
 (ShiftAllLeftInt64x2 x y) => (VPSLLQ128 x y)
-(ShiftAllLeftInt64x4 x (MOVQconst [c])) => (VPSLLQ256const [int8(c)] x)
+(ShiftAllLeftInt64x4 x (MOVQconst [c])) => (VPSLLQ256const [uint8(c)] x)
 (ShiftAllLeftInt64x4 x y) => (VPSLLQ256 x y)
-(ShiftAllLeftInt64x8 x (MOVQconst [c])) => (VPSLLQ512const [int8(c)] x)
+(ShiftAllLeftInt64x8 x (MOVQconst [c])) => (VPSLLQ512const [uint8(c)] x)
 (ShiftAllLeftInt64x8 x y) => (VPSLLQ512 x y)
-(ShiftAllLeftUint16x8 x (MOVQconst [c])) => (VPSLLW128const [int8(c)] x)
+(ShiftAllLeftUint16x8 x (MOVQconst [c])) => (VPSLLW128const [uint8(c)] x)
 (ShiftAllLeftUint16x8 x y) => (VPSLLW128 x y)
-(ShiftAllLeftUint16x16 x (MOVQconst [c])) => (VPSLLW256const [int8(c)] x)
+(ShiftAllLeftUint16x16 x (MOVQconst [c])) => (VPSLLW256const [uint8(c)] x)
 (ShiftAllLeftUint16x16 x y) => (VPSLLW256 x y)
-(ShiftAllLeftUint16x32 x (MOVQconst [c])) => (VPSLLW512const [int8(c)] x)
+(ShiftAllLeftUint16x32 x (MOVQconst [c])) => (VPSLLW512const [uint8(c)] x)
 (ShiftAllLeftUint16x32 x y) => (VPSLLW512 x y)
-(ShiftAllLeftUint32x4 x (MOVQconst [c])) => (VPSLLD128const [int8(c)] x)
+(ShiftAllLeftUint32x4 x (MOVQconst [c])) => (VPSLLD128const [uint8(c)] x)
 (ShiftAllLeftUint32x4 x y) => (VPSLLD128 x y)
-(ShiftAllLeftUint32x8 x (MOVQconst [c])) => (VPSLLD256const [int8(c)] x)
+(ShiftAllLeftUint32x8 x (MOVQconst [c])) => (VPSLLD256const [uint8(c)] x)
 (ShiftAllLeftUint32x8 x y) => (VPSLLD256 x y)
-(ShiftAllLeftUint32x16 x (MOVQconst [c])) => (VPSLLD512const [int8(c)] x)
+(ShiftAllLeftUint32x16 x (MOVQconst [c])) => (VPSLLD512const [uint8(c)] x)
 (ShiftAllLeftUint32x16 x y) => (VPSLLD512 x y)
-(ShiftAllLeftUint64x2 x (MOVQconst [c])) => (VPSLLQ128const [int8(c)] x)
+(ShiftAllLeftUint64x2 x (MOVQconst [c])) => (VPSLLQ128const [uint8(c)] x)
 (ShiftAllLeftUint64x2 x y) => (VPSLLQ128 x y)
-(ShiftAllLeftUint64x4 x (MOVQconst [c])) => (VPSLLQ256const [int8(c)] x)
+(ShiftAllLeftUint64x4 x (MOVQconst [c])) => (VPSLLQ256const [uint8(c)] x)
 (ShiftAllLeftUint64x4 x y) => (VPSLLQ256 x y)
-(ShiftAllLeftUint64x8 x (MOVQconst [c])) => (VPSLLQ512const [int8(c)] x)
+(ShiftAllLeftUint64x8 x (MOVQconst [c])) => (VPSLLQ512const [uint8(c)] x)
 (ShiftAllLeftUint64x8 x y) => (VPSLLQ512 x y)
 (ShiftAllLeftConcatInt16x8 ...) => (VPSHLDW128 ...)
 (ShiftAllLeftConcatInt16x16 ...) => (VPSHLDW256 ...)
 (ShiftAllLeftConcatMaskedUint64x2 [a] x y mask) => (VPSHLDQMasked128 [a] x y (VPMOVVec64x2ToM <types.TypeMask> mask))
 (ShiftAllLeftConcatMaskedUint64x4 [a] x y mask) => (VPSHLDQMasked256 [a] x y (VPMOVVec64x4ToM <types.TypeMask> mask))
 (ShiftAllLeftConcatMaskedUint64x8 [a] x y mask) => (VPSHLDQMasked512 [a] x y (VPMOVVec64x8ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt16x8 x (MOVQconst [c]) mask) => (VPSLLWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt16x8 x (MOVQconst [c]) mask) => (VPSLLWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt16x8 x y mask) => (VPSLLWMasked128 x y (VPMOVVec16x8ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt16x16 x (MOVQconst [c]) mask) => (VPSLLWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt16x16 x (MOVQconst [c]) mask) => (VPSLLWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt16x16 x y mask) => (VPSLLWMasked256 x y (VPMOVVec16x16ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt16x32 x (MOVQconst [c]) mask) => (VPSLLWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt16x32 x (MOVQconst [c]) mask) => (VPSLLWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt16x32 x y mask) => (VPSLLWMasked512 x y (VPMOVVec16x32ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt32x4 x (MOVQconst [c]) mask) => (VPSLLDMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt32x4 x (MOVQconst [c]) mask) => (VPSLLDMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt32x4 x y mask) => (VPSLLDMasked128 x y (VPMOVVec32x4ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt32x8 x (MOVQconst [c]) mask) => (VPSLLDMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt32x8 x (MOVQconst [c]) mask) => (VPSLLDMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt32x8 x y mask) => (VPSLLDMasked256 x y (VPMOVVec32x8ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt32x16 x (MOVQconst [c]) mask) => (VPSLLDMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt32x16 x (MOVQconst [c]) mask) => (VPSLLDMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt32x16 x y mask) => (VPSLLDMasked512 x y (VPMOVVec32x16ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt64x2 x (MOVQconst [c]) mask) => (VPSLLQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt64x2 x (MOVQconst [c]) mask) => (VPSLLQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt64x2 x y mask) => (VPSLLQMasked128 x y (VPMOVVec64x2ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt64x4 x (MOVQconst [c]) mask) => (VPSLLQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt64x4 x (MOVQconst [c]) mask) => (VPSLLQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt64x4 x y mask) => (VPSLLQMasked256 x y (VPMOVVec64x4ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedInt64x8 x (MOVQconst [c]) mask) => (VPSLLQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedInt64x8 x (MOVQconst [c]) mask) => (VPSLLQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedInt64x8 x y mask) => (VPSLLQMasked512 x y (VPMOVVec64x8ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint16x8 x (MOVQconst [c]) mask) => (VPSLLWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint16x8 x (MOVQconst [c]) mask) => (VPSLLWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint16x8 x y mask) => (VPSLLWMasked128 x y (VPMOVVec16x8ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint16x16 x (MOVQconst [c]) mask) => (VPSLLWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint16x16 x (MOVQconst [c]) mask) => (VPSLLWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint16x16 x y mask) => (VPSLLWMasked256 x y (VPMOVVec16x16ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint16x32 x (MOVQconst [c]) mask) => (VPSLLWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint16x32 x (MOVQconst [c]) mask) => (VPSLLWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint16x32 x y mask) => (VPSLLWMasked512 x y (VPMOVVec16x32ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint32x4 x (MOVQconst [c]) mask) => (VPSLLDMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint32x4 x (MOVQconst [c]) mask) => (VPSLLDMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint32x4 x y mask) => (VPSLLDMasked128 x y (VPMOVVec32x4ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint32x8 x (MOVQconst [c]) mask) => (VPSLLDMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint32x8 x (MOVQconst [c]) mask) => (VPSLLDMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint32x8 x y mask) => (VPSLLDMasked256 x y (VPMOVVec32x8ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint32x16 x (MOVQconst [c]) mask) => (VPSLLDMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint32x16 x (MOVQconst [c]) mask) => (VPSLLDMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint32x16 x y mask) => (VPSLLDMasked512 x y (VPMOVVec32x16ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint64x2 x (MOVQconst [c]) mask) => (VPSLLQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint64x2 x (MOVQconst [c]) mask) => (VPSLLQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint64x2 x y mask) => (VPSLLQMasked128 x y (VPMOVVec64x2ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint64x4 x (MOVQconst [c]) mask) => (VPSLLQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint64x4 x (MOVQconst [c]) mask) => (VPSLLQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint64x4 x y mask) => (VPSLLQMasked256 x y (VPMOVVec64x4ToM <types.TypeMask> mask))
-(ShiftAllLeftMaskedUint64x8 x (MOVQconst [c]) mask) => (VPSLLQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+(ShiftAllLeftMaskedUint64x8 x (MOVQconst [c]) mask) => (VPSLLQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
 (ShiftAllLeftMaskedUint64x8 x y mask) => (VPSLLQMasked512 x y (VPMOVVec64x8ToM <types.TypeMask> mask))
-(ShiftAllRightInt16x8 x (MOVQconst [c])) => (VPSRAW128const [int8(c)] x)
+(ShiftAllRightInt16x8 x (MOVQconst [c])) => (VPSRAW128const [uint8(c)] x)
 (ShiftAllRightInt16x8 x y) => (VPSRAW128 x y)
-(ShiftAllRightInt16x16 x (MOVQconst [c])) => (VPSRAW256const [int8(c)] x)
+(ShiftAllRightInt16x16 x (MOVQconst [c])) => (VPSRAW256const [uint8(c)] x)
 (ShiftAllRightInt16x16 x y) => (VPSRAW256 x y)
-(ShiftAllRightInt16x32 x (MOVQconst [c])) => (VPSRAW512const [int8(c)] x)
+(ShiftAllRightInt16x32 x (MOVQconst [c])) => (VPSRAW512const [uint8(c)] x)
 (ShiftAllRightInt16x32 x y) => (VPSRAW512 x y)
-(ShiftAllRightInt32x4 x (MOVQconst [c])) => (VPSRAD128const [int8(c)] x)
+(ShiftAllRightInt32x4 x (MOVQconst [c])) => (VPSRAD128const [uint8(c)] x)
 (ShiftAllRightInt32x4 x y) => (VPSRAD128 x y)
-(ShiftAllRightInt32x8 x (MOVQconst [c])) => (VPSRAD256const [int8(c)] x)
+(ShiftAllRightInt32x8 x (MOVQconst [c])) => (VPSRAD256const [uint8(c)] x)
 (ShiftAllRightInt32x8 x y) => (VPSRAD256 x y)
-(ShiftAllRightInt32x16 x (MOVQconst [c])) => (VPSRAD512const [int8(c)] x)
+(ShiftAllRightInt32x16 x (MOVQconst [c])) => (VPSRAD512const [uint8(c)] x)
 (ShiftAllRightInt32x16 x y) => (VPSRAD512 x y)
-(ShiftAllRightInt64x2 x (MOVQconst [c])) => (VPSRAQ128const [int8(c)] x)
+(ShiftAllRightInt64x2 x (MOVQconst [c])) => (VPSRAQ128const [uint8(c)] x)
 (ShiftAllRightInt64x2 x y) => (VPSRAQ128 x y)
-(ShiftAllRightInt64x4 x (MOVQconst [c])) => (VPSRAQ256const [int8(c)] x)
+(ShiftAllRightInt64x4 x (MOVQconst [c])) => (VPSRAQ256const [uint8(c)] x)
 (ShiftAllRightInt64x4 x y) => (VPSRAQ256 x y)
-(ShiftAllRightInt64x8 x (MOVQconst [c])) => (VPSRAQ512const [int8(c)] x)
+(ShiftAllRightInt64x8 x (MOVQconst [c])) => (VPSRAQ512const [uint8(c)] x)
 (ShiftAllRightInt64x8 x y) => (VPSRAQ512 x y)
-(ShiftAllRightUint16x8 x (MOVQconst [c])) => (VPSRLW128const [int8(c)] x)
+(ShiftAllRightUint16x8 x (MOVQconst [c])) => (VPSRLW128const [uint8(c)] x)
 (ShiftAllRightUint16x8 x y) => (VPSRLW128 x y)
-(ShiftAllRightUint16x16 x (MOVQconst [c])) => (VPSRLW256const [int8(c)] x)
+(ShiftAllRightUint16x16 x (MOVQconst [c])) => (VPSRLW256const [uint8(c)] x)
 (ShiftAllRightUint16x16 x y) => (VPSRLW256 x y)
-(ShiftAllRightUint16x32 x (MOVQconst [c])) => (VPSRLW512const [int8(c)] x)
+(ShiftAllRightUint16x32 x (MOVQconst [c])) => (VPSRLW512const [uint8(c)] x)
 (ShiftAllRightUint16x32 x y) => (VPSRLW512 x y)
-(ShiftAllRightUint32x4 x (MOVQconst [c])) => (VPSRLD128const [int8(c)] x)
+(ShiftAllRightUint32x4 x (MOVQconst [c])) => (VPSRLD128const [uint8(c)] x)
 (ShiftAllRightUint32x4 x y) => (VPSRLD128 x y)
-(ShiftAllRightUint32x8 x (MOVQconst [c])) => (VPSRLD256const [int8(c)] x)
+(ShiftAllRightUint32x8 x (MOVQconst [c])) => (VPSRLD256const [uint8(c)] x)
 (ShiftAllRightUint32x8 x y) => (VPSRLD256 x y)
-(ShiftAllRightUint32x16 x (MOVQconst [c])) => (VPSRLD512const [int8(c)] x)
+(ShiftAllRightUint32x16 x (MOVQconst [c])) => (VPSRLD512const [uint8(c)] x)
 (ShiftAllRightUint32x16 x y) => (VPSRLD512 x y)
-(ShiftAllRightUint64x2 x (MOVQconst [c])) => (VPSRLQ128const [int8(c)] x)
+(ShiftAllRightUint64x2 x (MOVQconst [c])) => (VPSRLQ128const [uint8(c)] x)
 (ShiftAllRightUint64x2 x y) => (VPSRLQ128 x y)
-(ShiftAllRightUint64x4 x (MOVQconst [c])) => (VPSRLQ256const [int8(c)] x)
+(ShiftAllRightUint64x4 x (MOVQconst [c])) => (VPSRLQ256const [uint8(c)] x)
 (ShiftAllRightUint64x4 x y) => (VPSRLQ256 x y)
-(ShiftAllRightUint64x8 x (MOVQconst [c])) => (VPSRLQ512const [int8(c)] x)
+(ShiftAllRightUint64x8 x (MOVQconst [c])) => (VPSRLQ512const [uint8(c)] x)
 (ShiftAllRightUint64x8 x y) => (VPSRLQ512 x y)
 (ShiftAllRightConcatInt16x8 ...) => (VPSHRDW128 ...)
 (ShiftAllRightConcatInt16x16 ...) => (VPSHRDW256 ...)
 (ShiftAllRightConcatMaskedUint64x2 [a] x y mask) => (VPSHRDQMasked128 [a] x y (VPMOVVec64x2ToM <types.TypeMask> mask))
 (ShiftAllRightConcatMaskedUint64x4 [a] x y mask) => (VPSHRDQMasked256 [a] x y (VPMOVVec64x4ToM <types.TypeMask> mask))
 (ShiftAllRightConcatMaskedUint64x8 [a] x y mask) => (VPSHRDQMasked512 [a] x y (VPMOVVec64x8ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt16x8 x (MOVQconst [c]) mask) => (VPSRAWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt16x8 x (MOVQconst [c]) mask) => (VPSRAWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt16x8 x y mask) => (VPSRAWMasked128 x y (VPMOVVec16x8ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt16x16 x (MOVQconst [c]) mask) => (VPSRAWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt16x16 x (MOVQconst [c]) mask) => (VPSRAWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt16x16 x y mask) => (VPSRAWMasked256 x y (VPMOVVec16x16ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt16x32 x (MOVQconst [c]) mask) => (VPSRAWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt16x32 x (MOVQconst [c]) mask) => (VPSRAWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt16x32 x y mask) => (VPSRAWMasked512 x y (VPMOVVec16x32ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt32x4 x (MOVQconst [c]) mask) => (VPSRADMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt32x4 x (MOVQconst [c]) mask) => (VPSRADMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt32x4 x y mask) => (VPSRADMasked128 x y (VPMOVVec32x4ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt32x8 x (MOVQconst [c]) mask) => (VPSRADMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt32x8 x (MOVQconst [c]) mask) => (VPSRADMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt32x8 x y mask) => (VPSRADMasked256 x y (VPMOVVec32x8ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt32x16 x (MOVQconst [c]) mask) => (VPSRADMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt32x16 x (MOVQconst [c]) mask) => (VPSRADMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt32x16 x y mask) => (VPSRADMasked512 x y (VPMOVVec32x16ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt64x2 x (MOVQconst [c]) mask) => (VPSRAQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt64x2 x (MOVQconst [c]) mask) => (VPSRAQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt64x2 x y mask) => (VPSRAQMasked128 x y (VPMOVVec64x2ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt64x4 x (MOVQconst [c]) mask) => (VPSRAQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt64x4 x (MOVQconst [c]) mask) => (VPSRAQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt64x4 x y mask) => (VPSRAQMasked256 x y (VPMOVVec64x4ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedInt64x8 x (MOVQconst [c]) mask) => (VPSRAQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedInt64x8 x (MOVQconst [c]) mask) => (VPSRAQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedInt64x8 x y mask) => (VPSRAQMasked512 x y (VPMOVVec64x8ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint16x8 x (MOVQconst [c]) mask) => (VPSRLWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint16x8 x (MOVQconst [c]) mask) => (VPSRLWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint16x8 x y mask) => (VPSRLWMasked128 x y (VPMOVVec16x8ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint16x16 x (MOVQconst [c]) mask) => (VPSRLWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint16x16 x (MOVQconst [c]) mask) => (VPSRLWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint16x16 x y mask) => (VPSRLWMasked256 x y (VPMOVVec16x16ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint16x32 x (MOVQconst [c]) mask) => (VPSRLWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint16x32 x (MOVQconst [c]) mask) => (VPSRLWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint16x32 x y mask) => (VPSRLWMasked512 x y (VPMOVVec16x32ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint32x4 x (MOVQconst [c]) mask) => (VPSRLDMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint32x4 x (MOVQconst [c]) mask) => (VPSRLDMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint32x4 x y mask) => (VPSRLDMasked128 x y (VPMOVVec32x4ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint32x8 x (MOVQconst [c]) mask) => (VPSRLDMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint32x8 x (MOVQconst [c]) mask) => (VPSRLDMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint32x8 x y mask) => (VPSRLDMasked256 x y (VPMOVVec32x8ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint32x16 x (MOVQconst [c]) mask) => (VPSRLDMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint32x16 x (MOVQconst [c]) mask) => (VPSRLDMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint32x16 x y mask) => (VPSRLDMasked512 x y (VPMOVVec32x16ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint64x2 x (MOVQconst [c]) mask) => (VPSRLQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint64x2 x (MOVQconst [c]) mask) => (VPSRLQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint64x2 x y mask) => (VPSRLQMasked128 x y (VPMOVVec64x2ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint64x4 x (MOVQconst [c]) mask) => (VPSRLQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint64x4 x (MOVQconst [c]) mask) => (VPSRLQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint64x4 x y mask) => (VPSRLQMasked256 x y (VPMOVVec64x4ToM <types.TypeMask> mask))
-(ShiftAllRightMaskedUint64x8 x (MOVQconst [c]) mask) => (VPSRLQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+(ShiftAllRightMaskedUint64x8 x (MOVQconst [c]) mask) => (VPSRLQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
 (ShiftAllRightMaskedUint64x8 x y mask) => (VPSRLQMasked512 x y (VPMOVVec64x8ToM <types.TypeMask> mask))
 (ShiftLeftInt16x8 ...) => (VPSLLVW128 ...)
 (ShiftLeftInt16x16 ...) => (VPSLLVW256 ...)
index 665372f79d9aa7a3335629078d8f42dd7b6d28ca..164ca7a344487d5e7382c157b5f3c1c75ecb5e5d 100644 (file)
@@ -861,235 +861,235 @@ func simdAMD64Ops(v11, v21, v2k, vkv, v2kv, v2kk, v31, v3kv, vgpv, vgp, vfpv, vf
                {name: "VSUBPSMasked128", argLength: 3, reg: w2kw, asm: "VSUBPS", commutative: false, typ: "Vec128", resultInArg0: false},
                {name: "VSUBPSMasked256", argLength: 3, reg: w2kw, asm: "VSUBPS", commutative: false, typ: "Vec256", resultInArg0: false},
                {name: "VSUBPSMasked512", argLength: 3, reg: w2kw, asm: "VSUBPS", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VROUNDPS128", argLength: 1, reg: v11, asm: "VROUNDPS", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VROUNDPS256", argLength: 1, reg: v11, asm: "VROUNDPS", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VROUNDPD128", argLength: 1, reg: v11, asm: "VROUNDPD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VROUNDPD256", argLength: 1, reg: v11, asm: "VROUNDPD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VRNDSCALEPS128", argLength: 1, reg: w11, asm: "VRNDSCALEPS", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VRNDSCALEPS256", argLength: 1, reg: w11, asm: "VRNDSCALEPS", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VRNDSCALEPS512", argLength: 1, reg: w11, asm: "VRNDSCALEPS", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VRNDSCALEPD128", argLength: 1, reg: w11, asm: "VRNDSCALEPD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VRNDSCALEPD256", argLength: 1, reg: w11, asm: "VRNDSCALEPD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VRNDSCALEPD512", argLength: 1, reg: w11, asm: "VRNDSCALEPD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VRNDSCALEPSMasked128", argLength: 2, reg: wkw, asm: "VRNDSCALEPS", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VRNDSCALEPSMasked256", argLength: 2, reg: wkw, asm: "VRNDSCALEPS", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VRNDSCALEPSMasked512", argLength: 2, reg: wkw, asm: "VRNDSCALEPS", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VRNDSCALEPDMasked128", argLength: 2, reg: wkw, asm: "VRNDSCALEPD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VRNDSCALEPDMasked256", argLength: 2, reg: wkw, asm: "VRNDSCALEPD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VRNDSCALEPDMasked512", argLength: 2, reg: wkw, asm: "VRNDSCALEPD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VREDUCEPS128", argLength: 1, reg: w11, asm: "VREDUCEPS", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VREDUCEPS256", argLength: 1, reg: w11, asm: "VREDUCEPS", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VREDUCEPS512", argLength: 1, reg: w11, asm: "VREDUCEPS", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VREDUCEPD128", argLength: 1, reg: w11, asm: "VREDUCEPD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VREDUCEPD256", argLength: 1, reg: w11, asm: "VREDUCEPD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VREDUCEPD512", argLength: 1, reg: w11, asm: "VREDUCEPD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VREDUCEPSMasked128", argLength: 2, reg: wkw, asm: "VREDUCEPS", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VREDUCEPSMasked256", argLength: 2, reg: wkw, asm: "VREDUCEPS", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VREDUCEPSMasked512", argLength: 2, reg: wkw, asm: "VREDUCEPS", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VREDUCEPDMasked128", argLength: 2, reg: wkw, asm: "VREDUCEPD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VREDUCEPDMasked256", argLength: 2, reg: wkw, asm: "VREDUCEPD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VREDUCEPDMasked512", argLength: 2, reg: wkw, asm: "VREDUCEPD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VCMPPS128", argLength: 2, reg: v21, asm: "VCMPPS", aux: "Int8", commutative: true, typ: "Vec128", resultInArg0: false},
-               {name: "VCMPPS256", argLength: 2, reg: v21, asm: "VCMPPS", aux: "Int8", commutative: true, typ: "Vec256", resultInArg0: false},
-               {name: "VCMPPS512", argLength: 2, reg: w2k, asm: "VCMPPS", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VCMPPD128", argLength: 2, reg: v21, asm: "VCMPPD", aux: "Int8", commutative: true, typ: "Vec128", resultInArg0: false},
-               {name: "VCMPPD256", argLength: 2, reg: v21, asm: "VCMPPD", aux: "Int8", commutative: true, typ: "Vec256", resultInArg0: false},
-               {name: "VCMPPD512", argLength: 2, reg: w2k, asm: "VCMPPD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VCMPPSMasked128", argLength: 3, reg: w2kk, asm: "VCMPPS", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VCMPPSMasked256", argLength: 3, reg: w2kk, asm: "VCMPPS", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VCMPPSMasked512", argLength: 3, reg: w2kk, asm: "VCMPPS", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VCMPPDMasked128", argLength: 3, reg: w2kk, asm: "VCMPPD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VCMPPDMasked256", argLength: 3, reg: w2kk, asm: "VCMPPD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VCMPPDMasked512", argLength: 3, reg: w2kk, asm: "VCMPPD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPBMasked128", argLength: 3, reg: w2kk, asm: "VPCMPB", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPBMasked256", argLength: 3, reg: w2kk, asm: "VPCMPB", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPBMasked512", argLength: 3, reg: w2kk, asm: "VPCMPB", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPWMasked128", argLength: 3, reg: w2kk, asm: "VPCMPW", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPWMasked256", argLength: 3, reg: w2kk, asm: "VPCMPW", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPWMasked512", argLength: 3, reg: w2kk, asm: "VPCMPW", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPDMasked128", argLength: 3, reg: w2kk, asm: "VPCMPD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPDMasked256", argLength: 3, reg: w2kk, asm: "VPCMPD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPDMasked512", argLength: 3, reg: w2kk, asm: "VPCMPD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPQMasked128", argLength: 3, reg: w2kk, asm: "VPCMPQ", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPQMasked256", argLength: 3, reg: w2kk, asm: "VPCMPQ", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPQMasked512", argLength: 3, reg: w2kk, asm: "VPCMPQ", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUBMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUB", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUBMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUB", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUBMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUB", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUWMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUW", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUWMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUW", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUWMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUW", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUDMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUDMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUDMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUD", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUQMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUQ", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUQMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUQ", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUQMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUQ", aux: "Int8", commutative: true, typ: "Mask", resultInArg0: false},
-               {name: "VGF2P8AFFINEQB128", argLength: 2, reg: w21, asm: "VGF2P8AFFINEQB", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VGF2P8AFFINEQB256", argLength: 2, reg: w21, asm: "VGF2P8AFFINEQB", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VGF2P8AFFINEQB512", argLength: 2, reg: w21, asm: "VGF2P8AFFINEQB", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VGF2P8AFFINEINVQB128", argLength: 2, reg: w21, asm: "VGF2P8AFFINEINVQB", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VGF2P8AFFINEINVQB256", argLength: 2, reg: w21, asm: "VGF2P8AFFINEINVQB", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VGF2P8AFFINEINVQB512", argLength: 2, reg: w21, asm: "VGF2P8AFFINEINVQB", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VGF2P8AFFINEINVQBMasked128", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEINVQB", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VGF2P8AFFINEINVQBMasked256", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEINVQB", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VGF2P8AFFINEINVQBMasked512", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEINVQB", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VGF2P8AFFINEQBMasked128", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEQB", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VGF2P8AFFINEQBMasked256", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEQB", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VGF2P8AFFINEQBMasked512", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEQB", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPEXTRB128", argLength: 1, reg: wgp, asm: "VPEXTRB", aux: "Int8", commutative: false, typ: "int8", resultInArg0: false},
-               {name: "VPEXTRW128", argLength: 1, reg: wgp, asm: "VPEXTRW", aux: "Int8", commutative: false, typ: "int16", resultInArg0: false},
-               {name: "VPEXTRD128", argLength: 1, reg: vgp, asm: "VPEXTRD", aux: "Int8", commutative: false, typ: "int32", resultInArg0: false},
-               {name: "VPEXTRQ128", argLength: 1, reg: vgp, asm: "VPEXTRQ", aux: "Int8", commutative: false, typ: "int64", resultInArg0: false},
-               {name: "VEXTRACTF128128", argLength: 1, reg: v11, asm: "VEXTRACTF128", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VEXTRACTF64X4256", argLength: 1, reg: w11, asm: "VEXTRACTF64X4", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VEXTRACTI128128", argLength: 1, reg: v11, asm: "VEXTRACTI128", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VEXTRACTI64X4256", argLength: 1, reg: w11, asm: "VEXTRACTI64X4", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPCMPUB128", argLength: 2, reg: w2k, asm: "VPCMPUB", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUB256", argLength: 2, reg: w2k, asm: "VPCMPUB", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUB512", argLength: 2, reg: w2k, asm: "VPCMPUB", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUW128", argLength: 2, reg: w2k, asm: "VPCMPUW", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUW256", argLength: 2, reg: w2k, asm: "VPCMPUW", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUW512", argLength: 2, reg: w2k, asm: "VPCMPUW", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUD128", argLength: 2, reg: w2k, asm: "VPCMPUD", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUD256", argLength: 2, reg: w2k, asm: "VPCMPUD", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUD512", argLength: 2, reg: w2k, asm: "VPCMPUD", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUQ128", argLength: 2, reg: w2k, asm: "VPCMPUQ", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUQ256", argLength: 2, reg: w2k, asm: "VPCMPUQ", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPUQ512", argLength: 2, reg: w2k, asm: "VPCMPUQ", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPB128", argLength: 2, reg: w2k, asm: "VPCMPB", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPB256", argLength: 2, reg: w2k, asm: "VPCMPB", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPB512", argLength: 2, reg: w2k, asm: "VPCMPB", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPW128", argLength: 2, reg: w2k, asm: "VPCMPW", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPW256", argLength: 2, reg: w2k, asm: "VPCMPW", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPW512", argLength: 2, reg: w2k, asm: "VPCMPW", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPD128", argLength: 2, reg: w2k, asm: "VPCMPD", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPD256", argLength: 2, reg: w2k, asm: "VPCMPD", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPD512", argLength: 2, reg: w2k, asm: "VPCMPD", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPQ128", argLength: 2, reg: w2k, asm: "VPCMPQ", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPQ256", argLength: 2, reg: w2k, asm: "VPCMPQ", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPCMPQ512", argLength: 2, reg: w2k, asm: "VPCMPQ", aux: "Int8", commutative: false, typ: "Mask", resultInArg0: false},
-               {name: "VPROLD128", argLength: 1, reg: w11, asm: "VPROLD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPROLD256", argLength: 1, reg: w11, asm: "VPROLD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPROLD512", argLength: 1, reg: w11, asm: "VPROLD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPROLQ128", argLength: 1, reg: w11, asm: "VPROLQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPROLQ256", argLength: 1, reg: w11, asm: "VPROLQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPROLQ512", argLength: 1, reg: w11, asm: "VPROLQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPROLDMasked128", argLength: 2, reg: wkw, asm: "VPROLD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPROLDMasked256", argLength: 2, reg: wkw, asm: "VPROLD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPROLDMasked512", argLength: 2, reg: wkw, asm: "VPROLD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPROLQMasked128", argLength: 2, reg: wkw, asm: "VPROLQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPROLQMasked256", argLength: 2, reg: wkw, asm: "VPROLQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPROLQMasked512", argLength: 2, reg: wkw, asm: "VPROLQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPRORD128", argLength: 1, reg: w11, asm: "VPRORD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPRORD256", argLength: 1, reg: w11, asm: "VPRORD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPRORD512", argLength: 1, reg: w11, asm: "VPRORD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPRORQ128", argLength: 1, reg: w11, asm: "VPRORQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPRORQ256", argLength: 1, reg: w11, asm: "VPRORQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPRORQ512", argLength: 1, reg: w11, asm: "VPRORQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPRORDMasked128", argLength: 2, reg: wkw, asm: "VPRORD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPRORDMasked256", argLength: 2, reg: wkw, asm: "VPRORD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPRORDMasked512", argLength: 2, reg: wkw, asm: "VPRORD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPRORQMasked128", argLength: 2, reg: wkw, asm: "VPRORQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPRORQMasked256", argLength: 2, reg: wkw, asm: "VPRORQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPRORQMasked512", argLength: 2, reg: wkw, asm: "VPRORQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPINSRB128", argLength: 2, reg: vgpv, asm: "VPINSRB", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPINSRW128", argLength: 2, reg: vgpv, asm: "VPINSRW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPINSRD128", argLength: 2, reg: vgpv, asm: "VPINSRD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPINSRQ128", argLength: 2, reg: vgpv, asm: "VPINSRQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VINSERTF128256", argLength: 2, reg: v21, asm: "VINSERTF128", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VINSERTF64X4512", argLength: 2, reg: w21, asm: "VINSERTF64X4", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VINSERTI128256", argLength: 2, reg: v21, asm: "VINSERTI128", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VINSERTI64X4512", argLength: 2, reg: w21, asm: "VINSERTI64X4", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHLDW128", argLength: 2, reg: w21, asm: "VPSHLDW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHLDW256", argLength: 2, reg: w21, asm: "VPSHLDW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHLDW512", argLength: 2, reg: w21, asm: "VPSHLDW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHLDD128", argLength: 2, reg: w21, asm: "VPSHLDD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHLDD256", argLength: 2, reg: w21, asm: "VPSHLDD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHLDD512", argLength: 2, reg: w21, asm: "VPSHLDD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHLDQ128", argLength: 2, reg: w21, asm: "VPSHLDQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHLDQ256", argLength: 2, reg: w21, asm: "VPSHLDQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHLDQ512", argLength: 2, reg: w21, asm: "VPSHLDQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHLDWMasked128", argLength: 3, reg: w2kw, asm: "VPSHLDW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHLDWMasked256", argLength: 3, reg: w2kw, asm: "VPSHLDW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHLDWMasked512", argLength: 3, reg: w2kw, asm: "VPSHLDW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHLDDMasked128", argLength: 3, reg: w2kw, asm: "VPSHLDD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHLDDMasked256", argLength: 3, reg: w2kw, asm: "VPSHLDD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHLDDMasked512", argLength: 3, reg: w2kw, asm: "VPSHLDD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHLDQMasked128", argLength: 3, reg: w2kw, asm: "VPSHLDQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHLDQMasked256", argLength: 3, reg: w2kw, asm: "VPSHLDQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHLDQMasked512", argLength: 3, reg: w2kw, asm: "VPSHLDQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHRDW128", argLength: 2, reg: w21, asm: "VPSHRDW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHRDW256", argLength: 2, reg: w21, asm: "VPSHRDW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHRDW512", argLength: 2, reg: w21, asm: "VPSHRDW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHRDD128", argLength: 2, reg: w21, asm: "VPSHRDD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHRDD256", argLength: 2, reg: w21, asm: "VPSHRDD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHRDD512", argLength: 2, reg: w21, asm: "VPSHRDD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHRDQ128", argLength: 2, reg: w21, asm: "VPSHRDQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHRDQ256", argLength: 2, reg: w21, asm: "VPSHRDQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHRDQ512", argLength: 2, reg: w21, asm: "VPSHRDQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHRDWMasked128", argLength: 3, reg: w2kw, asm: "VPSHRDW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHRDWMasked256", argLength: 3, reg: w2kw, asm: "VPSHRDW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHRDWMasked512", argLength: 3, reg: w2kw, asm: "VPSHRDW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHRDDMasked128", argLength: 3, reg: w2kw, asm: "VPSHRDD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHRDDMasked256", argLength: 3, reg: w2kw, asm: "VPSHRDD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHRDDMasked512", argLength: 3, reg: w2kw, asm: "VPSHRDD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSHRDQMasked128", argLength: 3, reg: w2kw, asm: "VPSHRDQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSHRDQMasked256", argLength: 3, reg: w2kw, asm: "VPSHRDQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSHRDQMasked512", argLength: 3, reg: w2kw, asm: "VPSHRDQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSLLW128const", argLength: 1, reg: v11, asm: "VPSLLW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSLLW256const", argLength: 1, reg: v11, asm: "VPSLLW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSLLW512const", argLength: 1, reg: w11, asm: "VPSLLW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSLLD128const", argLength: 1, reg: v11, asm: "VPSLLD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSLLD256const", argLength: 1, reg: v11, asm: "VPSLLD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSLLD512const", argLength: 1, reg: w11, asm: "VPSLLD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSLLQ128const", argLength: 1, reg: v11, asm: "VPSLLQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSLLQ256const", argLength: 1, reg: v11, asm: "VPSLLQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSLLQ512const", argLength: 1, reg: w11, asm: "VPSLLQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSLLWMasked128const", argLength: 2, reg: wkw, asm: "VPSLLW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSLLWMasked256const", argLength: 2, reg: wkw, asm: "VPSLLW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSLLWMasked512const", argLength: 2, reg: wkw, asm: "VPSLLW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSLLDMasked128const", argLength: 2, reg: wkw, asm: "VPSLLD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSLLDMasked256const", argLength: 2, reg: wkw, asm: "VPSLLD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSLLDMasked512const", argLength: 2, reg: wkw, asm: "VPSLLD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSLLQMasked128const", argLength: 2, reg: wkw, asm: "VPSLLQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSLLQMasked256const", argLength: 2, reg: wkw, asm: "VPSLLQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSLLQMasked512const", argLength: 2, reg: wkw, asm: "VPSLLQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRLW128const", argLength: 1, reg: v11, asm: "VPSRLW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRLW256const", argLength: 1, reg: v11, asm: "VPSRLW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRLW512const", argLength: 1, reg: w11, asm: "VPSRLW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRLD128const", argLength: 1, reg: v11, asm: "VPSRLD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRLD256const", argLength: 1, reg: v11, asm: "VPSRLD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRLD512const", argLength: 1, reg: w11, asm: "VPSRLD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRLQ128const", argLength: 1, reg: v11, asm: "VPSRLQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRLQ256const", argLength: 1, reg: v11, asm: "VPSRLQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRLQ512const", argLength: 1, reg: w11, asm: "VPSRLQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRAW128const", argLength: 1, reg: v11, asm: "VPSRAW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRAW256const", argLength: 1, reg: v11, asm: "VPSRAW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRAW512const", argLength: 1, reg: w11, asm: "VPSRAW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRAD128const", argLength: 1, reg: v11, asm: "VPSRAD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRAD256const", argLength: 1, reg: v11, asm: "VPSRAD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRAD512const", argLength: 1, reg: w11, asm: "VPSRAD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRAQ128const", argLength: 1, reg: w11, asm: "VPSRAQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRAQ256const", argLength: 1, reg: w11, asm: "VPSRAQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRAQ512const", argLength: 1, reg: w11, asm: "VPSRAQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRLWMasked128const", argLength: 2, reg: wkw, asm: "VPSRLW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRLWMasked256const", argLength: 2, reg: wkw, asm: "VPSRLW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRLWMasked512const", argLength: 2, reg: wkw, asm: "VPSRLW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRLDMasked128const", argLength: 2, reg: wkw, asm: "VPSRLD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRLDMasked256const", argLength: 2, reg: wkw, asm: "VPSRLD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRLDMasked512const", argLength: 2, reg: wkw, asm: "VPSRLD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRLQMasked128const", argLength: 2, reg: wkw, asm: "VPSRLQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRLQMasked256const", argLength: 2, reg: wkw, asm: "VPSRLQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRLQMasked512const", argLength: 2, reg: wkw, asm: "VPSRLQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRAWMasked128const", argLength: 2, reg: wkw, asm: "VPSRAW", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRAWMasked256const", argLength: 2, reg: wkw, asm: "VPSRAW", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRAWMasked512const", argLength: 2, reg: wkw, asm: "VPSRAW", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRADMasked128const", argLength: 2, reg: wkw, asm: "VPSRAD", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRADMasked256const", argLength: 2, reg: wkw, asm: "VPSRAD", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRADMasked512const", argLength: 2, reg: wkw, asm: "VPSRAD", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
-               {name: "VPSRAQMasked128const", argLength: 2, reg: wkw, asm: "VPSRAQ", aux: "Int8", commutative: false, typ: "Vec128", resultInArg0: false},
-               {name: "VPSRAQMasked256const", argLength: 2, reg: wkw, asm: "VPSRAQ", aux: "Int8", commutative: false, typ: "Vec256", resultInArg0: false},
-               {name: "VPSRAQMasked512const", argLength: 2, reg: wkw, asm: "VPSRAQ", aux: "Int8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VROUNDPS128", argLength: 1, reg: v11, asm: "VROUNDPS", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VROUNDPS256", argLength: 1, reg: v11, asm: "VROUNDPS", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VROUNDPD128", argLength: 1, reg: v11, asm: "VROUNDPD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VROUNDPD256", argLength: 1, reg: v11, asm: "VROUNDPD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VRNDSCALEPS128", argLength: 1, reg: w11, asm: "VRNDSCALEPS", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VRNDSCALEPS256", argLength: 1, reg: w11, asm: "VRNDSCALEPS", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VRNDSCALEPS512", argLength: 1, reg: w11, asm: "VRNDSCALEPS", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VRNDSCALEPD128", argLength: 1, reg: w11, asm: "VRNDSCALEPD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VRNDSCALEPD256", argLength: 1, reg: w11, asm: "VRNDSCALEPD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VRNDSCALEPD512", argLength: 1, reg: w11, asm: "VRNDSCALEPD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VRNDSCALEPSMasked128", argLength: 2, reg: wkw, asm: "VRNDSCALEPS", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VRNDSCALEPSMasked256", argLength: 2, reg: wkw, asm: "VRNDSCALEPS", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VRNDSCALEPSMasked512", argLength: 2, reg: wkw, asm: "VRNDSCALEPS", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VRNDSCALEPDMasked128", argLength: 2, reg: wkw, asm: "VRNDSCALEPD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VRNDSCALEPDMasked256", argLength: 2, reg: wkw, asm: "VRNDSCALEPD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VRNDSCALEPDMasked512", argLength: 2, reg: wkw, asm: "VRNDSCALEPD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VREDUCEPS128", argLength: 1, reg: w11, asm: "VREDUCEPS", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VREDUCEPS256", argLength: 1, reg: w11, asm: "VREDUCEPS", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VREDUCEPS512", argLength: 1, reg: w11, asm: "VREDUCEPS", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VREDUCEPD128", argLength: 1, reg: w11, asm: "VREDUCEPD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VREDUCEPD256", argLength: 1, reg: w11, asm: "VREDUCEPD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VREDUCEPD512", argLength: 1, reg: w11, asm: "VREDUCEPD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VREDUCEPSMasked128", argLength: 2, reg: wkw, asm: "VREDUCEPS", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VREDUCEPSMasked256", argLength: 2, reg: wkw, asm: "VREDUCEPS", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VREDUCEPSMasked512", argLength: 2, reg: wkw, asm: "VREDUCEPS", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VREDUCEPDMasked128", argLength: 2, reg: wkw, asm: "VREDUCEPD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VREDUCEPDMasked256", argLength: 2, reg: wkw, asm: "VREDUCEPD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VREDUCEPDMasked512", argLength: 2, reg: wkw, asm: "VREDUCEPD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VCMPPS128", argLength: 2, reg: v21, asm: "VCMPPS", aux: "UInt8", commutative: true, typ: "Vec128", resultInArg0: false},
+               {name: "VCMPPS256", argLength: 2, reg: v21, asm: "VCMPPS", aux: "UInt8", commutative: true, typ: "Vec256", resultInArg0: false},
+               {name: "VCMPPS512", argLength: 2, reg: w2k, asm: "VCMPPS", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VCMPPD128", argLength: 2, reg: v21, asm: "VCMPPD", aux: "UInt8", commutative: true, typ: "Vec128", resultInArg0: false},
+               {name: "VCMPPD256", argLength: 2, reg: v21, asm: "VCMPPD", aux: "UInt8", commutative: true, typ: "Vec256", resultInArg0: false},
+               {name: "VCMPPD512", argLength: 2, reg: w2k, asm: "VCMPPD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VCMPPSMasked128", argLength: 3, reg: w2kk, asm: "VCMPPS", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VCMPPSMasked256", argLength: 3, reg: w2kk, asm: "VCMPPS", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VCMPPSMasked512", argLength: 3, reg: w2kk, asm: "VCMPPS", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VCMPPDMasked128", argLength: 3, reg: w2kk, asm: "VCMPPD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VCMPPDMasked256", argLength: 3, reg: w2kk, asm: "VCMPPD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VCMPPDMasked512", argLength: 3, reg: w2kk, asm: "VCMPPD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPBMasked128", argLength: 3, reg: w2kk, asm: "VPCMPB", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPBMasked256", argLength: 3, reg: w2kk, asm: "VPCMPB", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPBMasked512", argLength: 3, reg: w2kk, asm: "VPCMPB", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPWMasked128", argLength: 3, reg: w2kk, asm: "VPCMPW", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPWMasked256", argLength: 3, reg: w2kk, asm: "VPCMPW", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPWMasked512", argLength: 3, reg: w2kk, asm: "VPCMPW", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPDMasked128", argLength: 3, reg: w2kk, asm: "VPCMPD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPDMasked256", argLength: 3, reg: w2kk, asm: "VPCMPD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPDMasked512", argLength: 3, reg: w2kk, asm: "VPCMPD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPQMasked128", argLength: 3, reg: w2kk, asm: "VPCMPQ", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPQMasked256", argLength: 3, reg: w2kk, asm: "VPCMPQ", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPQMasked512", argLength: 3, reg: w2kk, asm: "VPCMPQ", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUBMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUB", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUBMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUB", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUBMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUB", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUWMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUW", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUWMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUW", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUWMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUW", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUDMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUDMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUDMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUD", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUQMasked128", argLength: 3, reg: w2kk, asm: "VPCMPUQ", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUQMasked256", argLength: 3, reg: w2kk, asm: "VPCMPUQ", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUQMasked512", argLength: 3, reg: w2kk, asm: "VPCMPUQ", aux: "UInt8", commutative: true, typ: "Mask", resultInArg0: false},
+               {name: "VGF2P8AFFINEQB128", argLength: 2, reg: w21, asm: "VGF2P8AFFINEQB", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VGF2P8AFFINEQB256", argLength: 2, reg: w21, asm: "VGF2P8AFFINEQB", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VGF2P8AFFINEQB512", argLength: 2, reg: w21, asm: "VGF2P8AFFINEQB", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VGF2P8AFFINEINVQB128", argLength: 2, reg: w21, asm: "VGF2P8AFFINEINVQB", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VGF2P8AFFINEINVQB256", argLength: 2, reg: w21, asm: "VGF2P8AFFINEINVQB", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VGF2P8AFFINEINVQB512", argLength: 2, reg: w21, asm: "VGF2P8AFFINEINVQB", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VGF2P8AFFINEINVQBMasked128", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEINVQB", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VGF2P8AFFINEINVQBMasked256", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEINVQB", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VGF2P8AFFINEINVQBMasked512", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEINVQB", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VGF2P8AFFINEQBMasked128", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEQB", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VGF2P8AFFINEQBMasked256", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEQB", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VGF2P8AFFINEQBMasked512", argLength: 3, reg: w2kw, asm: "VGF2P8AFFINEQB", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPEXTRB128", argLength: 1, reg: wgp, asm: "VPEXTRB", aux: "UInt8", commutative: false, typ: "int8", resultInArg0: false},
+               {name: "VPEXTRW128", argLength: 1, reg: wgp, asm: "VPEXTRW", aux: "UInt8", commutative: false, typ: "int16", resultInArg0: false},
+               {name: "VPEXTRD128", argLength: 1, reg: vgp, asm: "VPEXTRD", aux: "UInt8", commutative: false, typ: "int32", resultInArg0: false},
+               {name: "VPEXTRQ128", argLength: 1, reg: vgp, asm: "VPEXTRQ", aux: "UInt8", commutative: false, typ: "int64", resultInArg0: false},
+               {name: "VEXTRACTF128128", argLength: 1, reg: v11, asm: "VEXTRACTF128", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VEXTRACTF64X4256", argLength: 1, reg: w11, asm: "VEXTRACTF64X4", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VEXTRACTI128128", argLength: 1, reg: v11, asm: "VEXTRACTI128", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VEXTRACTI64X4256", argLength: 1, reg: w11, asm: "VEXTRACTI64X4", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPCMPUB128", argLength: 2, reg: w2k, asm: "VPCMPUB", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUB256", argLength: 2, reg: w2k, asm: "VPCMPUB", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUB512", argLength: 2, reg: w2k, asm: "VPCMPUB", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUW128", argLength: 2, reg: w2k, asm: "VPCMPUW", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUW256", argLength: 2, reg: w2k, asm: "VPCMPUW", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUW512", argLength: 2, reg: w2k, asm: "VPCMPUW", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUD128", argLength: 2, reg: w2k, asm: "VPCMPUD", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUD256", argLength: 2, reg: w2k, asm: "VPCMPUD", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUD512", argLength: 2, reg: w2k, asm: "VPCMPUD", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUQ128", argLength: 2, reg: w2k, asm: "VPCMPUQ", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUQ256", argLength: 2, reg: w2k, asm: "VPCMPUQ", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPUQ512", argLength: 2, reg: w2k, asm: "VPCMPUQ", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPB128", argLength: 2, reg: w2k, asm: "VPCMPB", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPB256", argLength: 2, reg: w2k, asm: "VPCMPB", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPB512", argLength: 2, reg: w2k, asm: "VPCMPB", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPW128", argLength: 2, reg: w2k, asm: "VPCMPW", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPW256", argLength: 2, reg: w2k, asm: "VPCMPW", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPW512", argLength: 2, reg: w2k, asm: "VPCMPW", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPD128", argLength: 2, reg: w2k, asm: "VPCMPD", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPD256", argLength: 2, reg: w2k, asm: "VPCMPD", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPD512", argLength: 2, reg: w2k, asm: "VPCMPD", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPQ128", argLength: 2, reg: w2k, asm: "VPCMPQ", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPQ256", argLength: 2, reg: w2k, asm: "VPCMPQ", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPCMPQ512", argLength: 2, reg: w2k, asm: "VPCMPQ", aux: "UInt8", commutative: false, typ: "Mask", resultInArg0: false},
+               {name: "VPROLD128", argLength: 1, reg: w11, asm: "VPROLD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPROLD256", argLength: 1, reg: w11, asm: "VPROLD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPROLD512", argLength: 1, reg: w11, asm: "VPROLD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPROLQ128", argLength: 1, reg: w11, asm: "VPROLQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPROLQ256", argLength: 1, reg: w11, asm: "VPROLQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPROLQ512", argLength: 1, reg: w11, asm: "VPROLQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPROLDMasked128", argLength: 2, reg: wkw, asm: "VPROLD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPROLDMasked256", argLength: 2, reg: wkw, asm: "VPROLD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPROLDMasked512", argLength: 2, reg: wkw, asm: "VPROLD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPROLQMasked128", argLength: 2, reg: wkw, asm: "VPROLQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPROLQMasked256", argLength: 2, reg: wkw, asm: "VPROLQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPROLQMasked512", argLength: 2, reg: wkw, asm: "VPROLQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPRORD128", argLength: 1, reg: w11, asm: "VPRORD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPRORD256", argLength: 1, reg: w11, asm: "VPRORD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPRORD512", argLength: 1, reg: w11, asm: "VPRORD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPRORQ128", argLength: 1, reg: w11, asm: "VPRORQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPRORQ256", argLength: 1, reg: w11, asm: "VPRORQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPRORQ512", argLength: 1, reg: w11, asm: "VPRORQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPRORDMasked128", argLength: 2, reg: wkw, asm: "VPRORD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPRORDMasked256", argLength: 2, reg: wkw, asm: "VPRORD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPRORDMasked512", argLength: 2, reg: wkw, asm: "VPRORD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPRORQMasked128", argLength: 2, reg: wkw, asm: "VPRORQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPRORQMasked256", argLength: 2, reg: wkw, asm: "VPRORQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPRORQMasked512", argLength: 2, reg: wkw, asm: "VPRORQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPINSRB128", argLength: 2, reg: vgpv, asm: "VPINSRB", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPINSRW128", argLength: 2, reg: vgpv, asm: "VPINSRW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPINSRD128", argLength: 2, reg: vgpv, asm: "VPINSRD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPINSRQ128", argLength: 2, reg: vgpv, asm: "VPINSRQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VINSERTF128256", argLength: 2, reg: v21, asm: "VINSERTF128", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VINSERTF64X4512", argLength: 2, reg: w21, asm: "VINSERTF64X4", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VINSERTI128256", argLength: 2, reg: v21, asm: "VINSERTI128", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VINSERTI64X4512", argLength: 2, reg: w21, asm: "VINSERTI64X4", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHLDW128", argLength: 2, reg: w21, asm: "VPSHLDW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHLDW256", argLength: 2, reg: w21, asm: "VPSHLDW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHLDW512", argLength: 2, reg: w21, asm: "VPSHLDW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHLDD128", argLength: 2, reg: w21, asm: "VPSHLDD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHLDD256", argLength: 2, reg: w21, asm: "VPSHLDD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHLDD512", argLength: 2, reg: w21, asm: "VPSHLDD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHLDQ128", argLength: 2, reg: w21, asm: "VPSHLDQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHLDQ256", argLength: 2, reg: w21, asm: "VPSHLDQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHLDQ512", argLength: 2, reg: w21, asm: "VPSHLDQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHLDWMasked128", argLength: 3, reg: w2kw, asm: "VPSHLDW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHLDWMasked256", argLength: 3, reg: w2kw, asm: "VPSHLDW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHLDWMasked512", argLength: 3, reg: w2kw, asm: "VPSHLDW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHLDDMasked128", argLength: 3, reg: w2kw, asm: "VPSHLDD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHLDDMasked256", argLength: 3, reg: w2kw, asm: "VPSHLDD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHLDDMasked512", argLength: 3, reg: w2kw, asm: "VPSHLDD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHLDQMasked128", argLength: 3, reg: w2kw, asm: "VPSHLDQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHLDQMasked256", argLength: 3, reg: w2kw, asm: "VPSHLDQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHLDQMasked512", argLength: 3, reg: w2kw, asm: "VPSHLDQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHRDW128", argLength: 2, reg: w21, asm: "VPSHRDW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHRDW256", argLength: 2, reg: w21, asm: "VPSHRDW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHRDW512", argLength: 2, reg: w21, asm: "VPSHRDW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHRDD128", argLength: 2, reg: w21, asm: "VPSHRDD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHRDD256", argLength: 2, reg: w21, asm: "VPSHRDD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHRDD512", argLength: 2, reg: w21, asm: "VPSHRDD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHRDQ128", argLength: 2, reg: w21, asm: "VPSHRDQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHRDQ256", argLength: 2, reg: w21, asm: "VPSHRDQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHRDQ512", argLength: 2, reg: w21, asm: "VPSHRDQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHRDWMasked128", argLength: 3, reg: w2kw, asm: "VPSHRDW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHRDWMasked256", argLength: 3, reg: w2kw, asm: "VPSHRDW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHRDWMasked512", argLength: 3, reg: w2kw, asm: "VPSHRDW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHRDDMasked128", argLength: 3, reg: w2kw, asm: "VPSHRDD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHRDDMasked256", argLength: 3, reg: w2kw, asm: "VPSHRDD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHRDDMasked512", argLength: 3, reg: w2kw, asm: "VPSHRDD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSHRDQMasked128", argLength: 3, reg: w2kw, asm: "VPSHRDQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSHRDQMasked256", argLength: 3, reg: w2kw, asm: "VPSHRDQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSHRDQMasked512", argLength: 3, reg: w2kw, asm: "VPSHRDQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSLLW128const", argLength: 1, reg: v11, asm: "VPSLLW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSLLW256const", argLength: 1, reg: v11, asm: "VPSLLW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSLLW512const", argLength: 1, reg: w11, asm: "VPSLLW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSLLD128const", argLength: 1, reg: v11, asm: "VPSLLD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSLLD256const", argLength: 1, reg: v11, asm: "VPSLLD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSLLD512const", argLength: 1, reg: w11, asm: "VPSLLD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSLLQ128const", argLength: 1, reg: v11, asm: "VPSLLQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSLLQ256const", argLength: 1, reg: v11, asm: "VPSLLQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSLLQ512const", argLength: 1, reg: w11, asm: "VPSLLQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSLLWMasked128const", argLength: 2, reg: wkw, asm: "VPSLLW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSLLWMasked256const", argLength: 2, reg: wkw, asm: "VPSLLW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSLLWMasked512const", argLength: 2, reg: wkw, asm: "VPSLLW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSLLDMasked128const", argLength: 2, reg: wkw, asm: "VPSLLD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSLLDMasked256const", argLength: 2, reg: wkw, asm: "VPSLLD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSLLDMasked512const", argLength: 2, reg: wkw, asm: "VPSLLD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSLLQMasked128const", argLength: 2, reg: wkw, asm: "VPSLLQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSLLQMasked256const", argLength: 2, reg: wkw, asm: "VPSLLQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSLLQMasked512const", argLength: 2, reg: wkw, asm: "VPSLLQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRLW128const", argLength: 1, reg: v11, asm: "VPSRLW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRLW256const", argLength: 1, reg: v11, asm: "VPSRLW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRLW512const", argLength: 1, reg: w11, asm: "VPSRLW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRLD128const", argLength: 1, reg: v11, asm: "VPSRLD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRLD256const", argLength: 1, reg: v11, asm: "VPSRLD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRLD512const", argLength: 1, reg: w11, asm: "VPSRLD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRLQ128const", argLength: 1, reg: v11, asm: "VPSRLQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRLQ256const", argLength: 1, reg: v11, asm: "VPSRLQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRLQ512const", argLength: 1, reg: w11, asm: "VPSRLQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRAW128const", argLength: 1, reg: v11, asm: "VPSRAW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRAW256const", argLength: 1, reg: v11, asm: "VPSRAW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRAW512const", argLength: 1, reg: w11, asm: "VPSRAW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRAD128const", argLength: 1, reg: v11, asm: "VPSRAD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRAD256const", argLength: 1, reg: v11, asm: "VPSRAD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRAD512const", argLength: 1, reg: w11, asm: "VPSRAD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRAQ128const", argLength: 1, reg: w11, asm: "VPSRAQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRAQ256const", argLength: 1, reg: w11, asm: "VPSRAQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRAQ512const", argLength: 1, reg: w11, asm: "VPSRAQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRLWMasked128const", argLength: 2, reg: wkw, asm: "VPSRLW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRLWMasked256const", argLength: 2, reg: wkw, asm: "VPSRLW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRLWMasked512const", argLength: 2, reg: wkw, asm: "VPSRLW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRLDMasked128const", argLength: 2, reg: wkw, asm: "VPSRLD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRLDMasked256const", argLength: 2, reg: wkw, asm: "VPSRLD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRLDMasked512const", argLength: 2, reg: wkw, asm: "VPSRLD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRLQMasked128const", argLength: 2, reg: wkw, asm: "VPSRLQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRLQMasked256const", argLength: 2, reg: wkw, asm: "VPSRLQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRLQMasked512const", argLength: 2, reg: wkw, asm: "VPSRLQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRAWMasked128const", argLength: 2, reg: wkw, asm: "VPSRAW", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRAWMasked256const", argLength: 2, reg: wkw, asm: "VPSRAW", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRAWMasked512const", argLength: 2, reg: wkw, asm: "VPSRAW", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRADMasked128const", argLength: 2, reg: wkw, asm: "VPSRAD", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRADMasked256const", argLength: 2, reg: wkw, asm: "VPSRAD", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRADMasked512const", argLength: 2, reg: wkw, asm: "VPSRAD", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
+               {name: "VPSRAQMasked128const", argLength: 2, reg: wkw, asm: "VPSRAQ", aux: "UInt8", commutative: false, typ: "Vec128", resultInArg0: false},
+               {name: "VPSRAQMasked256const", argLength: 2, reg: wkw, asm: "VPSRAQ", aux: "UInt8", commutative: false, typ: "Vec256", resultInArg0: false},
+               {name: "VPSRAQMasked512const", argLength: 2, reg: wkw, asm: "VPSRAQ", aux: "UInt8", commutative: false, typ: "Vec512", resultInArg0: false},
        }
 }
index 45c62f95a7ff85defa4a315dc2d646b2a9a72025..416c53c44542b9ac9bdefe70f8fc684e46cc1131 100644 (file)
@@ -1665,249 +1665,249 @@ func simdGenericOps() []opData {
                {name: "blendMaskedInt16x32", argLength: 3, commutative: false},
                {name: "blendMaskedInt32x16", argLength: 3, commutative: false},
                {name: "blendMaskedInt64x8", argLength: 3, commutative: false},
-               {name: "CeilScaledFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "CeilScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "FloorScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformInverseMaskedUint8x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformInverseMaskedUint8x32", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformInverseMaskedUint8x64", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformInverseUint8x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformInverseUint8x32", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformInverseUint8x64", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformMaskedUint8x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformMaskedUint8x32", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformMaskedUint8x64", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformUint8x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformUint8x32", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "GaloisFieldAffineTransformUint8x64", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "GetElemInt8x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "GetElemInt16x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "GetElemInt32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "GetElemInt64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "GetElemUint8x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "GetElemUint16x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "GetElemUint32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "GetElemUint64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftInt32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftInt32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftInt32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftInt64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftInt64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftInt64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedInt32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedInt32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedInt32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedInt64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedInt64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedInt64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedUint32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedUint32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedUint32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedUint64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedUint64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftMaskedUint64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftUint32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftUint32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftUint32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftUint64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftUint64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllLeftUint64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightInt32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightInt32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightInt32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightInt64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightInt64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightInt64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedInt32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedInt32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedInt32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedInt64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedInt64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedInt64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedUint32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedUint32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedUint32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedUint64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedUint64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightMaskedUint64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightUint32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightUint32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightUint32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightUint64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightUint64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RotateAllRightUint64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "RoundToEvenScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemInt8x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemInt16x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemInt32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemInt64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemUint8x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemUint16x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemUint32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "SetElemUint64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt16x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt16x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt16x32", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatInt64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt16x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt16x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt16x32", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt32x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt32x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt32x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt64x2", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt64x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedInt64x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint16x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint16x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint16x32", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint32x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint32x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint32x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint64x2", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint64x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatMaskedUint64x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint16x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint16x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint16x32", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllLeftConcatUint64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt16x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt16x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt16x32", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatInt64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt16x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt16x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt16x32", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt32x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt32x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt32x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt64x2", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt64x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedInt64x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint16x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint16x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint16x32", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint32x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint32x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint32x16", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint64x2", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint64x4", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatMaskedUint64x8", argLength: 3, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint16x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint16x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint16x32", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "ShiftAllRightConcatUint64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "Int8"},
-               {name: "TruncScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "Int8"},
+               {name: "CeilScaledFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "CeilScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "FloorScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformInverseMaskedUint8x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformInverseMaskedUint8x32", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformInverseMaskedUint8x64", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformInverseUint8x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformInverseUint8x32", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformInverseUint8x64", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformMaskedUint8x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformMaskedUint8x32", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformMaskedUint8x64", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformUint8x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformUint8x32", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "GaloisFieldAffineTransformUint8x64", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "GetElemInt8x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "GetElemInt16x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "GetElemInt32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "GetElemInt64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "GetElemUint8x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "GetElemUint16x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "GetElemUint32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "GetElemUint64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftInt32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftInt32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftInt32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftInt64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftInt64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftInt64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedInt32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedInt32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedInt32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedInt64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedInt64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedInt64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedUint32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedUint32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedUint32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedUint64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedUint64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftMaskedUint64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftUint32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftUint32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftUint32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftUint64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftUint64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllLeftUint64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightInt32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightInt32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightInt32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightInt64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightInt64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightInt64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedInt32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedInt32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedInt32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedInt64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedInt64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedInt64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedUint32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedUint32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedUint32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedUint64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedUint64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightMaskedUint64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightUint32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightUint32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightUint32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightUint64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightUint64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RotateAllRightUint64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "RoundToEvenScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemInt8x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemInt16x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemInt32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemInt64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemUint8x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemUint16x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemUint32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "SetElemUint64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt16x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt16x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt16x32", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatInt64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt16x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt16x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt16x32", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt32x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt32x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt32x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt64x2", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt64x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedInt64x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint16x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint16x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint16x32", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint32x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint32x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint32x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint64x2", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint64x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatMaskedUint64x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint16x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint16x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint16x32", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllLeftConcatUint64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt16x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt16x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt16x32", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatInt64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt16x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt16x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt16x32", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt32x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt32x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt32x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt64x2", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt64x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedInt64x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint16x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint16x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint16x32", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint32x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint32x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint32x16", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint64x2", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint64x4", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatMaskedUint64x8", argLength: 3, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint16x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint16x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint16x32", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "ShiftAllRightConcatUint64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueFloat32x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueFloat32x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueFloat32x16", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueFloat64x2", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueFloat64x4", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueFloat64x8", argLength: 1, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueMaskedFloat32x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueMaskedFloat32x8", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueMaskedFloat32x16", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueMaskedFloat64x2", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueMaskedFloat64x4", argLength: 2, commutative: false, aux: "UInt8"},
+               {name: "TruncScaledResidueMaskedFloat64x8", argLength: 2, commutative: false, aux: "UInt8"},
        }
 }
index f33c9bc87b8f1bb9249e41d40da176dfdc76a4f8..6baa3cc311571b6397deabaf835e6b4552292d39 100644 (file)
@@ -150,7 +150,8 @@ func checkFunc(f *Func) {
                        case auxInt128:
                                // AuxInt must be zero, so leave canHaveAuxInt set to false.
                        case auxUInt8:
-                               if v.AuxInt != int64(uint8(v.AuxInt)) {
+                               // Cast to int8 due to requirement of AuxInt, check its comment for details.
+                               if v.AuxInt != int64(int8(v.AuxInt)) {
                                        f.Fatalf("bad uint8 AuxInt value for %v", v)
                                }
                                canHaveAuxInt = true
index 8bf850d78ed503f6b3cf42c908e7e68426cd92a1..d4e4f710a76c33ca85f888d5bf3d7891679d95af 100644 (file)
@@ -32362,7 +32362,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VROUNDPS128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVROUNDPS,
                reg: regInfo{
@@ -32376,7 +32376,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VROUNDPS256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVROUNDPS,
                reg: regInfo{
@@ -32390,7 +32390,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VROUNDPD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVROUNDPD,
                reg: regInfo{
@@ -32404,7 +32404,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VROUNDPD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVROUNDPD,
                reg: regInfo{
@@ -32418,7 +32418,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPS128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVRNDSCALEPS,
                reg: regInfo{
@@ -32432,7 +32432,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPS256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVRNDSCALEPS,
                reg: regInfo{
@@ -32446,7 +32446,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPS512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVRNDSCALEPS,
                reg: regInfo{
@@ -32460,7 +32460,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVRNDSCALEPD,
                reg: regInfo{
@@ -32474,7 +32474,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVRNDSCALEPD,
                reg: regInfo{
@@ -32488,7 +32488,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVRNDSCALEPD,
                reg: regInfo{
@@ -32502,7 +32502,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPSMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVRNDSCALEPS,
                reg: regInfo{
@@ -32517,7 +32517,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPSMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVRNDSCALEPS,
                reg: regInfo{
@@ -32532,7 +32532,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPSMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVRNDSCALEPS,
                reg: regInfo{
@@ -32547,7 +32547,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPDMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVRNDSCALEPD,
                reg: regInfo{
@@ -32562,7 +32562,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPDMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVRNDSCALEPD,
                reg: regInfo{
@@ -32577,7 +32577,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VRNDSCALEPDMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVRNDSCALEPD,
                reg: regInfo{
@@ -32592,7 +32592,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPS128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVREDUCEPS,
                reg: regInfo{
@@ -32606,7 +32606,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPS256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVREDUCEPS,
                reg: regInfo{
@@ -32620,7 +32620,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPS512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVREDUCEPS,
                reg: regInfo{
@@ -32634,7 +32634,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVREDUCEPD,
                reg: regInfo{
@@ -32648,7 +32648,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVREDUCEPD,
                reg: regInfo{
@@ -32662,7 +32662,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVREDUCEPD,
                reg: regInfo{
@@ -32676,7 +32676,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPSMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVREDUCEPS,
                reg: regInfo{
@@ -32691,7 +32691,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPSMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVREDUCEPS,
                reg: regInfo{
@@ -32706,7 +32706,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPSMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVREDUCEPS,
                reg: regInfo{
@@ -32721,7 +32721,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPDMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVREDUCEPD,
                reg: regInfo{
@@ -32736,7 +32736,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPDMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVREDUCEPD,
                reg: regInfo{
@@ -32751,7 +32751,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VREDUCEPDMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVREDUCEPD,
                reg: regInfo{
@@ -32766,7 +32766,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPS128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      2,
                commutative: true,
                asm:         x86.AVCMPPS,
@@ -32782,7 +32782,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPS256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      2,
                commutative: true,
                asm:         x86.AVCMPPS,
@@ -32798,7 +32798,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPS512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      2,
                commutative: true,
                asm:         x86.AVCMPPS,
@@ -32814,7 +32814,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPD128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      2,
                commutative: true,
                asm:         x86.AVCMPPD,
@@ -32830,7 +32830,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPD256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      2,
                commutative: true,
                asm:         x86.AVCMPPD,
@@ -32846,7 +32846,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPD512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      2,
                commutative: true,
                asm:         x86.AVCMPPD,
@@ -32862,7 +32862,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPSMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVCMPPS,
@@ -32879,7 +32879,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPSMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVCMPPS,
@@ -32896,7 +32896,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPSMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVCMPPS,
@@ -32913,7 +32913,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPDMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVCMPPD,
@@ -32930,7 +32930,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPDMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVCMPPD,
@@ -32947,7 +32947,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VCMPPDMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVCMPPD,
@@ -32964,7 +32964,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPBMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPB,
@@ -32981,7 +32981,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPBMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPB,
@@ -32998,7 +32998,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPBMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPB,
@@ -33015,7 +33015,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPWMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPW,
@@ -33032,7 +33032,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPWMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPW,
@@ -33049,7 +33049,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPWMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPW,
@@ -33066,7 +33066,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPDMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPD,
@@ -33083,7 +33083,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPDMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPD,
@@ -33100,7 +33100,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPDMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPD,
@@ -33117,7 +33117,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPQMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPQ,
@@ -33134,7 +33134,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPQMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPQ,
@@ -33151,7 +33151,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPQMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPQ,
@@ -33168,7 +33168,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUBMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUB,
@@ -33185,7 +33185,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUBMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUB,
@@ -33202,7 +33202,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUBMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUB,
@@ -33219,7 +33219,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUWMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUW,
@@ -33236,7 +33236,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUWMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUW,
@@ -33253,7 +33253,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUWMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUW,
@@ -33270,7 +33270,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUDMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUD,
@@ -33287,7 +33287,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUDMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUD,
@@ -33304,7 +33304,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUDMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUD,
@@ -33321,7 +33321,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUQMasked128",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUQ,
@@ -33338,7 +33338,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUQMasked256",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUQ,
@@ -33355,7 +33355,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:        "VPCMPUQMasked512",
-               auxType:     auxInt8,
+               auxType:     auxUInt8,
                argLen:      3,
                commutative: true,
                asm:         x86.AVPCMPUQ,
@@ -33372,7 +33372,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEQB128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVGF2P8AFFINEQB,
                reg: regInfo{
@@ -33387,7 +33387,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEQB256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVGF2P8AFFINEQB,
                reg: regInfo{
@@ -33402,7 +33402,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEQB512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVGF2P8AFFINEQB,
                reg: regInfo{
@@ -33417,7 +33417,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEINVQB128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVGF2P8AFFINEINVQB,
                reg: regInfo{
@@ -33432,7 +33432,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEINVQB256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVGF2P8AFFINEINVQB,
                reg: regInfo{
@@ -33447,7 +33447,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEINVQB512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVGF2P8AFFINEINVQB,
                reg: regInfo{
@@ -33462,7 +33462,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEINVQBMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVGF2P8AFFINEINVQB,
                reg: regInfo{
@@ -33478,7 +33478,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEINVQBMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVGF2P8AFFINEINVQB,
                reg: regInfo{
@@ -33494,7 +33494,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEINVQBMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVGF2P8AFFINEINVQB,
                reg: regInfo{
@@ -33510,7 +33510,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEQBMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVGF2P8AFFINEQB,
                reg: regInfo{
@@ -33526,7 +33526,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEQBMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVGF2P8AFFINEQB,
                reg: regInfo{
@@ -33542,7 +33542,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VGF2P8AFFINEQBMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVGF2P8AFFINEQB,
                reg: regInfo{
@@ -33558,7 +33558,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPEXTRB128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPEXTRB,
                reg: regInfo{
@@ -33572,7 +33572,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPEXTRW128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPEXTRW,
                reg: regInfo{
@@ -33586,7 +33586,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPEXTRD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPEXTRD,
                reg: regInfo{
@@ -33600,7 +33600,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPEXTRQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPEXTRQ,
                reg: regInfo{
@@ -33614,7 +33614,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VEXTRACTF128128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVEXTRACTF128,
                reg: regInfo{
@@ -33628,7 +33628,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VEXTRACTF64X4256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVEXTRACTF64X4,
                reg: regInfo{
@@ -33642,7 +33642,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VEXTRACTI128128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVEXTRACTI128,
                reg: regInfo{
@@ -33656,7 +33656,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VEXTRACTI64X4256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVEXTRACTI64X4,
                reg: regInfo{
@@ -33670,7 +33670,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUB128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUB,
                reg: regInfo{
@@ -33685,7 +33685,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUB256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUB,
                reg: regInfo{
@@ -33700,7 +33700,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUB512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUB,
                reg: regInfo{
@@ -33715,7 +33715,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUW128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUW,
                reg: regInfo{
@@ -33730,7 +33730,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUW256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUW,
                reg: regInfo{
@@ -33745,7 +33745,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUW512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUW,
                reg: regInfo{
@@ -33760,7 +33760,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUD,
                reg: regInfo{
@@ -33775,7 +33775,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUD,
                reg: regInfo{
@@ -33790,7 +33790,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUD,
                reg: regInfo{
@@ -33805,7 +33805,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUQ,
                reg: regInfo{
@@ -33820,7 +33820,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUQ256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUQ,
                reg: regInfo{
@@ -33835,7 +33835,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPUQ512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPUQ,
                reg: regInfo{
@@ -33850,7 +33850,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPB128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPB,
                reg: regInfo{
@@ -33865,7 +33865,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPB256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPB,
                reg: regInfo{
@@ -33880,7 +33880,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPB512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPB,
                reg: regInfo{
@@ -33895,7 +33895,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPW128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPW,
                reg: regInfo{
@@ -33910,7 +33910,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPW256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPW,
                reg: regInfo{
@@ -33925,7 +33925,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPW512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPW,
                reg: regInfo{
@@ -33940,7 +33940,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPD,
                reg: regInfo{
@@ -33955,7 +33955,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPD,
                reg: regInfo{
@@ -33970,7 +33970,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPD,
                reg: regInfo{
@@ -33985,7 +33985,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPQ,
                reg: regInfo{
@@ -34000,7 +34000,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPQ256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPQ,
                reg: regInfo{
@@ -34015,7 +34015,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPCMPQ512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPCMPQ,
                reg: regInfo{
@@ -34030,7 +34030,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPROLD,
                reg: regInfo{
@@ -34044,7 +34044,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPROLD,
                reg: regInfo{
@@ -34058,7 +34058,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPROLD,
                reg: regInfo{
@@ -34072,7 +34072,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPROLQ,
                reg: regInfo{
@@ -34086,7 +34086,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLQ256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPROLQ,
                reg: regInfo{
@@ -34100,7 +34100,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLQ512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPROLQ,
                reg: regInfo{
@@ -34114,7 +34114,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLDMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPROLD,
                reg: regInfo{
@@ -34129,7 +34129,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLDMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPROLD,
                reg: regInfo{
@@ -34144,7 +34144,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLDMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPROLD,
                reg: regInfo{
@@ -34159,7 +34159,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLQMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPROLQ,
                reg: regInfo{
@@ -34174,7 +34174,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLQMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPROLQ,
                reg: regInfo{
@@ -34189,7 +34189,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPROLQMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPROLQ,
                reg: regInfo{
@@ -34204,7 +34204,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPRORD,
                reg: regInfo{
@@ -34218,7 +34218,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPRORD,
                reg: regInfo{
@@ -34232,7 +34232,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPRORD,
                reg: regInfo{
@@ -34246,7 +34246,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPRORQ,
                reg: regInfo{
@@ -34260,7 +34260,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORQ256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPRORQ,
                reg: regInfo{
@@ -34274,7 +34274,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORQ512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPRORQ,
                reg: regInfo{
@@ -34288,7 +34288,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORDMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPRORD,
                reg: regInfo{
@@ -34303,7 +34303,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORDMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPRORD,
                reg: regInfo{
@@ -34318,7 +34318,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORDMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPRORD,
                reg: regInfo{
@@ -34333,7 +34333,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORQMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPRORQ,
                reg: regInfo{
@@ -34348,7 +34348,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORQMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPRORQ,
                reg: regInfo{
@@ -34363,7 +34363,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPRORQMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPRORQ,
                reg: regInfo{
@@ -34378,7 +34378,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPINSRB128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPINSRB,
                reg: regInfo{
@@ -34393,7 +34393,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPINSRW128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPINSRW,
                reg: regInfo{
@@ -34408,7 +34408,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPINSRD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPINSRD,
                reg: regInfo{
@@ -34423,7 +34423,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPINSRQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPINSRQ,
                reg: regInfo{
@@ -34438,7 +34438,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VINSERTF128256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVINSERTF128,
                reg: regInfo{
@@ -34453,7 +34453,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VINSERTF64X4512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVINSERTF64X4,
                reg: regInfo{
@@ -34468,7 +34468,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VINSERTI128256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVINSERTI128,
                reg: regInfo{
@@ -34483,7 +34483,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VINSERTI64X4512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVINSERTI64X4,
                reg: regInfo{
@@ -34498,7 +34498,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDW128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDW,
                reg: regInfo{
@@ -34513,7 +34513,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDW256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDW,
                reg: regInfo{
@@ -34528,7 +34528,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDW512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDW,
                reg: regInfo{
@@ -34543,7 +34543,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDD,
                reg: regInfo{
@@ -34558,7 +34558,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDD,
                reg: regInfo{
@@ -34573,7 +34573,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDD,
                reg: regInfo{
@@ -34588,7 +34588,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDQ,
                reg: regInfo{
@@ -34603,7 +34603,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDQ256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDQ,
                reg: regInfo{
@@ -34618,7 +34618,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDQ512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHLDQ,
                reg: regInfo{
@@ -34633,7 +34633,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDWMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDW,
                reg: regInfo{
@@ -34649,7 +34649,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDWMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDW,
                reg: regInfo{
@@ -34665,7 +34665,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDWMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDW,
                reg: regInfo{
@@ -34681,7 +34681,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDDMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDD,
                reg: regInfo{
@@ -34697,7 +34697,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDDMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDD,
                reg: regInfo{
@@ -34713,7 +34713,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDDMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDD,
                reg: regInfo{
@@ -34729,7 +34729,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDQMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDQ,
                reg: regInfo{
@@ -34745,7 +34745,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDQMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDQ,
                reg: regInfo{
@@ -34761,7 +34761,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHLDQMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHLDQ,
                reg: regInfo{
@@ -34777,7 +34777,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDW128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDW,
                reg: regInfo{
@@ -34792,7 +34792,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDW256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDW,
                reg: regInfo{
@@ -34807,7 +34807,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDW512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDW,
                reg: regInfo{
@@ -34822,7 +34822,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDD128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDD,
                reg: regInfo{
@@ -34837,7 +34837,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDD256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDD,
                reg: regInfo{
@@ -34852,7 +34852,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDD512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDD,
                reg: regInfo{
@@ -34867,7 +34867,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDQ128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDQ,
                reg: regInfo{
@@ -34882,7 +34882,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDQ256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDQ,
                reg: regInfo{
@@ -34897,7 +34897,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDQ512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSHRDQ,
                reg: regInfo{
@@ -34912,7 +34912,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDWMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDW,
                reg: regInfo{
@@ -34928,7 +34928,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDWMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDW,
                reg: regInfo{
@@ -34944,7 +34944,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDWMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDW,
                reg: regInfo{
@@ -34960,7 +34960,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDDMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDD,
                reg: regInfo{
@@ -34976,7 +34976,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDDMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDD,
                reg: regInfo{
@@ -34992,7 +34992,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDDMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDD,
                reg: regInfo{
@@ -35008,7 +35008,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDQMasked128",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDQ,
                reg: regInfo{
@@ -35024,7 +35024,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDQMasked256",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDQ,
                reg: regInfo{
@@ -35040,7 +35040,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSHRDQMasked512",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                asm:     x86.AVPSHRDQ,
                reg: regInfo{
@@ -35056,7 +35056,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLW128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLW,
                reg: regInfo{
@@ -35070,7 +35070,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLW256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLW,
                reg: regInfo{
@@ -35084,7 +35084,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLW512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLW,
                reg: regInfo{
@@ -35098,7 +35098,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLD128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLD,
                reg: regInfo{
@@ -35112,7 +35112,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLD256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLD,
                reg: regInfo{
@@ -35126,7 +35126,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLD512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLD,
                reg: regInfo{
@@ -35140,7 +35140,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLQ128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLQ,
                reg: regInfo{
@@ -35154,7 +35154,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLQ256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLQ,
                reg: regInfo{
@@ -35168,7 +35168,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLQ512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSLLQ,
                reg: regInfo{
@@ -35182,7 +35182,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLWMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLW,
                reg: regInfo{
@@ -35197,7 +35197,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLWMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLW,
                reg: regInfo{
@@ -35212,7 +35212,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLWMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLW,
                reg: regInfo{
@@ -35227,7 +35227,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLDMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLD,
                reg: regInfo{
@@ -35242,7 +35242,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLDMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLD,
                reg: regInfo{
@@ -35257,7 +35257,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLDMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLD,
                reg: regInfo{
@@ -35272,7 +35272,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLQMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLQ,
                reg: regInfo{
@@ -35287,7 +35287,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLQMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLQ,
                reg: regInfo{
@@ -35302,7 +35302,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSLLQMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSLLQ,
                reg: regInfo{
@@ -35317,7 +35317,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLW128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLW,
                reg: regInfo{
@@ -35331,7 +35331,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLW256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLW,
                reg: regInfo{
@@ -35345,7 +35345,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLW512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLW,
                reg: regInfo{
@@ -35359,7 +35359,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLD128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLD,
                reg: regInfo{
@@ -35373,7 +35373,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLD256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLD,
                reg: regInfo{
@@ -35387,7 +35387,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLD512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLD,
                reg: regInfo{
@@ -35401,7 +35401,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLQ128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLQ,
                reg: regInfo{
@@ -35415,7 +35415,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLQ256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLQ,
                reg: regInfo{
@@ -35429,7 +35429,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLQ512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRLQ,
                reg: regInfo{
@@ -35443,7 +35443,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAW128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAW,
                reg: regInfo{
@@ -35457,7 +35457,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAW256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAW,
                reg: regInfo{
@@ -35471,7 +35471,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAW512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAW,
                reg: regInfo{
@@ -35485,7 +35485,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAD128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAD,
                reg: regInfo{
@@ -35499,7 +35499,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAD256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAD,
                reg: regInfo{
@@ -35513,7 +35513,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAD512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAD,
                reg: regInfo{
@@ -35527,7 +35527,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAQ128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAQ,
                reg: regInfo{
@@ -35541,7 +35541,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAQ256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAQ,
                reg: regInfo{
@@ -35555,7 +35555,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAQ512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                asm:     x86.AVPSRAQ,
                reg: regInfo{
@@ -35569,7 +35569,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLWMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLW,
                reg: regInfo{
@@ -35584,7 +35584,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLWMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLW,
                reg: regInfo{
@@ -35599,7 +35599,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLWMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLW,
                reg: regInfo{
@@ -35614,7 +35614,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLDMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLD,
                reg: regInfo{
@@ -35629,7 +35629,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLDMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLD,
                reg: regInfo{
@@ -35644,7 +35644,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLDMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLD,
                reg: regInfo{
@@ -35659,7 +35659,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLQMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLQ,
                reg: regInfo{
@@ -35674,7 +35674,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLQMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLQ,
                reg: regInfo{
@@ -35689,7 +35689,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRLQMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRLQ,
                reg: regInfo{
@@ -35704,7 +35704,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAWMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAW,
                reg: regInfo{
@@ -35719,7 +35719,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAWMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAW,
                reg: regInfo{
@@ -35734,7 +35734,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAWMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAW,
                reg: regInfo{
@@ -35749,7 +35749,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRADMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAD,
                reg: regInfo{
@@ -35764,7 +35764,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRADMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAD,
                reg: regInfo{
@@ -35779,7 +35779,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRADMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAD,
                reg: regInfo{
@@ -35794,7 +35794,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAQMasked128const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAQ,
                reg: regInfo{
@@ -35809,7 +35809,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAQMasked256const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAQ,
                reg: regInfo{
@@ -35824,7 +35824,7 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "VPSRAQMasked512const",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                asm:     x86.AVPSRAQ,
                reg: regInfo{
@@ -72174,1465 +72174,1465 @@ var opcodeTable = [...]opInfo{
        },
        {
                name:    "CeilScaledFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledResidueFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledResidueFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledResidueFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledResidueFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledResidueFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledResidueFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "CeilScaledResidueMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledResidueMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledResidueMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledResidueMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledResidueMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "CeilScaledResidueMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledResidueFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledResidueFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledResidueFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledResidueFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledResidueFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledResidueFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "FloorScaledResidueMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledResidueMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledResidueMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledResidueMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledResidueMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "FloorScaledResidueMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformInverseMaskedUint8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformInverseMaskedUint8x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformInverseMaskedUint8x64",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformInverseUint8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformInverseUint8x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformInverseUint8x64",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformMaskedUint8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformMaskedUint8x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformMaskedUint8x64",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformUint8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformUint8x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "GaloisFieldAffineTransformUint8x64",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "GetElemInt8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "GetElemInt16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "GetElemInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "GetElemInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "GetElemUint8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "GetElemUint16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "GetElemUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "GetElemUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftMaskedUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllLeftUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllLeftUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightMaskedUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RotateAllRightUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RotateAllRightUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "RoundToEvenScaledResidueMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemInt8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemInt16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemUint8x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemUint16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "SetElemUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatMaskedUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllLeftConcatUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedInt64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatMaskedUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  3,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint16x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint16x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint16x32",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "ShiftAllRightConcatUint64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledResidueFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledResidueFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledResidueFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledResidueFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledResidueFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledResidueFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  1,
                generic: true,
        },
        {
                name:    "TruncScaledResidueMaskedFloat32x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledResidueMaskedFloat32x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledResidueMaskedFloat32x16",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledResidueMaskedFloat64x2",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledResidueMaskedFloat64x4",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
        {
                name:    "TruncScaledResidueMaskedFloat64x8",
-               auxType: auxInt8,
+               auxType: auxUInt8,
                argLen:  2,
                generic: true,
        },
index 20d014361ee89905726cf87f0d75bb05c52473c7..865b404d1419da03c1371bcf65968f7e49bd0da0 100644 (file)
@@ -30852,7 +30852,7 @@ func rewriteValueAMD64_OpCeilFloat32x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS128)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg(x)
                return true
        }
@@ -30864,7 +30864,7 @@ func rewriteValueAMD64_OpCeilFloat32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS256)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg(x)
                return true
        }
@@ -30876,7 +30876,7 @@ func rewriteValueAMD64_OpCeilFloat64x2(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD128)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg(x)
                return true
        }
@@ -30888,7 +30888,7 @@ func rewriteValueAMD64_OpCeilFloat64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD256)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg(x)
                return true
        }
@@ -30898,10 +30898,10 @@ func rewriteValueAMD64_OpCeilScaledFloat32x16(v *Value) bool {
        // match: (CeilScaledFloat32x16 [a] x)
        // result: (VRNDSCALEPS512 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -30911,10 +30911,10 @@ func rewriteValueAMD64_OpCeilScaledFloat32x4(v *Value) bool {
        // match: (CeilScaledFloat32x4 [a] x)
        // result: (VRNDSCALEPS128 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -30924,10 +30924,10 @@ func rewriteValueAMD64_OpCeilScaledFloat32x8(v *Value) bool {
        // match: (CeilScaledFloat32x8 [a] x)
        // result: (VRNDSCALEPS256 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -30937,10 +30937,10 @@ func rewriteValueAMD64_OpCeilScaledFloat64x2(v *Value) bool {
        // match: (CeilScaledFloat64x2 [a] x)
        // result: (VRNDSCALEPD128 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -30950,10 +30950,10 @@ func rewriteValueAMD64_OpCeilScaledFloat64x4(v *Value) bool {
        // match: (CeilScaledFloat64x4 [a] x)
        // result: (VRNDSCALEPD256 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -30963,10 +30963,10 @@ func rewriteValueAMD64_OpCeilScaledFloat64x8(v *Value) bool {
        // match: (CeilScaledFloat64x8 [a] x)
        // result: (VRNDSCALEPD512 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -30978,11 +30978,11 @@ func rewriteValueAMD64_OpCeilScaledMaskedFloat32x16(v *Value) bool {
        // match: (CeilScaledMaskedFloat32x16 [a] x mask)
        // result: (VRNDSCALEPSMasked512 [a+2] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -30996,11 +30996,11 @@ func rewriteValueAMD64_OpCeilScaledMaskedFloat32x4(v *Value) bool {
        // match: (CeilScaledMaskedFloat32x4 [a] x mask)
        // result: (VRNDSCALEPSMasked128 [a+2] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31014,11 +31014,11 @@ func rewriteValueAMD64_OpCeilScaledMaskedFloat32x8(v *Value) bool {
        // match: (CeilScaledMaskedFloat32x8 [a] x mask)
        // result: (VRNDSCALEPSMasked256 [a+2] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31032,11 +31032,11 @@ func rewriteValueAMD64_OpCeilScaledMaskedFloat64x2(v *Value) bool {
        // match: (CeilScaledMaskedFloat64x2 [a] x mask)
        // result: (VRNDSCALEPDMasked128 [a+2] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31050,11 +31050,11 @@ func rewriteValueAMD64_OpCeilScaledMaskedFloat64x4(v *Value) bool {
        // match: (CeilScaledMaskedFloat64x4 [a] x mask)
        // result: (VRNDSCALEPDMasked256 [a+2] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31068,11 +31068,11 @@ func rewriteValueAMD64_OpCeilScaledMaskedFloat64x8(v *Value) bool {
        // match: (CeilScaledMaskedFloat64x8 [a] x mask)
        // result: (VRNDSCALEPDMasked512 [a+2] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31084,10 +31084,10 @@ func rewriteValueAMD64_OpCeilScaledResidueFloat32x16(v *Value) bool {
        // match: (CeilScaledResidueFloat32x16 [a] x)
        // result: (VREDUCEPS512 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -31097,10 +31097,10 @@ func rewriteValueAMD64_OpCeilScaledResidueFloat32x4(v *Value) bool {
        // match: (CeilScaledResidueFloat32x4 [a] x)
        // result: (VREDUCEPS128 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -31110,10 +31110,10 @@ func rewriteValueAMD64_OpCeilScaledResidueFloat32x8(v *Value) bool {
        // match: (CeilScaledResidueFloat32x8 [a] x)
        // result: (VREDUCEPS256 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -31123,10 +31123,10 @@ func rewriteValueAMD64_OpCeilScaledResidueFloat64x2(v *Value) bool {
        // match: (CeilScaledResidueFloat64x2 [a] x)
        // result: (VREDUCEPD128 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -31136,10 +31136,10 @@ func rewriteValueAMD64_OpCeilScaledResidueFloat64x4(v *Value) bool {
        // match: (CeilScaledResidueFloat64x4 [a] x)
        // result: (VREDUCEPD256 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -31149,10 +31149,10 @@ func rewriteValueAMD64_OpCeilScaledResidueFloat64x8(v *Value) bool {
        // match: (CeilScaledResidueFloat64x8 [a] x)
        // result: (VREDUCEPD512 [a+2] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v.AddArg(x)
                return true
        }
@@ -31164,11 +31164,11 @@ func rewriteValueAMD64_OpCeilScaledResidueMaskedFloat32x16(v *Value) bool {
        // match: (CeilScaledResidueMaskedFloat32x16 [a] x mask)
        // result: (VREDUCEPSMasked512 [a+2] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31182,11 +31182,11 @@ func rewriteValueAMD64_OpCeilScaledResidueMaskedFloat32x4(v *Value) bool {
        // match: (CeilScaledResidueMaskedFloat32x4 [a] x mask)
        // result: (VREDUCEPSMasked128 [a+2] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31200,11 +31200,11 @@ func rewriteValueAMD64_OpCeilScaledResidueMaskedFloat32x8(v *Value) bool {
        // match: (CeilScaledResidueMaskedFloat32x8 [a] x mask)
        // result: (VREDUCEPSMasked256 [a+2] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31218,11 +31218,11 @@ func rewriteValueAMD64_OpCeilScaledResidueMaskedFloat64x2(v *Value) bool {
        // match: (CeilScaledResidueMaskedFloat64x2 [a] x mask)
        // result: (VREDUCEPDMasked128 [a+2] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31236,11 +31236,11 @@ func rewriteValueAMD64_OpCeilScaledResidueMaskedFloat64x4(v *Value) bool {
        // match: (CeilScaledResidueMaskedFloat64x4 [a] x mask)
        // result: (VREDUCEPDMasked256 [a+2] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -31254,11 +31254,11 @@ func rewriteValueAMD64_OpCeilScaledResidueMaskedFloat64x8(v *Value) bool {
        // match: (CeilScaledResidueMaskedFloat64x8 [a] x mask)
        // result: (VREDUCEPDMasked512 [a+2] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 2)
+               v.AuxInt = uint8ToAuxInt(a + 2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -33864,7 +33864,7 @@ func rewriteValueAMD64_OpEqualFloat32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPS512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -33879,7 +33879,7 @@ func rewriteValueAMD64_OpEqualFloat32x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -33893,7 +33893,7 @@ func rewriteValueAMD64_OpEqualFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -33907,7 +33907,7 @@ func rewriteValueAMD64_OpEqualFloat64x2(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -33921,7 +33921,7 @@ func rewriteValueAMD64_OpEqualFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -33938,7 +33938,7 @@ func rewriteValueAMD64_OpEqualFloat64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -34026,7 +34026,7 @@ func rewriteValueAMD64_OpEqualMaskedFloat32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34048,7 +34048,7 @@ func rewriteValueAMD64_OpEqualMaskedFloat32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34070,7 +34070,7 @@ func rewriteValueAMD64_OpEqualMaskedFloat32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34092,7 +34092,7 @@ func rewriteValueAMD64_OpEqualMaskedFloat64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34114,7 +34114,7 @@ func rewriteValueAMD64_OpEqualMaskedFloat64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34136,7 +34136,7 @@ func rewriteValueAMD64_OpEqualMaskedFloat64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34158,7 +34158,7 @@ func rewriteValueAMD64_OpEqualMaskedInt16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34180,7 +34180,7 @@ func rewriteValueAMD64_OpEqualMaskedInt16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34202,7 +34202,7 @@ func rewriteValueAMD64_OpEqualMaskedInt16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34224,7 +34224,7 @@ func rewriteValueAMD64_OpEqualMaskedInt32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34246,7 +34246,7 @@ func rewriteValueAMD64_OpEqualMaskedInt32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34268,7 +34268,7 @@ func rewriteValueAMD64_OpEqualMaskedInt32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34290,7 +34290,7 @@ func rewriteValueAMD64_OpEqualMaskedInt64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34312,7 +34312,7 @@ func rewriteValueAMD64_OpEqualMaskedInt64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34334,7 +34334,7 @@ func rewriteValueAMD64_OpEqualMaskedInt64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34356,7 +34356,7 @@ func rewriteValueAMD64_OpEqualMaskedInt8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34378,7 +34378,7 @@ func rewriteValueAMD64_OpEqualMaskedInt8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34400,7 +34400,7 @@ func rewriteValueAMD64_OpEqualMaskedInt8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34422,7 +34422,7 @@ func rewriteValueAMD64_OpEqualMaskedUint16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34444,7 +34444,7 @@ func rewriteValueAMD64_OpEqualMaskedUint16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34466,7 +34466,7 @@ func rewriteValueAMD64_OpEqualMaskedUint16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34488,7 +34488,7 @@ func rewriteValueAMD64_OpEqualMaskedUint32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34510,7 +34510,7 @@ func rewriteValueAMD64_OpEqualMaskedUint32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34532,7 +34532,7 @@ func rewriteValueAMD64_OpEqualMaskedUint32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34554,7 +34554,7 @@ func rewriteValueAMD64_OpEqualMaskedUint64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34576,7 +34576,7 @@ func rewriteValueAMD64_OpEqualMaskedUint64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34598,7 +34598,7 @@ func rewriteValueAMD64_OpEqualMaskedUint64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34620,7 +34620,7 @@ func rewriteValueAMD64_OpEqualMaskedUint8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34642,7 +34642,7 @@ func rewriteValueAMD64_OpEqualMaskedUint8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -34664,7 +34664,7 @@ func rewriteValueAMD64_OpEqualMaskedUint8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(0)
+               v0.AuxInt = uint8ToAuxInt(0)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -35254,7 +35254,7 @@ func rewriteValueAMD64_OpFloorFloat32x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35266,7 +35266,7 @@ func rewriteValueAMD64_OpFloorFloat32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35278,7 +35278,7 @@ func rewriteValueAMD64_OpFloorFloat64x2(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35290,7 +35290,7 @@ func rewriteValueAMD64_OpFloorFloat64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35300,10 +35300,10 @@ func rewriteValueAMD64_OpFloorScaledFloat32x16(v *Value) bool {
        // match: (FloorScaledFloat32x16 [a] x)
        // result: (VRNDSCALEPS512 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35313,10 +35313,10 @@ func rewriteValueAMD64_OpFloorScaledFloat32x4(v *Value) bool {
        // match: (FloorScaledFloat32x4 [a] x)
        // result: (VRNDSCALEPS128 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35326,10 +35326,10 @@ func rewriteValueAMD64_OpFloorScaledFloat32x8(v *Value) bool {
        // match: (FloorScaledFloat32x8 [a] x)
        // result: (VRNDSCALEPS256 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35339,10 +35339,10 @@ func rewriteValueAMD64_OpFloorScaledFloat64x2(v *Value) bool {
        // match: (FloorScaledFloat64x2 [a] x)
        // result: (VRNDSCALEPD128 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35352,10 +35352,10 @@ func rewriteValueAMD64_OpFloorScaledFloat64x4(v *Value) bool {
        // match: (FloorScaledFloat64x4 [a] x)
        // result: (VRNDSCALEPD256 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35365,10 +35365,10 @@ func rewriteValueAMD64_OpFloorScaledFloat64x8(v *Value) bool {
        // match: (FloorScaledFloat64x8 [a] x)
        // result: (VRNDSCALEPD512 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35380,11 +35380,11 @@ func rewriteValueAMD64_OpFloorScaledMaskedFloat32x16(v *Value) bool {
        // match: (FloorScaledMaskedFloat32x16 [a] x mask)
        // result: (VRNDSCALEPSMasked512 [a+1] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35398,11 +35398,11 @@ func rewriteValueAMD64_OpFloorScaledMaskedFloat32x4(v *Value) bool {
        // match: (FloorScaledMaskedFloat32x4 [a] x mask)
        // result: (VRNDSCALEPSMasked128 [a+1] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35416,11 +35416,11 @@ func rewriteValueAMD64_OpFloorScaledMaskedFloat32x8(v *Value) bool {
        // match: (FloorScaledMaskedFloat32x8 [a] x mask)
        // result: (VRNDSCALEPSMasked256 [a+1] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35434,11 +35434,11 @@ func rewriteValueAMD64_OpFloorScaledMaskedFloat64x2(v *Value) bool {
        // match: (FloorScaledMaskedFloat64x2 [a] x mask)
        // result: (VRNDSCALEPDMasked128 [a+1] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35452,11 +35452,11 @@ func rewriteValueAMD64_OpFloorScaledMaskedFloat64x4(v *Value) bool {
        // match: (FloorScaledMaskedFloat64x4 [a] x mask)
        // result: (VRNDSCALEPDMasked256 [a+1] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35470,11 +35470,11 @@ func rewriteValueAMD64_OpFloorScaledMaskedFloat64x8(v *Value) bool {
        // match: (FloorScaledMaskedFloat64x8 [a] x mask)
        // result: (VRNDSCALEPDMasked512 [a+1] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35486,10 +35486,10 @@ func rewriteValueAMD64_OpFloorScaledResidueFloat32x16(v *Value) bool {
        // match: (FloorScaledResidueFloat32x16 [a] x)
        // result: (VREDUCEPS512 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35499,10 +35499,10 @@ func rewriteValueAMD64_OpFloorScaledResidueFloat32x4(v *Value) bool {
        // match: (FloorScaledResidueFloat32x4 [a] x)
        // result: (VREDUCEPS128 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35512,10 +35512,10 @@ func rewriteValueAMD64_OpFloorScaledResidueFloat32x8(v *Value) bool {
        // match: (FloorScaledResidueFloat32x8 [a] x)
        // result: (VREDUCEPS256 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35525,10 +35525,10 @@ func rewriteValueAMD64_OpFloorScaledResidueFloat64x2(v *Value) bool {
        // match: (FloorScaledResidueFloat64x2 [a] x)
        // result: (VREDUCEPD128 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35538,10 +35538,10 @@ func rewriteValueAMD64_OpFloorScaledResidueFloat64x4(v *Value) bool {
        // match: (FloorScaledResidueFloat64x4 [a] x)
        // result: (VREDUCEPD256 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35551,10 +35551,10 @@ func rewriteValueAMD64_OpFloorScaledResidueFloat64x8(v *Value) bool {
        // match: (FloorScaledResidueFloat64x8 [a] x)
        // result: (VREDUCEPD512 [a+1] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v.AddArg(x)
                return true
        }
@@ -35566,11 +35566,11 @@ func rewriteValueAMD64_OpFloorScaledResidueMaskedFloat32x16(v *Value) bool {
        // match: (FloorScaledResidueMaskedFloat32x16 [a] x mask)
        // result: (VREDUCEPSMasked512 [a+1] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35584,11 +35584,11 @@ func rewriteValueAMD64_OpFloorScaledResidueMaskedFloat32x4(v *Value) bool {
        // match: (FloorScaledResidueMaskedFloat32x4 [a] x mask)
        // result: (VREDUCEPSMasked128 [a+1] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35602,11 +35602,11 @@ func rewriteValueAMD64_OpFloorScaledResidueMaskedFloat32x8(v *Value) bool {
        // match: (FloorScaledResidueMaskedFloat32x8 [a] x mask)
        // result: (VREDUCEPSMasked256 [a+1] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35620,11 +35620,11 @@ func rewriteValueAMD64_OpFloorScaledResidueMaskedFloat64x2(v *Value) bool {
        // match: (FloorScaledResidueMaskedFloat64x2 [a] x mask)
        // result: (VREDUCEPDMasked128 [a+1] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35638,11 +35638,11 @@ func rewriteValueAMD64_OpFloorScaledResidueMaskedFloat64x4(v *Value) bool {
        // match: (FloorScaledResidueMaskedFloat64x4 [a] x mask)
        // result: (VREDUCEPDMasked256 [a+1] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35656,11 +35656,11 @@ func rewriteValueAMD64_OpFloorScaledResidueMaskedFloat64x8(v *Value) bool {
        // match: (FloorScaledResidueMaskedFloat64x8 [a] x mask)
        // result: (VREDUCEPDMasked512 [a+1] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 1)
+               v.AuxInt = uint8ToAuxInt(a + 1)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -35675,12 +35675,12 @@ func rewriteValueAMD64_OpGaloisFieldAffineTransformInverseMaskedUint8x16(v *Valu
        // match: (GaloisFieldAffineTransformInverseMaskedUint8x16 [a] x y mask)
        // result: (VGF2P8AFFINEINVQBMasked128 [a] x y (VPMOVVec8x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VGF2P8AFFINEINVQBMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -35695,12 +35695,12 @@ func rewriteValueAMD64_OpGaloisFieldAffineTransformInverseMaskedUint8x32(v *Valu
        // match: (GaloisFieldAffineTransformInverseMaskedUint8x32 [a] x y mask)
        // result: (VGF2P8AFFINEINVQBMasked256 [a] x y (VPMOVVec8x32ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VGF2P8AFFINEINVQBMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -35715,12 +35715,12 @@ func rewriteValueAMD64_OpGaloisFieldAffineTransformInverseMaskedUint8x64(v *Valu
        // match: (GaloisFieldAffineTransformInverseMaskedUint8x64 [a] x y mask)
        // result: (VGF2P8AFFINEINVQBMasked512 [a] x y (VPMOVVec8x64ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VGF2P8AFFINEINVQBMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -35735,12 +35735,12 @@ func rewriteValueAMD64_OpGaloisFieldAffineTransformMaskedUint8x16(v *Value) bool
        // match: (GaloisFieldAffineTransformMaskedUint8x16 [a] x y mask)
        // result: (VGF2P8AFFINEQBMasked128 [a] x y (VPMOVVec8x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VGF2P8AFFINEQBMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -35755,12 +35755,12 @@ func rewriteValueAMD64_OpGaloisFieldAffineTransformMaskedUint8x32(v *Value) bool
        // match: (GaloisFieldAffineTransformMaskedUint8x32 [a] x y mask)
        // result: (VGF2P8AFFINEQBMasked256 [a] x y (VPMOVVec8x32ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VGF2P8AFFINEQBMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -35775,12 +35775,12 @@ func rewriteValueAMD64_OpGaloisFieldAffineTransformMaskedUint8x64(v *Value) bool
        // match: (GaloisFieldAffineTransformMaskedUint8x64 [a] x y mask)
        // result: (VGF2P8AFFINEQBMasked512 [a] x y (VPMOVVec8x64ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VGF2P8AFFINEQBMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -35864,7 +35864,7 @@ func rewriteValueAMD64_OpGetHiFloat32x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35876,7 +35876,7 @@ func rewriteValueAMD64_OpGetHiFloat32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35888,7 +35888,7 @@ func rewriteValueAMD64_OpGetHiFloat64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35900,7 +35900,7 @@ func rewriteValueAMD64_OpGetHiFloat64x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35912,7 +35912,7 @@ func rewriteValueAMD64_OpGetHiInt16x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35924,7 +35924,7 @@ func rewriteValueAMD64_OpGetHiInt16x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35936,7 +35936,7 @@ func rewriteValueAMD64_OpGetHiInt32x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35948,7 +35948,7 @@ func rewriteValueAMD64_OpGetHiInt32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35960,7 +35960,7 @@ func rewriteValueAMD64_OpGetHiInt64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35972,7 +35972,7 @@ func rewriteValueAMD64_OpGetHiInt64x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35984,7 +35984,7 @@ func rewriteValueAMD64_OpGetHiInt8x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -35996,7 +35996,7 @@ func rewriteValueAMD64_OpGetHiInt8x64(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36008,7 +36008,7 @@ func rewriteValueAMD64_OpGetHiUint16x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36020,7 +36020,7 @@ func rewriteValueAMD64_OpGetHiUint16x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36032,7 +36032,7 @@ func rewriteValueAMD64_OpGetHiUint32x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36044,7 +36044,7 @@ func rewriteValueAMD64_OpGetHiUint32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36056,7 +36056,7 @@ func rewriteValueAMD64_OpGetHiUint64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36068,7 +36068,7 @@ func rewriteValueAMD64_OpGetHiUint64x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36080,7 +36080,7 @@ func rewriteValueAMD64_OpGetHiUint8x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36092,7 +36092,7 @@ func rewriteValueAMD64_OpGetHiUint8x64(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg(x)
                return true
        }
@@ -36104,7 +36104,7 @@ func rewriteValueAMD64_OpGetLoFloat32x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36116,7 +36116,7 @@ func rewriteValueAMD64_OpGetLoFloat32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36128,7 +36128,7 @@ func rewriteValueAMD64_OpGetLoFloat64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36140,7 +36140,7 @@ func rewriteValueAMD64_OpGetLoFloat64x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTF64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36152,7 +36152,7 @@ func rewriteValueAMD64_OpGetLoInt16x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36164,7 +36164,7 @@ func rewriteValueAMD64_OpGetLoInt16x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36176,7 +36176,7 @@ func rewriteValueAMD64_OpGetLoInt32x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36188,7 +36188,7 @@ func rewriteValueAMD64_OpGetLoInt32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36200,7 +36200,7 @@ func rewriteValueAMD64_OpGetLoInt64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36212,7 +36212,7 @@ func rewriteValueAMD64_OpGetLoInt64x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36224,7 +36224,7 @@ func rewriteValueAMD64_OpGetLoInt8x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36236,7 +36236,7 @@ func rewriteValueAMD64_OpGetLoInt8x64(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36248,7 +36248,7 @@ func rewriteValueAMD64_OpGetLoUint16x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36260,7 +36260,7 @@ func rewriteValueAMD64_OpGetLoUint16x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36272,7 +36272,7 @@ func rewriteValueAMD64_OpGetLoUint32x16(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36284,7 +36284,7 @@ func rewriteValueAMD64_OpGetLoUint32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36296,7 +36296,7 @@ func rewriteValueAMD64_OpGetLoUint64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36308,7 +36308,7 @@ func rewriteValueAMD64_OpGetLoUint64x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36320,7 +36320,7 @@ func rewriteValueAMD64_OpGetLoUint8x32(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI128128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36332,7 +36332,7 @@ func rewriteValueAMD64_OpGetLoUint8x64(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VEXTRACTI64X4256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -36349,7 +36349,7 @@ func rewriteValueAMD64_OpGreaterEqualFloat32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPS512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36364,7 +36364,7 @@ func rewriteValueAMD64_OpGreaterEqualFloat32x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS128)
-               v.AuxInt = int8ToAuxInt(13)
+               v.AuxInt = uint8ToAuxInt(13)
                v.AddArg2(x, y)
                return true
        }
@@ -36378,7 +36378,7 @@ func rewriteValueAMD64_OpGreaterEqualFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS256)
-               v.AuxInt = int8ToAuxInt(13)
+               v.AuxInt = uint8ToAuxInt(13)
                v.AddArg2(x, y)
                return true
        }
@@ -36392,7 +36392,7 @@ func rewriteValueAMD64_OpGreaterEqualFloat64x2(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD128)
-               v.AuxInt = int8ToAuxInt(13)
+               v.AuxInt = uint8ToAuxInt(13)
                v.AddArg2(x, y)
                return true
        }
@@ -36406,7 +36406,7 @@ func rewriteValueAMD64_OpGreaterEqualFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD256)
-               v.AuxInt = int8ToAuxInt(13)
+               v.AuxInt = uint8ToAuxInt(13)
                v.AddArg2(x, y)
                return true
        }
@@ -36423,7 +36423,7 @@ func rewriteValueAMD64_OpGreaterEqualFloat64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36441,7 +36441,7 @@ func rewriteValueAMD64_OpGreaterEqualInt16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36459,7 +36459,7 @@ func rewriteValueAMD64_OpGreaterEqualInt16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36477,7 +36477,7 @@ func rewriteValueAMD64_OpGreaterEqualInt16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36495,7 +36495,7 @@ func rewriteValueAMD64_OpGreaterEqualInt32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36513,7 +36513,7 @@ func rewriteValueAMD64_OpGreaterEqualInt32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36531,7 +36531,7 @@ func rewriteValueAMD64_OpGreaterEqualInt32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36549,7 +36549,7 @@ func rewriteValueAMD64_OpGreaterEqualInt64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36567,7 +36567,7 @@ func rewriteValueAMD64_OpGreaterEqualInt64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36585,7 +36585,7 @@ func rewriteValueAMD64_OpGreaterEqualInt64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36603,7 +36603,7 @@ func rewriteValueAMD64_OpGreaterEqualInt8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36621,7 +36621,7 @@ func rewriteValueAMD64_OpGreaterEqualInt8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36639,7 +36639,7 @@ func rewriteValueAMD64_OpGreaterEqualInt8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -36659,7 +36659,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedFloat32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36681,7 +36681,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedFloat32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36703,7 +36703,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedFloat32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36725,7 +36725,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedFloat64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36747,7 +36747,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedFloat64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36769,7 +36769,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedFloat64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36791,7 +36791,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36813,7 +36813,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36835,7 +36835,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36857,7 +36857,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36879,7 +36879,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36901,7 +36901,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36923,7 +36923,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36945,7 +36945,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36967,7 +36967,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -36989,7 +36989,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37011,7 +37011,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37033,7 +37033,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedInt8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37055,7 +37055,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37077,7 +37077,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37099,7 +37099,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37121,7 +37121,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37143,7 +37143,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37165,7 +37165,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37187,7 +37187,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37209,7 +37209,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37231,7 +37231,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37253,7 +37253,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37275,7 +37275,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37297,7 +37297,7 @@ func rewriteValueAMD64_OpGreaterEqualMaskedUint8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37317,7 +37317,7 @@ func rewriteValueAMD64_OpGreaterEqualUint16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37335,7 +37335,7 @@ func rewriteValueAMD64_OpGreaterEqualUint16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37353,7 +37353,7 @@ func rewriteValueAMD64_OpGreaterEqualUint16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37371,7 +37371,7 @@ func rewriteValueAMD64_OpGreaterEqualUint32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37389,7 +37389,7 @@ func rewriteValueAMD64_OpGreaterEqualUint32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37407,7 +37407,7 @@ func rewriteValueAMD64_OpGreaterEqualUint32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37425,7 +37425,7 @@ func rewriteValueAMD64_OpGreaterEqualUint64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37443,7 +37443,7 @@ func rewriteValueAMD64_OpGreaterEqualUint64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37461,7 +37461,7 @@ func rewriteValueAMD64_OpGreaterEqualUint64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37479,7 +37479,7 @@ func rewriteValueAMD64_OpGreaterEqualUint8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37497,7 +37497,7 @@ func rewriteValueAMD64_OpGreaterEqualUint8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37515,7 +37515,7 @@ func rewriteValueAMD64_OpGreaterEqualUint8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(13)
+               v0.AuxInt = uint8ToAuxInt(13)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37533,7 +37533,7 @@ func rewriteValueAMD64_OpGreaterFloat32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPS512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37548,7 +37548,7 @@ func rewriteValueAMD64_OpGreaterFloat32x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS128)
-               v.AuxInt = int8ToAuxInt(14)
+               v.AuxInt = uint8ToAuxInt(14)
                v.AddArg2(x, y)
                return true
        }
@@ -37562,7 +37562,7 @@ func rewriteValueAMD64_OpGreaterFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS256)
-               v.AuxInt = int8ToAuxInt(14)
+               v.AuxInt = uint8ToAuxInt(14)
                v.AddArg2(x, y)
                return true
        }
@@ -37576,7 +37576,7 @@ func rewriteValueAMD64_OpGreaterFloat64x2(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD128)
-               v.AuxInt = int8ToAuxInt(14)
+               v.AuxInt = uint8ToAuxInt(14)
                v.AddArg2(x, y)
                return true
        }
@@ -37590,7 +37590,7 @@ func rewriteValueAMD64_OpGreaterFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD256)
-               v.AuxInt = int8ToAuxInt(14)
+               v.AuxInt = uint8ToAuxInt(14)
                v.AddArg2(x, y)
                return true
        }
@@ -37607,7 +37607,7 @@ func rewriteValueAMD64_OpGreaterFloat64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -37695,7 +37695,7 @@ func rewriteValueAMD64_OpGreaterMaskedFloat32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37717,7 +37717,7 @@ func rewriteValueAMD64_OpGreaterMaskedFloat32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37739,7 +37739,7 @@ func rewriteValueAMD64_OpGreaterMaskedFloat32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37761,7 +37761,7 @@ func rewriteValueAMD64_OpGreaterMaskedFloat64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37783,7 +37783,7 @@ func rewriteValueAMD64_OpGreaterMaskedFloat64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37805,7 +37805,7 @@ func rewriteValueAMD64_OpGreaterMaskedFloat64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37827,7 +37827,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37849,7 +37849,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37871,7 +37871,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37893,7 +37893,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37915,7 +37915,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37937,7 +37937,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37959,7 +37959,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -37981,7 +37981,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38003,7 +38003,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38025,7 +38025,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38047,7 +38047,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38069,7 +38069,7 @@ func rewriteValueAMD64_OpGreaterMaskedInt8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38091,7 +38091,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38113,7 +38113,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38135,7 +38135,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38157,7 +38157,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38179,7 +38179,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38201,7 +38201,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38223,7 +38223,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38245,7 +38245,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38267,7 +38267,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38289,7 +38289,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38311,7 +38311,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38333,7 +38333,7 @@ func rewriteValueAMD64_OpGreaterMaskedUint8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38353,7 +38353,7 @@ func rewriteValueAMD64_OpGreaterUint16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38371,7 +38371,7 @@ func rewriteValueAMD64_OpGreaterUint16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38389,7 +38389,7 @@ func rewriteValueAMD64_OpGreaterUint16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38407,7 +38407,7 @@ func rewriteValueAMD64_OpGreaterUint32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38425,7 +38425,7 @@ func rewriteValueAMD64_OpGreaterUint32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38443,7 +38443,7 @@ func rewriteValueAMD64_OpGreaterUint32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38461,7 +38461,7 @@ func rewriteValueAMD64_OpGreaterUint64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38479,7 +38479,7 @@ func rewriteValueAMD64_OpGreaterUint64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38497,7 +38497,7 @@ func rewriteValueAMD64_OpGreaterUint64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38515,7 +38515,7 @@ func rewriteValueAMD64_OpGreaterUint8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38533,7 +38533,7 @@ func rewriteValueAMD64_OpGreaterUint8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38551,7 +38551,7 @@ func rewriteValueAMD64_OpGreaterUint8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(14)
+               v0.AuxInt = uint8ToAuxInt(14)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38602,7 +38602,7 @@ func rewriteValueAMD64_OpIsNanFloat32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPS512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38617,7 +38617,7 @@ func rewriteValueAMD64_OpIsNanFloat32x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS128)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg2(x, y)
                return true
        }
@@ -38631,7 +38631,7 @@ func rewriteValueAMD64_OpIsNanFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS256)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg2(x, y)
                return true
        }
@@ -38645,7 +38645,7 @@ func rewriteValueAMD64_OpIsNanFloat64x2(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD128)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg2(x, y)
                return true
        }
@@ -38659,7 +38659,7 @@ func rewriteValueAMD64_OpIsNanFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD256)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg2(x, y)
                return true
        }
@@ -38676,7 +38676,7 @@ func rewriteValueAMD64_OpIsNanFloat64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -38696,7 +38696,7 @@ func rewriteValueAMD64_OpIsNanMaskedFloat32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38718,7 +38718,7 @@ func rewriteValueAMD64_OpIsNanMaskedFloat32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38740,7 +38740,7 @@ func rewriteValueAMD64_OpIsNanMaskedFloat32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38762,7 +38762,7 @@ func rewriteValueAMD64_OpIsNanMaskedFloat64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38784,7 +38784,7 @@ func rewriteValueAMD64_OpIsNanMaskedFloat64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -38806,7 +38806,7 @@ func rewriteValueAMD64_OpIsNanMaskedFloat64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(3)
+               v0.AuxInt = uint8ToAuxInt(3)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39176,7 +39176,7 @@ func rewriteValueAMD64_OpLessEqualFloat32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPS512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39191,7 +39191,7 @@ func rewriteValueAMD64_OpLessEqualFloat32x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS128)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg2(x, y)
                return true
        }
@@ -39205,7 +39205,7 @@ func rewriteValueAMD64_OpLessEqualFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS256)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg2(x, y)
                return true
        }
@@ -39219,7 +39219,7 @@ func rewriteValueAMD64_OpLessEqualFloat64x2(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD128)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg2(x, y)
                return true
        }
@@ -39233,7 +39233,7 @@ func rewriteValueAMD64_OpLessEqualFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD256)
-               v.AuxInt = int8ToAuxInt(2)
+               v.AuxInt = uint8ToAuxInt(2)
                v.AddArg2(x, y)
                return true
        }
@@ -39250,7 +39250,7 @@ func rewriteValueAMD64_OpLessEqualFloat64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39268,7 +39268,7 @@ func rewriteValueAMD64_OpLessEqualInt16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39286,7 +39286,7 @@ func rewriteValueAMD64_OpLessEqualInt16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39304,7 +39304,7 @@ func rewriteValueAMD64_OpLessEqualInt16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39322,7 +39322,7 @@ func rewriteValueAMD64_OpLessEqualInt32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39340,7 +39340,7 @@ func rewriteValueAMD64_OpLessEqualInt32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39358,7 +39358,7 @@ func rewriteValueAMD64_OpLessEqualInt32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39376,7 +39376,7 @@ func rewriteValueAMD64_OpLessEqualInt64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39394,7 +39394,7 @@ func rewriteValueAMD64_OpLessEqualInt64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39412,7 +39412,7 @@ func rewriteValueAMD64_OpLessEqualInt64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39430,7 +39430,7 @@ func rewriteValueAMD64_OpLessEqualInt8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39448,7 +39448,7 @@ func rewriteValueAMD64_OpLessEqualInt8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39466,7 +39466,7 @@ func rewriteValueAMD64_OpLessEqualInt8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -39486,7 +39486,7 @@ func rewriteValueAMD64_OpLessEqualMaskedFloat32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39508,7 +39508,7 @@ func rewriteValueAMD64_OpLessEqualMaskedFloat32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39530,7 +39530,7 @@ func rewriteValueAMD64_OpLessEqualMaskedFloat32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39552,7 +39552,7 @@ func rewriteValueAMD64_OpLessEqualMaskedFloat64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39574,7 +39574,7 @@ func rewriteValueAMD64_OpLessEqualMaskedFloat64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39596,7 +39596,7 @@ func rewriteValueAMD64_OpLessEqualMaskedFloat64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39618,7 +39618,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39640,7 +39640,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39662,7 +39662,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39684,7 +39684,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39706,7 +39706,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39728,7 +39728,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39750,7 +39750,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39772,7 +39772,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39794,7 +39794,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39816,7 +39816,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39838,7 +39838,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39860,7 +39860,7 @@ func rewriteValueAMD64_OpLessEqualMaskedInt8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39882,7 +39882,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39904,7 +39904,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39926,7 +39926,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39948,7 +39948,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39970,7 +39970,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -39992,7 +39992,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40014,7 +40014,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40036,7 +40036,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40058,7 +40058,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40080,7 +40080,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40102,7 +40102,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40124,7 +40124,7 @@ func rewriteValueAMD64_OpLessEqualMaskedUint8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40144,7 +40144,7 @@ func rewriteValueAMD64_OpLessEqualUint16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40162,7 +40162,7 @@ func rewriteValueAMD64_OpLessEqualUint16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40180,7 +40180,7 @@ func rewriteValueAMD64_OpLessEqualUint16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40198,7 +40198,7 @@ func rewriteValueAMD64_OpLessEqualUint32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40216,7 +40216,7 @@ func rewriteValueAMD64_OpLessEqualUint32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40234,7 +40234,7 @@ func rewriteValueAMD64_OpLessEqualUint32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40252,7 +40252,7 @@ func rewriteValueAMD64_OpLessEqualUint64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40270,7 +40270,7 @@ func rewriteValueAMD64_OpLessEqualUint64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40288,7 +40288,7 @@ func rewriteValueAMD64_OpLessEqualUint64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40306,7 +40306,7 @@ func rewriteValueAMD64_OpLessEqualUint8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40324,7 +40324,7 @@ func rewriteValueAMD64_OpLessEqualUint8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40342,7 +40342,7 @@ func rewriteValueAMD64_OpLessEqualUint8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(2)
+               v0.AuxInt = uint8ToAuxInt(2)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40360,7 +40360,7 @@ func rewriteValueAMD64_OpLessFloat32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPS512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40375,7 +40375,7 @@ func rewriteValueAMD64_OpLessFloat32x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -40389,7 +40389,7 @@ func rewriteValueAMD64_OpLessFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -40403,7 +40403,7 @@ func rewriteValueAMD64_OpLessFloat64x2(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD128)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -40417,7 +40417,7 @@ func rewriteValueAMD64_OpLessFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -40434,7 +40434,7 @@ func rewriteValueAMD64_OpLessFloat64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40452,7 +40452,7 @@ func rewriteValueAMD64_OpLessInt16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40470,7 +40470,7 @@ func rewriteValueAMD64_OpLessInt16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40488,7 +40488,7 @@ func rewriteValueAMD64_OpLessInt16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40506,7 +40506,7 @@ func rewriteValueAMD64_OpLessInt32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40524,7 +40524,7 @@ func rewriteValueAMD64_OpLessInt32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40542,7 +40542,7 @@ func rewriteValueAMD64_OpLessInt32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40560,7 +40560,7 @@ func rewriteValueAMD64_OpLessInt64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40578,7 +40578,7 @@ func rewriteValueAMD64_OpLessInt64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40596,7 +40596,7 @@ func rewriteValueAMD64_OpLessInt64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40614,7 +40614,7 @@ func rewriteValueAMD64_OpLessInt8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40632,7 +40632,7 @@ func rewriteValueAMD64_OpLessInt8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40650,7 +40650,7 @@ func rewriteValueAMD64_OpLessInt8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -40670,7 +40670,7 @@ func rewriteValueAMD64_OpLessMaskedFloat32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40692,7 +40692,7 @@ func rewriteValueAMD64_OpLessMaskedFloat32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40714,7 +40714,7 @@ func rewriteValueAMD64_OpLessMaskedFloat32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40736,7 +40736,7 @@ func rewriteValueAMD64_OpLessMaskedFloat64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40758,7 +40758,7 @@ func rewriteValueAMD64_OpLessMaskedFloat64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40780,7 +40780,7 @@ func rewriteValueAMD64_OpLessMaskedFloat64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40802,7 +40802,7 @@ func rewriteValueAMD64_OpLessMaskedInt16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40824,7 +40824,7 @@ func rewriteValueAMD64_OpLessMaskedInt16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40846,7 +40846,7 @@ func rewriteValueAMD64_OpLessMaskedInt16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40868,7 +40868,7 @@ func rewriteValueAMD64_OpLessMaskedInt32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40890,7 +40890,7 @@ func rewriteValueAMD64_OpLessMaskedInt32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40912,7 +40912,7 @@ func rewriteValueAMD64_OpLessMaskedInt32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40934,7 +40934,7 @@ func rewriteValueAMD64_OpLessMaskedInt64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40956,7 +40956,7 @@ func rewriteValueAMD64_OpLessMaskedInt64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -40978,7 +40978,7 @@ func rewriteValueAMD64_OpLessMaskedInt64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41000,7 +41000,7 @@ func rewriteValueAMD64_OpLessMaskedInt8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41022,7 +41022,7 @@ func rewriteValueAMD64_OpLessMaskedInt8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41044,7 +41044,7 @@ func rewriteValueAMD64_OpLessMaskedInt8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41066,7 +41066,7 @@ func rewriteValueAMD64_OpLessMaskedUint16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41088,7 +41088,7 @@ func rewriteValueAMD64_OpLessMaskedUint16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41110,7 +41110,7 @@ func rewriteValueAMD64_OpLessMaskedUint16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41132,7 +41132,7 @@ func rewriteValueAMD64_OpLessMaskedUint32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41154,7 +41154,7 @@ func rewriteValueAMD64_OpLessMaskedUint32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41176,7 +41176,7 @@ func rewriteValueAMD64_OpLessMaskedUint32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41198,7 +41198,7 @@ func rewriteValueAMD64_OpLessMaskedUint64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41220,7 +41220,7 @@ func rewriteValueAMD64_OpLessMaskedUint64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41242,7 +41242,7 @@ func rewriteValueAMD64_OpLessMaskedUint64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41264,7 +41264,7 @@ func rewriteValueAMD64_OpLessMaskedUint8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41286,7 +41286,7 @@ func rewriteValueAMD64_OpLessMaskedUint8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41308,7 +41308,7 @@ func rewriteValueAMD64_OpLessMaskedUint8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -41328,7 +41328,7 @@ func rewriteValueAMD64_OpLessUint16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41346,7 +41346,7 @@ func rewriteValueAMD64_OpLessUint16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41364,7 +41364,7 @@ func rewriteValueAMD64_OpLessUint16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41382,7 +41382,7 @@ func rewriteValueAMD64_OpLessUint32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41400,7 +41400,7 @@ func rewriteValueAMD64_OpLessUint32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41418,7 +41418,7 @@ func rewriteValueAMD64_OpLessUint32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41436,7 +41436,7 @@ func rewriteValueAMD64_OpLessUint64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41454,7 +41454,7 @@ func rewriteValueAMD64_OpLessUint64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41472,7 +41472,7 @@ func rewriteValueAMD64_OpLessUint64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41490,7 +41490,7 @@ func rewriteValueAMD64_OpLessUint8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41508,7 +41508,7 @@ func rewriteValueAMD64_OpLessUint8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -41526,7 +41526,7 @@ func rewriteValueAMD64_OpLessUint8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(1)
+               v0.AuxInt = uint8ToAuxInt(1)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45493,7 +45493,7 @@ func rewriteValueAMD64_OpNotEqualFloat32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPS512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45508,7 +45508,7 @@ func rewriteValueAMD64_OpNotEqualFloat32x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS128)
-               v.AuxInt = int8ToAuxInt(4)
+               v.AuxInt = uint8ToAuxInt(4)
                v.AddArg2(x, y)
                return true
        }
@@ -45522,7 +45522,7 @@ func rewriteValueAMD64_OpNotEqualFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPS256)
-               v.AuxInt = int8ToAuxInt(4)
+               v.AuxInt = uint8ToAuxInt(4)
                v.AddArg2(x, y)
                return true
        }
@@ -45536,7 +45536,7 @@ func rewriteValueAMD64_OpNotEqualFloat64x2(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD128)
-               v.AuxInt = int8ToAuxInt(4)
+               v.AuxInt = uint8ToAuxInt(4)
                v.AddArg2(x, y)
                return true
        }
@@ -45550,7 +45550,7 @@ func rewriteValueAMD64_OpNotEqualFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VCMPPD256)
-               v.AuxInt = int8ToAuxInt(4)
+               v.AuxInt = uint8ToAuxInt(4)
                v.AddArg2(x, y)
                return true
        }
@@ -45567,7 +45567,7 @@ func rewriteValueAMD64_OpNotEqualFloat64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45585,7 +45585,7 @@ func rewriteValueAMD64_OpNotEqualInt16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45603,7 +45603,7 @@ func rewriteValueAMD64_OpNotEqualInt16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45621,7 +45621,7 @@ func rewriteValueAMD64_OpNotEqualInt16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45639,7 +45639,7 @@ func rewriteValueAMD64_OpNotEqualInt32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45657,7 +45657,7 @@ func rewriteValueAMD64_OpNotEqualInt32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45675,7 +45675,7 @@ func rewriteValueAMD64_OpNotEqualInt32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45693,7 +45693,7 @@ func rewriteValueAMD64_OpNotEqualInt64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45711,7 +45711,7 @@ func rewriteValueAMD64_OpNotEqualInt64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45729,7 +45729,7 @@ func rewriteValueAMD64_OpNotEqualInt64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45747,7 +45747,7 @@ func rewriteValueAMD64_OpNotEqualInt8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45765,7 +45765,7 @@ func rewriteValueAMD64_OpNotEqualInt8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45783,7 +45783,7 @@ func rewriteValueAMD64_OpNotEqualInt8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -45803,7 +45803,7 @@ func rewriteValueAMD64_OpNotEqualMaskedFloat32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45825,7 +45825,7 @@ func rewriteValueAMD64_OpNotEqualMaskedFloat32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45847,7 +45847,7 @@ func rewriteValueAMD64_OpNotEqualMaskedFloat32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPSMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45869,7 +45869,7 @@ func rewriteValueAMD64_OpNotEqualMaskedFloat64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45891,7 +45891,7 @@ func rewriteValueAMD64_OpNotEqualMaskedFloat64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45913,7 +45913,7 @@ func rewriteValueAMD64_OpNotEqualMaskedFloat64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VCMPPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45935,7 +45935,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45957,7 +45957,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -45979,7 +45979,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46001,7 +46001,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46023,7 +46023,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46045,7 +46045,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46067,7 +46067,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46089,7 +46089,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46111,7 +46111,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46133,7 +46133,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46155,7 +46155,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46177,7 +46177,7 @@ func rewriteValueAMD64_OpNotEqualMaskedInt8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46199,7 +46199,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint16x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46221,7 +46221,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint16x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46243,7 +46243,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint16x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUWMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46265,7 +46265,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint32x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46287,7 +46287,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint32x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46309,7 +46309,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint32x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUDMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46331,7 +46331,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint64x2(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46353,7 +46353,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint64x4(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46375,7 +46375,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint64x8(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46397,7 +46397,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint8x16(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x16ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46419,7 +46419,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint8x32(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x32ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46441,7 +46441,7 @@ func rewriteValueAMD64_OpNotEqualMaskedUint8x64(v *Value) bool {
                mask := v_2
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUBMasked512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v1 := b.NewValue0(v.Pos, OpAMD64VPMOVVec8x64ToM, types.TypeMask)
                v1.AddArg(mask)
                v0.AddArg3(x, y, v1)
@@ -46461,7 +46461,7 @@ func rewriteValueAMD64_OpNotEqualUint16x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46479,7 +46479,7 @@ func rewriteValueAMD64_OpNotEqualUint16x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46497,7 +46497,7 @@ func rewriteValueAMD64_OpNotEqualUint16x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec16x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUW128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46515,7 +46515,7 @@ func rewriteValueAMD64_OpNotEqualUint32x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46533,7 +46533,7 @@ func rewriteValueAMD64_OpNotEqualUint32x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46551,7 +46551,7 @@ func rewriteValueAMD64_OpNotEqualUint32x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec32x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUD256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46569,7 +46569,7 @@ func rewriteValueAMD64_OpNotEqualUint64x2(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x2)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46587,7 +46587,7 @@ func rewriteValueAMD64_OpNotEqualUint64x4(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x4)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46605,7 +46605,7 @@ func rewriteValueAMD64_OpNotEqualUint64x8(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec64x8)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUQ512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46623,7 +46623,7 @@ func rewriteValueAMD64_OpNotEqualUint8x16(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x16)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB128, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46641,7 +46641,7 @@ func rewriteValueAMD64_OpNotEqualUint8x32(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x32)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB256, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -46659,7 +46659,7 @@ func rewriteValueAMD64_OpNotEqualUint8x64(v *Value) bool {
                y := v_1
                v.reset(OpAMD64VPMOVMToVec8x64)
                v0 := b.NewValue0(v.Pos, OpAMD64VPCMPUB512, typ.Mask)
-               v0.AuxInt = int8ToAuxInt(4)
+               v0.AuxInt = uint8ToAuxInt(4)
                v0.AddArg2(x, y)
                v.AddArg(v0)
                return true
@@ -48556,11 +48556,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedInt32x16(v *Value) bool {
        // match: (RotateAllLeftMaskedInt32x16 [a] x mask)
        // result: (VPROLDMasked512 [a] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48574,11 +48574,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedInt32x4(v *Value) bool {
        // match: (RotateAllLeftMaskedInt32x4 [a] x mask)
        // result: (VPROLDMasked128 [a] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48592,11 +48592,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedInt32x8(v *Value) bool {
        // match: (RotateAllLeftMaskedInt32x8 [a] x mask)
        // result: (VPROLDMasked256 [a] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48610,11 +48610,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedInt64x2(v *Value) bool {
        // match: (RotateAllLeftMaskedInt64x2 [a] x mask)
        // result: (VPROLQMasked128 [a] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48628,11 +48628,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedInt64x4(v *Value) bool {
        // match: (RotateAllLeftMaskedInt64x4 [a] x mask)
        // result: (VPROLQMasked256 [a] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48646,11 +48646,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedInt64x8(v *Value) bool {
        // match: (RotateAllLeftMaskedInt64x8 [a] x mask)
        // result: (VPROLQMasked512 [a] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48664,11 +48664,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedUint32x16(v *Value) bool {
        // match: (RotateAllLeftMaskedUint32x16 [a] x mask)
        // result: (VPROLDMasked512 [a] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48682,11 +48682,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedUint32x4(v *Value) bool {
        // match: (RotateAllLeftMaskedUint32x4 [a] x mask)
        // result: (VPROLDMasked128 [a] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48700,11 +48700,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedUint32x8(v *Value) bool {
        // match: (RotateAllLeftMaskedUint32x8 [a] x mask)
        // result: (VPROLDMasked256 [a] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48718,11 +48718,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedUint64x2(v *Value) bool {
        // match: (RotateAllLeftMaskedUint64x2 [a] x mask)
        // result: (VPROLQMasked128 [a] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48736,11 +48736,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedUint64x4(v *Value) bool {
        // match: (RotateAllLeftMaskedUint64x4 [a] x mask)
        // result: (VPROLQMasked256 [a] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48754,11 +48754,11 @@ func rewriteValueAMD64_OpRotateAllLeftMaskedUint64x8(v *Value) bool {
        // match: (RotateAllLeftMaskedUint64x8 [a] x mask)
        // result: (VPROLQMasked512 [a] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPROLQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48772,11 +48772,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedInt32x16(v *Value) bool {
        // match: (RotateAllRightMaskedInt32x16 [a] x mask)
        // result: (VPRORDMasked512 [a] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48790,11 +48790,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedInt32x4(v *Value) bool {
        // match: (RotateAllRightMaskedInt32x4 [a] x mask)
        // result: (VPRORDMasked128 [a] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48808,11 +48808,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedInt32x8(v *Value) bool {
        // match: (RotateAllRightMaskedInt32x8 [a] x mask)
        // result: (VPRORDMasked256 [a] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48826,11 +48826,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedInt64x2(v *Value) bool {
        // match: (RotateAllRightMaskedInt64x2 [a] x mask)
        // result: (VPRORQMasked128 [a] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48844,11 +48844,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedInt64x4(v *Value) bool {
        // match: (RotateAllRightMaskedInt64x4 [a] x mask)
        // result: (VPRORQMasked256 [a] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48862,11 +48862,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedInt64x8(v *Value) bool {
        // match: (RotateAllRightMaskedInt64x8 [a] x mask)
        // result: (VPRORQMasked512 [a] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48880,11 +48880,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedUint32x16(v *Value) bool {
        // match: (RotateAllRightMaskedUint32x16 [a] x mask)
        // result: (VPRORDMasked512 [a] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48898,11 +48898,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedUint32x4(v *Value) bool {
        // match: (RotateAllRightMaskedUint32x4 [a] x mask)
        // result: (VPRORDMasked128 [a] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48916,11 +48916,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedUint32x8(v *Value) bool {
        // match: (RotateAllRightMaskedUint32x8 [a] x mask)
        // result: (VPRORDMasked256 [a] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48934,11 +48934,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedUint64x2(v *Value) bool {
        // match: (RotateAllRightMaskedUint64x2 [a] x mask)
        // result: (VPRORQMasked128 [a] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48952,11 +48952,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedUint64x4(v *Value) bool {
        // match: (RotateAllRightMaskedUint64x4 [a] x mask)
        // result: (VPRORQMasked256 [a] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -48970,11 +48970,11 @@ func rewriteValueAMD64_OpRotateAllRightMaskedUint64x8(v *Value) bool {
        // match: (RotateAllRightMaskedUint64x8 [a] x mask)
        // result: (VPRORQMasked512 [a] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VPRORQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49432,7 +49432,7 @@ func rewriteValueAMD64_OpRoundToEvenFloat32x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -49444,7 +49444,7 @@ func rewriteValueAMD64_OpRoundToEvenFloat32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -49456,7 +49456,7 @@ func rewriteValueAMD64_OpRoundToEvenFloat64x2(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD128)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -49468,7 +49468,7 @@ func rewriteValueAMD64_OpRoundToEvenFloat64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg(x)
                return true
        }
@@ -49478,10 +49478,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledFloat32x16(v *Value) bool {
        // match: (RoundToEvenScaledFloat32x16 [a] x)
        // result: (VRNDSCALEPS512 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49491,10 +49491,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledFloat32x4(v *Value) bool {
        // match: (RoundToEvenScaledFloat32x4 [a] x)
        // result: (VRNDSCALEPS128 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49504,10 +49504,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledFloat32x8(v *Value) bool {
        // match: (RoundToEvenScaledFloat32x8 [a] x)
        // result: (VRNDSCALEPS256 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49517,10 +49517,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledFloat64x2(v *Value) bool {
        // match: (RoundToEvenScaledFloat64x2 [a] x)
        // result: (VRNDSCALEPD128 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49530,10 +49530,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledFloat64x4(v *Value) bool {
        // match: (RoundToEvenScaledFloat64x4 [a] x)
        // result: (VRNDSCALEPD256 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49543,10 +49543,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledFloat64x8(v *Value) bool {
        // match: (RoundToEvenScaledFloat64x8 [a] x)
        // result: (VRNDSCALEPD512 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49558,11 +49558,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledMaskedFloat32x16(v *Value) bool {
        // match: (RoundToEvenScaledMaskedFloat32x16 [a] x mask)
        // result: (VRNDSCALEPSMasked512 [a+0] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49576,11 +49576,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledMaskedFloat32x4(v *Value) bool {
        // match: (RoundToEvenScaledMaskedFloat32x4 [a] x mask)
        // result: (VRNDSCALEPSMasked128 [a+0] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49594,11 +49594,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledMaskedFloat32x8(v *Value) bool {
        // match: (RoundToEvenScaledMaskedFloat32x8 [a] x mask)
        // result: (VRNDSCALEPSMasked256 [a+0] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49612,11 +49612,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledMaskedFloat64x2(v *Value) bool {
        // match: (RoundToEvenScaledMaskedFloat64x2 [a] x mask)
        // result: (VRNDSCALEPDMasked128 [a+0] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49630,11 +49630,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledMaskedFloat64x4(v *Value) bool {
        // match: (RoundToEvenScaledMaskedFloat64x4 [a] x mask)
        // result: (VRNDSCALEPDMasked256 [a+0] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49648,11 +49648,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledMaskedFloat64x8(v *Value) bool {
        // match: (RoundToEvenScaledMaskedFloat64x8 [a] x mask)
        // result: (VRNDSCALEPDMasked512 [a+0] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49664,10 +49664,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueFloat32x16(v *Value) bool {
        // match: (RoundToEvenScaledResidueFloat32x16 [a] x)
        // result: (VREDUCEPS512 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49677,10 +49677,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueFloat32x4(v *Value) bool {
        // match: (RoundToEvenScaledResidueFloat32x4 [a] x)
        // result: (VREDUCEPS128 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49690,10 +49690,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueFloat32x8(v *Value) bool {
        // match: (RoundToEvenScaledResidueFloat32x8 [a] x)
        // result: (VREDUCEPS256 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49703,10 +49703,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueFloat64x2(v *Value) bool {
        // match: (RoundToEvenScaledResidueFloat64x2 [a] x)
        // result: (VREDUCEPD128 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49716,10 +49716,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueFloat64x4(v *Value) bool {
        // match: (RoundToEvenScaledResidueFloat64x4 [a] x)
        // result: (VREDUCEPD256 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49729,10 +49729,10 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueFloat64x8(v *Value) bool {
        // match: (RoundToEvenScaledResidueFloat64x8 [a] x)
        // result: (VREDUCEPD512 [a+0] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v.AddArg(x)
                return true
        }
@@ -49744,11 +49744,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueMaskedFloat32x16(v *Value) bool
        // match: (RoundToEvenScaledResidueMaskedFloat32x16 [a] x mask)
        // result: (VREDUCEPSMasked512 [a+0] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49762,11 +49762,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueMaskedFloat32x4(v *Value) bool
        // match: (RoundToEvenScaledResidueMaskedFloat32x4 [a] x mask)
        // result: (VREDUCEPSMasked128 [a+0] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49780,11 +49780,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueMaskedFloat32x8(v *Value) bool
        // match: (RoundToEvenScaledResidueMaskedFloat32x8 [a] x mask)
        // result: (VREDUCEPSMasked256 [a+0] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49798,11 +49798,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueMaskedFloat64x2(v *Value) bool
        // match: (RoundToEvenScaledResidueMaskedFloat64x2 [a] x mask)
        // result: (VREDUCEPDMasked128 [a+0] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49816,11 +49816,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueMaskedFloat64x4(v *Value) bool
        // match: (RoundToEvenScaledResidueMaskedFloat64x4 [a] x mask)
        // result: (VREDUCEPDMasked256 [a+0] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -49834,11 +49834,11 @@ func rewriteValueAMD64_OpRoundToEvenScaledResidueMaskedFloat64x8(v *Value) bool
        // match: (RoundToEvenScaledResidueMaskedFloat64x8 [a] x mask)
        // result: (VREDUCEPDMasked512 [a+0] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 0)
+               v.AuxInt = uint8ToAuxInt(a + 0)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -51715,7 +51715,7 @@ func rewriteValueAMD64_OpSetHiFloat32x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51729,7 +51729,7 @@ func rewriteValueAMD64_OpSetHiFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51743,7 +51743,7 @@ func rewriteValueAMD64_OpSetHiFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51757,7 +51757,7 @@ func rewriteValueAMD64_OpSetHiFloat64x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51771,7 +51771,7 @@ func rewriteValueAMD64_OpSetHiInt16x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51785,7 +51785,7 @@ func rewriteValueAMD64_OpSetHiInt16x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51799,7 +51799,7 @@ func rewriteValueAMD64_OpSetHiInt32x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51813,7 +51813,7 @@ func rewriteValueAMD64_OpSetHiInt32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51827,7 +51827,7 @@ func rewriteValueAMD64_OpSetHiInt64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51841,7 +51841,7 @@ func rewriteValueAMD64_OpSetHiInt64x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51855,7 +51855,7 @@ func rewriteValueAMD64_OpSetHiInt8x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51869,7 +51869,7 @@ func rewriteValueAMD64_OpSetHiInt8x64(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51883,7 +51883,7 @@ func rewriteValueAMD64_OpSetHiUint16x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51897,7 +51897,7 @@ func rewriteValueAMD64_OpSetHiUint16x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51911,7 +51911,7 @@ func rewriteValueAMD64_OpSetHiUint32x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51925,7 +51925,7 @@ func rewriteValueAMD64_OpSetHiUint32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51939,7 +51939,7 @@ func rewriteValueAMD64_OpSetHiUint64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51953,7 +51953,7 @@ func rewriteValueAMD64_OpSetHiUint64x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51967,7 +51967,7 @@ func rewriteValueAMD64_OpSetHiUint8x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51981,7 +51981,7 @@ func rewriteValueAMD64_OpSetHiUint8x64(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(1)
+               v.AuxInt = uint8ToAuxInt(1)
                v.AddArg2(x, y)
                return true
        }
@@ -51995,7 +51995,7 @@ func rewriteValueAMD64_OpSetLoFloat32x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52009,7 +52009,7 @@ func rewriteValueAMD64_OpSetLoFloat32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52023,7 +52023,7 @@ func rewriteValueAMD64_OpSetLoFloat64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52037,7 +52037,7 @@ func rewriteValueAMD64_OpSetLoFloat64x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTF64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52051,7 +52051,7 @@ func rewriteValueAMD64_OpSetLoInt16x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52065,7 +52065,7 @@ func rewriteValueAMD64_OpSetLoInt16x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52079,7 +52079,7 @@ func rewriteValueAMD64_OpSetLoInt32x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52093,7 +52093,7 @@ func rewriteValueAMD64_OpSetLoInt32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52107,7 +52107,7 @@ func rewriteValueAMD64_OpSetLoInt64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52121,7 +52121,7 @@ func rewriteValueAMD64_OpSetLoInt64x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52135,7 +52135,7 @@ func rewriteValueAMD64_OpSetLoInt8x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52149,7 +52149,7 @@ func rewriteValueAMD64_OpSetLoInt8x64(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52163,7 +52163,7 @@ func rewriteValueAMD64_OpSetLoUint16x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52177,7 +52177,7 @@ func rewriteValueAMD64_OpSetLoUint16x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52191,7 +52191,7 @@ func rewriteValueAMD64_OpSetLoUint32x16(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52205,7 +52205,7 @@ func rewriteValueAMD64_OpSetLoUint32x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52219,7 +52219,7 @@ func rewriteValueAMD64_OpSetLoUint64x4(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52233,7 +52233,7 @@ func rewriteValueAMD64_OpSetLoUint64x8(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52247,7 +52247,7 @@ func rewriteValueAMD64_OpSetLoUint8x32(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI128256)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52261,7 +52261,7 @@ func rewriteValueAMD64_OpSetLoUint8x64(v *Value) bool {
                x := v_0
                y := v_1
                v.reset(OpAMD64VINSERTI64X4512)
-               v.AuxInt = int8ToAuxInt(0)
+               v.AuxInt = uint8ToAuxInt(0)
                v.AddArg2(x, y)
                return true
        }
@@ -52274,12 +52274,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt16x16(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt16x16 [a] x y mask)
        // result: (VPSHLDWMasked256 [a] x y (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDWMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52294,12 +52294,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt16x32(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt16x32 [a] x y mask)
        // result: (VPSHLDWMasked512 [a] x y (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDWMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52314,12 +52314,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt16x8(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt16x8 [a] x y mask)
        // result: (VPSHLDWMasked128 [a] x y (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDWMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52334,12 +52334,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt32x16(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt32x16 [a] x y mask)
        // result: (VPSHLDDMasked512 [a] x y (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52354,12 +52354,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt32x4(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt32x4 [a] x y mask)
        // result: (VPSHLDDMasked128 [a] x y (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52374,12 +52374,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt32x8(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt32x8 [a] x y mask)
        // result: (VPSHLDDMasked256 [a] x y (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52394,12 +52394,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt64x2(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt64x2 [a] x y mask)
        // result: (VPSHLDQMasked128 [a] x y (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52414,12 +52414,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt64x4(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt64x4 [a] x y mask)
        // result: (VPSHLDQMasked256 [a] x y (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52434,12 +52434,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedInt64x8(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedInt64x8 [a] x y mask)
        // result: (VPSHLDQMasked512 [a] x y (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52454,12 +52454,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint16x16(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint16x16 [a] x y mask)
        // result: (VPSHLDWMasked256 [a] x y (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDWMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52474,12 +52474,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint16x32(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint16x32 [a] x y mask)
        // result: (VPSHLDWMasked512 [a] x y (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDWMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52494,12 +52494,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint16x8(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint16x8 [a] x y mask)
        // result: (VPSHLDWMasked128 [a] x y (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDWMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52514,12 +52514,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint32x16(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint32x16 [a] x y mask)
        // result: (VPSHLDDMasked512 [a] x y (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52534,12 +52534,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint32x4(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint32x4 [a] x y mask)
        // result: (VPSHLDDMasked128 [a] x y (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52554,12 +52554,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint32x8(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint32x8 [a] x y mask)
        // result: (VPSHLDDMasked256 [a] x y (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52574,12 +52574,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint64x2(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint64x2 [a] x y mask)
        // result: (VPSHLDQMasked128 [a] x y (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52594,12 +52594,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint64x4(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint64x4 [a] x y mask)
        // result: (VPSHLDQMasked256 [a] x y (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52614,12 +52614,12 @@ func rewriteValueAMD64_OpShiftAllLeftConcatMaskedUint64x8(v *Value) bool {
        // match: (ShiftAllLeftConcatMaskedUint64x8 [a] x y mask)
        // result: (VPSHLDQMasked512 [a] x y (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHLDQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -52630,7 +52630,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt16x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt16x16 x (MOVQconst [c]))
-       // result: (VPSLLW256const [int8(c)] x)
+       // result: (VPSLLW256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52638,7 +52638,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt16x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLW256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52656,7 +52656,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt16x32(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt16x32 x (MOVQconst [c]))
-       // result: (VPSLLW512const [int8(c)] x)
+       // result: (VPSLLW512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52664,7 +52664,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt16x32(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLW512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52682,7 +52682,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt16x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt16x8 x (MOVQconst [c]))
-       // result: (VPSLLW128const [int8(c)] x)
+       // result: (VPSLLW128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52690,7 +52690,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt16x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLW128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52708,7 +52708,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt32x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt32x16 x (MOVQconst [c]))
-       // result: (VPSLLD512const [int8(c)] x)
+       // result: (VPSLLD512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52716,7 +52716,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt32x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLD512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52734,7 +52734,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt32x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt32x4 x (MOVQconst [c]))
-       // result: (VPSLLD128const [int8(c)] x)
+       // result: (VPSLLD128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52742,7 +52742,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt32x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLD128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52760,7 +52760,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt32x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt32x8 x (MOVQconst [c]))
-       // result: (VPSLLD256const [int8(c)] x)
+       // result: (VPSLLD256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52768,7 +52768,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt32x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLD256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52786,7 +52786,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt64x2(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt64x2 x (MOVQconst [c]))
-       // result: (VPSLLQ128const [int8(c)] x)
+       // result: (VPSLLQ128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52794,7 +52794,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt64x2(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLQ128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52812,7 +52812,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt64x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt64x4 x (MOVQconst [c]))
-       // result: (VPSLLQ256const [int8(c)] x)
+       // result: (VPSLLQ256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52820,7 +52820,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt64x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLQ256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52838,7 +52838,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt64x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftInt64x8 x (MOVQconst [c]))
-       // result: (VPSLLQ512const [int8(c)] x)
+       // result: (VPSLLQ512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52846,7 +52846,7 @@ func rewriteValueAMD64_OpShiftAllLeftInt64x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLQ512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -52866,7 +52866,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt16x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt16x16 x (MOVQconst [c]) mask)
-       // result: (VPSLLWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+       // result: (VPSLLWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52875,7 +52875,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt16x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLWMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -52900,7 +52900,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt16x32(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt16x32 x (MOVQconst [c]) mask)
-       // result: (VPSLLWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+       // result: (VPSLLWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52909,7 +52909,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt16x32(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLWMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -52934,7 +52934,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt16x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt16x8 x (MOVQconst [c]) mask)
-       // result: (VPSLLWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+       // result: (VPSLLWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52943,7 +52943,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt16x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLWMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -52968,7 +52968,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt32x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt32x16 x (MOVQconst [c]) mask)
-       // result: (VPSLLDMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+       // result: (VPSLLDMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -52977,7 +52977,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt32x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLDMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53002,7 +53002,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt32x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt32x4 x (MOVQconst [c]) mask)
-       // result: (VPSLLDMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+       // result: (VPSLLDMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53011,7 +53011,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt32x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLDMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53036,7 +53036,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt32x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt32x8 x (MOVQconst [c]) mask)
-       // result: (VPSLLDMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+       // result: (VPSLLDMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53045,7 +53045,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt32x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLDMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53070,7 +53070,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt64x2(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt64x2 x (MOVQconst [c]) mask)
-       // result: (VPSLLQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+       // result: (VPSLLQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53079,7 +53079,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt64x2(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLQMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53104,7 +53104,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt64x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt64x4 x (MOVQconst [c]) mask)
-       // result: (VPSLLQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+       // result: (VPSLLQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53113,7 +53113,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt64x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLQMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53138,7 +53138,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt64x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedInt64x8 x (MOVQconst [c]) mask)
-       // result: (VPSLLQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+       // result: (VPSLLQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53147,7 +53147,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedInt64x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLQMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53172,7 +53172,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint16x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint16x16 x (MOVQconst [c]) mask)
-       // result: (VPSLLWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+       // result: (VPSLLWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53181,7 +53181,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint16x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLWMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53206,7 +53206,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint16x32(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint16x32 x (MOVQconst [c]) mask)
-       // result: (VPSLLWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+       // result: (VPSLLWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53215,7 +53215,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint16x32(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLWMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53240,7 +53240,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint16x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint16x8 x (MOVQconst [c]) mask)
-       // result: (VPSLLWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+       // result: (VPSLLWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53249,7 +53249,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint16x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLWMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53274,7 +53274,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint32x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint32x16 x (MOVQconst [c]) mask)
-       // result: (VPSLLDMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+       // result: (VPSLLDMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53283,7 +53283,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint32x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLDMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53308,7 +53308,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint32x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint32x4 x (MOVQconst [c]) mask)
-       // result: (VPSLLDMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+       // result: (VPSLLDMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53317,7 +53317,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint32x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLDMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53342,7 +53342,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint32x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint32x8 x (MOVQconst [c]) mask)
-       // result: (VPSLLDMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+       // result: (VPSLLDMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53351,7 +53351,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint32x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLDMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53376,7 +53376,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint64x2(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint64x2 x (MOVQconst [c]) mask)
-       // result: (VPSLLQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+       // result: (VPSLLQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53385,7 +53385,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint64x2(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLQMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53410,7 +53410,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint64x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint64x4 x (MOVQconst [c]) mask)
-       // result: (VPSLLQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+       // result: (VPSLLQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53419,7 +53419,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint64x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLQMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53444,7 +53444,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint64x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllLeftMaskedUint64x8 x (MOVQconst [c]) mask)
-       // result: (VPSLLQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+       // result: (VPSLLQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53453,7 +53453,7 @@ func rewriteValueAMD64_OpShiftAllLeftMaskedUint64x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSLLQMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -53476,7 +53476,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint16x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint16x16 x (MOVQconst [c]))
-       // result: (VPSLLW256const [int8(c)] x)
+       // result: (VPSLLW256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53484,7 +53484,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint16x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLW256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53502,7 +53502,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint16x32(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint16x32 x (MOVQconst [c]))
-       // result: (VPSLLW512const [int8(c)] x)
+       // result: (VPSLLW512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53510,7 +53510,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint16x32(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLW512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53528,7 +53528,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint16x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint16x8 x (MOVQconst [c]))
-       // result: (VPSLLW128const [int8(c)] x)
+       // result: (VPSLLW128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53536,7 +53536,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint16x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLW128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53554,7 +53554,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint32x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint32x16 x (MOVQconst [c]))
-       // result: (VPSLLD512const [int8(c)] x)
+       // result: (VPSLLD512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53562,7 +53562,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint32x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLD512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53580,7 +53580,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint32x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint32x4 x (MOVQconst [c]))
-       // result: (VPSLLD128const [int8(c)] x)
+       // result: (VPSLLD128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53588,7 +53588,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint32x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLD128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53606,7 +53606,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint32x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint32x8 x (MOVQconst [c]))
-       // result: (VPSLLD256const [int8(c)] x)
+       // result: (VPSLLD256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53614,7 +53614,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint32x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLD256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53632,7 +53632,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint64x2(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint64x2 x (MOVQconst [c]))
-       // result: (VPSLLQ128const [int8(c)] x)
+       // result: (VPSLLQ128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53640,7 +53640,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint64x2(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLQ128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53658,7 +53658,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint64x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint64x4 x (MOVQconst [c]))
-       // result: (VPSLLQ256const [int8(c)] x)
+       // result: (VPSLLQ256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53666,7 +53666,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint64x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLQ256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53684,7 +53684,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint64x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllLeftUint64x8 x (MOVQconst [c]))
-       // result: (VPSLLQ512const [int8(c)] x)
+       // result: (VPSLLQ512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -53692,7 +53692,7 @@ func rewriteValueAMD64_OpShiftAllLeftUint64x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSLLQ512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -53714,12 +53714,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt16x16(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt16x16 [a] x y mask)
        // result: (VPSHRDWMasked256 [a] x y (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDWMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53734,12 +53734,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt16x32(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt16x32 [a] x y mask)
        // result: (VPSHRDWMasked512 [a] x y (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDWMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53754,12 +53754,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt16x8(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt16x8 [a] x y mask)
        // result: (VPSHRDWMasked128 [a] x y (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDWMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53774,12 +53774,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt32x16(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt32x16 [a] x y mask)
        // result: (VPSHRDDMasked512 [a] x y (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53794,12 +53794,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt32x4(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt32x4 [a] x y mask)
        // result: (VPSHRDDMasked128 [a] x y (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53814,12 +53814,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt32x8(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt32x8 [a] x y mask)
        // result: (VPSHRDDMasked256 [a] x y (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53834,12 +53834,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt64x2(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt64x2 [a] x y mask)
        // result: (VPSHRDQMasked128 [a] x y (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53854,12 +53854,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt64x4(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt64x4 [a] x y mask)
        // result: (VPSHRDQMasked256 [a] x y (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53874,12 +53874,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedInt64x8(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedInt64x8 [a] x y mask)
        // result: (VPSHRDQMasked512 [a] x y (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53894,12 +53894,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint16x16(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint16x16 [a] x y mask)
        // result: (VPSHRDWMasked256 [a] x y (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDWMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53914,12 +53914,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint16x32(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint16x32 [a] x y mask)
        // result: (VPSHRDWMasked512 [a] x y (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDWMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53934,12 +53934,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint16x8(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint16x8 [a] x y mask)
        // result: (VPSHRDWMasked128 [a] x y (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDWMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53954,12 +53954,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint32x16(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint32x16 [a] x y mask)
        // result: (VPSHRDDMasked512 [a] x y (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDDMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53974,12 +53974,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint32x4(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint32x4 [a] x y mask)
        // result: (VPSHRDDMasked128 [a] x y (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDDMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -53994,12 +53994,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint32x8(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint32x8 [a] x y mask)
        // result: (VPSHRDDMasked256 [a] x y (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDDMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -54014,12 +54014,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint64x2(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint64x2 [a] x y mask)
        // result: (VPSHRDQMasked128 [a] x y (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDQMasked128)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -54034,12 +54034,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint64x4(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint64x4 [a] x y mask)
        // result: (VPSHRDQMasked256 [a] x y (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDQMasked256)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -54054,12 +54054,12 @@ func rewriteValueAMD64_OpShiftAllRightConcatMaskedUint64x8(v *Value) bool {
        // match: (ShiftAllRightConcatMaskedUint64x8 [a] x y mask)
        // result: (VPSHRDQMasked512 [a] x y (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                y := v_1
                mask := v_2
                v.reset(OpAMD64VPSHRDQMasked512)
-               v.AuxInt = int8ToAuxInt(a)
+               v.AuxInt = uint8ToAuxInt(a)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg3(x, y, v0)
@@ -54070,7 +54070,7 @@ func rewriteValueAMD64_OpShiftAllRightInt16x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt16x16 x (MOVQconst [c]))
-       // result: (VPSRAW256const [int8(c)] x)
+       // result: (VPSRAW256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54078,7 +54078,7 @@ func rewriteValueAMD64_OpShiftAllRightInt16x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAW256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54096,7 +54096,7 @@ func rewriteValueAMD64_OpShiftAllRightInt16x32(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt16x32 x (MOVQconst [c]))
-       // result: (VPSRAW512const [int8(c)] x)
+       // result: (VPSRAW512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54104,7 +54104,7 @@ func rewriteValueAMD64_OpShiftAllRightInt16x32(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAW512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54122,7 +54122,7 @@ func rewriteValueAMD64_OpShiftAllRightInt16x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt16x8 x (MOVQconst [c]))
-       // result: (VPSRAW128const [int8(c)] x)
+       // result: (VPSRAW128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54130,7 +54130,7 @@ func rewriteValueAMD64_OpShiftAllRightInt16x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAW128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54148,7 +54148,7 @@ func rewriteValueAMD64_OpShiftAllRightInt32x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt32x16 x (MOVQconst [c]))
-       // result: (VPSRAD512const [int8(c)] x)
+       // result: (VPSRAD512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54156,7 +54156,7 @@ func rewriteValueAMD64_OpShiftAllRightInt32x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAD512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54174,7 +54174,7 @@ func rewriteValueAMD64_OpShiftAllRightInt32x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt32x4 x (MOVQconst [c]))
-       // result: (VPSRAD128const [int8(c)] x)
+       // result: (VPSRAD128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54182,7 +54182,7 @@ func rewriteValueAMD64_OpShiftAllRightInt32x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAD128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54200,7 +54200,7 @@ func rewriteValueAMD64_OpShiftAllRightInt32x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt32x8 x (MOVQconst [c]))
-       // result: (VPSRAD256const [int8(c)] x)
+       // result: (VPSRAD256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54208,7 +54208,7 @@ func rewriteValueAMD64_OpShiftAllRightInt32x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAD256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54226,7 +54226,7 @@ func rewriteValueAMD64_OpShiftAllRightInt64x2(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt64x2 x (MOVQconst [c]))
-       // result: (VPSRAQ128const [int8(c)] x)
+       // result: (VPSRAQ128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54234,7 +54234,7 @@ func rewriteValueAMD64_OpShiftAllRightInt64x2(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAQ128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54252,7 +54252,7 @@ func rewriteValueAMD64_OpShiftAllRightInt64x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt64x4 x (MOVQconst [c]))
-       // result: (VPSRAQ256const [int8(c)] x)
+       // result: (VPSRAQ256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54260,7 +54260,7 @@ func rewriteValueAMD64_OpShiftAllRightInt64x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAQ256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54278,7 +54278,7 @@ func rewriteValueAMD64_OpShiftAllRightInt64x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightInt64x8 x (MOVQconst [c]))
-       // result: (VPSRAQ512const [int8(c)] x)
+       // result: (VPSRAQ512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54286,7 +54286,7 @@ func rewriteValueAMD64_OpShiftAllRightInt64x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRAQ512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54306,7 +54306,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt16x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt16x16 x (MOVQconst [c]) mask)
-       // result: (VPSRAWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+       // result: (VPSRAWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54315,7 +54315,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt16x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRAWMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54340,7 +54340,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt16x32(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt16x32 x (MOVQconst [c]) mask)
-       // result: (VPSRAWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+       // result: (VPSRAWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54349,7 +54349,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt16x32(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRAWMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54374,7 +54374,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt16x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt16x8 x (MOVQconst [c]) mask)
-       // result: (VPSRAWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+       // result: (VPSRAWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54383,7 +54383,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt16x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRAWMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54408,7 +54408,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt32x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt32x16 x (MOVQconst [c]) mask)
-       // result: (VPSRADMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+       // result: (VPSRADMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54417,7 +54417,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt32x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRADMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54442,7 +54442,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt32x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt32x4 x (MOVQconst [c]) mask)
-       // result: (VPSRADMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+       // result: (VPSRADMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54451,7 +54451,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt32x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRADMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54476,7 +54476,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt32x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt32x8 x (MOVQconst [c]) mask)
-       // result: (VPSRADMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+       // result: (VPSRADMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54485,7 +54485,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt32x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRADMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54510,7 +54510,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt64x2(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt64x2 x (MOVQconst [c]) mask)
-       // result: (VPSRAQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+       // result: (VPSRAQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54519,7 +54519,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt64x2(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRAQMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54544,7 +54544,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt64x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt64x4 x (MOVQconst [c]) mask)
-       // result: (VPSRAQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+       // result: (VPSRAQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54553,7 +54553,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt64x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRAQMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54578,7 +54578,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt64x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedInt64x8 x (MOVQconst [c]) mask)
-       // result: (VPSRAQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+       // result: (VPSRAQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54587,7 +54587,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedInt64x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRAQMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54612,7 +54612,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint16x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint16x16 x (MOVQconst [c]) mask)
-       // result: (VPSRLWMasked256const [int8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
+       // result: (VPSRLWMasked256const [uint8(c)] x (VPMOVVec16x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54621,7 +54621,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint16x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLWMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54646,7 +54646,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint16x32(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint16x32 x (MOVQconst [c]) mask)
-       // result: (VPSRLWMasked512const [int8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
+       // result: (VPSRLWMasked512const [uint8(c)] x (VPMOVVec16x32ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54655,7 +54655,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint16x32(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLWMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x32ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54680,7 +54680,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint16x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint16x8 x (MOVQconst [c]) mask)
-       // result: (VPSRLWMasked128const [int8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
+       // result: (VPSRLWMasked128const [uint8(c)] x (VPMOVVec16x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54689,7 +54689,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint16x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLWMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec16x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54714,7 +54714,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint32x16(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint32x16 x (MOVQconst [c]) mask)
-       // result: (VPSRLDMasked512const [int8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
+       // result: (VPSRLDMasked512const [uint8(c)] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54723,7 +54723,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint32x16(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLDMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54748,7 +54748,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint32x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint32x4 x (MOVQconst [c]) mask)
-       // result: (VPSRLDMasked128const [int8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
+       // result: (VPSRLDMasked128const [uint8(c)] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54757,7 +54757,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint32x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLDMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54782,7 +54782,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint32x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint32x8 x (MOVQconst [c]) mask)
-       // result: (VPSRLDMasked256const [int8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
+       // result: (VPSRLDMasked256const [uint8(c)] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54791,7 +54791,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint32x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLDMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54816,7 +54816,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint64x2(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint64x2 x (MOVQconst [c]) mask)
-       // result: (VPSRLQMasked128const [int8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
+       // result: (VPSRLQMasked128const [uint8(c)] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54825,7 +54825,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint64x2(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLQMasked128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54850,7 +54850,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint64x4(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint64x4 x (MOVQconst [c]) mask)
-       // result: (VPSRLQMasked256const [int8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
+       // result: (VPSRLQMasked256const [uint8(c)] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54859,7 +54859,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint64x4(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLQMasked256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54884,7 +54884,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint64x8(v *Value) bool {
        v_0 := v.Args[0]
        b := v.Block
        // match: (ShiftAllRightMaskedUint64x8 x (MOVQconst [c]) mask)
-       // result: (VPSRLQMasked512const [int8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
+       // result: (VPSRLQMasked512const [uint8(c)] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54893,7 +54893,7 @@ func rewriteValueAMD64_OpShiftAllRightMaskedUint64x8(v *Value) bool {
                c := auxIntToInt64(v_1.AuxInt)
                mask := v_2
                v.reset(OpAMD64VPSRLQMasked512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -54916,7 +54916,7 @@ func rewriteValueAMD64_OpShiftAllRightUint16x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint16x16 x (MOVQconst [c]))
-       // result: (VPSRLW256const [int8(c)] x)
+       // result: (VPSRLW256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54924,7 +54924,7 @@ func rewriteValueAMD64_OpShiftAllRightUint16x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLW256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54942,7 +54942,7 @@ func rewriteValueAMD64_OpShiftAllRightUint16x32(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint16x32 x (MOVQconst [c]))
-       // result: (VPSRLW512const [int8(c)] x)
+       // result: (VPSRLW512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54950,7 +54950,7 @@ func rewriteValueAMD64_OpShiftAllRightUint16x32(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLW512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54968,7 +54968,7 @@ func rewriteValueAMD64_OpShiftAllRightUint16x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint16x8 x (MOVQconst [c]))
-       // result: (VPSRLW128const [int8(c)] x)
+       // result: (VPSRLW128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -54976,7 +54976,7 @@ func rewriteValueAMD64_OpShiftAllRightUint16x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLW128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -54994,7 +54994,7 @@ func rewriteValueAMD64_OpShiftAllRightUint32x16(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint32x16 x (MOVQconst [c]))
-       // result: (VPSRLD512const [int8(c)] x)
+       // result: (VPSRLD512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -55002,7 +55002,7 @@ func rewriteValueAMD64_OpShiftAllRightUint32x16(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLD512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -55020,7 +55020,7 @@ func rewriteValueAMD64_OpShiftAllRightUint32x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint32x4 x (MOVQconst [c]))
-       // result: (VPSRLD128const [int8(c)] x)
+       // result: (VPSRLD128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -55028,7 +55028,7 @@ func rewriteValueAMD64_OpShiftAllRightUint32x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLD128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -55046,7 +55046,7 @@ func rewriteValueAMD64_OpShiftAllRightUint32x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint32x8 x (MOVQconst [c]))
-       // result: (VPSRLD256const [int8(c)] x)
+       // result: (VPSRLD256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -55054,7 +55054,7 @@ func rewriteValueAMD64_OpShiftAllRightUint32x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLD256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -55072,7 +55072,7 @@ func rewriteValueAMD64_OpShiftAllRightUint64x2(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint64x2 x (MOVQconst [c]))
-       // result: (VPSRLQ128const [int8(c)] x)
+       // result: (VPSRLQ128const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -55080,7 +55080,7 @@ func rewriteValueAMD64_OpShiftAllRightUint64x2(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLQ128const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -55098,7 +55098,7 @@ func rewriteValueAMD64_OpShiftAllRightUint64x4(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint64x4 x (MOVQconst [c]))
-       // result: (VPSRLQ256const [int8(c)] x)
+       // result: (VPSRLQ256const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -55106,7 +55106,7 @@ func rewriteValueAMD64_OpShiftAllRightUint64x4(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLQ256const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -55124,7 +55124,7 @@ func rewriteValueAMD64_OpShiftAllRightUint64x8(v *Value) bool {
        v_1 := v.Args[1]
        v_0 := v.Args[0]
        // match: (ShiftAllRightUint64x8 x (MOVQconst [c]))
-       // result: (VPSRLQ512const [int8(c)] x)
+       // result: (VPSRLQ512const [uint8(c)] x)
        for {
                x := v_0
                if v_1.Op != OpAMD64MOVQconst {
@@ -55132,7 +55132,7 @@ func rewriteValueAMD64_OpShiftAllRightUint64x8(v *Value) bool {
                }
                c := auxIntToInt64(v_1.AuxInt)
                v.reset(OpAMD64VPSRLQ512const)
-               v.AuxInt = int8ToAuxInt(int8(c))
+               v.AuxInt = uint8ToAuxInt(uint8(c))
                v.AddArg(x)
                return true
        }
@@ -57976,7 +57976,7 @@ func rewriteValueAMD64_OpTruncFloat32x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS128)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg(x)
                return true
        }
@@ -57988,7 +57988,7 @@ func rewriteValueAMD64_OpTruncFloat32x8(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPS256)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg(x)
                return true
        }
@@ -58000,7 +58000,7 @@ func rewriteValueAMD64_OpTruncFloat64x2(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD128)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg(x)
                return true
        }
@@ -58012,7 +58012,7 @@ func rewriteValueAMD64_OpTruncFloat64x4(v *Value) bool {
        for {
                x := v_0
                v.reset(OpAMD64VROUNDPD256)
-               v.AuxInt = int8ToAuxInt(3)
+               v.AuxInt = uint8ToAuxInt(3)
                v.AddArg(x)
                return true
        }
@@ -58022,10 +58022,10 @@ func rewriteValueAMD64_OpTruncScaledFloat32x16(v *Value) bool {
        // match: (TruncScaledFloat32x16 [a] x)
        // result: (VRNDSCALEPS512 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58035,10 +58035,10 @@ func rewriteValueAMD64_OpTruncScaledFloat32x4(v *Value) bool {
        // match: (TruncScaledFloat32x4 [a] x)
        // result: (VRNDSCALEPS128 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58048,10 +58048,10 @@ func rewriteValueAMD64_OpTruncScaledFloat32x8(v *Value) bool {
        // match: (TruncScaledFloat32x8 [a] x)
        // result: (VRNDSCALEPS256 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPS256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58061,10 +58061,10 @@ func rewriteValueAMD64_OpTruncScaledFloat64x2(v *Value) bool {
        // match: (TruncScaledFloat64x2 [a] x)
        // result: (VRNDSCALEPD128 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58074,10 +58074,10 @@ func rewriteValueAMD64_OpTruncScaledFloat64x4(v *Value) bool {
        // match: (TruncScaledFloat64x4 [a] x)
        // result: (VRNDSCALEPD256 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58087,10 +58087,10 @@ func rewriteValueAMD64_OpTruncScaledFloat64x8(v *Value) bool {
        // match: (TruncScaledFloat64x8 [a] x)
        // result: (VRNDSCALEPD512 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VRNDSCALEPD512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58102,11 +58102,11 @@ func rewriteValueAMD64_OpTruncScaledMaskedFloat32x16(v *Value) bool {
        // match: (TruncScaledMaskedFloat32x16 [a] x mask)
        // result: (VRNDSCALEPSMasked512 [a+3] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58120,11 +58120,11 @@ func rewriteValueAMD64_OpTruncScaledMaskedFloat32x4(v *Value) bool {
        // match: (TruncScaledMaskedFloat32x4 [a] x mask)
        // result: (VRNDSCALEPSMasked128 [a+3] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58138,11 +58138,11 @@ func rewriteValueAMD64_OpTruncScaledMaskedFloat32x8(v *Value) bool {
        // match: (TruncScaledMaskedFloat32x8 [a] x mask)
        // result: (VRNDSCALEPSMasked256 [a+3] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58156,11 +58156,11 @@ func rewriteValueAMD64_OpTruncScaledMaskedFloat64x2(v *Value) bool {
        // match: (TruncScaledMaskedFloat64x2 [a] x mask)
        // result: (VRNDSCALEPDMasked128 [a+3] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58174,11 +58174,11 @@ func rewriteValueAMD64_OpTruncScaledMaskedFloat64x4(v *Value) bool {
        // match: (TruncScaledMaskedFloat64x4 [a] x mask)
        // result: (VRNDSCALEPDMasked256 [a+3] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58192,11 +58192,11 @@ func rewriteValueAMD64_OpTruncScaledMaskedFloat64x8(v *Value) bool {
        // match: (TruncScaledMaskedFloat64x8 [a] x mask)
        // result: (VRNDSCALEPDMasked512 [a+3] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VRNDSCALEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58208,10 +58208,10 @@ func rewriteValueAMD64_OpTruncScaledResidueFloat32x16(v *Value) bool {
        // match: (TruncScaledResidueFloat32x16 [a] x)
        // result: (VREDUCEPS512 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58221,10 +58221,10 @@ func rewriteValueAMD64_OpTruncScaledResidueFloat32x4(v *Value) bool {
        // match: (TruncScaledResidueFloat32x4 [a] x)
        // result: (VREDUCEPS128 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58234,10 +58234,10 @@ func rewriteValueAMD64_OpTruncScaledResidueFloat32x8(v *Value) bool {
        // match: (TruncScaledResidueFloat32x8 [a] x)
        // result: (VREDUCEPS256 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPS256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58247,10 +58247,10 @@ func rewriteValueAMD64_OpTruncScaledResidueFloat64x2(v *Value) bool {
        // match: (TruncScaledResidueFloat64x2 [a] x)
        // result: (VREDUCEPD128 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58260,10 +58260,10 @@ func rewriteValueAMD64_OpTruncScaledResidueFloat64x4(v *Value) bool {
        // match: (TruncScaledResidueFloat64x4 [a] x)
        // result: (VREDUCEPD256 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58273,10 +58273,10 @@ func rewriteValueAMD64_OpTruncScaledResidueFloat64x8(v *Value) bool {
        // match: (TruncScaledResidueFloat64x8 [a] x)
        // result: (VREDUCEPD512 [a+3] x)
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                v.reset(OpAMD64VREDUCEPD512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v.AddArg(x)
                return true
        }
@@ -58288,11 +58288,11 @@ func rewriteValueAMD64_OpTruncScaledResidueMaskedFloat32x16(v *Value) bool {
        // match: (TruncScaledResidueMaskedFloat32x16 [a] x mask)
        // result: (VREDUCEPSMasked512 [a+3] x (VPMOVVec32x16ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x16ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58306,11 +58306,11 @@ func rewriteValueAMD64_OpTruncScaledResidueMaskedFloat32x4(v *Value) bool {
        // match: (TruncScaledResidueMaskedFloat32x4 [a] x mask)
        // result: (VREDUCEPSMasked128 [a+3] x (VPMOVVec32x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58324,11 +58324,11 @@ func rewriteValueAMD64_OpTruncScaledResidueMaskedFloat32x8(v *Value) bool {
        // match: (TruncScaledResidueMaskedFloat32x8 [a] x mask)
        // result: (VREDUCEPSMasked256 [a+3] x (VPMOVVec32x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPSMasked256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec32x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58342,11 +58342,11 @@ func rewriteValueAMD64_OpTruncScaledResidueMaskedFloat64x2(v *Value) bool {
        // match: (TruncScaledResidueMaskedFloat64x2 [a] x mask)
        // result: (VREDUCEPDMasked128 [a+3] x (VPMOVVec64x2ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked128)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x2ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58360,11 +58360,11 @@ func rewriteValueAMD64_OpTruncScaledResidueMaskedFloat64x4(v *Value) bool {
        // match: (TruncScaledResidueMaskedFloat64x4 [a] x mask)
        // result: (VREDUCEPDMasked256 [a+3] x (VPMOVVec64x4ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked256)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x4ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
@@ -58378,11 +58378,11 @@ func rewriteValueAMD64_OpTruncScaledResidueMaskedFloat64x8(v *Value) bool {
        // match: (TruncScaledResidueMaskedFloat64x8 [a] x mask)
        // result: (VREDUCEPDMasked512 [a+3] x (VPMOVVec64x8ToM <types.TypeMask> mask))
        for {
-               a := auxIntToInt8(v.AuxInt)
+               a := auxIntToUint8(v.AuxInt)
                x := v_0
                mask := v_1
                v.reset(OpAMD64VREDUCEPDMasked512)
-               v.AuxInt = int8ToAuxInt(a + 3)
+               v.AuxInt = uint8ToAuxInt(a + 3)
                v0 := b.NewValue0(v.Pos, OpAMD64VPMOVVec64x8ToM, types.TypeMask)
                v0.AddArg(mask)
                v.AddArg2(x, v0)
index 45ccb9c999894750acf26a20fd93e94270d5567a..ee03075f524af8fcf5d21315de65a1c72ce51010 100644 (file)
@@ -1670,12 +1670,42 @@ func opLen4_31(op ssa.Op, t *types.Type) func(s *state, n *ir.CallExpr, args []*
        }
 }
 
-func plainPanicSimdImm(s *state) {
-       cmp := s.newValue0(ssa.OpConstBool, types.Types[types.TBOOL])
-       cmp.AuxInt = 0
-       // TODO: make this a standalone panic instead of reusing the overflow panic.
-       // Or maybe after we implement the switch table this will be obsolete anyway.
-       s.check(cmp, ir.Syms.Panicoverflow)
+func immJumpTable(s *state, idx *ssa.Value, intrinsicCall *ir.CallExpr, genOp func(*state, int)) *ssa.Value {
+       // Make blocks we'll need.
+       bEnd := s.f.NewBlock(ssa.BlockPlain)
+
+       t := types.Types[types.TUINT8]
+       if !idx.Type.IsKind(types.TUINT8) {
+               panic("immJumpTable expects uint8 value")
+       }
+       // We will exhaust 0-255, so no need to check the bounds.
+
+       b := s.curBlock
+       b.Kind = ssa.BlockJumpTable
+       b.Pos = intrinsicCall.Pos()
+       if base.Flag.Cfg.SpectreIndex {
+               // Potential Spectre vulnerability hardening?
+               idx = s.newValue2(ssa.OpSpectreSliceIndex, t, idx, s.uintptrConstant(255))
+       }
+       b.SetControl(idx)
+       targets := [256]*ssa.Block{}
+       for i := range 256 {
+               t := s.f.NewBlock(ssa.BlockPlain)
+               targets[i] = t
+               b.AddEdgeTo(t)
+       }
+       s.endBlock()
+
+       for i, t := range targets {
+               s.startBlock(t)
+               genOp(s, i)
+               t.AddEdgeTo(bEnd)
+               s.endBlock()
+       }
+
+       s.startBlock(bEnd)
+       ret := s.variable(intrinsicCall, intrinsicCall.Type())
+       return ret
 }
 
 func opLen1Imm8(op ssa.Op, t *types.Type, offset int) func(s *state, n *ir.CallExpr, args []*ssa.Value) *ssa.Value {
@@ -1683,12 +1713,10 @@ func opLen1Imm8(op ssa.Op, t *types.Type, offset int) func(s *state, n *ir.CallE
                if args[1].Op == ssa.OpConst8 {
                        return s.newValue1I(op, t, args[1].AuxInt<<int64(offset), args[0])
                }
-               plainPanicSimdImm(s)
-               // Even though this default call is unreachable semantically,
-               // it has to return something, otherwise the compiler will try to generate
-               // default codes which might lead to a FwdRef being put at the entry block
-               // triggering a compiler panic.
-               return s.newValue1I(op, t, 0, args[0])
+               return immJumpTable(s, args[1], n, func(sNew *state, idx int) {
+                       // Encode as int8 due to requirement of AuxInt, check its comment for details.
+                       s.vars[n] = sNew.newValue1I(op, t, int64(int8(idx<<offset)), args[0])
+               })
        }
 }
 
@@ -1697,12 +1725,10 @@ func opLen2Imm8(op ssa.Op, t *types.Type, offset int) func(s *state, n *ir.CallE
                if args[1].Op == ssa.OpConst8 {
                        return s.newValue2I(op, t, args[1].AuxInt<<int64(offset), args[0], args[2])
                }
-               plainPanicSimdImm(s)
-               // Even though this default call is unreachable semantically,
-               // it has to return something, otherwise the compiler will try to generate
-               // default codes which might lead to a FwdRef being put at the entry block
-               // triggering a compiler panic.
-               return s.newValue2I(op, t, 0, args[0], args[2])
+               return immJumpTable(s, args[1], n, func(sNew *state, idx int) {
+                       // Encode as int8 due to requirement of AuxInt, check its comment for details.
+                       s.vars[n] = sNew.newValue2I(op, t, int64(int8(idx<<offset)), args[0], args[2])
+               })
        }
 }
 
@@ -1711,12 +1737,10 @@ func opLen3Imm8(op ssa.Op, t *types.Type, offset int) func(s *state, n *ir.CallE
                if args[1].Op == ssa.OpConst8 {
                        return s.newValue3I(op, t, args[1].AuxInt<<int64(offset), args[0], args[2], args[3])
                }
-               plainPanicSimdImm(s)
-               // Even though this default call is unreachable semantically,
-               // it has to return something, otherwise the compiler will try to generate
-               // default codes which might lead to a FwdRef being put at the entry block
-               // triggering a compiler panic.
-               return s.newValue3I(op, t, 0, args[0], args[2], args[3])
+               return immJumpTable(s, args[1], n, func(sNew *state, idx int) {
+                       // Encode as int8 due to requirement of AuxInt, check its comment for details.
+                       s.vars[n] = sNew.newValue3I(op, t, int64(int8(idx<<offset)), args[0], args[2], args[3])
+               })
        }
 }
 
@@ -1725,12 +1749,10 @@ func opLen2Imm8_2I(op ssa.Op, t *types.Type, offset int) func(s *state, n *ir.Ca
                if args[2].Op == ssa.OpConst8 {
                        return s.newValue2I(op, t, args[2].AuxInt<<int64(offset), args[0], args[1])
                }
-               plainPanicSimdImm(s)
-               // Even though this default call is unreachable semantically,
-               // it has to return something, otherwise the compiler will try to generate
-               // default codes which might lead to a FwdRef being put at the entry block
-               // triggering a compiler panic.
-               return s.newValue2I(op, t, 0, args[0], args[1])
+               return immJumpTable(s, args[2], n, func(sNew *state, idx int) {
+                       // Encode as int8 due to requirement of AuxInt, check its comment for details.
+                       s.vars[n] = sNew.newValue2I(op, t, int64(int8(idx<<offset)), args[0], args[1])
+               })
        }
 }
 
@@ -1739,12 +1761,10 @@ func opLen3Imm8_2I(op ssa.Op, t *types.Type, offset int) func(s *state, n *ir.Ca
                if args[2].Op == ssa.OpConst8 {
                        return s.newValue3I(op, t, args[2].AuxInt<<int64(offset), args[0], args[1], args[3])
                }
-               plainPanicSimdImm(s)
-               // Even though this default call is unreachable semantically,
-               // it has to return something, otherwise the compiler will try to generate
-               // default codes which might lead to a FwdRef being put at the entry block
-               // triggering a compiler panic.
-               return s.newValue3I(op, t, 0, args[0], args[1], args[3])
+               return immJumpTable(s, args[2], n, func(sNew *state, idx int) {
+                       // Encode as int8 due to requirement of AuxInt, check its comment for details.
+                       s.vars[n] = sNew.newValue3I(op, t, int64(int8(idx<<offset)), args[0], args[1], args[3])
+               })
        }
 }
 
@@ -1753,12 +1773,10 @@ func opLen4Imm8(op ssa.Op, t *types.Type, offset int) func(s *state, n *ir.CallE
                if args[1].Op == ssa.OpConst8 {
                        return s.newValue4I(op, t, args[1].AuxInt<<int64(offset), args[0], args[2], args[3], args[4])
                }
-               plainPanicSimdImm(s)
-               // Even though this default call is unreachable semantically,
-               // it has to return something, otherwise the compiler will try to generate
-               // default codes which might lead to a FwdRef being put at the entry block
-               // triggering a compiler panic.
-               return s.newValue4I(op, t, 0, args[0], args[2], args[3], args[4])
+               return immJumpTable(s, args[1], n, func(sNew *state, idx int) {
+                       // Encode as int8 due to requirement of AuxInt, check its comment for details.
+                       s.vars[n] = sNew.newValue4I(op, t, int64(int8(idx<<offset)), args[0], args[2], args[3], args[4])
+               })
        }
 }
 
index 712ee70d5195bea7dc1cfdeed6e40e37f90326bf..5475719e63166f059e76b35ef87ecb669fc8567b 100644 (file)
@@ -1412,42 +1412,42 @@ func (x Float64x4) Ceil() Float64x4
 
 // CeilScaled rounds elements up with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) CeilScaled(prec uint8) Float32x4
 
 // CeilScaled rounds elements up with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) CeilScaled(prec uint8) Float32x8
 
 // CeilScaled rounds elements up with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) CeilScaled(prec uint8) Float32x16
 
 // CeilScaled rounds elements up with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) CeilScaled(prec uint8) Float64x2
 
 // CeilScaled rounds elements up with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) CeilScaled(prec uint8) Float64x4
 
 // CeilScaled rounds elements up with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) CeilScaled(prec uint8) Float64x8
@@ -1458,7 +1458,7 @@ func (x Float64x8) CeilScaled(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) CeilScaledMasked(prec uint8, mask Mask32x4) Float32x4
@@ -1467,7 +1467,7 @@ func (x Float32x4) CeilScaledMasked(prec uint8, mask Mask32x4) Float32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) CeilScaledMasked(prec uint8, mask Mask32x8) Float32x8
@@ -1476,7 +1476,7 @@ func (x Float32x8) CeilScaledMasked(prec uint8, mask Mask32x8) Float32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) CeilScaledMasked(prec uint8, mask Mask32x16) Float32x16
@@ -1485,7 +1485,7 @@ func (x Float32x16) CeilScaledMasked(prec uint8, mask Mask32x16) Float32x16
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) CeilScaledMasked(prec uint8, mask Mask64x2) Float64x2
@@ -1494,7 +1494,7 @@ func (x Float64x2) CeilScaledMasked(prec uint8, mask Mask64x2) Float64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) CeilScaledMasked(prec uint8, mask Mask64x4) Float64x4
@@ -1503,7 +1503,7 @@ func (x Float64x4) CeilScaledMasked(prec uint8, mask Mask64x4) Float64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) CeilScaledMasked(prec uint8, mask Mask64x8) Float64x8
@@ -1512,42 +1512,42 @@ func (x Float64x8) CeilScaledMasked(prec uint8, mask Mask64x8) Float64x8
 
 // CeilScaledResidue computes the difference after ceiling with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) CeilScaledResidue(prec uint8) Float32x4
 
 // CeilScaledResidue computes the difference after ceiling with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) CeilScaledResidue(prec uint8) Float32x8
 
 // CeilScaledResidue computes the difference after ceiling with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) CeilScaledResidue(prec uint8) Float32x16
 
 // CeilScaledResidue computes the difference after ceiling with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) CeilScaledResidue(prec uint8) Float64x2
 
 // CeilScaledResidue computes the difference after ceiling with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) CeilScaledResidue(prec uint8) Float64x4
 
 // CeilScaledResidue computes the difference after ceiling with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) CeilScaledResidue(prec uint8) Float64x8
@@ -1558,7 +1558,7 @@ func (x Float64x8) CeilScaledResidue(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) CeilScaledResidueMasked(prec uint8, mask Mask32x4) Float32x4
@@ -1567,7 +1567,7 @@ func (x Float32x4) CeilScaledResidueMasked(prec uint8, mask Mask32x4) Float32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) CeilScaledResidueMasked(prec uint8, mask Mask32x8) Float32x8
@@ -1576,7 +1576,7 @@ func (x Float32x8) CeilScaledResidueMasked(prec uint8, mask Mask32x8) Float32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) CeilScaledResidueMasked(prec uint8, mask Mask32x16) Float32x16
@@ -1585,7 +1585,7 @@ func (x Float32x16) CeilScaledResidueMasked(prec uint8, mask Mask32x16) Float32x
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) CeilScaledResidueMasked(prec uint8, mask Mask64x2) Float64x2
@@ -1594,7 +1594,7 @@ func (x Float64x2) CeilScaledResidueMasked(prec uint8, mask Mask64x2) Float64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) CeilScaledResidueMasked(prec uint8, mask Mask64x4) Float64x4
@@ -1603,7 +1603,7 @@ func (x Float64x4) CeilScaledResidueMasked(prec uint8, mask Mask64x4) Float64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) CeilScaledResidueMasked(prec uint8, mask Mask64x8) Float64x8
@@ -2648,42 +2648,42 @@ func (x Float64x4) Floor() Float64x4
 
 // FloorScaled rounds elements down with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) FloorScaled(prec uint8) Float32x4
 
 // FloorScaled rounds elements down with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) FloorScaled(prec uint8) Float32x8
 
 // FloorScaled rounds elements down with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) FloorScaled(prec uint8) Float32x16
 
 // FloorScaled rounds elements down with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) FloorScaled(prec uint8) Float64x2
 
 // FloorScaled rounds elements down with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) FloorScaled(prec uint8) Float64x4
 
 // FloorScaled rounds elements down with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) FloorScaled(prec uint8) Float64x8
@@ -2694,7 +2694,7 @@ func (x Float64x8) FloorScaled(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) FloorScaledMasked(prec uint8, mask Mask32x4) Float32x4
@@ -2703,7 +2703,7 @@ func (x Float32x4) FloorScaledMasked(prec uint8, mask Mask32x4) Float32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) FloorScaledMasked(prec uint8, mask Mask32x8) Float32x8
@@ -2712,7 +2712,7 @@ func (x Float32x8) FloorScaledMasked(prec uint8, mask Mask32x8) Float32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) FloorScaledMasked(prec uint8, mask Mask32x16) Float32x16
@@ -2721,7 +2721,7 @@ func (x Float32x16) FloorScaledMasked(prec uint8, mask Mask32x16) Float32x16
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) FloorScaledMasked(prec uint8, mask Mask64x2) Float64x2
@@ -2730,7 +2730,7 @@ func (x Float64x2) FloorScaledMasked(prec uint8, mask Mask64x2) Float64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) FloorScaledMasked(prec uint8, mask Mask64x4) Float64x4
@@ -2739,7 +2739,7 @@ func (x Float64x4) FloorScaledMasked(prec uint8, mask Mask64x4) Float64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) FloorScaledMasked(prec uint8, mask Mask64x8) Float64x8
@@ -2748,42 +2748,42 @@ func (x Float64x8) FloorScaledMasked(prec uint8, mask Mask64x8) Float64x8
 
 // FloorScaledResidue computes the difference after flooring with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) FloorScaledResidue(prec uint8) Float32x4
 
 // FloorScaledResidue computes the difference after flooring with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) FloorScaledResidue(prec uint8) Float32x8
 
 // FloorScaledResidue computes the difference after flooring with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) FloorScaledResidue(prec uint8) Float32x16
 
 // FloorScaledResidue computes the difference after flooring with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) FloorScaledResidue(prec uint8) Float64x2
 
 // FloorScaledResidue computes the difference after flooring with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) FloorScaledResidue(prec uint8) Float64x4
 
 // FloorScaledResidue computes the difference after flooring with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) FloorScaledResidue(prec uint8) Float64x8
@@ -2794,7 +2794,7 @@ func (x Float64x8) FloorScaledResidue(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) FloorScaledResidueMasked(prec uint8, mask Mask32x4) Float32x4
@@ -2803,7 +2803,7 @@ func (x Float32x4) FloorScaledResidueMasked(prec uint8, mask Mask32x4) Float32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) FloorScaledResidueMasked(prec uint8, mask Mask32x8) Float32x8
@@ -2812,7 +2812,7 @@ func (x Float32x8) FloorScaledResidueMasked(prec uint8, mask Mask32x8) Float32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) FloorScaledResidueMasked(prec uint8, mask Mask32x16) Float32x16
@@ -2821,7 +2821,7 @@ func (x Float32x16) FloorScaledResidueMasked(prec uint8, mask Mask32x16) Float32
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) FloorScaledResidueMasked(prec uint8, mask Mask64x2) Float64x2
@@ -2830,7 +2830,7 @@ func (x Float64x2) FloorScaledResidueMasked(prec uint8, mask Mask64x2) Float64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) FloorScaledResidueMasked(prec uint8, mask Mask64x4) Float64x4
@@ -2839,7 +2839,7 @@ func (x Float64x4) FloorScaledResidueMasked(prec uint8, mask Mask64x4) Float64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) FloorScaledResidueMasked(prec uint8, mask Mask64x8) Float64x8
@@ -2851,7 +2851,7 @@ func (x Float64x8) FloorScaledResidueMasked(prec uint8, mask Mask64x8) Float64x8
 // b is an 8-bit vector. The affine transformation is y * x + b, with each element of y
 // corresponding to a group of 8 elements in x.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEQB, CPU Feature: AVX512GFNI
 func (x Uint8x16) GaloisFieldAffineTransform(y Uint64x2, b uint8) Uint8x16
@@ -2861,7 +2861,7 @@ func (x Uint8x16) GaloisFieldAffineTransform(y Uint64x2, b uint8) Uint8x16
 // b is an 8-bit vector. The affine transformation is y * x + b, with each element of y
 // corresponding to a group of 8 elements in x.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEQB, CPU Feature: AVX512GFNI
 func (x Uint8x32) GaloisFieldAffineTransform(y Uint64x4, b uint8) Uint8x32
@@ -2871,7 +2871,7 @@ func (x Uint8x32) GaloisFieldAffineTransform(y Uint64x4, b uint8) Uint8x32
 // b is an 8-bit vector. The affine transformation is y * x + b, with each element of y
 // corresponding to a group of 8 elements in x.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEQB, CPU Feature: AVX512GFNI
 func (x Uint8x64) GaloisFieldAffineTransform(y Uint64x8, b uint8) Uint8x64
@@ -2884,7 +2884,7 @@ func (x Uint8x64) GaloisFieldAffineTransform(y Uint64x8, b uint8) Uint8x64
 // b is an 8-bit vector. The affine transformation is y * x + b, with each element of y
 // corresponding to a group of 8 elements in x.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEINVQB, CPU Feature: AVX512GFNI
 func (x Uint8x16) GaloisFieldAffineTransformInverse(y Uint64x2, b uint8) Uint8x16
@@ -2895,7 +2895,7 @@ func (x Uint8x16) GaloisFieldAffineTransformInverse(y Uint64x2, b uint8) Uint8x1
 // b is an 8-bit vector. The affine transformation is y * x + b, with each element of y
 // corresponding to a group of 8 elements in x.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEINVQB, CPU Feature: AVX512GFNI
 func (x Uint8x32) GaloisFieldAffineTransformInverse(y Uint64x4, b uint8) Uint8x32
@@ -2906,7 +2906,7 @@ func (x Uint8x32) GaloisFieldAffineTransformInverse(y Uint64x4, b uint8) Uint8x3
 // b is an 8-bit vector. The affine transformation is y * x + b, with each element of y
 // corresponding to a group of 8 elements in x.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEINVQB, CPU Feature: AVX512GFNI
 func (x Uint8x64) GaloisFieldAffineTransformInverse(y Uint64x8, b uint8) Uint8x64
@@ -2921,7 +2921,7 @@ func (x Uint8x64) GaloisFieldAffineTransformInverse(y Uint64x8, b uint8) Uint8x6
 //
 // This operation is applied selectively under a write mask.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEINVQB, CPU Feature: AVX512GFNI
 func (x Uint8x16) GaloisFieldAffineTransformInverseMasked(y Uint64x2, b uint8, mask Mask8x16) Uint8x16
@@ -2934,7 +2934,7 @@ func (x Uint8x16) GaloisFieldAffineTransformInverseMasked(y Uint64x2, b uint8, m
 //
 // This operation is applied selectively under a write mask.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEINVQB, CPU Feature: AVX512GFNI
 func (x Uint8x32) GaloisFieldAffineTransformInverseMasked(y Uint64x4, b uint8, mask Mask8x32) Uint8x32
@@ -2947,7 +2947,7 @@ func (x Uint8x32) GaloisFieldAffineTransformInverseMasked(y Uint64x4, b uint8, m
 //
 // This operation is applied selectively under a write mask.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEINVQB, CPU Feature: AVX512GFNI
 func (x Uint8x64) GaloisFieldAffineTransformInverseMasked(y Uint64x8, b uint8, mask Mask8x64) Uint8x64
@@ -2961,7 +2961,7 @@ func (x Uint8x64) GaloisFieldAffineTransformInverseMasked(y Uint64x8, b uint8, m
 //
 // This operation is applied selectively under a write mask.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEQB, CPU Feature: AVX512GFNI
 func (x Uint8x16) GaloisFieldAffineTransformMasked(y Uint64x2, b uint8, mask Mask8x16) Uint8x16
@@ -2973,7 +2973,7 @@ func (x Uint8x16) GaloisFieldAffineTransformMasked(y Uint64x2, b uint8, mask Mas
 //
 // This operation is applied selectively under a write mask.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEQB, CPU Feature: AVX512GFNI
 func (x Uint8x32) GaloisFieldAffineTransformMasked(y Uint64x4, b uint8, mask Mask8x32) Uint8x32
@@ -2985,7 +2985,7 @@ func (x Uint8x32) GaloisFieldAffineTransformMasked(y Uint64x4, b uint8, mask Mas
 //
 // This operation is applied selectively under a write mask.
 //
-// b is expected to be a constant, non-constant value will trigger a runtime panic.
+// b results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VGF2P8AFFINEQB, CPU Feature: AVX512GFNI
 func (x Uint8x64) GaloisFieldAffineTransformMasked(y Uint64x8, b uint8, mask Mask8x64) Uint8x64
@@ -3040,56 +3040,56 @@ func (x Uint8x64) GaloisFieldMulMasked(y Uint8x64, mask Mask8x64) Uint8x64
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRB, CPU Feature: AVX512BW
 func (x Int8x16) GetElem(index uint8) int8
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRW, CPU Feature: AVX512BW
 func (x Int16x8) GetElem(index uint8) int16
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRD, CPU Feature: AVX
 func (x Int32x4) GetElem(index uint8) int32
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRQ, CPU Feature: AVX
 func (x Int64x2) GetElem(index uint8) int64
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRB, CPU Feature: AVX512BW
 func (x Uint8x16) GetElem(index uint8) uint8
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRW, CPU Feature: AVX512BW
 func (x Uint16x8) GetElem(index uint8) uint16
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRD, CPU Feature: AVX
 func (x Uint32x4) GetElem(index uint8) uint32
 
 // GetElem retrieves a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPEXTRQ, CPU Feature: AVX
 func (x Uint64x2) GetElem(index uint8) uint64
@@ -8096,84 +8096,84 @@ func (x Float64x8) ReciprocalSqrtMasked(mask Mask64x8) Float64x8
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Int32x4) RotateAllLeft(shift uint8) Int32x4
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Int32x8) RotateAllLeft(shift uint8) Int32x8
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Int32x16) RotateAllLeft(shift uint8) Int32x16
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Int64x2) RotateAllLeft(shift uint8) Int64x2
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Int64x4) RotateAllLeft(shift uint8) Int64x4
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Int64x8) RotateAllLeft(shift uint8) Int64x8
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Uint32x4) RotateAllLeft(shift uint8) Uint32x4
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Uint32x8) RotateAllLeft(shift uint8) Uint32x8
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Uint32x16) RotateAllLeft(shift uint8) Uint32x16
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Uint64x2) RotateAllLeft(shift uint8) Uint64x2
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Uint64x4) RotateAllLeft(shift uint8) Uint64x4
 
 // RotateAllLeft rotates each element to the left by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Uint64x8) RotateAllLeft(shift uint8) Uint64x8
@@ -8184,7 +8184,7 @@ func (x Uint64x8) RotateAllLeft(shift uint8) Uint64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Int32x4) RotateAllLeftMasked(shift uint8, mask Mask32x4) Int32x4
@@ -8193,7 +8193,7 @@ func (x Int32x4) RotateAllLeftMasked(shift uint8, mask Mask32x4) Int32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Int32x8) RotateAllLeftMasked(shift uint8, mask Mask32x8) Int32x8
@@ -8202,7 +8202,7 @@ func (x Int32x8) RotateAllLeftMasked(shift uint8, mask Mask32x8) Int32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Int32x16) RotateAllLeftMasked(shift uint8, mask Mask32x16) Int32x16
@@ -8211,7 +8211,7 @@ func (x Int32x16) RotateAllLeftMasked(shift uint8, mask Mask32x16) Int32x16
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Int64x2) RotateAllLeftMasked(shift uint8, mask Mask64x2) Int64x2
@@ -8220,7 +8220,7 @@ func (x Int64x2) RotateAllLeftMasked(shift uint8, mask Mask64x2) Int64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Int64x4) RotateAllLeftMasked(shift uint8, mask Mask64x4) Int64x4
@@ -8229,7 +8229,7 @@ func (x Int64x4) RotateAllLeftMasked(shift uint8, mask Mask64x4) Int64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Int64x8) RotateAllLeftMasked(shift uint8, mask Mask64x8) Int64x8
@@ -8238,7 +8238,7 @@ func (x Int64x8) RotateAllLeftMasked(shift uint8, mask Mask64x8) Int64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Uint32x4) RotateAllLeftMasked(shift uint8, mask Mask32x4) Uint32x4
@@ -8247,7 +8247,7 @@ func (x Uint32x4) RotateAllLeftMasked(shift uint8, mask Mask32x4) Uint32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Uint32x8) RotateAllLeftMasked(shift uint8, mask Mask32x8) Uint32x8
@@ -8256,7 +8256,7 @@ func (x Uint32x8) RotateAllLeftMasked(shift uint8, mask Mask32x8) Uint32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLD, CPU Feature: AVX512F
 func (x Uint32x16) RotateAllLeftMasked(shift uint8, mask Mask32x16) Uint32x16
@@ -8265,7 +8265,7 @@ func (x Uint32x16) RotateAllLeftMasked(shift uint8, mask Mask32x16) Uint32x16
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Uint64x2) RotateAllLeftMasked(shift uint8, mask Mask64x2) Uint64x2
@@ -8274,7 +8274,7 @@ func (x Uint64x2) RotateAllLeftMasked(shift uint8, mask Mask64x2) Uint64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Uint64x4) RotateAllLeftMasked(shift uint8, mask Mask64x4) Uint64x4
@@ -8283,7 +8283,7 @@ func (x Uint64x4) RotateAllLeftMasked(shift uint8, mask Mask64x4) Uint64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPROLQ, CPU Feature: AVX512F
 func (x Uint64x8) RotateAllLeftMasked(shift uint8, mask Mask64x8) Uint64x8
@@ -8292,84 +8292,84 @@ func (x Uint64x8) RotateAllLeftMasked(shift uint8, mask Mask64x8) Uint64x8
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Int32x4) RotateAllRight(shift uint8) Int32x4
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Int32x8) RotateAllRight(shift uint8) Int32x8
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Int32x16) RotateAllRight(shift uint8) Int32x16
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Int64x2) RotateAllRight(shift uint8) Int64x2
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Int64x4) RotateAllRight(shift uint8) Int64x4
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Int64x8) RotateAllRight(shift uint8) Int64x8
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Uint32x4) RotateAllRight(shift uint8) Uint32x4
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Uint32x8) RotateAllRight(shift uint8) Uint32x8
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Uint32x16) RotateAllRight(shift uint8) Uint32x16
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Uint64x2) RotateAllRight(shift uint8) Uint64x2
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Uint64x4) RotateAllRight(shift uint8) Uint64x4
 
 // RotateAllRight rotates each element to the right by the number of bits specified by the immediate.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Uint64x8) RotateAllRight(shift uint8) Uint64x8
@@ -8380,7 +8380,7 @@ func (x Uint64x8) RotateAllRight(shift uint8) Uint64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Int32x4) RotateAllRightMasked(shift uint8, mask Mask32x4) Int32x4
@@ -8389,7 +8389,7 @@ func (x Int32x4) RotateAllRightMasked(shift uint8, mask Mask32x4) Int32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Int32x8) RotateAllRightMasked(shift uint8, mask Mask32x8) Int32x8
@@ -8398,7 +8398,7 @@ func (x Int32x8) RotateAllRightMasked(shift uint8, mask Mask32x8) Int32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Int32x16) RotateAllRightMasked(shift uint8, mask Mask32x16) Int32x16
@@ -8407,7 +8407,7 @@ func (x Int32x16) RotateAllRightMasked(shift uint8, mask Mask32x16) Int32x16
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Int64x2) RotateAllRightMasked(shift uint8, mask Mask64x2) Int64x2
@@ -8416,7 +8416,7 @@ func (x Int64x2) RotateAllRightMasked(shift uint8, mask Mask64x2) Int64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Int64x4) RotateAllRightMasked(shift uint8, mask Mask64x4) Int64x4
@@ -8425,7 +8425,7 @@ func (x Int64x4) RotateAllRightMasked(shift uint8, mask Mask64x4) Int64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Int64x8) RotateAllRightMasked(shift uint8, mask Mask64x8) Int64x8
@@ -8434,7 +8434,7 @@ func (x Int64x8) RotateAllRightMasked(shift uint8, mask Mask64x8) Int64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Uint32x4) RotateAllRightMasked(shift uint8, mask Mask32x4) Uint32x4
@@ -8443,7 +8443,7 @@ func (x Uint32x4) RotateAllRightMasked(shift uint8, mask Mask32x4) Uint32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Uint32x8) RotateAllRightMasked(shift uint8, mask Mask32x8) Uint32x8
@@ -8452,7 +8452,7 @@ func (x Uint32x8) RotateAllRightMasked(shift uint8, mask Mask32x8) Uint32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORD, CPU Feature: AVX512F
 func (x Uint32x16) RotateAllRightMasked(shift uint8, mask Mask32x16) Uint32x16
@@ -8461,7 +8461,7 @@ func (x Uint32x16) RotateAllRightMasked(shift uint8, mask Mask32x16) Uint32x16
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Uint64x2) RotateAllRightMasked(shift uint8, mask Mask64x2) Uint64x2
@@ -8470,7 +8470,7 @@ func (x Uint64x2) RotateAllRightMasked(shift uint8, mask Mask64x2) Uint64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Uint64x4) RotateAllRightMasked(shift uint8, mask Mask64x4) Uint64x4
@@ -8479,7 +8479,7 @@ func (x Uint64x4) RotateAllRightMasked(shift uint8, mask Mask64x4) Uint64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPRORQ, CPU Feature: AVX512F
 func (x Uint64x8) RotateAllRightMasked(shift uint8, mask Mask64x8) Uint64x8
@@ -8806,42 +8806,42 @@ func (x Float64x4) RoundToEven() Float64x4
 
 // RoundToEvenScaled rounds elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) RoundToEvenScaled(prec uint8) Float32x4
 
 // RoundToEvenScaled rounds elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) RoundToEvenScaled(prec uint8) Float32x8
 
 // RoundToEvenScaled rounds elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) RoundToEvenScaled(prec uint8) Float32x16
 
 // RoundToEvenScaled rounds elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) RoundToEvenScaled(prec uint8) Float64x2
 
 // RoundToEvenScaled rounds elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) RoundToEvenScaled(prec uint8) Float64x4
 
 // RoundToEvenScaled rounds elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) RoundToEvenScaled(prec uint8) Float64x8
@@ -8852,7 +8852,7 @@ func (x Float64x8) RoundToEvenScaled(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) RoundToEvenScaledMasked(prec uint8, mask Mask32x4) Float32x4
@@ -8861,7 +8861,7 @@ func (x Float32x4) RoundToEvenScaledMasked(prec uint8, mask Mask32x4) Float32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) RoundToEvenScaledMasked(prec uint8, mask Mask32x8) Float32x8
@@ -8870,7 +8870,7 @@ func (x Float32x8) RoundToEvenScaledMasked(prec uint8, mask Mask32x8) Float32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) RoundToEvenScaledMasked(prec uint8, mask Mask32x16) Float32x16
@@ -8879,7 +8879,7 @@ func (x Float32x16) RoundToEvenScaledMasked(prec uint8, mask Mask32x16) Float32x
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) RoundToEvenScaledMasked(prec uint8, mask Mask64x2) Float64x2
@@ -8888,7 +8888,7 @@ func (x Float64x2) RoundToEvenScaledMasked(prec uint8, mask Mask64x2) Float64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) RoundToEvenScaledMasked(prec uint8, mask Mask64x4) Float64x4
@@ -8897,7 +8897,7 @@ func (x Float64x4) RoundToEvenScaledMasked(prec uint8, mask Mask64x4) Float64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) RoundToEvenScaledMasked(prec uint8, mask Mask64x8) Float64x8
@@ -8906,42 +8906,42 @@ func (x Float64x8) RoundToEvenScaledMasked(prec uint8, mask Mask64x8) Float64x8
 
 // RoundToEvenScaledResidue computes the difference after rounding with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) RoundToEvenScaledResidue(prec uint8) Float32x4
 
 // RoundToEvenScaledResidue computes the difference after rounding with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) RoundToEvenScaledResidue(prec uint8) Float32x8
 
 // RoundToEvenScaledResidue computes the difference after rounding with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) RoundToEvenScaledResidue(prec uint8) Float32x16
 
 // RoundToEvenScaledResidue computes the difference after rounding with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) RoundToEvenScaledResidue(prec uint8) Float64x2
 
 // RoundToEvenScaledResidue computes the difference after rounding with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) RoundToEvenScaledResidue(prec uint8) Float64x4
 
 // RoundToEvenScaledResidue computes the difference after rounding with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) RoundToEvenScaledResidue(prec uint8) Float64x8
@@ -8952,7 +8952,7 @@ func (x Float64x8) RoundToEvenScaledResidue(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) RoundToEvenScaledResidueMasked(prec uint8, mask Mask32x4) Float32x4
@@ -8961,7 +8961,7 @@ func (x Float32x4) RoundToEvenScaledResidueMasked(prec uint8, mask Mask32x4) Flo
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) RoundToEvenScaledResidueMasked(prec uint8, mask Mask32x8) Float32x8
@@ -8970,7 +8970,7 @@ func (x Float32x8) RoundToEvenScaledResidueMasked(prec uint8, mask Mask32x8) Flo
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) RoundToEvenScaledResidueMasked(prec uint8, mask Mask32x16) Float32x16
@@ -8979,7 +8979,7 @@ func (x Float32x16) RoundToEvenScaledResidueMasked(prec uint8, mask Mask32x16) F
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) RoundToEvenScaledResidueMasked(prec uint8, mask Mask64x2) Float64x2
@@ -8988,7 +8988,7 @@ func (x Float64x2) RoundToEvenScaledResidueMasked(prec uint8, mask Mask64x2) Flo
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) RoundToEvenScaledResidueMasked(prec uint8, mask Mask64x4) Float64x4
@@ -8997,7 +8997,7 @@ func (x Float64x4) RoundToEvenScaledResidueMasked(prec uint8, mask Mask64x4) Flo
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) RoundToEvenScaledResidueMasked(prec uint8, mask Mask64x8) Float64x8
@@ -9082,56 +9082,56 @@ func (x Float64x8) ScaleMasked(y Float64x8, mask Mask64x8) Float64x8
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRB, CPU Feature: AVX
 func (x Int8x16) SetElem(index uint8, y int8) Int8x16
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRW, CPU Feature: AVX
 func (x Int16x8) SetElem(index uint8, y int16) Int16x8
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRD, CPU Feature: AVX
 func (x Int32x4) SetElem(index uint8, y int32) Int32x4
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRQ, CPU Feature: AVX
 func (x Int64x2) SetElem(index uint8, y int64) Int64x2
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRB, CPU Feature: AVX
 func (x Uint8x16) SetElem(index uint8, y uint8) Uint8x16
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRW, CPU Feature: AVX
 func (x Uint16x8) SetElem(index uint8, y uint16) Uint16x8
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRD, CPU Feature: AVX
 func (x Uint32x4) SetElem(index uint8, y uint32) Uint32x4
 
 // SetElem sets a single constant-indexed element's value.
 //
-// index is expected to be a constant, non-constant value will trigger a runtime panic.
+// index results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPINSRQ, CPU Feature: AVX
 func (x Uint64x2) SetElem(index uint8, y uint64) Uint64x2
@@ -9437,7 +9437,7 @@ func (x Uint64x8) ShiftAllLeft(y uint64) Uint64x8
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Int16x8) ShiftAllLeftConcat(shift uint8, y Int16x8) Int16x8
@@ -9445,7 +9445,7 @@ func (x Int16x8) ShiftAllLeftConcat(shift uint8, y Int16x8) Int16x8
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Int16x16) ShiftAllLeftConcat(shift uint8, y Int16x16) Int16x16
@@ -9453,7 +9453,7 @@ func (x Int16x16) ShiftAllLeftConcat(shift uint8, y Int16x16) Int16x16
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Int16x32) ShiftAllLeftConcat(shift uint8, y Int16x32) Int16x32
@@ -9461,7 +9461,7 @@ func (x Int16x32) ShiftAllLeftConcat(shift uint8, y Int16x32) Int16x32
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Int32x4) ShiftAllLeftConcat(shift uint8, y Int32x4) Int32x4
@@ -9469,7 +9469,7 @@ func (x Int32x4) ShiftAllLeftConcat(shift uint8, y Int32x4) Int32x4
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Int32x8) ShiftAllLeftConcat(shift uint8, y Int32x8) Int32x8
@@ -9477,7 +9477,7 @@ func (x Int32x8) ShiftAllLeftConcat(shift uint8, y Int32x8) Int32x8
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Int32x16) ShiftAllLeftConcat(shift uint8, y Int32x16) Int32x16
@@ -9485,7 +9485,7 @@ func (x Int32x16) ShiftAllLeftConcat(shift uint8, y Int32x16) Int32x16
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Int64x2) ShiftAllLeftConcat(shift uint8, y Int64x2) Int64x2
@@ -9493,7 +9493,7 @@ func (x Int64x2) ShiftAllLeftConcat(shift uint8, y Int64x2) Int64x2
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Int64x4) ShiftAllLeftConcat(shift uint8, y Int64x4) Int64x4
@@ -9501,7 +9501,7 @@ func (x Int64x4) ShiftAllLeftConcat(shift uint8, y Int64x4) Int64x4
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Int64x8) ShiftAllLeftConcat(shift uint8, y Int64x8) Int64x8
@@ -9509,7 +9509,7 @@ func (x Int64x8) ShiftAllLeftConcat(shift uint8, y Int64x8) Int64x8
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Uint16x8) ShiftAllLeftConcat(shift uint8, y Uint16x8) Uint16x8
@@ -9517,7 +9517,7 @@ func (x Uint16x8) ShiftAllLeftConcat(shift uint8, y Uint16x8) Uint16x8
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Uint16x16) ShiftAllLeftConcat(shift uint8, y Uint16x16) Uint16x16
@@ -9525,7 +9525,7 @@ func (x Uint16x16) ShiftAllLeftConcat(shift uint8, y Uint16x16) Uint16x16
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Uint16x32) ShiftAllLeftConcat(shift uint8, y Uint16x32) Uint16x32
@@ -9533,7 +9533,7 @@ func (x Uint16x32) ShiftAllLeftConcat(shift uint8, y Uint16x32) Uint16x32
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Uint32x4) ShiftAllLeftConcat(shift uint8, y Uint32x4) Uint32x4
@@ -9541,7 +9541,7 @@ func (x Uint32x4) ShiftAllLeftConcat(shift uint8, y Uint32x4) Uint32x4
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Uint32x8) ShiftAllLeftConcat(shift uint8, y Uint32x8) Uint32x8
@@ -9549,7 +9549,7 @@ func (x Uint32x8) ShiftAllLeftConcat(shift uint8, y Uint32x8) Uint32x8
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Uint32x16) ShiftAllLeftConcat(shift uint8, y Uint32x16) Uint32x16
@@ -9557,7 +9557,7 @@ func (x Uint32x16) ShiftAllLeftConcat(shift uint8, y Uint32x16) Uint32x16
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x2) ShiftAllLeftConcat(shift uint8, y Uint64x2) Uint64x2
@@ -9565,7 +9565,7 @@ func (x Uint64x2) ShiftAllLeftConcat(shift uint8, y Uint64x2) Uint64x2
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x4) ShiftAllLeftConcat(shift uint8, y Uint64x4) Uint64x4
@@ -9573,7 +9573,7 @@ func (x Uint64x4) ShiftAllLeftConcat(shift uint8, y Uint64x4) Uint64x4
 // ShiftAllLeftConcat shifts each element of x to the left by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the upper bits of y to the emptied lower bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x8) ShiftAllLeftConcat(shift uint8, y Uint64x8) Uint64x8
@@ -9585,7 +9585,7 @@ func (x Uint64x8) ShiftAllLeftConcat(shift uint8, y Uint64x8) Uint64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Int16x8) ShiftAllLeftConcatMasked(shift uint8, y Int16x8, mask Mask16x8) Int16x8
@@ -9595,7 +9595,7 @@ func (x Int16x8) ShiftAllLeftConcatMasked(shift uint8, y Int16x8, mask Mask16x8)
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Int16x16) ShiftAllLeftConcatMasked(shift uint8, y Int16x16, mask Mask16x16) Int16x16
@@ -9605,7 +9605,7 @@ func (x Int16x16) ShiftAllLeftConcatMasked(shift uint8, y Int16x16, mask Mask16x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Int16x32) ShiftAllLeftConcatMasked(shift uint8, y Int16x32, mask Mask16x32) Int16x32
@@ -9615,7 +9615,7 @@ func (x Int16x32) ShiftAllLeftConcatMasked(shift uint8, y Int16x32, mask Mask16x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Int32x4) ShiftAllLeftConcatMasked(shift uint8, y Int32x4, mask Mask32x4) Int32x4
@@ -9625,7 +9625,7 @@ func (x Int32x4) ShiftAllLeftConcatMasked(shift uint8, y Int32x4, mask Mask32x4)
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Int32x8) ShiftAllLeftConcatMasked(shift uint8, y Int32x8, mask Mask32x8) Int32x8
@@ -9635,7 +9635,7 @@ func (x Int32x8) ShiftAllLeftConcatMasked(shift uint8, y Int32x8, mask Mask32x8)
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Int32x16) ShiftAllLeftConcatMasked(shift uint8, y Int32x16, mask Mask32x16) Int32x16
@@ -9645,7 +9645,7 @@ func (x Int32x16) ShiftAllLeftConcatMasked(shift uint8, y Int32x16, mask Mask32x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Int64x2) ShiftAllLeftConcatMasked(shift uint8, y Int64x2, mask Mask64x2) Int64x2
@@ -9655,7 +9655,7 @@ func (x Int64x2) ShiftAllLeftConcatMasked(shift uint8, y Int64x2, mask Mask64x2)
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Int64x4) ShiftAllLeftConcatMasked(shift uint8, y Int64x4, mask Mask64x4) Int64x4
@@ -9665,7 +9665,7 @@ func (x Int64x4) ShiftAllLeftConcatMasked(shift uint8, y Int64x4, mask Mask64x4)
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Int64x8) ShiftAllLeftConcatMasked(shift uint8, y Int64x8, mask Mask64x8) Int64x8
@@ -9675,7 +9675,7 @@ func (x Int64x8) ShiftAllLeftConcatMasked(shift uint8, y Int64x8, mask Mask64x8)
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Uint16x8) ShiftAllLeftConcatMasked(shift uint8, y Uint16x8, mask Mask16x8) Uint16x8
@@ -9685,7 +9685,7 @@ func (x Uint16x8) ShiftAllLeftConcatMasked(shift uint8, y Uint16x8, mask Mask16x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Uint16x16) ShiftAllLeftConcatMasked(shift uint8, y Uint16x16, mask Mask16x16) Uint16x16
@@ -9695,7 +9695,7 @@ func (x Uint16x16) ShiftAllLeftConcatMasked(shift uint8, y Uint16x16, mask Mask1
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDW, CPU Feature: AVX512VBMI2
 func (x Uint16x32) ShiftAllLeftConcatMasked(shift uint8, y Uint16x32, mask Mask16x32) Uint16x32
@@ -9705,7 +9705,7 @@ func (x Uint16x32) ShiftAllLeftConcatMasked(shift uint8, y Uint16x32, mask Mask1
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Uint32x4) ShiftAllLeftConcatMasked(shift uint8, y Uint32x4, mask Mask32x4) Uint32x4
@@ -9715,7 +9715,7 @@ func (x Uint32x4) ShiftAllLeftConcatMasked(shift uint8, y Uint32x4, mask Mask32x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Uint32x8) ShiftAllLeftConcatMasked(shift uint8, y Uint32x8, mask Mask32x8) Uint32x8
@@ -9725,7 +9725,7 @@ func (x Uint32x8) ShiftAllLeftConcatMasked(shift uint8, y Uint32x8, mask Mask32x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDD, CPU Feature: AVX512VBMI2
 func (x Uint32x16) ShiftAllLeftConcatMasked(shift uint8, y Uint32x16, mask Mask32x16) Uint32x16
@@ -9735,7 +9735,7 @@ func (x Uint32x16) ShiftAllLeftConcatMasked(shift uint8, y Uint32x16, mask Mask3
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x2) ShiftAllLeftConcatMasked(shift uint8, y Uint64x2, mask Mask64x2) Uint64x2
@@ -9745,7 +9745,7 @@ func (x Uint64x2) ShiftAllLeftConcatMasked(shift uint8, y Uint64x2, mask Mask64x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x4) ShiftAllLeftConcatMasked(shift uint8, y Uint64x4, mask Mask64x4) Uint64x4
@@ -9755,7 +9755,7 @@ func (x Uint64x4) ShiftAllLeftConcatMasked(shift uint8, y Uint64x4, mask Mask64x
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHLDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x8) ShiftAllLeftConcatMasked(shift uint8, y Uint64x8, mask Mask64x8) Uint64x8
@@ -9985,7 +9985,7 @@ func (x Uint64x8) ShiftAllRight(y uint64) Uint64x8
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Int16x8) ShiftAllRightConcat(shift uint8, y Int16x8) Int16x8
@@ -9993,7 +9993,7 @@ func (x Int16x8) ShiftAllRightConcat(shift uint8, y Int16x8) Int16x8
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Int16x16) ShiftAllRightConcat(shift uint8, y Int16x16) Int16x16
@@ -10001,7 +10001,7 @@ func (x Int16x16) ShiftAllRightConcat(shift uint8, y Int16x16) Int16x16
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Int16x32) ShiftAllRightConcat(shift uint8, y Int16x32) Int16x32
@@ -10009,7 +10009,7 @@ func (x Int16x32) ShiftAllRightConcat(shift uint8, y Int16x32) Int16x32
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Int32x4) ShiftAllRightConcat(shift uint8, y Int32x4) Int32x4
@@ -10017,7 +10017,7 @@ func (x Int32x4) ShiftAllRightConcat(shift uint8, y Int32x4) Int32x4
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Int32x8) ShiftAllRightConcat(shift uint8, y Int32x8) Int32x8
@@ -10025,7 +10025,7 @@ func (x Int32x8) ShiftAllRightConcat(shift uint8, y Int32x8) Int32x8
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Int32x16) ShiftAllRightConcat(shift uint8, y Int32x16) Int32x16
@@ -10033,7 +10033,7 @@ func (x Int32x16) ShiftAllRightConcat(shift uint8, y Int32x16) Int32x16
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Int64x2) ShiftAllRightConcat(shift uint8, y Int64x2) Int64x2
@@ -10041,7 +10041,7 @@ func (x Int64x2) ShiftAllRightConcat(shift uint8, y Int64x2) Int64x2
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Int64x4) ShiftAllRightConcat(shift uint8, y Int64x4) Int64x4
@@ -10049,7 +10049,7 @@ func (x Int64x4) ShiftAllRightConcat(shift uint8, y Int64x4) Int64x4
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Int64x8) ShiftAllRightConcat(shift uint8, y Int64x8) Int64x8
@@ -10057,7 +10057,7 @@ func (x Int64x8) ShiftAllRightConcat(shift uint8, y Int64x8) Int64x8
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Uint16x8) ShiftAllRightConcat(shift uint8, y Uint16x8) Uint16x8
@@ -10065,7 +10065,7 @@ func (x Uint16x8) ShiftAllRightConcat(shift uint8, y Uint16x8) Uint16x8
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Uint16x16) ShiftAllRightConcat(shift uint8, y Uint16x16) Uint16x16
@@ -10073,7 +10073,7 @@ func (x Uint16x16) ShiftAllRightConcat(shift uint8, y Uint16x16) Uint16x16
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Uint16x32) ShiftAllRightConcat(shift uint8, y Uint16x32) Uint16x32
@@ -10081,7 +10081,7 @@ func (x Uint16x32) ShiftAllRightConcat(shift uint8, y Uint16x32) Uint16x32
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Uint32x4) ShiftAllRightConcat(shift uint8, y Uint32x4) Uint32x4
@@ -10089,7 +10089,7 @@ func (x Uint32x4) ShiftAllRightConcat(shift uint8, y Uint32x4) Uint32x4
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Uint32x8) ShiftAllRightConcat(shift uint8, y Uint32x8) Uint32x8
@@ -10097,7 +10097,7 @@ func (x Uint32x8) ShiftAllRightConcat(shift uint8, y Uint32x8) Uint32x8
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Uint32x16) ShiftAllRightConcat(shift uint8, y Uint32x16) Uint32x16
@@ -10105,7 +10105,7 @@ func (x Uint32x16) ShiftAllRightConcat(shift uint8, y Uint32x16) Uint32x16
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x2) ShiftAllRightConcat(shift uint8, y Uint64x2) Uint64x2
@@ -10113,7 +10113,7 @@ func (x Uint64x2) ShiftAllRightConcat(shift uint8, y Uint64x2) Uint64x2
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x4) ShiftAllRightConcat(shift uint8, y Uint64x4) Uint64x4
@@ -10121,7 +10121,7 @@ func (x Uint64x4) ShiftAllRightConcat(shift uint8, y Uint64x4) Uint64x4
 // ShiftAllRightConcat shifts each element of x to the right by the number of bits specified by the
 // immediate(only the lower 5 bits are used), and then copies the lower bits of y to the emptied upper bits of the shifted x.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x8) ShiftAllRightConcat(shift uint8, y Uint64x8) Uint64x8
@@ -10133,7 +10133,7 @@ func (x Uint64x8) ShiftAllRightConcat(shift uint8, y Uint64x8) Uint64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Int16x8) ShiftAllRightConcatMasked(shift uint8, y Int16x8, mask Mask16x8) Int16x8
@@ -10143,7 +10143,7 @@ func (x Int16x8) ShiftAllRightConcatMasked(shift uint8, y Int16x8, mask Mask16x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Int16x16) ShiftAllRightConcatMasked(shift uint8, y Int16x16, mask Mask16x16) Int16x16
@@ -10153,7 +10153,7 @@ func (x Int16x16) ShiftAllRightConcatMasked(shift uint8, y Int16x16, mask Mask16
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Int16x32) ShiftAllRightConcatMasked(shift uint8, y Int16x32, mask Mask16x32) Int16x32
@@ -10163,7 +10163,7 @@ func (x Int16x32) ShiftAllRightConcatMasked(shift uint8, y Int16x32, mask Mask16
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Int32x4) ShiftAllRightConcatMasked(shift uint8, y Int32x4, mask Mask32x4) Int32x4
@@ -10173,7 +10173,7 @@ func (x Int32x4) ShiftAllRightConcatMasked(shift uint8, y Int32x4, mask Mask32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Int32x8) ShiftAllRightConcatMasked(shift uint8, y Int32x8, mask Mask32x8) Int32x8
@@ -10183,7 +10183,7 @@ func (x Int32x8) ShiftAllRightConcatMasked(shift uint8, y Int32x8, mask Mask32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Int32x16) ShiftAllRightConcatMasked(shift uint8, y Int32x16, mask Mask32x16) Int32x16
@@ -10193,7 +10193,7 @@ func (x Int32x16) ShiftAllRightConcatMasked(shift uint8, y Int32x16, mask Mask32
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Int64x2) ShiftAllRightConcatMasked(shift uint8, y Int64x2, mask Mask64x2) Int64x2
@@ -10203,7 +10203,7 @@ func (x Int64x2) ShiftAllRightConcatMasked(shift uint8, y Int64x2, mask Mask64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Int64x4) ShiftAllRightConcatMasked(shift uint8, y Int64x4, mask Mask64x4) Int64x4
@@ -10213,7 +10213,7 @@ func (x Int64x4) ShiftAllRightConcatMasked(shift uint8, y Int64x4, mask Mask64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Int64x8) ShiftAllRightConcatMasked(shift uint8, y Int64x8, mask Mask64x8) Int64x8
@@ -10223,7 +10223,7 @@ func (x Int64x8) ShiftAllRightConcatMasked(shift uint8, y Int64x8, mask Mask64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Uint16x8) ShiftAllRightConcatMasked(shift uint8, y Uint16x8, mask Mask16x8) Uint16x8
@@ -10233,7 +10233,7 @@ func (x Uint16x8) ShiftAllRightConcatMasked(shift uint8, y Uint16x8, mask Mask16
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Uint16x16) ShiftAllRightConcatMasked(shift uint8, y Uint16x16, mask Mask16x16) Uint16x16
@@ -10243,7 +10243,7 @@ func (x Uint16x16) ShiftAllRightConcatMasked(shift uint8, y Uint16x16, mask Mask
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDW, CPU Feature: AVX512VBMI2
 func (x Uint16x32) ShiftAllRightConcatMasked(shift uint8, y Uint16x32, mask Mask16x32) Uint16x32
@@ -10253,7 +10253,7 @@ func (x Uint16x32) ShiftAllRightConcatMasked(shift uint8, y Uint16x32, mask Mask
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Uint32x4) ShiftAllRightConcatMasked(shift uint8, y Uint32x4, mask Mask32x4) Uint32x4
@@ -10263,7 +10263,7 @@ func (x Uint32x4) ShiftAllRightConcatMasked(shift uint8, y Uint32x4, mask Mask32
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Uint32x8) ShiftAllRightConcatMasked(shift uint8, y Uint32x8, mask Mask32x8) Uint32x8
@@ -10273,7 +10273,7 @@ func (x Uint32x8) ShiftAllRightConcatMasked(shift uint8, y Uint32x8, mask Mask32
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDD, CPU Feature: AVX512VBMI2
 func (x Uint32x16) ShiftAllRightConcatMasked(shift uint8, y Uint32x16, mask Mask32x16) Uint32x16
@@ -10283,7 +10283,7 @@ func (x Uint32x16) ShiftAllRightConcatMasked(shift uint8, y Uint32x16, mask Mask
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x2) ShiftAllRightConcatMasked(shift uint8, y Uint64x2, mask Mask64x2) Uint64x2
@@ -10293,7 +10293,7 @@ func (x Uint64x2) ShiftAllRightConcatMasked(shift uint8, y Uint64x2, mask Mask64
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x4) ShiftAllRightConcatMasked(shift uint8, y Uint64x4, mask Mask64x4) Uint64x4
@@ -10303,7 +10303,7 @@ func (x Uint64x4) ShiftAllRightConcatMasked(shift uint8, y Uint64x4, mask Mask64
 //
 // This operation is applied selectively under a write mask.
 //
-// shift is expected to be a constant, non-constant value will trigger a runtime panic.
+// shift results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VPSHRDQ, CPU Feature: AVX512VBMI2
 func (x Uint64x8) ShiftAllRightConcatMasked(shift uint8, y Uint64x8, mask Mask64x8) Uint64x8
@@ -12090,42 +12090,42 @@ func (x Float64x4) Trunc() Float64x4
 
 // TruncScaled truncates elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) TruncScaled(prec uint8) Float32x4
 
 // TruncScaled truncates elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) TruncScaled(prec uint8) Float32x8
 
 // TruncScaled truncates elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) TruncScaled(prec uint8) Float32x16
 
 // TruncScaled truncates elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) TruncScaled(prec uint8) Float64x2
 
 // TruncScaled truncates elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) TruncScaled(prec uint8) Float64x4
 
 // TruncScaled truncates elements with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) TruncScaled(prec uint8) Float64x8
@@ -12136,7 +12136,7 @@ func (x Float64x8) TruncScaled(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x4) TruncScaledMasked(prec uint8, mask Mask32x4) Float32x4
@@ -12145,7 +12145,7 @@ func (x Float32x4) TruncScaledMasked(prec uint8, mask Mask32x4) Float32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x8) TruncScaledMasked(prec uint8, mask Mask32x8) Float32x8
@@ -12154,7 +12154,7 @@ func (x Float32x8) TruncScaledMasked(prec uint8, mask Mask32x8) Float32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPS, CPU Feature: AVX512F
 func (x Float32x16) TruncScaledMasked(prec uint8, mask Mask32x16) Float32x16
@@ -12163,7 +12163,7 @@ func (x Float32x16) TruncScaledMasked(prec uint8, mask Mask32x16) Float32x16
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x2) TruncScaledMasked(prec uint8, mask Mask64x2) Float64x2
@@ -12172,7 +12172,7 @@ func (x Float64x2) TruncScaledMasked(prec uint8, mask Mask64x2) Float64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x4) TruncScaledMasked(prec uint8, mask Mask64x4) Float64x4
@@ -12181,7 +12181,7 @@ func (x Float64x4) TruncScaledMasked(prec uint8, mask Mask64x4) Float64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VRNDSCALEPD, CPU Feature: AVX512F
 func (x Float64x8) TruncScaledMasked(prec uint8, mask Mask64x8) Float64x8
@@ -12190,42 +12190,42 @@ func (x Float64x8) TruncScaledMasked(prec uint8, mask Mask64x8) Float64x8
 
 // TruncScaledResidue computes the difference after truncating with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) TruncScaledResidue(prec uint8) Float32x4
 
 // TruncScaledResidue computes the difference after truncating with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) TruncScaledResidue(prec uint8) Float32x8
 
 // TruncScaledResidue computes the difference after truncating with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) TruncScaledResidue(prec uint8) Float32x16
 
 // TruncScaledResidue computes the difference after truncating with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) TruncScaledResidue(prec uint8) Float64x2
 
 // TruncScaledResidue computes the difference after truncating with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) TruncScaledResidue(prec uint8) Float64x4
 
 // TruncScaledResidue computes the difference after truncating with specified precision.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) TruncScaledResidue(prec uint8) Float64x8
@@ -12236,7 +12236,7 @@ func (x Float64x8) TruncScaledResidue(prec uint8) Float64x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x4) TruncScaledResidueMasked(prec uint8, mask Mask32x4) Float32x4
@@ -12245,7 +12245,7 @@ func (x Float32x4) TruncScaledResidueMasked(prec uint8, mask Mask32x4) Float32x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x8) TruncScaledResidueMasked(prec uint8, mask Mask32x8) Float32x8
@@ -12254,7 +12254,7 @@ func (x Float32x8) TruncScaledResidueMasked(prec uint8, mask Mask32x8) Float32x8
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPS, CPU Feature: AVX512DQ
 func (x Float32x16) TruncScaledResidueMasked(prec uint8, mask Mask32x16) Float32x16
@@ -12263,7 +12263,7 @@ func (x Float32x16) TruncScaledResidueMasked(prec uint8, mask Mask32x16) Float32
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x2) TruncScaledResidueMasked(prec uint8, mask Mask64x2) Float64x2
@@ -12272,7 +12272,7 @@ func (x Float64x2) TruncScaledResidueMasked(prec uint8, mask Mask64x2) Float64x2
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x4) TruncScaledResidueMasked(prec uint8, mask Mask64x4) Float64x4
@@ -12281,7 +12281,7 @@ func (x Float64x4) TruncScaledResidueMasked(prec uint8, mask Mask64x4) Float64x4
 //
 // This operation is applied selectively under a write mask.
 //
-// prec is expected to be a constant, non-constant value will trigger a runtime panic.
+// prec results in better performance when it's a constant, non-constant value will trigger a jump table to be generated.
 //
 // Asm: VREDUCEPD, CPU Feature: AVX512DQ
 func (x Float64x8) TruncScaledResidueMasked(prec uint8, mask Mask64x8) Float64x8
index 2fef6417d2bca66929defde73c2c40cc58e9401d..f28daf1bc7314dac18a9dcbf7bffc9a99a0990c8 100644 (file)
@@ -396,3 +396,19 @@ func TestMergeFloat(t *testing.T) {
        c.StoreSlice(s)
        checkSlices[float64](t, s, []float64{4, 2, 3, 4})
 }
+
+var ro uint8 = 2
+
+func TestRotateAllVariable(t *testing.T) {
+       if !simd.HasAVX512() {
+               t.Skip("Test requires HasAVX512, not available on this hardware")
+               return
+       }
+       got := make([]int32, 4)
+       simd.LoadInt32x4Slice([]int32{0b11, 0b11, 0b11, 0b11}).RotateAllLeft(ro).StoreSlice(got)
+       for _, v := range got {
+               if v != 0b1100 {
+                       t.Errorf("Want 0b1100, got %b", v)
+               }
+       }
+}