forked from OSchip/llvm-project
[RISCV] Enable SPLAT_VECTOR for fixed vXi64 types on RV32.
This replaces D98479. This allows type legalization to form SPLAT_VECTOR_PARTS so we don't lose the splattedness when the scalar type is split. I'm handling SPLAT_VECTOR_PARTS for fixed vectors separately so we can continue using non-VL nodes for scalable vectors. I limited to RV32+vXi64 because DAGCombiner::visitBUILD_VECTOR likes to form SPLAT_VECTOR before seeing if it can replace the BUILD_VECTOR with other operations. Especially interesting is a splat BUILD_VECTOR of the extract_vector_elt which can become a splat shuffle, but won't if we form SPLAT_VECTOR first. We either need to reorder visitBUILD_VECTOR or add visitSPLAT_VECTOR. Reviewed By: frasercrmck Differential Revision: https://reviews.llvm.org/D100803
This commit is contained in:
parent
25391cec3a
commit
0c330afdfa
|
@ -19517,13 +19517,6 @@ SDValue DAGCombiner::visitBUILD_VECTOR(SDNode *N) {
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
// A splat of a single element is a SPLAT_VECTOR if supported on the target.
|
|
||||||
if (TLI.getOperationAction(ISD::SPLAT_VECTOR, VT) != TargetLowering::Expand)
|
|
||||||
if (SDValue V = cast<BuildVectorSDNode>(N)->getSplatValue()) {
|
|
||||||
assert(!V.isUndef() && "Splat of undef should have been handled earlier");
|
|
||||||
return DAG.getNode(ISD::SPLAT_VECTOR, SDLoc(N), VT, V);
|
|
||||||
}
|
|
||||||
|
|
||||||
// Check if we can express BUILD VECTOR via subvector extract.
|
// Check if we can express BUILD VECTOR via subvector extract.
|
||||||
if (!LegalTypes && (N->getNumOperands() > 1)) {
|
if (!LegalTypes && (N->getNumOperands() > 1)) {
|
||||||
SDValue Op0 = N->getOperand(0);
|
SDValue Op0 = N->getOperand(0);
|
||||||
|
@ -19565,6 +19558,14 @@ SDValue DAGCombiner::visitBUILD_VECTOR(SDNode *N) {
|
||||||
if (SDValue V = reduceBuildVecToShuffle(N))
|
if (SDValue V = reduceBuildVecToShuffle(N))
|
||||||
return V;
|
return V;
|
||||||
|
|
||||||
|
// A splat of a single element is a SPLAT_VECTOR if supported on the target.
|
||||||
|
// Do this late as some of the above may replace the splat.
|
||||||
|
if (TLI.getOperationAction(ISD::SPLAT_VECTOR, VT) != TargetLowering::Expand)
|
||||||
|
if (SDValue V = cast<BuildVectorSDNode>(N)->getSplatValue()) {
|
||||||
|
assert(!V.isUndef() && "Splat of undef should have been handled earlier");
|
||||||
|
return DAG.getNode(ISD::SPLAT_VECTOR, SDLoc(N), VT, V);
|
||||||
|
}
|
||||||
|
|
||||||
return SDValue();
|
return SDValue();
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
|
@ -636,6 +636,15 @@ RISCVTargetLowering::RISCVTargetLowering(const TargetMachine &TM,
|
||||||
continue;
|
continue;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// Use SPLAT_VECTOR to prevent type legalization from destroying the
|
||||||
|
// splats when type legalizing i64 scalar on RV32.
|
||||||
|
// FIXME: Use SPLAT_VECTOR for all types? DAGCombine probably needs
|
||||||
|
// improvements first.
|
||||||
|
if (!Subtarget.is64Bit() && VT.getVectorElementType() == MVT::i64) {
|
||||||
|
setOperationAction(ISD::SPLAT_VECTOR, VT, Custom);
|
||||||
|
setOperationAction(ISD::SPLAT_VECTOR_PARTS, VT, Custom);
|
||||||
|
}
|
||||||
|
|
||||||
setOperationAction(ISD::VECTOR_SHUFFLE, VT, Custom);
|
setOperationAction(ISD::VECTOR_SHUFFLE, VT, Custom);
|
||||||
setOperationAction(ISD::INSERT_VECTOR_ELT, VT, Custom);
|
setOperationAction(ISD::INSERT_VECTOR_ELT, VT, Custom);
|
||||||
|
|
||||||
|
@ -1265,6 +1274,23 @@ bool RISCVTargetLowering::isShuffleMaskLegal(ArrayRef<int> M, EVT VT) const {
|
||||||
return false;
|
return false;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static SDValue lowerSPLAT_VECTOR(SDValue Op, SelectionDAG &DAG,
|
||||||
|
const RISCVSubtarget &Subtarget) {
|
||||||
|
MVT VT = Op.getSimpleValueType();
|
||||||
|
assert(VT.isFixedLengthVector() && "Unexpected vector!");
|
||||||
|
|
||||||
|
MVT ContainerVT = getContainerForFixedLengthVector(DAG, VT, Subtarget);
|
||||||
|
|
||||||
|
SDLoc DL(Op);
|
||||||
|
SDValue Mask, VL;
|
||||||
|
std::tie(Mask, VL) = getDefaultVLOps(VT, ContainerVT, DL, DAG, Subtarget);
|
||||||
|
|
||||||
|
unsigned Opc =
|
||||||
|
VT.isFloatingPoint() ? RISCVISD::VFMV_V_F_VL : RISCVISD::VMV_V_X_VL;
|
||||||
|
SDValue Splat = DAG.getNode(Opc, DL, ContainerVT, Op.getOperand(0), VL);
|
||||||
|
return convertFromScalableVector(VT, Splat, DAG, Subtarget);
|
||||||
|
}
|
||||||
|
|
||||||
static SDValue lowerBUILD_VECTOR(SDValue Op, SelectionDAG &DAG,
|
static SDValue lowerBUILD_VECTOR(SDValue Op, SelectionDAG &DAG,
|
||||||
const RISCVSubtarget &Subtarget) {
|
const RISCVSubtarget &Subtarget) {
|
||||||
MVT VT = Op.getSimpleValueType();
|
MVT VT = Op.getSimpleValueType();
|
||||||
|
@ -1515,8 +1541,7 @@ static SDValue lowerBUILD_VECTOR(SDValue Op, SelectionDAG &DAG,
|
||||||
// vector nxvXi64 VT.
|
// vector nxvXi64 VT.
|
||||||
static SDValue splatPartsI64ThroughStack(const SDLoc &DL, MVT VT, SDValue Lo,
|
static SDValue splatPartsI64ThroughStack(const SDLoc &DL, MVT VT, SDValue Lo,
|
||||||
SDValue Hi, SDValue VL,
|
SDValue Hi, SDValue VL,
|
||||||
SelectionDAG &DAG,
|
SelectionDAG &DAG) {
|
||||||
const RISCVSubtarget &Subtarget) {
|
|
||||||
assert(VT.getVectorElementType() == MVT::i64 && VT.isScalableVector() &&
|
assert(VT.getVectorElementType() == MVT::i64 && VT.isScalableVector() &&
|
||||||
Lo.getValueType() == MVT::i32 && Hi.getValueType() == MVT::i32 &&
|
Lo.getValueType() == MVT::i32 && Hi.getValueType() == MVT::i32 &&
|
||||||
"Unexpected VTs!");
|
"Unexpected VTs!");
|
||||||
|
@ -1540,29 +1565,41 @@ static SDValue splatPartsI64ThroughStack(const SDLoc &DL, MVT VT, SDValue Lo,
|
||||||
|
|
||||||
Chain = DAG.getNode(ISD::TokenFactor, DL, MVT::Other, Lo, Hi);
|
Chain = DAG.getNode(ISD::TokenFactor, DL, MVT::Other, Lo, Hi);
|
||||||
|
|
||||||
MVT XLenVT = Subtarget.getXLenVT();
|
|
||||||
SDVTList VTs = DAG.getVTList({VT, MVT::Other});
|
SDVTList VTs = DAG.getVTList({VT, MVT::Other});
|
||||||
SDValue IntID = DAG.getTargetConstant(Intrinsic::riscv_vlse, DL, XLenVT);
|
SDValue IntID = DAG.getTargetConstant(Intrinsic::riscv_vlse, DL, MVT::i64);
|
||||||
SDValue Ops[] = {Chain, IntID, StackSlot, DAG.getRegister(RISCV::X0, XLenVT),
|
SDValue Ops[] = {Chain, IntID, StackSlot,
|
||||||
VL};
|
DAG.getRegister(RISCV::X0, MVT::i64), VL};
|
||||||
|
|
||||||
return DAG.getMemIntrinsicNode(ISD::INTRINSIC_W_CHAIN, DL, VTs, Ops, MVT::i64,
|
return DAG.getMemIntrinsicNode(ISD::INTRINSIC_W_CHAIN, DL, VTs, Ops, MVT::i64,
|
||||||
MPI, Align(8), MachineMemOperand::MOLoad);
|
MPI, Align(8), MachineMemOperand::MOLoad);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static SDValue splatPartsI64WithVL(const SDLoc &DL, MVT VT, SDValue Lo,
|
||||||
|
SDValue Hi, SDValue VL, SelectionDAG &DAG) {
|
||||||
|
if (isa<ConstantSDNode>(Lo) && isa<ConstantSDNode>(Hi)) {
|
||||||
|
int32_t LoC = cast<ConstantSDNode>(Lo)->getSExtValue();
|
||||||
|
int32_t HiC = cast<ConstantSDNode>(Hi)->getSExtValue();
|
||||||
|
// If Hi constant is all the same sign bit as Lo, lower this as a custom
|
||||||
|
// node in order to try and match RVV vector/scalar instructions.
|
||||||
|
if ((LoC >> 31) == HiC)
|
||||||
|
return DAG.getNode(RISCVISD::VMV_V_X_VL, DL, VT, Lo, VL);
|
||||||
|
}
|
||||||
|
|
||||||
|
// Fall back to a stack store and stride x0 vector load.
|
||||||
|
return splatPartsI64ThroughStack(DL, VT, Lo, Hi, VL, DAG);
|
||||||
|
}
|
||||||
|
|
||||||
// Called by type legalization to handle splat of i64 on RV32.
|
// Called by type legalization to handle splat of i64 on RV32.
|
||||||
// FIXME: We can optimize this when the type has sign or zero bits in one
|
// FIXME: We can optimize this when the type has sign or zero bits in one
|
||||||
// of the halves.
|
// of the halves.
|
||||||
static SDValue splatSplitI64WithVL(const SDLoc &DL, MVT VT, SDValue Scalar,
|
static SDValue splatSplitI64WithVL(const SDLoc &DL, MVT VT, SDValue Scalar,
|
||||||
SDValue VL, SelectionDAG &DAG,
|
SDValue VL, SelectionDAG &DAG) {
|
||||||
const RISCVSubtarget &Subtarget) {
|
assert(Scalar.getValueType() == MVT::i64 && "Unexpected VT!");
|
||||||
SDValue Lo = DAG.getNode(ISD::EXTRACT_ELEMENT, DL, MVT::i32, Scalar,
|
SDValue Lo = DAG.getNode(ISD::EXTRACT_ELEMENT, DL, MVT::i32, Scalar,
|
||||||
DAG.getConstant(0, DL, MVT::i32));
|
DAG.getConstant(0, DL, MVT::i32));
|
||||||
SDValue Hi = DAG.getNode(ISD::EXTRACT_ELEMENT, DL, MVT::i32, Scalar,
|
SDValue Hi = DAG.getNode(ISD::EXTRACT_ELEMENT, DL, MVT::i32, Scalar,
|
||||||
DAG.getConstant(1, DL, MVT::i32));
|
DAG.getConstant(1, DL, MVT::i32));
|
||||||
|
return splatPartsI64WithVL(DL, VT, Lo, Hi, VL, DAG);
|
||||||
// Fall back to a stack store and stride x0 vector load.
|
|
||||||
return splatPartsI64ThroughStack(DL, VT, Lo, Hi, VL, DAG, Subtarget);
|
|
||||||
}
|
}
|
||||||
|
|
||||||
// This function lowers a splat of a scalar operand Splat with the vector
|
// This function lowers a splat of a scalar operand Splat with the vector
|
||||||
|
@ -1591,17 +1628,8 @@ static SDValue lowerScalarSplat(SDValue Scalar, SDValue VL, MVT VT, SDLoc DL,
|
||||||
assert(XLenVT == MVT::i32 && Scalar.getValueType() == MVT::i64 &&
|
assert(XLenVT == MVT::i32 && Scalar.getValueType() == MVT::i64 &&
|
||||||
"Unexpected scalar for splat lowering!");
|
"Unexpected scalar for splat lowering!");
|
||||||
|
|
||||||
// If this is a sign-extended 32-bit constant, we can truncate it and rely
|
|
||||||
// on the instruction to sign-extend since SEW>XLEN.
|
|
||||||
if (auto *CVal = dyn_cast<ConstantSDNode>(Scalar)) {
|
|
||||||
if (isInt<32>(CVal->getSExtValue()))
|
|
||||||
return DAG.getNode(RISCVISD::VMV_V_X_VL, DL, VT,
|
|
||||||
DAG.getConstant(CVal->getSExtValue(), DL, MVT::i32),
|
|
||||||
VL);
|
|
||||||
}
|
|
||||||
|
|
||||||
// Otherwise use the more complicated splatting algorithm.
|
// Otherwise use the more complicated splatting algorithm.
|
||||||
return splatSplitI64WithVL(DL, VT, Scalar, VL, DAG, Subtarget);
|
return splatSplitI64WithVL(DL, VT, Scalar, VL, DAG);
|
||||||
}
|
}
|
||||||
|
|
||||||
static SDValue lowerVECTOR_SHUFFLE(SDValue Op, SelectionDAG &DAG,
|
static SDValue lowerVECTOR_SHUFFLE(SDValue Op, SelectionDAG &DAG,
|
||||||
|
@ -2209,6 +2237,8 @@ SDValue RISCVTargetLowering::LowerOperation(SDValue Op,
|
||||||
return lowerVECTOR_REVERSE(Op, DAG);
|
return lowerVECTOR_REVERSE(Op, DAG);
|
||||||
case ISD::BUILD_VECTOR:
|
case ISD::BUILD_VECTOR:
|
||||||
return lowerBUILD_VECTOR(Op, DAG, Subtarget);
|
return lowerBUILD_VECTOR(Op, DAG, Subtarget);
|
||||||
|
case ISD::SPLAT_VECTOR:
|
||||||
|
return lowerSPLAT_VECTOR(Op, DAG, Subtarget);
|
||||||
case ISD::VECTOR_SHUFFLE:
|
case ISD::VECTOR_SHUFFLE:
|
||||||
return lowerVECTOR_SHUFFLE(Op, DAG, Subtarget);
|
return lowerVECTOR_SHUFFLE(Op, DAG, Subtarget);
|
||||||
case ISD::CONCAT_VECTORS: {
|
case ISD::CONCAT_VECTORS: {
|
||||||
|
@ -2781,6 +2811,17 @@ SDValue RISCVTargetLowering::lowerSPLAT_VECTOR_PARTS(SDValue Op,
|
||||||
SDValue Lo = Op.getOperand(0);
|
SDValue Lo = Op.getOperand(0);
|
||||||
SDValue Hi = Op.getOperand(1);
|
SDValue Hi = Op.getOperand(1);
|
||||||
|
|
||||||
|
if (VecVT.isFixedLengthVector()) {
|
||||||
|
MVT ContainerVT = getContainerForFixedLengthVector(VecVT);
|
||||||
|
SDLoc DL(Op);
|
||||||
|
SDValue Mask, VL;
|
||||||
|
std::tie(Mask, VL) =
|
||||||
|
getDefaultVLOps(VecVT, ContainerVT, DL, DAG, Subtarget);
|
||||||
|
|
||||||
|
SDValue Res = splatPartsI64WithVL(DL, ContainerVT, Lo, Hi, VL, DAG);
|
||||||
|
return convertFromScalableVector(VecVT, Res, DAG, Subtarget);
|
||||||
|
}
|
||||||
|
|
||||||
if (isa<ConstantSDNode>(Lo) && isa<ConstantSDNode>(Hi)) {
|
if (isa<ConstantSDNode>(Lo) && isa<ConstantSDNode>(Hi)) {
|
||||||
int32_t LoC = cast<ConstantSDNode>(Lo)->getSExtValue();
|
int32_t LoC = cast<ConstantSDNode>(Lo)->getSExtValue();
|
||||||
int32_t HiC = cast<ConstantSDNode>(Hi)->getSExtValue();
|
int32_t HiC = cast<ConstantSDNode>(Hi)->getSExtValue();
|
||||||
|
@ -2797,8 +2838,8 @@ SDValue RISCVTargetLowering::lowerSPLAT_VECTOR_PARTS(SDValue Op,
|
||||||
return DAG.getNode(RISCVISD::SPLAT_VECTOR_I64, DL, VecVT, Lo);
|
return DAG.getNode(RISCVISD::SPLAT_VECTOR_I64, DL, VecVT, Lo);
|
||||||
|
|
||||||
// Fall back to use a stack store and stride x0 vector load. Use X0 as VL.
|
// Fall back to use a stack store and stride x0 vector load. Use X0 as VL.
|
||||||
return splatPartsI64ThroughStack(
|
return splatPartsI64ThroughStack(DL, VecVT, Lo, Hi,
|
||||||
DL, VecVT, Lo, Hi, DAG.getRegister(RISCV::X0, MVT::i64), DAG, Subtarget);
|
DAG.getRegister(RISCV::X0, MVT::i64), DAG);
|
||||||
}
|
}
|
||||||
|
|
||||||
// Custom-lower extensions from mask vectors by using a vselect either with 1
|
// Custom-lower extensions from mask vectors by using a vselect either with 1
|
||||||
|
@ -3136,7 +3177,7 @@ static SDValue lowerVectorIntrinsicSplats(SDValue Op, SelectionDAG &DAG,
|
||||||
// VL should be the last operand.
|
// VL should be the last operand.
|
||||||
SDValue VL = Op.getOperand(Op.getNumOperands() - 1);
|
SDValue VL = Op.getOperand(Op.getNumOperands() - 1);
|
||||||
assert(VL.getValueType() == XLenVT);
|
assert(VL.getValueType() == XLenVT);
|
||||||
ScalarOp = splatSplitI64WithVL(DL, VT, ScalarOp, VL, DAG, Subtarget);
|
ScalarOp = splatSplitI64WithVL(DL, VT, ScalarOp, VL, DAG);
|
||||||
return DAG.getNode(Op->getOpcode(), DL, Op->getVTList(), Operands);
|
return DAG.getNode(Op->getOpcode(), DL, Op->getVTList(), Operands);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -3204,12 +3245,9 @@ SDValue RISCVTargetLowering::LowerINTRINSIC_WO_CHAIN(SDValue Op,
|
||||||
// FIXME: This is probably not the best way to do this, but it is
|
// FIXME: This is probably not the best way to do this, but it is
|
||||||
// consistent with INSERT_VECTOR_ELT lowering so it is a good starting
|
// consistent with INSERT_VECTOR_ELT lowering so it is a good starting
|
||||||
// point.
|
// point.
|
||||||
// vmv.v.x vX, hi
|
// sw lo, (a0)
|
||||||
// vsll.vx vX, vX, /*32*/
|
// sw hi, 4(a0)
|
||||||
// vmv.v.x vY, lo
|
// vlse vX, (a0)
|
||||||
// vsll.vx vY, vY, /*32*/
|
|
||||||
// vsrl.vx vY, vY, /*32*/
|
|
||||||
// vor.vv vX, vX, vY
|
|
||||||
//
|
//
|
||||||
// vid.v vVid
|
// vid.v vVid
|
||||||
// vmseq.vx mMask, vVid, 0
|
// vmseq.vx mMask, vVid, 0
|
||||||
|
@ -3218,8 +3256,7 @@ SDValue RISCVTargetLowering::LowerINTRINSIC_WO_CHAIN(SDValue Op,
|
||||||
SDValue Vec = Op.getOperand(1);
|
SDValue Vec = Op.getOperand(1);
|
||||||
SDValue VL = Op.getOperand(3);
|
SDValue VL = Op.getOperand(3);
|
||||||
|
|
||||||
SDValue SplattedVal =
|
SDValue SplattedVal = splatSplitI64WithVL(DL, VT, Scalar, VL, DAG);
|
||||||
splatSplitI64WithVL(DL, VT, Scalar, VL, DAG, Subtarget);
|
|
||||||
SDValue SplattedIdx = DAG.getNode(RISCVISD::VMV_V_X_VL, DL, VT,
|
SDValue SplattedIdx = DAG.getNode(RISCVISD::VMV_V_X_VL, DL, VT,
|
||||||
DAG.getConstant(0, DL, MVT::i32), VL);
|
DAG.getConstant(0, DL, MVT::i32), VL);
|
||||||
|
|
||||||
|
|
|
@ -271,9 +271,8 @@ define <8 x i64> @vrgather_shuffle_xv_v8i64(<8 x i64> %x) {
|
||||||
; RV32-NEXT: addi a0, a0, %lo(.LCPI12_0)
|
; RV32-NEXT: addi a0, a0, %lo(.LCPI12_0)
|
||||||
; RV32-NEXT: vsetivli a1, 8, e16,m1,ta,mu
|
; RV32-NEXT: vsetivli a1, 8, e16,m1,ta,mu
|
||||||
; RV32-NEXT: vle16.v v25, (a0)
|
; RV32-NEXT: vle16.v v25, (a0)
|
||||||
; RV32-NEXT: vsetivli a0, 16, e32,m4,ta,mu
|
|
||||||
; RV32-NEXT: vmv.v.i v12, -1
|
|
||||||
; RV32-NEXT: vsetivli a0, 8, e64,m4,ta,mu
|
; RV32-NEXT: vsetivli a0, 8, e64,m4,ta,mu
|
||||||
|
; RV32-NEXT: vmv.v.i v12, -1
|
||||||
; RV32-NEXT: vrgatherei16.vv v28, v12, v25
|
; RV32-NEXT: vrgatherei16.vv v28, v12, v25
|
||||||
; RV32-NEXT: addi a0, zero, 113
|
; RV32-NEXT: addi a0, zero, 113
|
||||||
; RV32-NEXT: vsetivli a1, 1, e8,m1,ta,mu
|
; RV32-NEXT: vsetivli a1, 1, e8,m1,ta,mu
|
||||||
|
|
|
@ -48,35 +48,41 @@ define void @splat_v4i32(<4 x i32>* %x, i32 %y) {
|
||||||
define void @splat_v2i64(<2 x i64>* %x, i64 %y) {
|
define void @splat_v2i64(<2 x i64>* %x, i64 %y) {
|
||||||
; LMULMAX8-RV32-LABEL: splat_v2i64:
|
; LMULMAX8-RV32-LABEL: splat_v2i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; LMULMAX8-RV32: # %bb.0:
|
||||||
; LMULMAX8-RV32-NEXT: addi a3, zero, 5
|
; LMULMAX8-RV32-NEXT: addi sp, sp, -16
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a4, 1, e8,m1,ta,mu
|
; LMULMAX8-RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; LMULMAX8-RV32-NEXT: vmv.s.x v0, a3
|
; LMULMAX8-RV32-NEXT: sw a2, 12(sp)
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a3, 4, e32,m1,ta,mu
|
; LMULMAX8-RV32-NEXT: sw a1, 8(sp)
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.x v25, a2
|
; LMULMAX8-RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vmerge.vxm v25, v25, a1, v0
|
; LMULMAX8-RV32-NEXT: addi a1, sp, 8
|
||||||
; LMULMAX8-RV32-NEXT: vse32.v v25, (a0)
|
; LMULMAX8-RV32-NEXT: vlse64.v v25, (a1), zero
|
||||||
|
; LMULMAX8-RV32-NEXT: vse64.v v25, (a0)
|
||||||
|
; LMULMAX8-RV32-NEXT: addi sp, sp, 16
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
; LMULMAX8-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX2-RV32-LABEL: splat_v2i64:
|
; LMULMAX2-RV32-LABEL: splat_v2i64:
|
||||||
; LMULMAX2-RV32: # %bb.0:
|
; LMULMAX2-RV32: # %bb.0:
|
||||||
; LMULMAX2-RV32-NEXT: addi a3, zero, 5
|
; LMULMAX2-RV32-NEXT: addi sp, sp, -16
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a4, 1, e8,m1,ta,mu
|
; LMULMAX2-RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; LMULMAX2-RV32-NEXT: vmv.s.x v0, a3
|
; LMULMAX2-RV32-NEXT: sw a2, 12(sp)
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a3, 4, e32,m1,ta,mu
|
; LMULMAX2-RV32-NEXT: sw a1, 8(sp)
|
||||||
; LMULMAX2-RV32-NEXT: vmv.v.x v25, a2
|
; LMULMAX2-RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; LMULMAX2-RV32-NEXT: vmerge.vxm v25, v25, a1, v0
|
; LMULMAX2-RV32-NEXT: addi a1, sp, 8
|
||||||
; LMULMAX2-RV32-NEXT: vse32.v v25, (a0)
|
; LMULMAX2-RV32-NEXT: vlse64.v v25, (a1), zero
|
||||||
|
; LMULMAX2-RV32-NEXT: vse64.v v25, (a0)
|
||||||
|
; LMULMAX2-RV32-NEXT: addi sp, sp, 16
|
||||||
; LMULMAX2-RV32-NEXT: ret
|
; LMULMAX2-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX1-RV32-LABEL: splat_v2i64:
|
; LMULMAX1-RV32-LABEL: splat_v2i64:
|
||||||
; LMULMAX1-RV32: # %bb.0:
|
; LMULMAX1-RV32: # %bb.0:
|
||||||
; LMULMAX1-RV32-NEXT: addi a3, zero, 5
|
; LMULMAX1-RV32-NEXT: addi sp, sp, -16
|
||||||
; LMULMAX1-RV32-NEXT: vsetivli a4, 1, e8,m1,ta,mu
|
; LMULMAX1-RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; LMULMAX1-RV32-NEXT: vmv.s.x v0, a3
|
; LMULMAX1-RV32-NEXT: sw a2, 12(sp)
|
||||||
; LMULMAX1-RV32-NEXT: vsetivli a3, 4, e32,m1,ta,mu
|
; LMULMAX1-RV32-NEXT: sw a1, 8(sp)
|
||||||
; LMULMAX1-RV32-NEXT: vmv.v.x v25, a2
|
; LMULMAX1-RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; LMULMAX1-RV32-NEXT: vmerge.vxm v25, v25, a1, v0
|
; LMULMAX1-RV32-NEXT: addi a1, sp, 8
|
||||||
; LMULMAX1-RV32-NEXT: vse32.v v25, (a0)
|
; LMULMAX1-RV32-NEXT: vlse64.v v25, (a1), zero
|
||||||
|
; LMULMAX1-RV32-NEXT: vse64.v v25, (a0)
|
||||||
|
; LMULMAX1-RV32-NEXT: addi sp, sp, 16
|
||||||
; LMULMAX1-RV32-NEXT: ret
|
; LMULMAX1-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX8-RV64-LABEL: splat_v2i64:
|
; LMULMAX8-RV64-LABEL: splat_v2i64:
|
||||||
|
@ -197,24 +203,28 @@ define void @splat_v8i32(<8 x i32>* %x, i32 %y) {
|
||||||
define void @splat_v4i64(<4 x i64>* %x, i64 %y) {
|
define void @splat_v4i64(<4 x i64>* %x, i64 %y) {
|
||||||
; LMULMAX8-RV32-LABEL: splat_v4i64:
|
; LMULMAX8-RV32-LABEL: splat_v4i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; LMULMAX8-RV32: # %bb.0:
|
||||||
; LMULMAX8-RV32-NEXT: addi a3, zero, 85
|
; LMULMAX8-RV32-NEXT: addi sp, sp, -16
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a4, 1, e8,m1,ta,mu
|
; LMULMAX8-RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; LMULMAX8-RV32-NEXT: vmv.s.x v0, a3
|
; LMULMAX8-RV32-NEXT: sw a2, 12(sp)
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a3, 8, e32,m2,ta,mu
|
; LMULMAX8-RV32-NEXT: sw a1, 8(sp)
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.x v26, a2
|
; LMULMAX8-RV32-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vmerge.vxm v26, v26, a1, v0
|
; LMULMAX8-RV32-NEXT: addi a1, sp, 8
|
||||||
; LMULMAX8-RV32-NEXT: vse32.v v26, (a0)
|
; LMULMAX8-RV32-NEXT: vlse64.v v26, (a1), zero
|
||||||
|
; LMULMAX8-RV32-NEXT: vse64.v v26, (a0)
|
||||||
|
; LMULMAX8-RV32-NEXT: addi sp, sp, 16
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
; LMULMAX8-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX2-RV32-LABEL: splat_v4i64:
|
; LMULMAX2-RV32-LABEL: splat_v4i64:
|
||||||
; LMULMAX2-RV32: # %bb.0:
|
; LMULMAX2-RV32: # %bb.0:
|
||||||
; LMULMAX2-RV32-NEXT: addi a3, zero, 85
|
; LMULMAX2-RV32-NEXT: addi sp, sp, -16
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a4, 1, e8,m1,ta,mu
|
; LMULMAX2-RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; LMULMAX2-RV32-NEXT: vmv.s.x v0, a3
|
; LMULMAX2-RV32-NEXT: sw a2, 12(sp)
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a3, 8, e32,m2,ta,mu
|
; LMULMAX2-RV32-NEXT: sw a1, 8(sp)
|
||||||
; LMULMAX2-RV32-NEXT: vmv.v.x v26, a2
|
; LMULMAX2-RV32-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX2-RV32-NEXT: vmerge.vxm v26, v26, a1, v0
|
; LMULMAX2-RV32-NEXT: addi a1, sp, 8
|
||||||
; LMULMAX2-RV32-NEXT: vse32.v v26, (a0)
|
; LMULMAX2-RV32-NEXT: vlse64.v v26, (a1), zero
|
||||||
|
; LMULMAX2-RV32-NEXT: vse64.v v26, (a0)
|
||||||
|
; LMULMAX2-RV32-NEXT: addi sp, sp, 16
|
||||||
; LMULMAX2-RV32-NEXT: ret
|
; LMULMAX2-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX1-RV32-LABEL: splat_v4i64:
|
; LMULMAX1-RV32-LABEL: splat_v4i64:
|
||||||
|
@ -298,47 +308,12 @@ define void @splat_zero_v4i32(<4 x i32>* %x) {
|
||||||
}
|
}
|
||||||
|
|
||||||
define void @splat_zero_v2i64(<2 x i64>* %x) {
|
define void @splat_zero_v2i64(<2 x i64>* %x) {
|
||||||
; LMULMAX8-RV32-LABEL: splat_zero_v2i64:
|
; CHECK-LABEL: splat_zero_v2i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
; CHECK-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.i v25, 0
|
; CHECK-NEXT: vmv.v.i v25, 0
|
||||||
; LMULMAX8-RV32-NEXT: vse32.v v25, (a0)
|
; CHECK-NEXT: vse64.v v25, (a0)
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
; CHECK-NEXT: ret
|
||||||
;
|
|
||||||
; LMULMAX2-RV32-LABEL: splat_zero_v2i64:
|
|
||||||
; LMULMAX2-RV32: # %bb.0:
|
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
|
||||||
; LMULMAX2-RV32-NEXT: vmv.v.i v25, 0
|
|
||||||
; LMULMAX2-RV32-NEXT: vse32.v v25, (a0)
|
|
||||||
; LMULMAX2-RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX1-RV32-LABEL: splat_zero_v2i64:
|
|
||||||
; LMULMAX1-RV32: # %bb.0:
|
|
||||||
; LMULMAX1-RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
|
||||||
; LMULMAX1-RV32-NEXT: vmv.v.i v25, 0
|
|
||||||
; LMULMAX1-RV32-NEXT: vse32.v v25, (a0)
|
|
||||||
; LMULMAX1-RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX8-RV64-LABEL: splat_zero_v2i64:
|
|
||||||
; LMULMAX8-RV64: # %bb.0:
|
|
||||||
; LMULMAX8-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; LMULMAX8-RV64-NEXT: vmv.v.i v25, 0
|
|
||||||
; LMULMAX8-RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; LMULMAX8-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX2-RV64-LABEL: splat_zero_v2i64:
|
|
||||||
; LMULMAX2-RV64: # %bb.0:
|
|
||||||
; LMULMAX2-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; LMULMAX2-RV64-NEXT: vmv.v.i v25, 0
|
|
||||||
; LMULMAX2-RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; LMULMAX2-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX1-RV64-LABEL: splat_zero_v2i64:
|
|
||||||
; LMULMAX1-RV64: # %bb.0:
|
|
||||||
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; LMULMAX1-RV64-NEXT: vmv.v.i v25, 0
|
|
||||||
; LMULMAX1-RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; LMULMAX1-RV64-NEXT: ret
|
|
||||||
%a = insertelement <2 x i64> undef, i64 0, i32 0
|
%a = insertelement <2 x i64> undef, i64 0, i32 0
|
||||||
%b = shufflevector <2 x i64> %a, <2 x i64> undef, <2 x i32> zeroinitializer
|
%b = shufflevector <2 x i64> %a, <2 x i64> undef, <2 x i32> zeroinitializer
|
||||||
store <2 x i64> %b, <2 x i64>* %x
|
store <2 x i64> %b, <2 x i64>* %x
|
||||||
|
@ -435,19 +410,19 @@ define void @splat_zero_v8i32(<8 x i32>* %x) {
|
||||||
}
|
}
|
||||||
|
|
||||||
define void @splat_zero_v4i64(<4 x i64>* %x) {
|
define void @splat_zero_v4i64(<4 x i64>* %x) {
|
||||||
; LMULMAX8-RV32-LABEL: splat_zero_v4i64:
|
; LMULMAX8-LABEL: splat_zero_v4i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; LMULMAX8: # %bb.0:
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a1, 8, e32,m2,ta,mu
|
; LMULMAX8-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.i v26, 0
|
; LMULMAX8-NEXT: vmv.v.i v26, 0
|
||||||
; LMULMAX8-RV32-NEXT: vse32.v v26, (a0)
|
; LMULMAX8-NEXT: vse64.v v26, (a0)
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
; LMULMAX8-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX2-RV32-LABEL: splat_zero_v4i64:
|
; LMULMAX2-LABEL: splat_zero_v4i64:
|
||||||
; LMULMAX2-RV32: # %bb.0:
|
; LMULMAX2: # %bb.0:
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a1, 8, e32,m2,ta,mu
|
; LMULMAX2-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX2-RV32-NEXT: vmv.v.i v26, 0
|
; LMULMAX2-NEXT: vmv.v.i v26, 0
|
||||||
; LMULMAX2-RV32-NEXT: vse32.v v26, (a0)
|
; LMULMAX2-NEXT: vse64.v v26, (a0)
|
||||||
; LMULMAX2-RV32-NEXT: ret
|
; LMULMAX2-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX1-RV32-LABEL: splat_zero_v4i64:
|
; LMULMAX1-RV32-LABEL: splat_zero_v4i64:
|
||||||
; LMULMAX1-RV32: # %bb.0:
|
; LMULMAX1-RV32: # %bb.0:
|
||||||
|
@ -458,20 +433,6 @@ define void @splat_zero_v4i64(<4 x i64>* %x) {
|
||||||
; LMULMAX1-RV32-NEXT: vse32.v v25, (a0)
|
; LMULMAX1-RV32-NEXT: vse32.v v25, (a0)
|
||||||
; LMULMAX1-RV32-NEXT: ret
|
; LMULMAX1-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX8-RV64-LABEL: splat_zero_v4i64:
|
|
||||||
; LMULMAX8-RV64: # %bb.0:
|
|
||||||
; LMULMAX8-RV64-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
|
||||||
; LMULMAX8-RV64-NEXT: vmv.v.i v26, 0
|
|
||||||
; LMULMAX8-RV64-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX8-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX2-RV64-LABEL: splat_zero_v4i64:
|
|
||||||
; LMULMAX2-RV64: # %bb.0:
|
|
||||||
; LMULMAX2-RV64-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
|
||||||
; LMULMAX2-RV64-NEXT: vmv.v.i v26, 0
|
|
||||||
; LMULMAX2-RV64-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX2-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX1-RV64-LABEL: splat_zero_v4i64:
|
; LMULMAX1-RV64-LABEL: splat_zero_v4i64:
|
||||||
; LMULMAX1-RV64: # %bb.0:
|
; LMULMAX1-RV64: # %bb.0:
|
||||||
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
|
@ -526,47 +487,12 @@ define void @splat_allones_v4i32(<4 x i32>* %x) {
|
||||||
}
|
}
|
||||||
|
|
||||||
define void @splat_allones_v2i64(<2 x i64>* %x) {
|
define void @splat_allones_v2i64(<2 x i64>* %x) {
|
||||||
; LMULMAX8-RV32-LABEL: splat_allones_v2i64:
|
; CHECK-LABEL: splat_allones_v2i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
; CHECK-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.i v25, -1
|
; CHECK-NEXT: vmv.v.i v25, -1
|
||||||
; LMULMAX8-RV32-NEXT: vse32.v v25, (a0)
|
; CHECK-NEXT: vse64.v v25, (a0)
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
; CHECK-NEXT: ret
|
||||||
;
|
|
||||||
; LMULMAX2-RV32-LABEL: splat_allones_v2i64:
|
|
||||||
; LMULMAX2-RV32: # %bb.0:
|
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
|
||||||
; LMULMAX2-RV32-NEXT: vmv.v.i v25, -1
|
|
||||||
; LMULMAX2-RV32-NEXT: vse32.v v25, (a0)
|
|
||||||
; LMULMAX2-RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX1-RV32-LABEL: splat_allones_v2i64:
|
|
||||||
; LMULMAX1-RV32: # %bb.0:
|
|
||||||
; LMULMAX1-RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
|
||||||
; LMULMAX1-RV32-NEXT: vmv.v.i v25, -1
|
|
||||||
; LMULMAX1-RV32-NEXT: vse32.v v25, (a0)
|
|
||||||
; LMULMAX1-RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX8-RV64-LABEL: splat_allones_v2i64:
|
|
||||||
; LMULMAX8-RV64: # %bb.0:
|
|
||||||
; LMULMAX8-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; LMULMAX8-RV64-NEXT: vmv.v.i v25, -1
|
|
||||||
; LMULMAX8-RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; LMULMAX8-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX2-RV64-LABEL: splat_allones_v2i64:
|
|
||||||
; LMULMAX2-RV64: # %bb.0:
|
|
||||||
; LMULMAX2-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; LMULMAX2-RV64-NEXT: vmv.v.i v25, -1
|
|
||||||
; LMULMAX2-RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; LMULMAX2-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX1-RV64-LABEL: splat_allones_v2i64:
|
|
||||||
; LMULMAX1-RV64: # %bb.0:
|
|
||||||
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; LMULMAX1-RV64-NEXT: vmv.v.i v25, -1
|
|
||||||
; LMULMAX1-RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; LMULMAX1-RV64-NEXT: ret
|
|
||||||
%a = insertelement <2 x i64> undef, i64 -1, i32 0
|
%a = insertelement <2 x i64> undef, i64 -1, i32 0
|
||||||
%b = shufflevector <2 x i64> %a, <2 x i64> undef, <2 x i32> zeroinitializer
|
%b = shufflevector <2 x i64> %a, <2 x i64> undef, <2 x i32> zeroinitializer
|
||||||
store <2 x i64> %b, <2 x i64>* %x
|
store <2 x i64> %b, <2 x i64>* %x
|
||||||
|
@ -663,19 +589,19 @@ define void @splat_allones_v8i32(<8 x i32>* %x) {
|
||||||
}
|
}
|
||||||
|
|
||||||
define void @splat_allones_v4i64(<4 x i64>* %x) {
|
define void @splat_allones_v4i64(<4 x i64>* %x) {
|
||||||
; LMULMAX8-RV32-LABEL: splat_allones_v4i64:
|
; LMULMAX8-LABEL: splat_allones_v4i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; LMULMAX8: # %bb.0:
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a1, 8, e32,m2,ta,mu
|
; LMULMAX8-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.i v26, -1
|
; LMULMAX8-NEXT: vmv.v.i v26, -1
|
||||||
; LMULMAX8-RV32-NEXT: vse32.v v26, (a0)
|
; LMULMAX8-NEXT: vse64.v v26, (a0)
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
; LMULMAX8-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX2-RV32-LABEL: splat_allones_v4i64:
|
; LMULMAX2-LABEL: splat_allones_v4i64:
|
||||||
; LMULMAX2-RV32: # %bb.0:
|
; LMULMAX2: # %bb.0:
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a1, 8, e32,m2,ta,mu
|
; LMULMAX2-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX2-RV32-NEXT: vmv.v.i v26, -1
|
; LMULMAX2-NEXT: vmv.v.i v26, -1
|
||||||
; LMULMAX2-RV32-NEXT: vse32.v v26, (a0)
|
; LMULMAX2-NEXT: vse64.v v26, (a0)
|
||||||
; LMULMAX2-RV32-NEXT: ret
|
; LMULMAX2-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX1-RV32-LABEL: splat_allones_v4i64:
|
; LMULMAX1-RV32-LABEL: splat_allones_v4i64:
|
||||||
; LMULMAX1-RV32: # %bb.0:
|
; LMULMAX1-RV32: # %bb.0:
|
||||||
|
@ -686,20 +612,6 @@ define void @splat_allones_v4i64(<4 x i64>* %x) {
|
||||||
; LMULMAX1-RV32-NEXT: vse32.v v25, (a0)
|
; LMULMAX1-RV32-NEXT: vse32.v v25, (a0)
|
||||||
; LMULMAX1-RV32-NEXT: ret
|
; LMULMAX1-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX8-RV64-LABEL: splat_allones_v4i64:
|
|
||||||
; LMULMAX8-RV64: # %bb.0:
|
|
||||||
; LMULMAX8-RV64-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
|
||||||
; LMULMAX8-RV64-NEXT: vmv.v.i v26, -1
|
|
||||||
; LMULMAX8-RV64-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX8-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX2-RV64-LABEL: splat_allones_v4i64:
|
|
||||||
; LMULMAX2-RV64: # %bb.0:
|
|
||||||
; LMULMAX2-RV64-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
|
||||||
; LMULMAX2-RV64-NEXT: vmv.v.i v26, -1
|
|
||||||
; LMULMAX2-RV64-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX2-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX1-RV64-LABEL: splat_allones_v4i64:
|
; LMULMAX1-RV64-LABEL: splat_allones_v4i64:
|
||||||
; LMULMAX1-RV64: # %bb.0:
|
; LMULMAX1-RV64: # %bb.0:
|
||||||
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
|
@ -719,27 +631,21 @@ define void @splat_allones_v4i64(<4 x i64>* %x) {
|
||||||
; FIXME: We should prevent this and use the implicit sign extension of vmv.v.x
|
; FIXME: We should prevent this and use the implicit sign extension of vmv.v.x
|
||||||
; with SEW=64 on RV32.
|
; with SEW=64 on RV32.
|
||||||
define void @splat_allones_with_use_v4i64(<4 x i64>* %x) {
|
define void @splat_allones_with_use_v4i64(<4 x i64>* %x) {
|
||||||
; LMULMAX8-RV32-LABEL: splat_allones_with_use_v4i64:
|
; LMULMAX8-LABEL: splat_allones_with_use_v4i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; LMULMAX8: # %bb.0:
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
; LMULMAX8-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vle64.v v26, (a0)
|
; LMULMAX8-NEXT: vle64.v v26, (a0)
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a1, 8, e32,m2,ta,mu
|
; LMULMAX8-NEXT: vadd.vi v26, v26, -1
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.i v28, -1
|
; LMULMAX8-NEXT: vse64.v v26, (a0)
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
; LMULMAX8-NEXT: ret
|
||||||
; LMULMAX8-RV32-NEXT: vadd.vv v26, v26, v28
|
|
||||||
; LMULMAX8-RV32-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
|
||||||
;
|
;
|
||||||
; LMULMAX2-RV32-LABEL: splat_allones_with_use_v4i64:
|
; LMULMAX2-LABEL: splat_allones_with_use_v4i64:
|
||||||
; LMULMAX2-RV32: # %bb.0:
|
; LMULMAX2: # %bb.0:
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
; LMULMAX2-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
||||||
; LMULMAX2-RV32-NEXT: vle64.v v26, (a0)
|
; LMULMAX2-NEXT: vle64.v v26, (a0)
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a1, 8, e32,m2,ta,mu
|
; LMULMAX2-NEXT: vadd.vi v26, v26, -1
|
||||||
; LMULMAX2-RV32-NEXT: vmv.v.i v28, -1
|
; LMULMAX2-NEXT: vse64.v v26, (a0)
|
||||||
; LMULMAX2-RV32-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
; LMULMAX2-NEXT: ret
|
||||||
; LMULMAX2-RV32-NEXT: vadd.vv v26, v26, v28
|
|
||||||
; LMULMAX2-RV32-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX2-RV32-NEXT: ret
|
|
||||||
;
|
;
|
||||||
; LMULMAX1-RV32-LABEL: splat_allones_with_use_v4i64:
|
; LMULMAX1-RV32-LABEL: splat_allones_with_use_v4i64:
|
||||||
; LMULMAX1-RV32: # %bb.0:
|
; LMULMAX1-RV32: # %bb.0:
|
||||||
|
@ -756,22 +662,6 @@ define void @splat_allones_with_use_v4i64(<4 x i64>* %x) {
|
||||||
; LMULMAX1-RV32-NEXT: vse64.v v26, (a1)
|
; LMULMAX1-RV32-NEXT: vse64.v v26, (a1)
|
||||||
; LMULMAX1-RV32-NEXT: ret
|
; LMULMAX1-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX8-RV64-LABEL: splat_allones_with_use_v4i64:
|
|
||||||
; LMULMAX8-RV64: # %bb.0:
|
|
||||||
; LMULMAX8-RV64-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
|
||||||
; LMULMAX8-RV64-NEXT: vle64.v v26, (a0)
|
|
||||||
; LMULMAX8-RV64-NEXT: vadd.vi v26, v26, -1
|
|
||||||
; LMULMAX8-RV64-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX8-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX2-RV64-LABEL: splat_allones_with_use_v4i64:
|
|
||||||
; LMULMAX2-RV64: # %bb.0:
|
|
||||||
; LMULMAX2-RV64-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
|
||||||
; LMULMAX2-RV64-NEXT: vle64.v v26, (a0)
|
|
||||||
; LMULMAX2-RV64-NEXT: vadd.vi v26, v26, -1
|
|
||||||
; LMULMAX2-RV64-NEXT: vse64.v v26, (a0)
|
|
||||||
; LMULMAX2-RV64-NEXT: ret
|
|
||||||
;
|
|
||||||
; LMULMAX1-RV64-LABEL: splat_allones_with_use_v4i64:
|
; LMULMAX1-RV64-LABEL: splat_allones_with_use_v4i64:
|
||||||
; LMULMAX1-RV64: # %bb.0:
|
; LMULMAX1-RV64: # %bb.0:
|
||||||
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; LMULMAX1-RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
|
@ -796,20 +686,17 @@ define void @splat_allones_with_use_v4i64(<4 x i64>* %x) {
|
||||||
define void @vadd_vx_v16i64(<16 x i64>* %a, i64 %b, <16 x i64>* %c) {
|
define void @vadd_vx_v16i64(<16 x i64>* %a, i64 %b, <16 x i64>* %c) {
|
||||||
; LMULMAX8-RV32-LABEL: vadd_vx_v16i64:
|
; LMULMAX8-RV32-LABEL: vadd_vx_v16i64:
|
||||||
; LMULMAX8-RV32: # %bb.0:
|
; LMULMAX8-RV32: # %bb.0:
|
||||||
|
; LMULMAX8-RV32-NEXT: addi sp, sp, -16
|
||||||
|
; LMULMAX8-RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a4, 16, e64,m8,ta,mu
|
; LMULMAX8-RV32-NEXT: vsetivli a4, 16, e64,m8,ta,mu
|
||||||
; LMULMAX8-RV32-NEXT: vle64.v v8, (a0)
|
; LMULMAX8-RV32-NEXT: vle64.v v8, (a0)
|
||||||
; LMULMAX8-RV32-NEXT: addi a0, zero, 32
|
; LMULMAX8-RV32-NEXT: sw a2, 12(sp)
|
||||||
; LMULMAX8-RV32-NEXT: vsetvli a4, a0, e32,m8,ta,mu
|
; LMULMAX8-RV32-NEXT: sw a1, 8(sp)
|
||||||
; LMULMAX8-RV32-NEXT: vmv.v.x v16, a2
|
; LMULMAX8-RV32-NEXT: addi a0, sp, 8
|
||||||
; LMULMAX8-RV32-NEXT: lui a2, 349525
|
; LMULMAX8-RV32-NEXT: vlse64.v v16, (a0), zero
|
||||||
; LMULMAX8-RV32-NEXT: addi a2, a2, 1365
|
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a4, 1, e32,m1,ta,mu
|
|
||||||
; LMULMAX8-RV32-NEXT: vmv.s.x v0, a2
|
|
||||||
; LMULMAX8-RV32-NEXT: vsetvli a0, a0, e32,m8,ta,mu
|
|
||||||
; LMULMAX8-RV32-NEXT: vmerge.vxm v16, v16, a1, v0
|
|
||||||
; LMULMAX8-RV32-NEXT: vsetivli a0, 16, e64,m8,ta,mu
|
|
||||||
; LMULMAX8-RV32-NEXT: vadd.vv v8, v8, v16
|
; LMULMAX8-RV32-NEXT: vadd.vv v8, v8, v16
|
||||||
; LMULMAX8-RV32-NEXT: vse64.v v8, (a3)
|
; LMULMAX8-RV32-NEXT: vse64.v v8, (a3)
|
||||||
|
; LMULMAX8-RV32-NEXT: addi sp, sp, 16
|
||||||
; LMULMAX8-RV32-NEXT: ret
|
; LMULMAX8-RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; LMULMAX2-RV32-LABEL: vadd_vx_v16i64:
|
; LMULMAX2-RV32-LABEL: vadd_vx_v16i64:
|
||||||
|
|
|
@ -5622,24 +5622,13 @@ define void @add_vi_v4i32(<4 x i32>* %x) {
|
||||||
}
|
}
|
||||||
|
|
||||||
define void @add_vi_v2i64(<2 x i64>* %x) {
|
define void @add_vi_v2i64(<2 x i64>* %x) {
|
||||||
; RV32-LABEL: add_vi_v2i64:
|
; CHECK-LABEL: add_vi_v2i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a0)
|
; CHECK-NEXT: vle64.v v25, (a0)
|
||||||
; RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
; CHECK-NEXT: vadd.vi v25, v25, -1
|
||||||
; RV32-NEXT: vmv.v.i v26, -1
|
; CHECK-NEXT: vse64.v v25, (a0)
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vadd.vv v25, v25, v26
|
|
||||||
; RV32-NEXT: vse64.v v25, (a0)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: add_vi_v2i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v25, (a0)
|
|
||||||
; RV64-NEXT: vadd.vi v25, v25, -1
|
|
||||||
; RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%a = load <2 x i64>, <2 x i64>* %x
|
%a = load <2 x i64>, <2 x i64>* %x
|
||||||
%b = insertelement <2 x i64> undef, i64 -1, i32 0
|
%b = insertelement <2 x i64> undef, i64 -1, i32 0
|
||||||
%c = shufflevector <2 x i64> %b, <2 x i64> undef, <2 x i32> zeroinitializer
|
%c = shufflevector <2 x i64> %b, <2 x i64> undef, <2 x i32> zeroinitializer
|
||||||
|
@ -5860,25 +5849,14 @@ define void @sub_vi_v4i32(<4 x i32>* %x) {
|
||||||
}
|
}
|
||||||
|
|
||||||
define void @sub_vi_v2i64(<2 x i64>* %x) {
|
define void @sub_vi_v2i64(<2 x i64>* %x) {
|
||||||
; RV32-LABEL: sub_vi_v2i64:
|
; CHECK-LABEL: sub_vi_v2i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a0)
|
; CHECK-NEXT: vle64.v v25, (a0)
|
||||||
; RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
; CHECK-NEXT: addi a1, zero, -1
|
||||||
; RV32-NEXT: vmv.v.i v26, -1
|
; CHECK-NEXT: vsub.vx v25, v25, a1
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vse64.v v25, (a0)
|
||||||
; RV32-NEXT: vsub.vv v25, v25, v26
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vse64.v v25, (a0)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: sub_vi_v2i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v25, (a0)
|
|
||||||
; RV64-NEXT: addi a1, zero, -1
|
|
||||||
; RV64-NEXT: vsub.vx v25, v25, a1
|
|
||||||
; RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%a = load <2 x i64>, <2 x i64>* %x
|
%a = load <2 x i64>, <2 x i64>* %x
|
||||||
%b = insertelement <2 x i64> undef, i64 -1, i32 0
|
%b = insertelement <2 x i64> undef, i64 -1, i32 0
|
||||||
%c = shufflevector <2 x i64> %b, <2 x i64> undef, <2 x i32> zeroinitializer
|
%c = shufflevector <2 x i64> %b, <2 x i64> undef, <2 x i32> zeroinitializer
|
||||||
|
@ -6640,24 +6618,13 @@ define void @xor_vi_v4i32(<4 x i32>* %x) {
|
||||||
}
|
}
|
||||||
|
|
||||||
define void @xor_vi_v2i64(<2 x i64>* %x) {
|
define void @xor_vi_v2i64(<2 x i64>* %x) {
|
||||||
; RV32-LABEL: xor_vi_v2i64:
|
; CHECK-LABEL: xor_vi_v2i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a0)
|
; CHECK-NEXT: vle64.v v25, (a0)
|
||||||
; RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
; CHECK-NEXT: vxor.vi v25, v25, -1
|
||||||
; RV32-NEXT: vmv.v.i v26, -1
|
; CHECK-NEXT: vse64.v v25, (a0)
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vxor.vv v25, v25, v26
|
|
||||||
; RV32-NEXT: vse64.v v25, (a0)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: xor_vi_v2i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v25, (a0)
|
|
||||||
; RV64-NEXT: vxor.vi v25, v25, -1
|
|
||||||
; RV64-NEXT: vse64.v v25, (a0)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%a = load <2 x i64>, <2 x i64>* %x
|
%a = load <2 x i64>, <2 x i64>* %x
|
||||||
%b = insertelement <2 x i64> undef, i64 -1, i32 0
|
%b = insertelement <2 x i64> undef, i64 -1, i32 0
|
||||||
%c = shufflevector <2 x i64> %b, <2 x i64> undef, <2 x i32> zeroinitializer
|
%c = shufflevector <2 x i64> %b, <2 x i64> undef, <2 x i32> zeroinitializer
|
||||||
|
@ -7435,21 +7402,21 @@ define void @mulhu_vx_v4i32(<4 x i32>* %x) {
|
||||||
define void @mulhu_vx_v2i64(<2 x i64>* %x) {
|
define void @mulhu_vx_v2i64(<2 x i64>* %x) {
|
||||||
; RV32-LABEL: mulhu_vx_v2i64:
|
; RV32-LABEL: mulhu_vx_v2i64:
|
||||||
; RV32: # %bb.0:
|
; RV32: # %bb.0:
|
||||||
|
; RV32-NEXT: addi sp, sp, -16
|
||||||
|
; RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a0)
|
; RV32-NEXT: vle64.v v25, (a0)
|
||||||
; RV32-NEXT: addi a1, zero, 5
|
|
||||||
; RV32-NEXT: vsetivli a2, 1, e8,m1,ta,mu
|
|
||||||
; RV32-NEXT: vmv.s.x v0, a1
|
|
||||||
; RV32-NEXT: lui a1, 699051
|
; RV32-NEXT: lui a1, 699051
|
||||||
; RV32-NEXT: addi a2, a1, -1366
|
; RV32-NEXT: addi a2, a1, -1366
|
||||||
; RV32-NEXT: vsetivli a3, 4, e32,m1,ta,mu
|
; RV32-NEXT: sw a2, 12(sp)
|
||||||
; RV32-NEXT: vmv.v.x v26, a2
|
|
||||||
; RV32-NEXT: addi a1, a1, -1365
|
; RV32-NEXT: addi a1, a1, -1365
|
||||||
; RV32-NEXT: vmerge.vxm v26, v26, a1, v0
|
; RV32-NEXT: sw a1, 8(sp)
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; RV32-NEXT: addi a1, sp, 8
|
||||||
|
; RV32-NEXT: vlse64.v v26, (a1), zero
|
||||||
; RV32-NEXT: vmulhu.vv v25, v25, v26
|
; RV32-NEXT: vmulhu.vv v25, v25, v26
|
||||||
; RV32-NEXT: vsrl.vi v25, v25, 1
|
; RV32-NEXT: vsrl.vi v25, v25, 1
|
||||||
; RV32-NEXT: vse64.v v25, (a0)
|
; RV32-NEXT: vse64.v v25, (a0)
|
||||||
|
; RV32-NEXT: addi sp, sp, 16
|
||||||
; RV32-NEXT: ret
|
; RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; RV64-LABEL: mulhu_vx_v2i64:
|
; RV64-LABEL: mulhu_vx_v2i64:
|
||||||
|
@ -7557,23 +7524,23 @@ define void @mulhs_vx_v4i32(<4 x i32>* %x) {
|
||||||
define void @mulhs_vx_v2i64(<2 x i64>* %x) {
|
define void @mulhs_vx_v2i64(<2 x i64>* %x) {
|
||||||
; RV32-LABEL: mulhs_vx_v2i64:
|
; RV32-LABEL: mulhs_vx_v2i64:
|
||||||
; RV32: # %bb.0:
|
; RV32: # %bb.0:
|
||||||
|
; RV32-NEXT: addi sp, sp, -16
|
||||||
|
; RV32-NEXT: .cfi_def_cfa_offset 16
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a0)
|
; RV32-NEXT: vle64.v v25, (a0)
|
||||||
; RV32-NEXT: addi a1, zero, 5
|
|
||||||
; RV32-NEXT: vsetivli a2, 1, e8,m1,ta,mu
|
|
||||||
; RV32-NEXT: vmv.s.x v0, a1
|
|
||||||
; RV32-NEXT: lui a1, 349525
|
; RV32-NEXT: lui a1, 349525
|
||||||
; RV32-NEXT: addi a2, a1, 1365
|
; RV32-NEXT: addi a2, a1, 1365
|
||||||
; RV32-NEXT: vsetivli a3, 4, e32,m1,ta,mu
|
; RV32-NEXT: sw a2, 12(sp)
|
||||||
; RV32-NEXT: vmv.v.x v26, a2
|
|
||||||
; RV32-NEXT: addi a1, a1, 1366
|
; RV32-NEXT: addi a1, a1, 1366
|
||||||
; RV32-NEXT: vmerge.vxm v26, v26, a1, v0
|
; RV32-NEXT: sw a1, 8(sp)
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; RV32-NEXT: addi a1, sp, 8
|
||||||
|
; RV32-NEXT: vlse64.v v26, (a1), zero
|
||||||
; RV32-NEXT: vmulh.vv v25, v25, v26
|
; RV32-NEXT: vmulh.vv v25, v25, v26
|
||||||
; RV32-NEXT: addi a1, zero, 63
|
; RV32-NEXT: addi a1, zero, 63
|
||||||
; RV32-NEXT: vsrl.vx v26, v25, a1
|
; RV32-NEXT: vsrl.vx v26, v25, a1
|
||||||
; RV32-NEXT: vadd.vv v25, v25, v26
|
; RV32-NEXT: vadd.vv v25, v25, v26
|
||||||
; RV32-NEXT: vse64.v v25, (a0)
|
; RV32-NEXT: vse64.v v25, (a0)
|
||||||
|
; RV32-NEXT: addi sp, sp, 16
|
||||||
; RV32-NEXT: ret
|
; RV32-NEXT: ret
|
||||||
;
|
;
|
||||||
; RV64-LABEL: mulhs_vx_v2i64:
|
; RV64-LABEL: mulhs_vx_v2i64:
|
||||||
|
|
|
@ -54,26 +54,14 @@ define void @masked_load_v1i32(<1 x i32>* %a, <1 x i32>* %m_ptr, <1 x i32>* %res
|
||||||
declare <1 x i32> @llvm.masked.load.v1i32(<1 x i32>*, i32, <1 x i1>, <1 x i32>)
|
declare <1 x i32> @llvm.masked.load.v1i32(<1 x i32>*, i32, <1 x i1>, <1 x i32>)
|
||||||
|
|
||||||
define void @masked_load_v1i64(<1 x i64>* %a, <1 x i64>* %m_ptr, <1 x i64>* %res_ptr) nounwind {
|
define void @masked_load_v1i64(<1 x i64>* %a, <1 x i64>* %m_ptr, <1 x i64>* %res_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_load_v1i64:
|
; CHECK-LABEL: masked_load_v1i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 1, e64,m1,ta,mu
|
; CHECK-NEXT: vsetivli a3, 1, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a1)
|
; CHECK-NEXT: vle64.v v25, (a1)
|
||||||
; RV32-NEXT: vsetivli a1, 2, e32,m1,ta,mu
|
; CHECK-NEXT: vmseq.vi v0, v25, 0
|
||||||
; RV32-NEXT: vmv.v.i v26, 0
|
; CHECK-NEXT: vle64.v v25, (a0), v0.t
|
||||||
; RV32-NEXT: vsetivli a1, 1, e64,m1,ta,mu
|
; CHECK-NEXT: vse64.v v25, (a2)
|
||||||
; RV32-NEXT: vmseq.vv v0, v25, v26
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vle64.v v25, (a0), v0.t
|
|
||||||
; RV32-NEXT: vse64.v v25, (a2)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_load_v1i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 1, e64,m1,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v25, (a1)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v25, 0
|
|
||||||
; RV64-NEXT: vle64.v v25, (a0), v0.t
|
|
||||||
; RV64-NEXT: vse64.v v25, (a2)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <1 x i64>, <1 x i64>* %m_ptr
|
%m = load <1 x i64>, <1 x i64>* %m_ptr
|
||||||
%mask = icmp eq <1 x i64> %m, zeroinitializer
|
%mask = icmp eq <1 x i64> %m, zeroinitializer
|
||||||
%load = call <1 x i64> @llvm.masked.load.v1i64(<1 x i64>* %a, i32 8, <1 x i1> %mask, <1 x i64> undef)
|
%load = call <1 x i64> @llvm.masked.load.v1i64(<1 x i64>* %a, i32 8, <1 x i1> %mask, <1 x i64> undef)
|
||||||
|
@ -134,26 +122,14 @@ define void @masked_load_v2i32(<2 x i32>* %a, <2 x i32>* %m_ptr, <2 x i32>* %res
|
||||||
declare <2 x i32> @llvm.masked.load.v2i32(<2 x i32>*, i32, <2 x i1>, <2 x i32>)
|
declare <2 x i32> @llvm.masked.load.v2i32(<2 x i32>*, i32, <2 x i1>, <2 x i32>)
|
||||||
|
|
||||||
define void @masked_load_v2i64(<2 x i64>* %a, <2 x i64>* %m_ptr, <2 x i64>* %res_ptr) nounwind {
|
define void @masked_load_v2i64(<2 x i64>* %a, <2 x i64>* %m_ptr, <2 x i64>* %res_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_load_v2i64:
|
; CHECK-LABEL: masked_load_v2i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vsetivli a3, 2, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a1)
|
; CHECK-NEXT: vle64.v v25, (a1)
|
||||||
; RV32-NEXT: vsetivli a1, 4, e32,m1,ta,mu
|
; CHECK-NEXT: vmseq.vi v0, v25, 0
|
||||||
; RV32-NEXT: vmv.v.i v26, 0
|
; CHECK-NEXT: vle64.v v25, (a0), v0.t
|
||||||
; RV32-NEXT: vsetivli a1, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vse64.v v25, (a2)
|
||||||
; RV32-NEXT: vmseq.vv v0, v25, v26
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vle64.v v25, (a0), v0.t
|
|
||||||
; RV32-NEXT: vse64.v v25, (a2)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_load_v2i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 2, e64,m1,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v25, (a1)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v25, 0
|
|
||||||
; RV64-NEXT: vle64.v v25, (a0), v0.t
|
|
||||||
; RV64-NEXT: vse64.v v25, (a2)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <2 x i64>, <2 x i64>* %m_ptr
|
%m = load <2 x i64>, <2 x i64>* %m_ptr
|
||||||
%mask = icmp eq <2 x i64> %m, zeroinitializer
|
%mask = icmp eq <2 x i64> %m, zeroinitializer
|
||||||
%load = call <2 x i64> @llvm.masked.load.v2i64(<2 x i64>* %a, i32 8, <2 x i1> %mask, <2 x i64> undef)
|
%load = call <2 x i64> @llvm.masked.load.v2i64(<2 x i64>* %a, i32 8, <2 x i1> %mask, <2 x i64> undef)
|
||||||
|
@ -214,26 +190,14 @@ define void @masked_load_v4i32(<4 x i32>* %a, <4 x i32>* %m_ptr, <4 x i32>* %res
|
||||||
declare <4 x i32> @llvm.masked.load.v4i32(<4 x i32>*, i32, <4 x i1>, <4 x i32>)
|
declare <4 x i32> @llvm.masked.load.v4i32(<4 x i32>*, i32, <4 x i1>, <4 x i32>)
|
||||||
|
|
||||||
define void @masked_load_v4i64(<4 x i64>* %a, <4 x i64>* %m_ptr, <4 x i64>* %res_ptr) nounwind {
|
define void @masked_load_v4i64(<4 x i64>* %a, <4 x i64>* %m_ptr, <4 x i64>* %res_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_load_v4i64:
|
; CHECK-LABEL: masked_load_v4i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 4, e64,m2,ta,mu
|
; CHECK-NEXT: vsetivli a3, 4, e64,m2,ta,mu
|
||||||
; RV32-NEXT: vle64.v v26, (a1)
|
; CHECK-NEXT: vle64.v v26, (a1)
|
||||||
; RV32-NEXT: vsetivli a1, 8, e32,m2,ta,mu
|
; CHECK-NEXT: vmseq.vi v0, v26, 0
|
||||||
; RV32-NEXT: vmv.v.i v28, 0
|
; CHECK-NEXT: vle64.v v26, (a0), v0.t
|
||||||
; RV32-NEXT: vsetivli a1, 4, e64,m2,ta,mu
|
; CHECK-NEXT: vse64.v v26, (a2)
|
||||||
; RV32-NEXT: vmseq.vv v0, v26, v28
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vle64.v v26, (a0), v0.t
|
|
||||||
; RV32-NEXT: vse64.v v26, (a2)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_load_v4i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 4, e64,m2,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v26, (a1)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v26, 0
|
|
||||||
; RV64-NEXT: vle64.v v26, (a0), v0.t
|
|
||||||
; RV64-NEXT: vse64.v v26, (a2)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <4 x i64>, <4 x i64>* %m_ptr
|
%m = load <4 x i64>, <4 x i64>* %m_ptr
|
||||||
%mask = icmp eq <4 x i64> %m, zeroinitializer
|
%mask = icmp eq <4 x i64> %m, zeroinitializer
|
||||||
%load = call <4 x i64> @llvm.masked.load.v4i64(<4 x i64>* %a, i32 8, <4 x i1> %mask, <4 x i64> undef)
|
%load = call <4 x i64> @llvm.masked.load.v4i64(<4 x i64>* %a, i32 8, <4 x i1> %mask, <4 x i64> undef)
|
||||||
|
@ -294,26 +258,14 @@ define void @masked_load_v8i32(<8 x i32>* %a, <8 x i32>* %m_ptr, <8 x i32>* %res
|
||||||
declare <8 x i32> @llvm.masked.load.v8i32(<8 x i32>*, i32, <8 x i1>, <8 x i32>)
|
declare <8 x i32> @llvm.masked.load.v8i32(<8 x i32>*, i32, <8 x i1>, <8 x i32>)
|
||||||
|
|
||||||
define void @masked_load_v8i64(<8 x i64>* %a, <8 x i64>* %m_ptr, <8 x i64>* %res_ptr) nounwind {
|
define void @masked_load_v8i64(<8 x i64>* %a, <8 x i64>* %m_ptr, <8 x i64>* %res_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_load_v8i64:
|
; CHECK-LABEL: masked_load_v8i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 8, e64,m4,ta,mu
|
; CHECK-NEXT: vsetivli a3, 8, e64,m4,ta,mu
|
||||||
; RV32-NEXT: vle64.v v28, (a1)
|
; CHECK-NEXT: vle64.v v28, (a1)
|
||||||
; RV32-NEXT: vsetivli a1, 16, e32,m4,ta,mu
|
; CHECK-NEXT: vmseq.vi v0, v28, 0
|
||||||
; RV32-NEXT: vmv.v.i v8, 0
|
; CHECK-NEXT: vle64.v v28, (a0), v0.t
|
||||||
; RV32-NEXT: vsetivli a1, 8, e64,m4,ta,mu
|
; CHECK-NEXT: vse64.v v28, (a2)
|
||||||
; RV32-NEXT: vmseq.vv v0, v28, v8
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vle64.v v28, (a0), v0.t
|
|
||||||
; RV32-NEXT: vse64.v v28, (a2)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_load_v8i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 8, e64,m4,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v28, (a1)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v28, 0
|
|
||||||
; RV64-NEXT: vle64.v v28, (a0), v0.t
|
|
||||||
; RV64-NEXT: vse64.v v28, (a2)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <8 x i64>, <8 x i64>* %m_ptr
|
%m = load <8 x i64>, <8 x i64>* %m_ptr
|
||||||
%mask = icmp eq <8 x i64> %m, zeroinitializer
|
%mask = icmp eq <8 x i64> %m, zeroinitializer
|
||||||
%load = call <8 x i64> @llvm.masked.load.v8i64(<8 x i64>* %a, i32 8, <8 x i1> %mask, <8 x i64> undef)
|
%load = call <8 x i64> @llvm.masked.load.v8i64(<8 x i64>* %a, i32 8, <8 x i1> %mask, <8 x i64> undef)
|
||||||
|
@ -374,27 +326,14 @@ define void @masked_load_v16i32(<16 x i32>* %a, <16 x i32>* %m_ptr, <16 x i32>*
|
||||||
declare <16 x i32> @llvm.masked.load.v16i32(<16 x i32>*, i32, <16 x i1>, <16 x i32>)
|
declare <16 x i32> @llvm.masked.load.v16i32(<16 x i32>*, i32, <16 x i1>, <16 x i32>)
|
||||||
|
|
||||||
define void @masked_load_v16i64(<16 x i64>* %a, <16 x i64>* %m_ptr, <16 x i64>* %res_ptr) nounwind {
|
define void @masked_load_v16i64(<16 x i64>* %a, <16 x i64>* %m_ptr, <16 x i64>* %res_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_load_v16i64:
|
; CHECK-LABEL: masked_load_v16i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 16, e64,m8,ta,mu
|
; CHECK-NEXT: vsetivli a3, 16, e64,m8,ta,mu
|
||||||
; RV32-NEXT: vle64.v v8, (a1)
|
; CHECK-NEXT: vle64.v v8, (a1)
|
||||||
; RV32-NEXT: addi a1, zero, 32
|
; CHECK-NEXT: vmseq.vi v0, v8, 0
|
||||||
; RV32-NEXT: vsetvli a1, a1, e32,m8,ta,mu
|
; CHECK-NEXT: vle64.v v8, (a0), v0.t
|
||||||
; RV32-NEXT: vmv.v.i v16, 0
|
; CHECK-NEXT: vse64.v v8, (a2)
|
||||||
; RV32-NEXT: vsetivli a1, 16, e64,m8,ta,mu
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vmseq.vv v0, v8, v16
|
|
||||||
; RV32-NEXT: vle64.v v8, (a0), v0.t
|
|
||||||
; RV32-NEXT: vse64.v v8, (a2)
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_load_v16i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 16, e64,m8,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v8, (a1)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v8, 0
|
|
||||||
; RV64-NEXT: vle64.v v8, (a0), v0.t
|
|
||||||
; RV64-NEXT: vse64.v v8, (a2)
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <16 x i64>, <16 x i64>* %m_ptr
|
%m = load <16 x i64>, <16 x i64>* %m_ptr
|
||||||
%mask = icmp eq <16 x i64> %m, zeroinitializer
|
%mask = icmp eq <16 x i64> %m, zeroinitializer
|
||||||
%load = call <16 x i64> @llvm.masked.load.v16i64(<16 x i64>* %a, i32 8, <16 x i1> %mask, <16 x i64> undef)
|
%load = call <16 x i64> @llvm.masked.load.v16i64(<16 x i64>* %a, i32 8, <16 x i1> %mask, <16 x i64> undef)
|
||||||
|
|
|
@ -54,26 +54,14 @@ define void @masked_store_v1i32(<1 x i32>* %val_ptr, <1 x i32>* %a, <1 x i32>* %
|
||||||
declare void @llvm.masked.store.v1i32.p0v1i32(<1 x i32>, <1 x i32>*, i32, <1 x i1>)
|
declare void @llvm.masked.store.v1i32.p0v1i32(<1 x i32>, <1 x i32>*, i32, <1 x i1>)
|
||||||
|
|
||||||
define void @masked_store_v1i64(<1 x i64>* %val_ptr, <1 x i64>* %a, <1 x i64>* %m_ptr) nounwind {
|
define void @masked_store_v1i64(<1 x i64>* %val_ptr, <1 x i64>* %a, <1 x i64>* %m_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_store_v1i64:
|
; CHECK-LABEL: masked_store_v1i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 1, e64,m1,ta,mu
|
; CHECK-NEXT: vsetivli a3, 1, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a2)
|
; CHECK-NEXT: vle64.v v25, (a2)
|
||||||
; RV32-NEXT: vsetivli a2, 2, e32,m1,ta,mu
|
; CHECK-NEXT: vle64.v v26, (a0)
|
||||||
; RV32-NEXT: vmv.v.i v26, 0
|
; CHECK-NEXT: vmseq.vi v0, v25, 0
|
||||||
; RV32-NEXT: vsetivli a2, 1, e64,m1,ta,mu
|
; CHECK-NEXT: vse64.v v26, (a1), v0.t
|
||||||
; RV32-NEXT: vle64.v v27, (a0)
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vmseq.vv v0, v25, v26
|
|
||||||
; RV32-NEXT: vse64.v v27, (a1), v0.t
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_store_v1i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 1, e64,m1,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v25, (a2)
|
|
||||||
; RV64-NEXT: vle64.v v26, (a0)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v25, 0
|
|
||||||
; RV64-NEXT: vse64.v v26, (a1), v0.t
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <1 x i64>, <1 x i64>* %m_ptr
|
%m = load <1 x i64>, <1 x i64>* %m_ptr
|
||||||
%mask = icmp eq <1 x i64> %m, zeroinitializer
|
%mask = icmp eq <1 x i64> %m, zeroinitializer
|
||||||
%val = load <1 x i64>, <1 x i64>* %val_ptr
|
%val = load <1 x i64>, <1 x i64>* %val_ptr
|
||||||
|
@ -134,26 +122,14 @@ define void @masked_store_v2i32(<2 x i32>* %val_ptr, <2 x i32>* %a, <2 x i32>* %
|
||||||
declare void @llvm.masked.store.v2i32.p0v2i32(<2 x i32>, <2 x i32>*, i32, <2 x i1>)
|
declare void @llvm.masked.store.v2i32.p0v2i32(<2 x i32>, <2 x i32>*, i32, <2 x i1>)
|
||||||
|
|
||||||
define void @masked_store_v2i64(<2 x i64>* %val_ptr, <2 x i64>* %a, <2 x i64>* %m_ptr) nounwind {
|
define void @masked_store_v2i64(<2 x i64>* %val_ptr, <2 x i64>* %a, <2 x i64>* %m_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_store_v2i64:
|
; CHECK-LABEL: masked_store_v2i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vsetivli a3, 2, e64,m1,ta,mu
|
||||||
; RV32-NEXT: vle64.v v25, (a2)
|
; CHECK-NEXT: vle64.v v25, (a2)
|
||||||
; RV32-NEXT: vsetivli a2, 4, e32,m1,ta,mu
|
; CHECK-NEXT: vle64.v v26, (a0)
|
||||||
; RV32-NEXT: vmv.v.i v26, 0
|
; CHECK-NEXT: vmseq.vi v0, v25, 0
|
||||||
; RV32-NEXT: vsetivli a2, 2, e64,m1,ta,mu
|
; CHECK-NEXT: vse64.v v26, (a1), v0.t
|
||||||
; RV32-NEXT: vle64.v v27, (a0)
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vmseq.vv v0, v25, v26
|
|
||||||
; RV32-NEXT: vse64.v v27, (a1), v0.t
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_store_v2i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 2, e64,m1,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v25, (a2)
|
|
||||||
; RV64-NEXT: vle64.v v26, (a0)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v25, 0
|
|
||||||
; RV64-NEXT: vse64.v v26, (a1), v0.t
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <2 x i64>, <2 x i64>* %m_ptr
|
%m = load <2 x i64>, <2 x i64>* %m_ptr
|
||||||
%mask = icmp eq <2 x i64> %m, zeroinitializer
|
%mask = icmp eq <2 x i64> %m, zeroinitializer
|
||||||
%val = load <2 x i64>, <2 x i64>* %val_ptr
|
%val = load <2 x i64>, <2 x i64>* %val_ptr
|
||||||
|
@ -214,26 +190,14 @@ define void @masked_store_v4i32(<4 x i32>* %val_ptr, <4 x i32>* %a, <4 x i32>* %
|
||||||
declare void @llvm.masked.store.v4i32.p0v4i32(<4 x i32>, <4 x i32>*, i32, <4 x i1>)
|
declare void @llvm.masked.store.v4i32.p0v4i32(<4 x i32>, <4 x i32>*, i32, <4 x i1>)
|
||||||
|
|
||||||
define void @masked_store_v4i64(<4 x i64>* %val_ptr, <4 x i64>* %a, <4 x i64>* %m_ptr) nounwind {
|
define void @masked_store_v4i64(<4 x i64>* %val_ptr, <4 x i64>* %a, <4 x i64>* %m_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_store_v4i64:
|
; CHECK-LABEL: masked_store_v4i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 4, e64,m2,ta,mu
|
; CHECK-NEXT: vsetivli a3, 4, e64,m2,ta,mu
|
||||||
; RV32-NEXT: vle64.v v26, (a2)
|
; CHECK-NEXT: vle64.v v26, (a2)
|
||||||
; RV32-NEXT: vsetivli a2, 8, e32,m2,ta,mu
|
; CHECK-NEXT: vle64.v v28, (a0)
|
||||||
; RV32-NEXT: vmv.v.i v28, 0
|
; CHECK-NEXT: vmseq.vi v0, v26, 0
|
||||||
; RV32-NEXT: vsetivli a2, 4, e64,m2,ta,mu
|
; CHECK-NEXT: vse64.v v28, (a1), v0.t
|
||||||
; RV32-NEXT: vle64.v v30, (a0)
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vmseq.vv v0, v26, v28
|
|
||||||
; RV32-NEXT: vse64.v v30, (a1), v0.t
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_store_v4i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 4, e64,m2,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v26, (a2)
|
|
||||||
; RV64-NEXT: vle64.v v28, (a0)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v26, 0
|
|
||||||
; RV64-NEXT: vse64.v v28, (a1), v0.t
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <4 x i64>, <4 x i64>* %m_ptr
|
%m = load <4 x i64>, <4 x i64>* %m_ptr
|
||||||
%mask = icmp eq <4 x i64> %m, zeroinitializer
|
%mask = icmp eq <4 x i64> %m, zeroinitializer
|
||||||
%val = load <4 x i64>, <4 x i64>* %val_ptr
|
%val = load <4 x i64>, <4 x i64>* %val_ptr
|
||||||
|
@ -294,26 +258,14 @@ define void @masked_store_v8i32(<8 x i32>* %val_ptr, <8 x i32>* %a, <8 x i32>* %
|
||||||
declare void @llvm.masked.store.v8i32.p0v8i32(<8 x i32>, <8 x i32>*, i32, <8 x i1>)
|
declare void @llvm.masked.store.v8i32.p0v8i32(<8 x i32>, <8 x i32>*, i32, <8 x i1>)
|
||||||
|
|
||||||
define void @masked_store_v8i64(<8 x i64>* %val_ptr, <8 x i64>* %a, <8 x i64>* %m_ptr) nounwind {
|
define void @masked_store_v8i64(<8 x i64>* %val_ptr, <8 x i64>* %a, <8 x i64>* %m_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_store_v8i64:
|
; CHECK-LABEL: masked_store_v8i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 8, e64,m4,ta,mu
|
; CHECK-NEXT: vsetivli a3, 8, e64,m4,ta,mu
|
||||||
; RV32-NEXT: vle64.v v28, (a2)
|
; CHECK-NEXT: vle64.v v28, (a2)
|
||||||
; RV32-NEXT: vsetivli a2, 16, e32,m4,ta,mu
|
; CHECK-NEXT: vle64.v v8, (a0)
|
||||||
; RV32-NEXT: vmv.v.i v8, 0
|
; CHECK-NEXT: vmseq.vi v0, v28, 0
|
||||||
; RV32-NEXT: vsetivli a2, 8, e64,m4,ta,mu
|
; CHECK-NEXT: vse64.v v8, (a1), v0.t
|
||||||
; RV32-NEXT: vle64.v v12, (a0)
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vmseq.vv v0, v28, v8
|
|
||||||
; RV32-NEXT: vse64.v v12, (a1), v0.t
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_store_v8i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 8, e64,m4,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v28, (a2)
|
|
||||||
; RV64-NEXT: vle64.v v8, (a0)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v28, 0
|
|
||||||
; RV64-NEXT: vse64.v v8, (a1), v0.t
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <8 x i64>, <8 x i64>* %m_ptr
|
%m = load <8 x i64>, <8 x i64>* %m_ptr
|
||||||
%mask = icmp eq <8 x i64> %m, zeroinitializer
|
%mask = icmp eq <8 x i64> %m, zeroinitializer
|
||||||
%val = load <8 x i64>, <8 x i64>* %val_ptr
|
%val = load <8 x i64>, <8 x i64>* %val_ptr
|
||||||
|
@ -374,27 +326,14 @@ define void @masked_store_v16i32(<16 x i32>* %val_ptr, <16 x i32>* %a, <16 x i32
|
||||||
declare void @llvm.masked.store.v16i32.p0v16i32(<16 x i32>, <16 x i32>*, i32, <16 x i1>)
|
declare void @llvm.masked.store.v16i32.p0v16i32(<16 x i32>, <16 x i32>*, i32, <16 x i1>)
|
||||||
|
|
||||||
define void @masked_store_v16i64(<16 x i64>* %val_ptr, <16 x i64>* %a, <16 x i64>* %m_ptr) nounwind {
|
define void @masked_store_v16i64(<16 x i64>* %val_ptr, <16 x i64>* %a, <16 x i64>* %m_ptr) nounwind {
|
||||||
; RV32-LABEL: masked_store_v16i64:
|
; CHECK-LABEL: masked_store_v16i64:
|
||||||
; RV32: # %bb.0:
|
; CHECK: # %bb.0:
|
||||||
; RV32-NEXT: vsetivli a3, 16, e64,m8,ta,mu
|
; CHECK-NEXT: vsetivli a3, 16, e64,m8,ta,mu
|
||||||
; RV32-NEXT: vle64.v v8, (a2)
|
; CHECK-NEXT: vle64.v v8, (a2)
|
||||||
; RV32-NEXT: addi a2, zero, 32
|
; CHECK-NEXT: vle64.v v16, (a0)
|
||||||
; RV32-NEXT: vsetvli a2, a2, e32,m8,ta,mu
|
; CHECK-NEXT: vmseq.vi v0, v8, 0
|
||||||
; RV32-NEXT: vmv.v.i v16, 0
|
; CHECK-NEXT: vse64.v v16, (a1), v0.t
|
||||||
; RV32-NEXT: vsetivli a2, 16, e64,m8,ta,mu
|
; CHECK-NEXT: ret
|
||||||
; RV32-NEXT: vle64.v v24, (a0)
|
|
||||||
; RV32-NEXT: vmseq.vv v0, v8, v16
|
|
||||||
; RV32-NEXT: vse64.v v24, (a1), v0.t
|
|
||||||
; RV32-NEXT: ret
|
|
||||||
;
|
|
||||||
; RV64-LABEL: masked_store_v16i64:
|
|
||||||
; RV64: # %bb.0:
|
|
||||||
; RV64-NEXT: vsetivli a3, 16, e64,m8,ta,mu
|
|
||||||
; RV64-NEXT: vle64.v v8, (a2)
|
|
||||||
; RV64-NEXT: vle64.v v16, (a0)
|
|
||||||
; RV64-NEXT: vmseq.vi v0, v8, 0
|
|
||||||
; RV64-NEXT: vse64.v v16, (a1), v0.t
|
|
||||||
; RV64-NEXT: ret
|
|
||||||
%m = load <16 x i64>, <16 x i64>* %m_ptr
|
%m = load <16 x i64>, <16 x i64>* %m_ptr
|
||||||
%mask = icmp eq <16 x i64> %m, zeroinitializer
|
%mask = icmp eq <16 x i64> %m, zeroinitializer
|
||||||
%val = load <16 x i64>, <16 x i64>* %val_ptr
|
%val = load <16 x i64>, <16 x i64>* %val_ptr
|
||||||
|
|
Loading…
Reference in New Issue