|
reference, declaration → definition
definition → references, declarations, derived classes, virtual overrides
reference to multiple definitions → definitions
unreferenced
|
References
gen/lib/Target/AArch64/AArch64GenGlobalISel.inc 145 LLT::scalar(16),
146 LLT::scalar(32),
147 LLT::scalar(64),
148 LLT::scalar(128),
gen/lib/Target/AMDGPU/AMDGPUGenGlobalISel.inc 215 LLT::scalar(1),
216 LLT::scalar(16),
217 LLT::scalar(32),
218 LLT::scalar(64),
gen/lib/Target/ARM/ARMGenGlobalISel.inc 280 LLT::scalar(16),
281 LLT::scalar(32),
282 LLT::scalar(64),
gen/lib/Target/Mips/MipsGenGlobalISel.inc 196 LLT::scalar(16),
197 LLT::scalar(32),
198 LLT::scalar(64),
gen/lib/Target/RISCV/RISCVGenGlobalISel.inc 75 LLT::scalar(32),
76 LLT::scalar(64),
gen/lib/Target/X86/X86GenGlobalISel.inc 422 LLT::scalar(1),
423 LLT::scalar(8),
424 LLT::scalar(16),
425 LLT::scalar(32),
426 LLT::scalar(64),
427 LLT::scalar(80),
428 LLT::scalar(128),
include/llvm/Support/LowLevelTypeImpl.h 78 return scalarOrVector(NumElements, LLT::scalar(ScalarSize));
137 : LLT::scalar(NewEltSize);
170 return scalar(getScalarSizeInBits());
lib/CodeGen/GlobalISel/CallLowering.cpp 259 LLT SmallTy = LLT::scalar(NewVT.getSizeInBits());
lib/CodeGen/GlobalISel/CombinerHelper.cpp 835 Ty = LLT::scalar(64);
838 Ty = LLT::scalar(Ty.getSizeInBytes());
852 NewTy = NewTy.getSizeInBits() > 64 ? LLT::scalar(64) : LLT::scalar(32);
852 NewTy = NewTy.getSizeInBits() > 64 ? LLT::scalar(64) : LLT::scalar(32);
853 NewTy = LLT::scalar(PowerOf2Floor(NewTy.getSizeInBits() - 1));
1018 MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), DstOff);
1122 Offset = MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), CurrOffset)
1220 MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), CurrOffset);
1237 MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), CurrOffset);
lib/CodeGen/GlobalISel/IRTranslator.cpp 539 const LLT PtrScalarTy = LLT::scalar(DL->getTypeSizeInBits(PtrIRTy));
556 auto Cmp = MIB.buildICmp(CmpInst::ICMP_UGT, LLT::scalar(1), Sub, Cst);
587 const LLT i1Ty = LLT::scalar(1);
1910 const LLT &VecIdxTy = LLT::scalar(PreferredVecIdxWidth);
lib/CodeGen/GlobalISel/LegalizerHelper.cpp 59 LeftoverTy = LLT::scalar(LeftoverSize);
155 LeftoverTy = LLT::scalar(LeftoverSize);
192 return LLT::scalar(GCD);
647 LeftoverTy = LLT::scalar(LeftoverBits);
677 MIRBuilder.buildConstant(LLT::scalar(64), NarrowTy.getSizeInBits() - 1);
734 Register CarryOut = MRI.createGenericVirtualRegister(LLT::scalar(1));
767 Register BorrowOut = MRI.createGenericVirtualRegister(LLT::scalar(1));
774 BorrowOut = MRI.createGenericVirtualRegister(LLT::scalar(1));
1183 assert(MRI.getType(SrcReg) == LLT::scalar(PartSize));
1227 LLT GCDTy = LLT::scalar(GCD);
1232 LLT WideDstTy = LLT::scalar(NumMerge * WideSize);
1293 LLT NewSrcTy = LLT::scalar(NewSrcSize);
1337 LLT SrcAsIntTy = LLT::scalar(SrcTy.getSizeInBits());
2078 LLT AnyExtTy = LLT::scalar(AnyExtSize);
2085 MIRBuilder.buildConstant(LLT::scalar(64), LargeSplitSize / 8);
2105 MRI.createGenericVirtualRegister(LLT::scalar(MMO.getSizeInBits()));
2145 const LLT ExtendTy = LLT::scalar(NextPowerOf2(SrcTy.getSizeInBits()));
2157 MIRBuilder.buildConstant(LLT::scalar(64), LargeSplitSize / 8);
2228 Register LHS_EQ_RHS = MRI.createGenericVirtualRegister(LLT::scalar(1));
2229 Register LHS_ULT_RHS = MRI.createGenericVirtualRegister(LLT::scalar(1));
2893 const LLT OffsetTy = LLT::scalar(MRI.getType(AddrReg).getScalarSizeInBits());
3155 const LLT HalfTy = LLT::scalar(NewBitSize);
3156 const LLT CondTy = LLT::scalar(1);
3389 B.buildUAddo(NarrowTy, LLT::scalar(1), Factors[0], Factors[1]);
3394 B.buildUAddo(NarrowTy, LLT::scalar(1), FactorSum, Factors[i]);
3496 SegReg = MRI.createGenericVirtualRegister(LLT::scalar(SegSize));
3568 SegReg = MRI.createGenericVirtualRegister(LLT::scalar(SegSize));
3701 auto MIBICmp = MIRBuilder.buildICmp(CmpInst::ICMP_EQ, LLT::scalar(1),
3752 auto MIBICmp = MIRBuilder.buildICmp(CmpInst::ICMP_EQ, LLT::scalar(1),
3793 const LLT S64 = LLT::scalar(64);
3794 const LLT S32 = LLT::scalar(32);
3795 const LLT S1 = LLT::scalar(1);
3852 if (SrcTy != LLT::scalar(64))
3855 if (DstTy == LLT::scalar(32)) {
3873 const LLT S64 = LLT::scalar(64);
3874 const LLT S32 = LLT::scalar(32);
3875 const LLT S1 = LLT::scalar(1);
3910 const LLT S64 = LLT::scalar(64);
3911 const LLT S32 = LLT::scalar(32);
4082 LLT IntTy = LLT::scalar(SrcTy.getSizeInBits());
4109 LLT IdxTy = LLT::scalar(32);
4171 LLT IntPtrTy = LLT::scalar(PtrTy.getSizeInBits());
4210 SrcIntTy = LLT::scalar(SrcTy.getSizeInBits());
4243 IntDstTy = LLT::scalar(DstTy.getSizeInBits());
lib/CodeGen/GlobalISel/LegalizerInfo.cpp 642 Aspect.Type.isScalar() ? LLT::scalar(SizeAndAction.first)
lib/CodeGen/GlobalISel/RegisterBankInfo.cpp 706 NewVReg = MRI.createGenericVirtualRegister(LLT::scalar(PartMap->Length));
lib/CodeGen/GlobalISel/Utils.cpp 446 return LLT::scalar(Ty.getSizeInBits());
lib/CodeGen/LowLevelType.cpp 34 return LLT::scalar(SizeInBits);
lib/CodeGen/MIRParser/MIParser.cpp 1531 Ty = LLT::scalar(ScalarSize);
1573 Ty = LLT::scalar(ScalarSize);
lib/Target/AArch64/AArch64CallLowering.cpp 145 LLT s64 = LLT::scalar(64);
180 ValVReg = MIRBuilder.buildAnyExt(LLT::scalar(Size * 8), ValVReg)
296 CurVReg = MIRBuilder.buildZExt(LLT::scalar(8), CurVReg).getReg(0);
lib/Target/AArch64/AArch64ISelLowering.cpp 9085 return LLT::scalar(128);
9087 return LLT::scalar(64);
9089 return LLT::scalar(32);
lib/Target/AArch64/AArch64InstructionSelector.cpp 837 if (Ty == LLT::scalar(32))
839 else if (Ty == LLT::scalar(64) || Ty == LLT::pointer(0, 64))
1298 if (Ty != LLT::scalar(64) && Ty != LLT::scalar(32))
1298 if (Ty != LLT::scalar(64) && Ty != LLT::scalar(32))
1301 if (Ty == LLT::scalar(64)) {
1488 const LLT s8 = LLT::scalar(8);
1489 const LLT s16 = LLT::scalar(16);
1490 const LLT s32 = LLT::scalar(32);
1491 const LLT s64 = LLT::scalar(64);
1611 DstReg, DstRB, LLT::scalar(64), SrcReg, LaneIdx, MIB);
1628 DstReg = MRI.createGenericVirtualRegister(LLT::scalar(64));
1660 Register SrcReg = MRI.createGenericVirtualRegister(LLT::scalar(64));
1835 if (Ty != LLT::scalar(64)) {
1837 << ", expected: " << LLT::scalar(64) << '\n');
1977 } else if (Opcode == TargetOpcode::G_TRUNC && DstTy == LLT::scalar(32) &&
1978 SrcTy == LLT::scalar(64)) {
2002 DstReg, DstRB, LLT::scalar(DstTy.getSizeInBits()), SrcReg, 0, MIB);
2158 if (MRI.getType(I.getOperand(1).getReg()) != LLT::scalar(1)) {
2160 << ", expected: " << LLT::scalar(1) << '\n');
2194 if (Ty != LLT::scalar(32)) {
2196 << ", expected: " << LLT::scalar(32) << '\n');
2211 if (Ty != LLT::scalar(32)) {
2213 << ", expected: " << LLT::scalar(32) << '\n');
2721 if (DstTy == LLT::scalar(128)) {
3242 if (CmpTy == LLT::scalar(32)) {
3245 } else if (CmpTy == LLT::scalar(64) || CmpTy.isPointer()) {
3300 const LLT ScalarTy = LLT::scalar(Op1Ty.getSizeInBits());
lib/Target/AArch64/AArch64LegalizerInfo.cpp 36 const LLT s1 = LLT::scalar(1);
37 const LLT s8 = LLT::scalar(8);
38 const LLT s16 = LLT::scalar(16);
39 const LLT s32 = LLT::scalar(32);
40 const LLT s64 = LLT::scalar(64);
41 const LLT s128 = LLT::scalar(128);
42 const LLT s256 = LLT::scalar(256);
43 const LLT s512 = LLT::scalar(512);
517 return std::make_pair(BigTyIdx, LLT::scalar(NewSizeInBits));
678 auto ExtCst = MIRBuilder.buildZExt(LLT::scalar(64), AmtReg);
732 LLT IntPtrTy = LLT::scalar(PtrTy.getSizeInBits());
lib/Target/AArch64/AArch64RegisterBankInfo.cpp 771 if (SrcTy.isVector() || SrcTy == LLT::scalar(128) ||
lib/Target/AMDGPU/AMDGPUCallLowering.cpp 58 ExtReg = MIRBuilder.buildAnyExt(LLT::scalar(32), ValVReg).getReg(0);
101 auto Copy = MIRBuilder.buildCopy(LLT::scalar(32), PhysReg);
214 return LLT::scalar(OrigTy.getSizeInBits() * Factor);
356 Register OffsetReg = MRI.createGenericVirtualRegister(LLT::scalar(64));
lib/Target/AMDGPU/AMDGPUInstructionSelector.cpp 1226 const LLT S1 = LLT::scalar(1);
lib/Target/AMDGPU/AMDGPULegalizerInfo.cpp 172 const LLT S1 = LLT::scalar(1);
173 const LLT S8 = LLT::scalar(8);
174 const LLT S16 = LLT::scalar(16);
175 const LLT S32 = LLT::scalar(32);
176 const LLT S64 = LLT::scalar(64);
177 const LLT S96 = LLT::scalar(96);
178 const LLT S128 = LLT::scalar(128);
179 const LLT S256 = LLT::scalar(256);
180 const LLT S1024 = LLT::scalar(1024);
440 {S64, LLT::scalar(33)},
441 {S32, S8}, {S128, S32}, {S128, S64}, {S32, LLT::scalar(24)}})
583 return std::make_pair(1, LLT::scalar(Query.Types[0].getSizeInBits()));
587 return std::make_pair(1, LLT::scalar(Query.Types[0].getSizeInBits()));
599 return std::make_pair(0, LLT::scalar(Query.Types[1].getSizeInBits()));
604 return std::make_pair(0, LLT::scalar(Query.Types[1].getSizeInBits()));
733 return std::make_pair(0, LLT::scalar(MemSize));
738 return std::make_pair(0, LLT::scalar(32 * (DstSize / 32)));
743 return std::make_pair(0, LLT::scalar(MaxSize));
746 return std::make_pair(0, LLT::scalar(Align));
1064 return std::make_pair(BigTyIdx, LLT::scalar(NewSizeInBits));
1142 const LLT S32 = LLT::scalar(32);
1205 B.materializeGEP(LoadAddr, QueuePtr, LLT::scalar(64), StructOffset);
1217 const LLT S32 = LLT::scalar(32);
1273 Register CmpRes = MRI.createGenericVirtualRegister(LLT::scalar(1));
1296 Register CmpRes = MRI.createGenericVirtualRegister(LLT::scalar(1));
1338 auto Cond = B.buildFCmp(CmpInst::FCMP_OGT, LLT::scalar(1), Fabs, C2);
1348 const LLT S1 = LLT::scalar(1);
1349 const LLT S64 = LLT::scalar(64);
1376 LLT S32 = LLT::scalar(32);
1393 const LLT S1 = LLT::scalar(1);
1394 const LLT S32 = LLT::scalar(32);
1395 const LLT S64 = LLT::scalar(64);
1442 const LLT S64 = LLT::scalar(64);
1443 const LLT S32 = LLT::scalar(32);
1723 if (Ty == LLT::scalar(32) && !ST.hasFP32Denormals())
1725 if (Ty == LLT::scalar(16) && !ST.hasFP16Denormals())
1801 const LLT S32 = LLT::scalar(32);
1865 LLT S16 = LLT::scalar(16);
1886 LLT S32 = LLT::scalar(32);
1887 LLT S64 = LLT::scalar(64);
1946 LLT S16 = LLT::scalar(16);
1947 LLT S32 = LLT::scalar(32);
1978 LLT S32 = LLT::scalar(32);
1979 LLT S1 = LLT::scalar(1);
2021 LLT IdxTy = LLT::scalar(DstTy.getSizeInBits());
2045 auto Hi32 = B.buildExtract(LLT::scalar(32), MI.getOperand(2).getReg(), 32);
2058 const LLT S16 = LLT::scalar(16);
2059 const LLT S32 = LLT::scalar(32);
2084 const LLT S32 = LLT::scalar(32);
2085 const LLT S16 = LLT::scalar(16);
2088 if (Ty == LLT::scalar(8) || Ty == S16) {
2089 Register AnyExt = B.buildAnyExt(LLT::scalar(32), VData).getReg(0);
lib/Target/AMDGPU/AMDGPURegisterBankInfo.cpp 68 if (MRI.getType(Reg) == LLT::scalar(1))
640 return LLT::scalar(Ty.getSizeInBits() / 2);
809 LLT S32 = LLT::scalar(32);
817 LLT UnmergeTy = OpSize % 64 == 0 ? LLT::scalar(64) : LLT::scalar(32);
817 LLT UnmergeTy = OpSize % 64 == 0 ? LLT::scalar(64) : LLT::scalar(32);
854 B.buildMerge(LLT::scalar(64),
1100 Register IdxReg = MRI.createGenericVirtualRegister(LLT::scalar(32));
1155 const LLT S16 = LLT::scalar(16);
1167 const LLT S32 = LLT::scalar(32);
1193 const LLT S32 = LLT::scalar(32);
1439 if (DstTy != LLT::scalar(16))
1453 if (Helper.widenScalar(MI, 0, LLT::scalar(32)) !=
1475 LLT S32 = LLT::scalar(32);
1476 LLT S16 = LLT::scalar(16);
1512 const LLT S32 = LLT::scalar(32);
1534 if (SrcTy != LLT::scalar(1))
1549 LLT SelType = UseSel64 ? LLT::scalar(64) : LLT::scalar(32);
1549 LLT SelType = UseSel64 ? LLT::scalar(64) : LLT::scalar(32);
1576 auto ShiftAmt = B.buildConstant(LLT::scalar(32), DstTy.getSizeInBits() - 1);
1610 const LLT S32 = LLT::scalar(32);
1671 const LLT S32 = LLT::scalar(32);
1738 const LLT S32 = LLT::scalar(32);
lib/Target/AMDGPU/SIISelLowering.cpp 1617 const LLT S32 = LLT::scalar(32);
1670 MF.getRegInfo().setType(LiveInVReg, LLT::scalar(32));
lib/Target/ARM/ARMCallLowering.cpp 101 LLT s32 = LLT::scalar(32);
158 Register NewRegs[] = {MRI.createGenericVirtualRegister(LLT::scalar(32)),
159 MRI.createGenericVirtualRegister(LLT::scalar(32))};
321 auto LoadVReg = MRI.createGenericVirtualRegister(LLT::scalar(32));
358 MRI.createGenericVirtualRegister(LLT::scalar(LocSize));
382 Register NewRegs[] = {MRI.createGenericVirtualRegister(LLT::scalar(32)),
383 MRI.createGenericVirtualRegister(LLT::scalar(32))};
lib/Target/ARM/ARMLegalizerInfo.cpp 71 const LLT s1 = LLT::scalar(1);
72 const LLT s8 = LLT::scalar(8);
73 const LLT s16 = LLT::scalar(16);
74 const LLT s32 = LLT::scalar(32);
75 const LLT s64 = LLT::scalar(64);
387 Register RetRegs[] = {MRI.createGenericVirtualRegister(LLT::scalar(32)),
423 auto LibcallResult = MRI.createGenericVirtualRegister(LLT::scalar(32));
448 auto Zero = MRI.createGenericVirtualRegister(LLT::scalar(32));
lib/Target/Mips/MipsCallLowering.cpp 206 Register LoadReg = MRI.createGenericVirtualRegister(LLT::scalar(32));
293 LLT s32 = LLT::scalar(32);
522 MIRBuilder.buildCopy(LLT::scalar(RegSize * 8), Register(ArgRegs[I]));
lib/Target/Mips/MipsLegalizerInfo.cpp 55 const LLT s1 = LLT::scalar(1);
56 const LLT s32 = LLT::scalar(32);
57 const LLT s64 = LLT::scalar(64);
251 const LLT s32 = LLT::scalar(32);
252 const LLT s64 = LLT::scalar(64);
lib/Target/Mips/MipsRegisterBankInfo.cpp 637 assert(MRI.getType(Dest) == LLT::scalar(32) && "Unexpected operand type.");
680 Helper.narrowScalar(MI, 0, LLT::scalar(32));
lib/Target/X86/X86CallLowering.cpp 110 LLT SType = LLT::scalar(DL.getPointerSizeInBits(0));
141 auto MIB = MIRBuilder.buildAnyExt(LLT::scalar(PhysRegSize), ValVReg);
274 auto Copy = MIRBuilder.buildCopy(LLT::scalar(PhysRegSize), PhysReg);
lib/Target/X86/X86InstructionSelector.cpp 402 if (Ty == LLT::scalar(8)) {
405 } else if (Ty == LLT::scalar(16)) {
408 } else if (Ty == LLT::scalar(32) || Ty == LLT::pointer(0, 32)) {
418 } else if (Ty == LLT::scalar(64) || Ty == LLT::pointer(0, 64)) {
781 assert(!(SrcTy == LLT::scalar(8) && DstTy == LLT::scalar(32)) &&
781 assert(!(SrcTy == LLT::scalar(8) && DstTy == LLT::scalar(32)) &&
783 assert(!(SrcTy == LLT::scalar(16) && DstTy == LLT::scalar(32)) &&
783 assert(!(SrcTy == LLT::scalar(16) && DstTy == LLT::scalar(32)) &&
792 {LLT::scalar(8), LLT::scalar(16), X86::MOVZX16rr8, false}, // i8 => i16
792 {LLT::scalar(8), LLT::scalar(16), X86::MOVZX16rr8, false}, // i8 => i16
793 {LLT::scalar(8), LLT::scalar(64), X86::MOVZX32rr8, true}, // i8 => i64
793 {LLT::scalar(8), LLT::scalar(64), X86::MOVZX32rr8, true}, // i8 => i64
794 {LLT::scalar(16), LLT::scalar(64), X86::MOVZX32rr16, true}, // i16 => i64
794 {LLT::scalar(16), LLT::scalar(64), X86::MOVZX32rr16, true}, // i16 => i64
795 {LLT::scalar(32), LLT::scalar(64), 0, true} // i32 => i64
795 {LLT::scalar(32), LLT::scalar(64), 0, true} // i32 => i64
825 getRegClass(LLT::scalar(32), DstReg, MRI));
845 if (SrcTy != LLT::scalar(1))
849 if (DstTy == LLT::scalar(8))
851 else if (DstTy == LLT::scalar(16))
853 else if (DstTy == LLT::scalar(32))
855 else if (DstTy == LLT::scalar(64))
861 if (DstTy != LLT::scalar(8)) {
1030 *getRegClass(LLT::scalar(8), *RBI.getRegBank(ResultReg, MRI, TRI)), MRI);
1091 if (DstTy != LLT::scalar(32))
lib/Target/X86/X86LegalizerInfo.cpp 109 const LLT s1 = LLT::scalar(1);
110 const LLT s8 = LLT::scalar(8);
111 const LLT s16 = LLT::scalar(16);
112 const LLT s32 = LLT::scalar(32);
113 const LLT s64 = LLT::scalar(64);
114 const LLT s128 = LLT::scalar(128);
205 const LLT s1 = LLT::scalar(1);
206 const LLT s8 = LLT::scalar(8);
207 const LLT s16 = LLT::scalar(16);
208 const LLT s32 = LLT::scalar(32);
209 const LLT s64 = LLT::scalar(64);
210 const LLT s128 = LLT::scalar(128);
288 const LLT s32 = LLT::scalar(32);
289 const LLT s64 = LLT::scalar(64);
317 const LLT s32 = LLT::scalar(32);
318 const LLT s64 = LLT::scalar(64);
unittests/CodeGen/GlobalISel/CSETest.cpp 19 LLT s16{LLT::scalar(16)};
20 LLT s32{LLT::scalar(32)};
82 LLT s16{LLT::scalar(16)};
unittests/CodeGen/GlobalISel/ConstantFoldingTest.cpp 26 LLT s32 = LLT::scalar(32);
76 LLT s32{LLT::scalar(32)};
unittests/CodeGen/GlobalISel/KnownBitsTest.cpp 127 const LLT S32 = LLT::scalar(32);
unittests/CodeGen/GlobalISel/LegalizerHelperTest.cpp 39 B.buildInstr(TargetOpcode::G_CTTZ, {LLT::scalar(64)}, {Copies[0]});
44 EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
71 B.buildInstr(TargetOpcode::G_CTTZ, {LLT::scalar(64)}, {Copies[0]});
76 EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
105 B.buildInstr(TargetOpcode::G_CTTZ, {LLT::scalar(64)}, {Copies[0]});
109 EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
136 LLT s8{LLT::scalar(8)};
137 LLT s16{LLT::scalar(16)};
168 LLT s8{LLT::scalar(8)};
169 LLT s16{LLT::scalar(16)};
170 LLT s32{LLT::scalar(32)};
201 {LLT::scalar(64)}, {Copies[0]});
205 EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
228 B.buildInstr(TargetOpcode::G_CTLZ, {LLT::scalar(64)}, {Copies[0]});
232 EXPECT_TRUE(Helper.lower(*MIBCTLZ, 0, LLT::scalar(64)) ==
259 B.buildInstr(TargetOpcode::G_CTLZ, {LLT::scalar(64)}, {Copies[0]});
263 EXPECT_TRUE(Helper.lower(*MIBCTLZ, 0, LLT::scalar(64)) ==
290 LLT s8{LLT::scalar(8)};
331 LLT s8{LLT::scalar(8)};
332 LLT s16{LLT::scalar(16)};
366 LLT s8{LLT::scalar(8)};
367 LLT s16{LLT::scalar(16)};
402 LLT s8{LLT::scalar(8)};
403 LLT s16{LLT::scalar(16)};
435 LLT s8{LLT::scalar(8)};
436 LLT s16{LLT::scalar(16)};
469 LLT s8{LLT::scalar(8)};
470 LLT s16{LLT::scalar(16)};
503 LLT s8{LLT::scalar(8)};
504 LLT s16{LLT::scalar(16)};
506 unsigned CarryReg = MRI->createGenericVirtualRegister(LLT::scalar(1));
542 LLT s8{LLT::scalar(8)};
543 LLT s16{LLT::scalar(16)};
545 unsigned CarryReg = MRI->createGenericVirtualRegister(LLT::scalar(1));
620 LLT s32 = LLT::scalar(32);
661 LLT s1 = LLT::scalar(1);
662 LLT s32 = LLT::scalar(32);
663 LLT s64 = LLT::scalar(64);
763 B.buildInstr(TargetOpcode::G_FADD, {LLT::scalar(64)}, {Copies[0], Copies[1]},
768 B.buildInstr(TargetOpcode::G_FNEG, {LLT::scalar(64)}, {FAdd.getReg(0)},
773 B.buildInstr(TargetOpcode::G_FNEG, {LLT::scalar(64)}, {Copies[0]},
781 Helper.lower(*FNeg0, 0, LLT::scalar(64)));
783 Helper.lower(*FNeg1, 0, LLT::scalar(64)));
801 LLT s64 = LLT::scalar(64);
879 LLT S32 = LLT::scalar(32);
880 LLT S16 = LLT::scalar(16);
925 const LLT S32 = LLT::scalar(32);
926 const LLT S24 = LLT::scalar(24);
927 const LLT S21 = LLT::scalar(21);
928 const LLT S16 = LLT::scalar(16);
929 const LLT S9 = LLT::scalar(9);
930 const LLT S8 = LLT::scalar(8);
931 const LLT S3 = LLT::scalar(3);
935 .widenScalarIf(typeIs(1, LLT::scalar(3)), changeTo(1, LLT::scalar(9)));
935 .widenScalarIf(typeIs(1, LLT::scalar(3)), changeTo(1, LLT::scalar(9)));
1033 const LLT S32 = LLT::scalar(32);
1034 const LLT S64 = LLT::scalar(64);
1069 TargetOpcode::G_SEXT_INREG, {LLT::scalar(32)},
1070 {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(32)}, {Copies[0]}),
1076 ASSERT_TRUE(Helper.widenScalar(*MIB, 0, LLT::scalar(64)) ==
1100 TargetOpcode::G_SEXT_INREG, {LLT::scalar(16)},
1101 {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(16)}, {Copies[0]}),
1107 ASSERT_TRUE(Helper.narrowScalar(*MIB, 0, LLT::scalar(10)) ==
1130 TargetOpcode::G_SEXT_INREG, {LLT::scalar(32)},
1131 {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(32)}, {Copies[0]}),
1137 ASSERT_TRUE(Helper.narrowScalar(*MIB, 0, LLT::scalar(8)) ==
1162 TargetOpcode::G_SEXT_INREG, {LLT::scalar(32)},
1163 {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(32)}, {Copies[0]}),
unittests/CodeGen/GlobalISel/LegalizerInfoTest.cpp 53 L.setAction({Op, 0, LLT::scalar(Size)}, Legal);
62 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(8)}}),
63 LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
64 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(16)}}),
65 LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
66 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(32)}}),
68 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(64)}}),
72 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(128)}}),
73 LegalizeActionStep(NarrowScalar, 0, LLT::scalar(64)));
75 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(1)}}),
76 LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
77 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(31)}}),
78 LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
79 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(33)}}),
80 LegalizeActionStep(WidenScalar, 0, LLT::scalar(64)));
81 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(63)}}),
82 LegalizeActionStep(WidenScalar, 0, LLT::scalar(64)));
83 EXPECT_EQ(L.getAction({opcode, {LLT::scalar(65)}}),
84 LegalizeActionStep(NarrowScalar, 0, LLT::scalar(64)));
102 L.setAction({G_ADD, 0, LLT::scalar(32)}, Legal);
127 LLT s64 = LLT::scalar(64);
144 L.getAction({G_PTRTOINT, {LLT::scalar(65), s64}}),
154 LLT s32 = LLT::scalar(32);
155 LLT s64 = LLT::scalar(64);
164 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(16)}}),
165 LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
166 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(32)}}),
167 LegalizeActionStep(Lower, 0, LLT::scalar(32)));
174 L.setAction({G_UREM, 0, LLT::scalar(Size)}, Legal);
182 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(Size)}}),
185 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(2)}}),
186 LegalizeActionStep(WidenScalar, 0, LLT::scalar(8)));
187 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(7)}}),
188 LegalizeActionStep(WidenScalar, 0, LLT::scalar(8)));
189 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(9)}}),
190 LegalizeActionStep(WidenScalar, 0, LLT::scalar(16)));
191 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(17)}}),
192 LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
193 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(31)}}),
194 LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
195 EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(33)}}),
196 LegalizeActionStep(Unsupported, 0, LLT::scalar(33)));
209 const LLT s5 = LLT::scalar(5);
210 const LLT s8 = LLT::scalar(8);
211 const LLT s16 = LLT::scalar(16);
212 const LLT s32 = LLT::scalar(32);
213 const LLT s33 = LLT::scalar(33);
214 const LLT s64 = LLT::scalar(64);
363 const LLT s32 = LLT::scalar(32);
unittests/CodeGen/GlobalISel/MachineIRBuilderTest.cpp 17 B.buildConstant(LLT::scalar(32), 42);
18 B.buildFConstant(LLT::scalar(32), 1.0);
25 B.buildFConstant(LLT::scalar(64), KVal);
53 EXPECT_DEATH(B.buildConstant(LLT::scalar(16), APV32),
60 EXPECT_DEATH(B.buildConstant(LLT::scalar(16), *CI),
67 EXPECT_DEATH(B.buildFConstant(LLT::scalar(16), *CF),
84 LLT s64 = LLT::scalar(64);
109 B.buildUnmerge(LLT::scalar(32), Copies[0]);
110 B.buildUnmerge(LLT::scalar(16), Copies[1]);
131 LLT S64 = LLT::scalar(64);
164 LLT S64 = LLT::scalar(64);
193 LLT S64 = LLT::scalar(64);
194 LLT S128 = LLT::scalar(128);
222 LLT S32 = LLT::scalar(32);
250 LLT S32 = LLT::scalar(32);
275 LLT S64 = LLT::scalar(64);
301 LLT S64 = LLT::scalar(64);
332 LLT S32 = LLT::scalar(32);
340 B.buildMerge(LLT::scalar(128), {RegC0, RegC1, RegC2, RegC3});
unittests/CodeGen/GlobalISel/PatternMatchTest.cpp 37 auto MIBCst = B.buildConstant(LLT::scalar(64), 42);
48 LLT s64 = LLT::scalar(64);
138 LLT s32 = LLT::scalar(32);
168 LLT s64 = LLT::scalar(64);
180 LLT s16 = LLT::scalar(16);
199 LLT s64 = LLT::scalar(64);
200 LLT s32 = LLT::scalar(32);
247 LLT s64 = LLT::scalar(64);
248 LLT s32 = LLT::scalar(32);
283 LLT s64 = LLT::scalar(64);
284 LLT s32 = LLT::scalar(32);
308 m_any_of(m_SpecificType(LLT::scalar(16)), m_GSub(m_Reg(), m_Reg())));
317 LLT s64 = LLT::scalar(64);
unittests/CodeGen/LowLevelTypeTest.cpp 25 const LLT Ty = LLT::scalar(S);
54 const LLT STy = LLT::scalar(S);
96 EXPECT_EQ(LLT::scalar(32), LLT::scalarOrVector(1, 32));
100 EXPECT_EQ(LLT::scalar(32), LLT::scalarOrVector(1, LLT::scalar(32)));
100 EXPECT_EQ(LLT::scalar(32), LLT::scalarOrVector(1, LLT::scalar(32)));
101 EXPECT_EQ(LLT::vector(2, 32), LLT::scalarOrVector(2, LLT::scalar(32)));
113 const LLT S32 = LLT::scalar(32);
114 const LLT S64 = LLT::scalar(64);
utils/TableGen/GlobalISelEmitter.cpp 195 return LLTCodeGen(LLT::scalar(VT.getSizeInBits()));