reference, declarationdefinition
definition → references, declarations, derived classes, virtual overrides
reference to multiple definitions → definitions
unreferenced

References

gen/lib/Target/AArch64/AArch64GenGlobalISel.inc
  145   LLT::scalar(16),
  146   LLT::scalar(32),
  147   LLT::scalar(64),
  148   LLT::scalar(128),
gen/lib/Target/AMDGPU/AMDGPUGenGlobalISel.inc
  215   LLT::scalar(1),
  216   LLT::scalar(16),
  217   LLT::scalar(32),
  218   LLT::scalar(64),
gen/lib/Target/ARM/ARMGenGlobalISel.inc
  280   LLT::scalar(16),
  281   LLT::scalar(32),
  282   LLT::scalar(64),
gen/lib/Target/Mips/MipsGenGlobalISel.inc
  196   LLT::scalar(16),
  197   LLT::scalar(32),
  198   LLT::scalar(64),
gen/lib/Target/RISCV/RISCVGenGlobalISel.inc
   75   LLT::scalar(32),
   76   LLT::scalar(64),
gen/lib/Target/X86/X86GenGlobalISel.inc
  422   LLT::scalar(1),
  423   LLT::scalar(8),
  424   LLT::scalar(16),
  425   LLT::scalar(32),
  426   LLT::scalar(64),
  427   LLT::scalar(80),
  428   LLT::scalar(128),
include/llvm/Support/LowLevelTypeImpl.h
   78     return scalarOrVector(NumElements, LLT::scalar(ScalarSize));
  137                       : LLT::scalar(NewEltSize);
  170       return scalar(getScalarSizeInBits());
lib/CodeGen/GlobalISel/CallLowering.cpp
  259         LLT SmallTy = LLT::scalar(NewVT.getSizeInBits());
lib/CodeGen/GlobalISel/CombinerHelper.cpp
  835     Ty = LLT::scalar(64);
  838       Ty = LLT::scalar(Ty.getSizeInBytes());
  852         NewTy = NewTy.getSizeInBits() > 64 ? LLT::scalar(64) : LLT::scalar(32);
  852         NewTy = NewTy.getSizeInBits() > 64 ? LLT::scalar(64) : LLT::scalar(32);
  853       NewTy = LLT::scalar(PowerOf2Floor(NewTy.getSizeInBits() - 1));
 1018           MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), DstOff);
 1122       Offset = MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), CurrOffset)
 1220           MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), CurrOffset);
 1237           MIB.buildConstant(LLT::scalar(PtrTy.getSizeInBits()), CurrOffset);
lib/CodeGen/GlobalISel/IRTranslator.cpp
  539   const LLT PtrScalarTy = LLT::scalar(DL->getTypeSizeInBits(PtrIRTy));
  556   auto Cmp = MIB.buildICmp(CmpInst::ICMP_UGT, LLT::scalar(1), Sub, Cst);
  587   const LLT i1Ty = LLT::scalar(1);
 1910     const LLT &VecIdxTy = LLT::scalar(PreferredVecIdxWidth);
lib/CodeGen/GlobalISel/LegalizerHelper.cpp
   59     LeftoverTy = LLT::scalar(LeftoverSize);
  155     LeftoverTy = LLT::scalar(LeftoverSize);
  192   return LLT::scalar(GCD);
  647       LeftoverTy = LLT::scalar(LeftoverBits);
  677         MIRBuilder.buildConstant(LLT::scalar(64), NarrowTy.getSizeInBits() - 1);
  734       Register CarryOut = MRI.createGenericVirtualRegister(LLT::scalar(1));
  767     Register BorrowOut = MRI.createGenericVirtualRegister(LLT::scalar(1));
  774       BorrowOut = MRI.createGenericVirtualRegister(LLT::scalar(1));
 1183       assert(MRI.getType(SrcReg) == LLT::scalar(PartSize));
 1227   LLT GCDTy = LLT::scalar(GCD);
 1232   LLT WideDstTy = LLT::scalar(NumMerge * WideSize);
 1293   LLT NewSrcTy = LLT::scalar(NewSrcSize);
 1337       LLT SrcAsIntTy = LLT::scalar(SrcTy.getSizeInBits());
 2078         LLT AnyExtTy = LLT::scalar(AnyExtSize);
 2085             MIRBuilder.buildConstant(LLT::scalar(64), LargeSplitSize / 8);
 2105           MRI.createGenericVirtualRegister(LLT::scalar(MMO.getSizeInBits()));
 2145     const LLT ExtendTy = LLT::scalar(NextPowerOf2(SrcTy.getSizeInBits()));
 2157         MIRBuilder.buildConstant(LLT::scalar(64), LargeSplitSize / 8);
 2228     Register LHS_EQ_RHS = MRI.createGenericVirtualRegister(LLT::scalar(1));
 2229     Register LHS_ULT_RHS = MRI.createGenericVirtualRegister(LLT::scalar(1));
 2893   const LLT OffsetTy = LLT::scalar(MRI.getType(AddrReg).getScalarSizeInBits());
 3155   const LLT HalfTy = LLT::scalar(NewBitSize);
 3156   const LLT CondTy = LLT::scalar(1);
 3389           B.buildUAddo(NarrowTy, LLT::scalar(1), Factors[0], Factors[1]);
 3394             B.buildUAddo(NarrowTy, LLT::scalar(1), FactorSum, Factors[i]);
 3496       SegReg = MRI.createGenericVirtualRegister(LLT::scalar(SegSize));
 3568       SegReg = MRI.createGenericVirtualRegister(LLT::scalar(SegSize));
 3701       auto MIBICmp = MIRBuilder.buildICmp(CmpInst::ICMP_EQ, LLT::scalar(1),
 3752       auto MIBICmp = MIRBuilder.buildICmp(CmpInst::ICMP_EQ, LLT::scalar(1),
 3793   const LLT S64 = LLT::scalar(64);
 3794   const LLT S32 = LLT::scalar(32);
 3795   const LLT S1 = LLT::scalar(1);
 3852   if (SrcTy != LLT::scalar(64))
 3855   if (DstTy == LLT::scalar(32)) {
 3873   const LLT S64 = LLT::scalar(64);
 3874   const LLT S32 = LLT::scalar(32);
 3875   const LLT S1 = LLT::scalar(1);
 3910   const LLT S64 = LLT::scalar(64);
 3911   const LLT S32 = LLT::scalar(32);
 4082     LLT IntTy = LLT::scalar(SrcTy.getSizeInBits());
 4109   LLT IdxTy = LLT::scalar(32);
 4171   LLT IntPtrTy = LLT::scalar(PtrTy.getSizeInBits());
 4210       SrcIntTy = LLT::scalar(SrcTy.getSizeInBits());
 4243       IntDstTy = LLT::scalar(DstTy.getSizeInBits());
lib/CodeGen/GlobalISel/LegalizerInfo.cpp
  642           Aspect.Type.isScalar() ? LLT::scalar(SizeAndAction.first)
lib/CodeGen/GlobalISel/RegisterBankInfo.cpp
  706     NewVReg = MRI.createGenericVirtualRegister(LLT::scalar(PartMap->Length));
lib/CodeGen/GlobalISel/Utils.cpp
  446     return LLT::scalar(Ty.getSizeInBits());
lib/CodeGen/LowLevelType.cpp
   34     return LLT::scalar(SizeInBits);
lib/CodeGen/MIRParser/MIParser.cpp
 1531     Ty = LLT::scalar(ScalarSize);
 1573     Ty = LLT::scalar(ScalarSize);
lib/Target/AArch64/AArch64CallLowering.cpp
  145     LLT s64 = LLT::scalar(64);
  180       ValVReg = MIRBuilder.buildAnyExt(LLT::scalar(Size * 8), ValVReg)
  296         CurVReg = MIRBuilder.buildZExt(LLT::scalar(8), CurVReg).getReg(0);
lib/Target/AArch64/AArch64ISelLowering.cpp
 9085     return LLT::scalar(128);
 9087     return LLT::scalar(64);
 9089     return LLT::scalar(32);
lib/Target/AArch64/AArch64InstructionSelector.cpp
  837   if (Ty == LLT::scalar(32))
  839   else if (Ty == LLT::scalar(64) || Ty == LLT::pointer(0, 64))
 1298     if (Ty != LLT::scalar(64) && Ty != LLT::scalar(32))
 1298     if (Ty != LLT::scalar(64) && Ty != LLT::scalar(32))
 1301     if (Ty == LLT::scalar(64)) {
 1488     const LLT s8 = LLT::scalar(8);
 1489     const LLT s16 = LLT::scalar(16);
 1490     const LLT s32 = LLT::scalar(32);
 1491     const LLT s64 = LLT::scalar(64);
 1611           DstReg, DstRB, LLT::scalar(64), SrcReg, LaneIdx, MIB);
 1628     DstReg = MRI.createGenericVirtualRegister(LLT::scalar(64));
 1660     Register SrcReg = MRI.createGenericVirtualRegister(LLT::scalar(64));
 1835     if (Ty != LLT::scalar(64)) {
 1837                         << ", expected: " << LLT::scalar(64) << '\n');
 1977       } else if (Opcode == TargetOpcode::G_TRUNC && DstTy == LLT::scalar(32) &&
 1978                  SrcTy == LLT::scalar(64)) {
 2002             DstReg, DstRB, LLT::scalar(DstTy.getSizeInBits()), SrcReg, 0, MIB);
 2158     if (MRI.getType(I.getOperand(1).getReg()) != LLT::scalar(1)) {
 2160                         << ", expected: " << LLT::scalar(1) << '\n');
 2194     if (Ty != LLT::scalar(32)) {
 2196                         << ", expected: " << LLT::scalar(32) << '\n');
 2211     if (Ty != LLT::scalar(32)) {
 2213                         << ", expected: " << LLT::scalar(32) << '\n');
 2721   if (DstTy == LLT::scalar(128)) {
 3242   if (CmpTy == LLT::scalar(32)) {
 3245   } else if (CmpTy == LLT::scalar(64) || CmpTy.isPointer()) {
 3300   const LLT ScalarTy = LLT::scalar(Op1Ty.getSizeInBits());
lib/Target/AArch64/AArch64LegalizerInfo.cpp
   36   const LLT s1 = LLT::scalar(1);
   37   const LLT s8 = LLT::scalar(8);
   38   const LLT s16 = LLT::scalar(16);
   39   const LLT s32 = LLT::scalar(32);
   40   const LLT s64 = LLT::scalar(64);
   41   const LLT s128 = LLT::scalar(128);
   42   const LLT s256 = LLT::scalar(256);
   43   const LLT s512 = LLT::scalar(512);
  517               return std::make_pair(BigTyIdx, LLT::scalar(NewSizeInBits));
  678   auto ExtCst = MIRBuilder.buildZExt(LLT::scalar(64), AmtReg);
  732   LLT IntPtrTy = LLT::scalar(PtrTy.getSizeInBits());
lib/Target/AArch64/AArch64RegisterBankInfo.cpp
  771     if (SrcTy.isVector() || SrcTy == LLT::scalar(128) ||
lib/Target/AMDGPU/AMDGPUCallLowering.cpp
   58       ExtReg = MIRBuilder.buildAnyExt(LLT::scalar(32), ValVReg).getReg(0);
  101       auto Copy = MIRBuilder.buildCopy(LLT::scalar(32), PhysReg);
  214   return LLT::scalar(OrigTy.getSizeInBits() * Factor);
  356   Register OffsetReg = MRI.createGenericVirtualRegister(LLT::scalar(64));
lib/Target/AMDGPU/AMDGPUInstructionSelector.cpp
 1226   const LLT S1 = LLT::scalar(1);
lib/Target/AMDGPU/AMDGPULegalizerInfo.cpp
  172   const LLT S1 = LLT::scalar(1);
  173   const LLT S8 = LLT::scalar(8);
  174   const LLT S16 = LLT::scalar(16);
  175   const LLT S32 = LLT::scalar(32);
  176   const LLT S64 = LLT::scalar(64);
  177   const LLT S96 = LLT::scalar(96);
  178   const LLT S128 = LLT::scalar(128);
  179   const LLT S256 = LLT::scalar(256);
  180   const LLT S1024 = LLT::scalar(1024);
  440                {S64, LLT::scalar(33)},
  441                {S32, S8}, {S128, S32}, {S128, S64}, {S32, LLT::scalar(24)}})
  583         return std::make_pair(1, LLT::scalar(Query.Types[0].getSizeInBits()));
  587         return std::make_pair(1, LLT::scalar(Query.Types[0].getSizeInBits()));
  599         return std::make_pair(0, LLT::scalar(Query.Types[1].getSizeInBits()));
  604         return std::make_pair(0, LLT::scalar(Query.Types[1].getSizeInBits()));
  733                 return std::make_pair(0, LLT::scalar(MemSize));
  738                 return std::make_pair(0, LLT::scalar(32 * (DstSize / 32)));
  743                 return std::make_pair(0, LLT::scalar(MaxSize));
  746               return std::make_pair(0, LLT::scalar(Align));
 1064         return std::make_pair(BigTyIdx, LLT::scalar(NewSizeInBits));
 1142   const LLT S32 = LLT::scalar(32);
 1205   B.materializeGEP(LoadAddr, QueuePtr, LLT::scalar(64), StructOffset);
 1217   const LLT S32 = LLT::scalar(32);
 1273     Register CmpRes = MRI.createGenericVirtualRegister(LLT::scalar(1));
 1296   Register CmpRes = MRI.createGenericVirtualRegister(LLT::scalar(1));
 1338   auto Cond = B.buildFCmp(CmpInst::FCMP_OGT, LLT::scalar(1), Fabs, C2);
 1348   const LLT S1 = LLT::scalar(1);
 1349   const LLT S64 = LLT::scalar(64);
 1376   LLT S32 = LLT::scalar(32);
 1393   const LLT S1 = LLT::scalar(1);
 1394   const LLT S32 = LLT::scalar(32);
 1395   const LLT S64 = LLT::scalar(64);
 1442   const LLT S64 = LLT::scalar(64);
 1443   const LLT S32 = LLT::scalar(32);
 1723   if (Ty == LLT::scalar(32) && !ST.hasFP32Denormals())
 1725   if (Ty == LLT::scalar(16) && !ST.hasFP16Denormals())
 1801     const LLT S32 = LLT::scalar(32);
 1865   LLT S16 = LLT::scalar(16);
 1886   LLT S32 = LLT::scalar(32);
 1887   LLT S64 = LLT::scalar(64);
 1946   LLT S16 = LLT::scalar(16);
 1947   LLT S32 = LLT::scalar(32);
 1978   LLT S32 = LLT::scalar(32);
 1979   LLT S1 = LLT::scalar(1);
 2021   LLT IdxTy = LLT::scalar(DstTy.getSizeInBits());
 2045   auto Hi32 = B.buildExtract(LLT::scalar(32), MI.getOperand(2).getReg(), 32);
 2058   const LLT S16 = LLT::scalar(16);
 2059   const LLT S32 = LLT::scalar(32);
 2084   const LLT S32 = LLT::scalar(32);
 2085   const LLT S16 = LLT::scalar(16);
 2088   if (Ty == LLT::scalar(8) || Ty == S16) {
 2089     Register AnyExt = B.buildAnyExt(LLT::scalar(32), VData).getReg(0);
lib/Target/AMDGPU/AMDGPURegisterBankInfo.cpp
   68       if (MRI.getType(Reg) == LLT::scalar(1))
  640   return LLT::scalar(Ty.getSizeInBits() / 2);
  809           LLT S32 = LLT::scalar(32);
  817           LLT UnmergeTy = OpSize % 64 == 0 ? LLT::scalar(64) : LLT::scalar(32);
  817           LLT UnmergeTy = OpSize % 64 == 0 ? LLT::scalar(64) : LLT::scalar(32);
  854                 B.buildMerge(LLT::scalar(64),
 1100     Register IdxReg = MRI.createGenericVirtualRegister(LLT::scalar(32));
 1155   const LLT S16 = LLT::scalar(16);
 1167   const LLT S32 = LLT::scalar(32);
 1193   const LLT S32 = LLT::scalar(32);
 1439     if (DstTy != LLT::scalar(16))
 1453     if (Helper.widenScalar(MI, 0, LLT::scalar(32)) !=
 1475     LLT S32 = LLT::scalar(32);
 1476     LLT S16 = LLT::scalar(16);
 1512       const LLT S32 = LLT::scalar(32);
 1534     if (SrcTy != LLT::scalar(1))
 1549       LLT SelType = UseSel64 ? LLT::scalar(64) : LLT::scalar(32);
 1549       LLT SelType = UseSel64 ? LLT::scalar(64) : LLT::scalar(32);
 1576     auto ShiftAmt = B.buildConstant(LLT::scalar(32), DstTy.getSizeInBits() - 1);
 1610     const LLT S32 = LLT::scalar(32);
 1671     const LLT S32 = LLT::scalar(32);
 1738     const LLT S32 = LLT::scalar(32);
lib/Target/AMDGPU/SIISelLowering.cpp
 1617   const LLT S32 = LLT::scalar(32);
 1670   MF.getRegInfo().setType(LiveInVReg, LLT::scalar(32));
lib/Target/ARM/ARMCallLowering.cpp
  101     LLT s32 = LLT::scalar(32);
  158     Register NewRegs[] = {MRI.createGenericVirtualRegister(LLT::scalar(32)),
  159                           MRI.createGenericVirtualRegister(LLT::scalar(32))};
  321       auto LoadVReg = MRI.createGenericVirtualRegister(LLT::scalar(32));
  358           MRI.createGenericVirtualRegister(LLT::scalar(LocSize));
  382     Register NewRegs[] = {MRI.createGenericVirtualRegister(LLT::scalar(32)),
  383                           MRI.createGenericVirtualRegister(LLT::scalar(32))};
lib/Target/ARM/ARMLegalizerInfo.cpp
   71   const LLT s1 = LLT::scalar(1);
   72   const LLT s8 = LLT::scalar(8);
   73   const LLT s16 = LLT::scalar(16);
   74   const LLT s32 = LLT::scalar(32);
   75   const LLT s64 = LLT::scalar(64);
  387     Register RetRegs[] = {MRI.createGenericVirtualRegister(LLT::scalar(32)),
  423       auto LibcallResult = MRI.createGenericVirtualRegister(LLT::scalar(32));
  448         auto Zero = MRI.createGenericVirtualRegister(LLT::scalar(32));
lib/Target/Mips/MipsCallLowering.cpp
  206     Register LoadReg = MRI.createGenericVirtualRegister(LLT::scalar(32));
  293   LLT s32 = LLT::scalar(32);
  522           MIRBuilder.buildCopy(LLT::scalar(RegSize * 8), Register(ArgRegs[I]));
lib/Target/Mips/MipsLegalizerInfo.cpp
   55   const LLT s1 = LLT::scalar(1);
   56   const LLT s32 = LLT::scalar(32);
   57   const LLT s64 = LLT::scalar(64);
  251   const LLT s32 = LLT::scalar(32);
  252   const LLT s64 = LLT::scalar(64);
lib/Target/Mips/MipsRegisterBankInfo.cpp
  637     assert(MRI.getType(Dest) == LLT::scalar(32) && "Unexpected operand type.");
  680     Helper.narrowScalar(MI, 0, LLT::scalar(32));
lib/Target/X86/X86CallLowering.cpp
  110     LLT SType = LLT::scalar(DL.getPointerSizeInBits(0));
  141       auto MIB = MIRBuilder.buildAnyExt(LLT::scalar(PhysRegSize), ValVReg);
  274         auto Copy = MIRBuilder.buildCopy(LLT::scalar(PhysRegSize), PhysReg);
lib/Target/X86/X86InstructionSelector.cpp
  402   if (Ty == LLT::scalar(8)) {
  405   } else if (Ty == LLT::scalar(16)) {
  408   } else if (Ty == LLT::scalar(32) || Ty == LLT::pointer(0, 32)) {
  418   } else if (Ty == LLT::scalar(64) || Ty == LLT::pointer(0, 64)) {
  781   assert(!(SrcTy == LLT::scalar(8) && DstTy == LLT::scalar(32)) &&
  781   assert(!(SrcTy == LLT::scalar(8) && DstTy == LLT::scalar(32)) &&
  783   assert(!(SrcTy == LLT::scalar(16) && DstTy == LLT::scalar(32)) &&
  783   assert(!(SrcTy == LLT::scalar(16) && DstTy == LLT::scalar(32)) &&
  792       {LLT::scalar(8), LLT::scalar(16), X86::MOVZX16rr8, false},  // i8  => i16
  792       {LLT::scalar(8), LLT::scalar(16), X86::MOVZX16rr8, false},  // i8  => i16
  793       {LLT::scalar(8), LLT::scalar(64), X86::MOVZX32rr8, true},   // i8  => i64
  793       {LLT::scalar(8), LLT::scalar(64), X86::MOVZX32rr8, true},   // i8  => i64
  794       {LLT::scalar(16), LLT::scalar(64), X86::MOVZX32rr16, true}, // i16 => i64
  794       {LLT::scalar(16), LLT::scalar(64), X86::MOVZX32rr16, true}, // i16 => i64
  795       {LLT::scalar(32), LLT::scalar(64), 0, true}                 // i32 => i64
  795       {LLT::scalar(32), LLT::scalar(64), 0, true}                 // i32 => i64
  825             getRegClass(LLT::scalar(32), DstReg, MRI));
  845   if (SrcTy != LLT::scalar(1))
  849   if (DstTy == LLT::scalar(8))
  851   else if (DstTy == LLT::scalar(16))
  853   else if (DstTy == LLT::scalar(32))
  855   else if (DstTy == LLT::scalar(64))
  861   if (DstTy != LLT::scalar(8)) {
 1030       *getRegClass(LLT::scalar(8), *RBI.getRegBank(ResultReg, MRI, TRI)), MRI);
 1091   if (DstTy != LLT::scalar(32))
lib/Target/X86/X86LegalizerInfo.cpp
  109   const LLT s1 = LLT::scalar(1);
  110   const LLT s8 = LLT::scalar(8);
  111   const LLT s16 = LLT::scalar(16);
  112   const LLT s32 = LLT::scalar(32);
  113   const LLT s64 = LLT::scalar(64);
  114   const LLT s128 = LLT::scalar(128);
  205   const LLT s1 = LLT::scalar(1);
  206   const LLT s8 = LLT::scalar(8);
  207   const LLT s16 = LLT::scalar(16);
  208   const LLT s32 = LLT::scalar(32);
  209   const LLT s64 = LLT::scalar(64);
  210   const LLT s128 = LLT::scalar(128);
  288   const LLT s32 = LLT::scalar(32);
  289   const LLT s64 = LLT::scalar(64);
  317   const LLT s32 = LLT::scalar(32);
  318   const LLT s64 = LLT::scalar(64);
unittests/CodeGen/GlobalISel/CSETest.cpp
   19   LLT s16{LLT::scalar(16)};
   20   LLT s32{LLT::scalar(32)};
   82   LLT s16{LLT::scalar(16)};
unittests/CodeGen/GlobalISel/ConstantFoldingTest.cpp
   26   LLT s32 = LLT::scalar(32);
   76   LLT s32{LLT::scalar(32)};
unittests/CodeGen/GlobalISel/KnownBitsTest.cpp
  127   const LLT S32 = LLT::scalar(32);
unittests/CodeGen/GlobalISel/LegalizerHelperTest.cpp
   39       B.buildInstr(TargetOpcode::G_CTTZ, {LLT::scalar(64)}, {Copies[0]});
   44   EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
   71       B.buildInstr(TargetOpcode::G_CTTZ, {LLT::scalar(64)}, {Copies[0]});
   76   EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
  105       B.buildInstr(TargetOpcode::G_CTTZ, {LLT::scalar(64)}, {Copies[0]});
  109   EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
  136   LLT s8{LLT::scalar(8)};
  137   LLT s16{LLT::scalar(16)};
  168   LLT s8{LLT::scalar(8)};
  169   LLT s16{LLT::scalar(16)};
  170   LLT s32{LLT::scalar(32)};
  201                               {LLT::scalar(64)}, {Copies[0]});
  205   EXPECT_TRUE(Helper.lower(*MIBCTTZ, 0, LLT::scalar(64)) ==
  228       B.buildInstr(TargetOpcode::G_CTLZ, {LLT::scalar(64)}, {Copies[0]});
  232   EXPECT_TRUE(Helper.lower(*MIBCTLZ, 0, LLT::scalar(64)) ==
  259       B.buildInstr(TargetOpcode::G_CTLZ, {LLT::scalar(64)}, {Copies[0]});
  263   EXPECT_TRUE(Helper.lower(*MIBCTLZ, 0, LLT::scalar(64)) ==
  290   LLT s8{LLT::scalar(8)};
  331   LLT s8{LLT::scalar(8)};
  332   LLT s16{LLT::scalar(16)};
  366   LLT s8{LLT::scalar(8)};
  367   LLT s16{LLT::scalar(16)};
  402   LLT s8{LLT::scalar(8)};
  403   LLT s16{LLT::scalar(16)};
  435   LLT s8{LLT::scalar(8)};
  436   LLT s16{LLT::scalar(16)};
  469   LLT s8{LLT::scalar(8)};
  470   LLT s16{LLT::scalar(16)};
  503   LLT s8{LLT::scalar(8)};
  504   LLT s16{LLT::scalar(16)};
  506   unsigned CarryReg = MRI->createGenericVirtualRegister(LLT::scalar(1));
  542   LLT s8{LLT::scalar(8)};
  543   LLT s16{LLT::scalar(16)};
  545   unsigned CarryReg = MRI->createGenericVirtualRegister(LLT::scalar(1));
  620   LLT s32 = LLT::scalar(32);
  661   LLT s1 = LLT::scalar(1);
  662   LLT s32 = LLT::scalar(32);
  663   LLT s64 = LLT::scalar(64);
  763     B.buildInstr(TargetOpcode::G_FADD, {LLT::scalar(64)}, {Copies[0], Copies[1]},
  768     B.buildInstr(TargetOpcode::G_FNEG, {LLT::scalar(64)}, {FAdd.getReg(0)},
  773     B.buildInstr(TargetOpcode::G_FNEG, {LLT::scalar(64)}, {Copies[0]},
  781             Helper.lower(*FNeg0, 0, LLT::scalar(64)));
  783             Helper.lower(*FNeg1, 0, LLT::scalar(64)));
  801   LLT s64 = LLT::scalar(64);
  879   LLT S32 = LLT::scalar(32);
  880   LLT S16 = LLT::scalar(16);
  925   const LLT S32 = LLT::scalar(32);
  926   const LLT S24 = LLT::scalar(24);
  927   const LLT S21 = LLT::scalar(21);
  928   const LLT S16 = LLT::scalar(16);
  929   const LLT S9 = LLT::scalar(9);
  930   const LLT S8 = LLT::scalar(8);
  931   const LLT S3 = LLT::scalar(3);
  935       .widenScalarIf(typeIs(1, LLT::scalar(3)), changeTo(1, LLT::scalar(9)));
  935       .widenScalarIf(typeIs(1, LLT::scalar(3)), changeTo(1, LLT::scalar(9)));
 1033   const LLT S32 = LLT::scalar(32);
 1034   const LLT S64 = LLT::scalar(64);
 1069       TargetOpcode::G_SEXT_INREG, {LLT::scalar(32)},
 1070       {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(32)}, {Copies[0]}),
 1076   ASSERT_TRUE(Helper.widenScalar(*MIB, 0, LLT::scalar(64)) ==
 1100       TargetOpcode::G_SEXT_INREG, {LLT::scalar(16)},
 1101       {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(16)}, {Copies[0]}),
 1107   ASSERT_TRUE(Helper.narrowScalar(*MIB, 0, LLT::scalar(10)) ==
 1130       TargetOpcode::G_SEXT_INREG, {LLT::scalar(32)},
 1131       {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(32)}, {Copies[0]}),
 1137   ASSERT_TRUE(Helper.narrowScalar(*MIB, 0, LLT::scalar(8)) ==
 1162       TargetOpcode::G_SEXT_INREG, {LLT::scalar(32)},
 1163       {B.buildInstr(TargetOpcode::G_TRUNC, {LLT::scalar(32)}, {Copies[0]}),
unittests/CodeGen/GlobalISel/LegalizerInfoTest.cpp
   53       L.setAction({Op, 0, LLT::scalar(Size)}, Legal);
   62     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(8)}}),
   63               LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
   64     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(16)}}),
   65               LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
   66     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(32)}}),
   68     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(64)}}),
   72     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(128)}}),
   73               LegalizeActionStep(NarrowScalar, 0, LLT::scalar(64)));
   75     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(1)}}),
   76               LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
   77     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(31)}}),
   78               LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
   79     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(33)}}),
   80               LegalizeActionStep(WidenScalar, 0, LLT::scalar(64)));
   81     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(63)}}),
   82               LegalizeActionStep(WidenScalar, 0, LLT::scalar(64)));
   83     EXPECT_EQ(L.getAction({opcode, {LLT::scalar(65)}}),
   84               LegalizeActionStep(NarrowScalar, 0, LLT::scalar(64)));
  102   L.setAction({G_ADD, 0, LLT::scalar(32)}, Legal);
  127   LLT s64 = LLT::scalar(64);
  144       L.getAction({G_PTRTOINT, {LLT::scalar(65), s64}}),
  154   LLT s32 = LLT::scalar(32);
  155   LLT s64 = LLT::scalar(64);
  164   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(16)}}),
  165             LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
  166   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(32)}}),
  167             LegalizeActionStep(Lower, 0, LLT::scalar(32)));
  174     L.setAction({G_UREM, 0, LLT::scalar(Size)}, Legal);
  182     EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(Size)}}),
  185   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(2)}}),
  186             LegalizeActionStep(WidenScalar, 0, LLT::scalar(8)));
  187   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(7)}}),
  188             LegalizeActionStep(WidenScalar, 0, LLT::scalar(8)));
  189   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(9)}}),
  190             LegalizeActionStep(WidenScalar, 0, LLT::scalar(16)));
  191   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(17)}}),
  192             LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
  193   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(31)}}),
  194             LegalizeActionStep(WidenScalar, 0, LLT::scalar(32)));
  195   EXPECT_EQ(L.getAction({G_UREM, {LLT::scalar(33)}}),
  196             LegalizeActionStep(Unsupported, 0, LLT::scalar(33)));
  209   const LLT s5 = LLT::scalar(5);
  210   const LLT s8 = LLT::scalar(8);
  211   const LLT s16 = LLT::scalar(16);
  212   const LLT s32 = LLT::scalar(32);
  213   const LLT s33 = LLT::scalar(33);
  214   const LLT s64 = LLT::scalar(64);
  363   const LLT s32 = LLT::scalar(32);
unittests/CodeGen/GlobalISel/MachineIRBuilderTest.cpp
   17   B.buildConstant(LLT::scalar(32), 42);
   18   B.buildFConstant(LLT::scalar(32), 1.0);
   25   B.buildFConstant(LLT::scalar(64), KVal);
   53   EXPECT_DEATH(B.buildConstant(LLT::scalar(16), APV32),
   60   EXPECT_DEATH(B.buildConstant(LLT::scalar(16), *CI),
   67   EXPECT_DEATH(B.buildFConstant(LLT::scalar(16), *CF),
   84   LLT s64 = LLT::scalar(64);
  109   B.buildUnmerge(LLT::scalar(32), Copies[0]);
  110   B.buildUnmerge(LLT::scalar(16), Copies[1]);
  131   LLT S64 = LLT::scalar(64);
  164   LLT S64 = LLT::scalar(64);
  193   LLT S64 = LLT::scalar(64);
  194   LLT S128 = LLT::scalar(128);
  222   LLT S32 = LLT::scalar(32);
  250   LLT S32 = LLT::scalar(32);
  275   LLT S64 = LLT::scalar(64);
  301   LLT S64 = LLT::scalar(64);
  332   LLT S32 = LLT::scalar(32);
  340   B.buildMerge(LLT::scalar(128), {RegC0, RegC1, RegC2, RegC3});
unittests/CodeGen/GlobalISel/PatternMatchTest.cpp
   37   auto MIBCst = B.buildConstant(LLT::scalar(64), 42);
   48   LLT s64 = LLT::scalar(64);
  138   LLT s32 = LLT::scalar(32);
  168   LLT s64 = LLT::scalar(64);
  180   LLT s16 = LLT::scalar(16);
  199   LLT s64 = LLT::scalar(64);
  200   LLT s32 = LLT::scalar(32);
  247   LLT s64 = LLT::scalar(64);
  248   LLT s32 = LLT::scalar(32);
  283   LLT s64 = LLT::scalar(64);
  284   LLT s32 = LLT::scalar(32);
  308       m_any_of(m_SpecificType(LLT::scalar(16)), m_GSub(m_Reg(), m_Reg())));
  317   LLT s64 = LLT::scalar(64);
unittests/CodeGen/LowLevelTypeTest.cpp
   25     const LLT Ty = LLT::scalar(S);
   54       const LLT STy = LLT::scalar(S);
   96   EXPECT_EQ(LLT::scalar(32), LLT::scalarOrVector(1, 32));
  100   EXPECT_EQ(LLT::scalar(32), LLT::scalarOrVector(1, LLT::scalar(32)));
  100   EXPECT_EQ(LLT::scalar(32), LLT::scalarOrVector(1, LLT::scalar(32)));
  101   EXPECT_EQ(LLT::vector(2, 32), LLT::scalarOrVector(2, LLT::scalar(32)));
  113   const LLT S32 = LLT::scalar(32);
  114   const LLT S64 = LLT::scalar(64);
utils/TableGen/GlobalISelEmitter.cpp
  195     return LLTCodeGen(LLT::scalar(VT.getSizeInBits()));