|
reference, declaration → definition
definition → references, declarations, derived classes, virtual overrides
reference to multiple definitions → definitions
unreferenced
|
References
gen/lib/Target/AArch64/AArch64GenInstrInfo.inc18018 AArch64_AM::getArithShiftValue(MI.getOperand(3).getImm()) == 0
18021 AArch64_AM::getArithExtendType(MI.getOperand(3).getImm()) == AArch64_AM::UXTW
18022 || AArch64_AM::getArithExtendType(MI.getOperand(3).getImm()) == AArch64_AM::UXTX
18025 AArch64_AM::getArithShiftValue(MI.getOperand(3).getImm()) == 1
18026 || AArch64_AM::getArithShiftValue(MI.getOperand(3).getImm()) == 2
18027 || AArch64_AM::getArithShiftValue(MI.getOperand(3).getImm()) == 3
18040 AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 0
18042 AArch64_AM::getShiftType(MI.getOperand(3).getImm()) == AArch64_AM::LSL
18044 AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 1
18045 || AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 2
18046 || AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 3
18110 AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 0
18112 AArch64_AM::getShiftType(MI.getOperand(3).getImm()) == AArch64_AM::LSL
18114 AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 1
18115 || AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 2
18116 || AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 3
18121 AArch64_AM::getShiftType(MI.getOperand(3).getImm()) == AArch64_AM::LSL
18122 && AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 8
18166 AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 0
18168 AArch64_AM::getShiftType(MI.getOperand(3).getImm()) == AArch64_AM::LSL
18170 AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 1
18171 || AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 2
18172 || AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 3
18271 AArch64_AM::getMemExtendType(MI.getOperand(3).getImm()) == AArch64_AM::SXTW
18272 || AArch64_AM::getMemExtendType(MI.getOperand(3).getImm()) == AArch64_AM::UXTW
18273 || AArch64_AM::getMemDoShift(MI.getOperand(3).getImm())
18293 && MI.getOperand(2).getImm() == 0
18304 && AArch64_AM::getShiftValue(MI.getOperand(3).getImm()) == 0
18317 return MI.getOperand(1).getImm() == 0;
18323 MI.getOperand(1).getImm() == 0
18324 && MI.getOperand(2).getImm() == 0
18341 && MI.getOperand(2).getImm() == 0
18362 return MI.getOperand(3).getImm() != 0;
18394 return MI.getOperand(3).getImm() != 0;
18447 AArch64_AM::getMemExtendType(MI.getOperand(3).getImm()) != AArch64_AM::UXTX
18448 || AArch64_AM::getMemDoShift(MI.getOperand(3).getImm())
gen/lib/Target/AArch64/AArch64GenSubtargetInfo.inc20242 MI->getOperand(1).getImm() == 0)
gen/lib/Target/X86/X86GenInstrInfo.inc49357 && MI.getOperand(4).getImm() != 0
gen/lib/Target/X86/X86GenSubtargetInfo.inc22174 MI->getOperand(3).getImm() == X86::COND_A
22175 || MI->getOperand(3).getImm() == X86::COND_BE
22182 MI->getOperand(3).getImm() == X86::COND_A
22183 || MI->getOperand(3).getImm() == X86::COND_BE
22190 MI->getOperand(3).getImm() == X86::COND_A
22191 || MI->getOperand(3).getImm() == X86::COND_BE
22198 MI->getOperand(3).getImm() == X86::COND_A
22199 || MI->getOperand(3).getImm() == X86::COND_BE
22206 MI->getOperand(3).getImm() == X86::COND_A
22207 || MI->getOperand(3).getImm() == X86::COND_BE
22215 if (MI->getOperand(7).getImm() == X86::COND_BE)
22217 if (MI->getOperand(7).getImm() == X86::COND_A)
22219 if (MI->getOperand(7).getImm() == X86::COND_L)
22221 if (MI->getOperand(7).getImm() == X86::COND_GE)
22223 if (MI->getOperand(7).getImm() == X86::COND_LE)
22225 if (MI->getOperand(7).getImm() == X86::COND_G)
22231 MI->getOperand(7).getImm() == X86::COND_A
22232 || MI->getOperand(7).getImm() == X86::COND_BE
22239 MI->getOperand(7).getImm() == X86::COND_A
22240 || MI->getOperand(7).getImm() == X86::COND_BE
22247 MI->getOperand(7).getImm() == X86::COND_A
22248 || MI->getOperand(7).getImm() == X86::COND_BE
22255 MI->getOperand(7).getImm() == X86::COND_A
22256 || MI->getOperand(7).getImm() == X86::COND_BE
22263 MI->getOperand(7).getImm() == X86::COND_A
22264 || MI->getOperand(7).getImm() == X86::COND_BE
22273 MI->getOperand(1).getImm() == X86::COND_A
22274 || MI->getOperand(1).getImm() == X86::COND_BE
22281 MI->getOperand(1).getImm() == X86::COND_A
22282 || MI->getOperand(1).getImm() == X86::COND_BE
22289 MI->getOperand(1).getImm() == X86::COND_A
22290 || MI->getOperand(1).getImm() == X86::COND_BE
22297 MI->getOperand(1).getImm() == X86::COND_A
22298 || MI->getOperand(1).getImm() == X86::COND_BE
22305 MI->getOperand(1).getImm() == X86::COND_A
22306 || MI->getOperand(1).getImm() == X86::COND_BE
22314 if (MI->getOperand(5).getImm() == X86::COND_GE)
22316 if (MI->getOperand(5).getImm() == X86::COND_G)
22318 if (MI->getOperand(5).getImm() == X86::COND_LE)
22320 if (MI->getOperand(5).getImm() == X86::COND_L)
22326 MI->getOperand(5).getImm() == X86::COND_A
22327 || MI->getOperand(5).getImm() == X86::COND_BE
22334 MI->getOperand(5).getImm() == X86::COND_A
22335 || MI->getOperand(5).getImm() == X86::COND_BE
22342 MI->getOperand(5).getImm() == X86::COND_A
22343 || MI->getOperand(5).getImm() == X86::COND_BE
22350 MI->getOperand(5).getImm() == X86::COND_A
22351 || MI->getOperand(5).getImm() == X86::COND_BE
22358 MI->getOperand(5).getImm() == X86::COND_A
22359 || MI->getOperand(5).getImm() == X86::COND_BE
22434 MI->getOperand(2).getImm() == 0
22454 && MI->getOperand(3).getImm() == 136
22767 && MI->getOperand(2).getImm() != 1
22934 && MI->getOperand(3).getImm() == 136
include/llvm/CodeGen/GlobalISel/InstructionSelectorImpl.h 255 Value = State.MIs[InsnID]->getOperand(1).getImm();
include/llvm/CodeGen/GlobalISel/LegalizationArtifactCombiner.h 401 unsigned Offset = MI.getOperand(2).getImm();
include/llvm/CodeGen/MachineInstr.h 781 unsigned ExtraInfo = getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
858 unsigned ExtraInfo = getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
871 unsigned ExtraInfo = getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
include/llvm/CodeGen/MachineInstrBuilder.h 288 return addImm(Disp.getImm() + off);
include/llvm/CodeGen/StackMaps.h 47 uint64_t getID() const { return MI->getOperand(IDPos).getImm(); }
51 return MI->getOperand(NBytesPos).getImm();
101 uint64_t getID() const { return getMetaOper(IDPos).getImm(); }
105 return getMetaOper(NBytesPos).getImm();
115 return getMetaOper(CCPos).getImm();
122 return MI->getOperand(getMetaIdx(NArgPos)).getImm();
173 return MI->getOperand(NCallArgsPos).getImm() + MetaEnd;
177 uint64_t getID() const { return MI->getOperand(IDPos).getImm(); }
181 return MI->getOperand(NBytesPos).getImm();
include/llvm/CodeGen/TargetInstrInfo.h 190 assert(I.getOperand(0).getImm() >= 0);
191 return I.getOperand(0).getImm();
199 assert(I.getOperand(1).getImm() >= 0 &&
201 return getFrameSize(I) + I.getOperand(1).getImm();
lib/CodeGen/AsmPrinter/AsmPrinter.cpp 841 int64_t Offset = MemLoc ? MI->getOperand(1).getImm() : 0;
874 OS << MI->getOperand(0).getImm();
976 int FrameOffset = MI.getOperand(1).getImm();
lib/CodeGen/AsmPrinter/AsmPrinterInlineAsm.cpp 250 unsigned OpFlags = MI->getOperand(OpNo).getImm();
261 unsigned OpFlags = MI->getOperand(OpNo).getImm();
414 unsigned OpFlags = MI->getOperand(OpNo).getImm();
425 unsigned OpFlags = MI->getOperand(OpNo).getImm();
531 unsigned Flags = MO.getImm();
632 O << MO.getImm();
643 O << -MO.getImm();
648 O << ((32 - MO.getImm()) & 31);
lib/CodeGen/AsmPrinter/DwarfDebug.cpp 240 assert((!Op1.isImm() || (Op1.getImm() == 0)) && "unexpected offset");
245 return DbgValueLoc(Expr, MI->getOperand(0).getImm());
649 int64_t Val = ParamValue->first.getImm();
lib/CodeGen/AsmPrinter/DwarfUnit.cpp 546 addConstantValue(Die, isUnsignedDIType(DD, Ty), MO.getImm());
lib/CodeGen/BranchFolding.cpp 270 OperandHash = Op.getImm();
lib/CodeGen/DetectDeadLanes.cpp 169 DstSubIdx = MI.getOperand(3).getImm();
173 DstSubIdx = MI.getOperand(OpNum+1).getImm();
177 unsigned SubReg = MI.getOperand(2).getImm();
242 unsigned SubIdx = MI.getOperand(OpNum + 1).getImm();
246 unsigned SubIdx = MI.getOperand(3).getImm();
266 unsigned SubIdx = MI.getOperand(2).getImm();
316 unsigned SubIdx = MI.getOperand(OpNum + 1).getImm();
322 unsigned SubIdx = MI.getOperand(3).getImm();
334 unsigned SubIdx = MI.getOperand(2).getImm();
lib/CodeGen/ExpandPostRAPseudos.cpp 85 unsigned SubIdx = MI->getOperand(3).getImm();
lib/CodeGen/GlobalISel/CSEInfo.cpp 350 ID.AddInteger(MO.getImm());
lib/CodeGen/GlobalISel/LegalizerHelper.cpp 437 Info.IsTailCall = MI.getOperand(MI.getNumOperands() - 1).getImm() == 1 &&
992 int64_t SizeInBits = MI.getOperand(2).getImm();
1323 unsigned Offset = MI.getOperand(2).getImm();
2261 int64_t SizeInBits = MI.getOperand(2).getImm();
3467 uint64_t OpStart = MI.getOperand(2).getImm();
3534 uint64_t OpStart = MI.getOperand(3).getImm();
4165 unsigned Align = MI.getOperand(2).getImm();
4200 unsigned Offset = MI.getOperand(2).getImm();
4233 uint64_t Offset = MI.getOperand(3).getImm();
lib/CodeGen/GlobalISel/Utils.cpp 236 APInt Val = CstVal.isImm() ? APInt(BitWidth, CstVal.getImm())
lib/CodeGen/ImplicitNullChecks.cpp 477 if (!(MBP.LHS.isReg() && MBP.RHS.isImm() && MBP.RHS.getImm() == 0 &&
lib/CodeGen/LiveDebugValues.cpp 234 Loc.Immediate = MI.getOperand(0).getImm();
lib/CodeGen/MIRPrinter.cpp 827 MachineOperand::printSubRegIdx(OS, Op.getImm(), TRI);
lib/CodeGen/MachineFrameInfo.cpp 206 unsigned ExtraInfo = MI.getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
lib/CodeGen/MachineInstr.cpp 770 unsigned ExtraInfo = getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
779 unsigned ExtraInfo = getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
800 NumOps = 1 + InlineAsm::getNumOperandRegisters(FlagMO.getImm());
855 unsigned Flag = getOperand(FlagIdx).getImm();
1108 NumOps = 1 + InlineAsm::getNumOperandRegisters(FlagMO.getImm());
1113 if (!InlineAsm::isUseOperandTiedToDef(FlagMO.getImm(), TiedGroup))
1372 unsigned ExtraInfo = getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
1569 unsigned ExtraInfo = getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
1620 unsigned Flag = MO.getImm();
1679 MachineOperand::printSubRegIdx(OS, MO.getImm(), TRI);
2079 assert(MI.getOperand(1).getImm() == 0 && "DBG_VALUE with nonzero offset");
lib/CodeGen/MachineOperand.cpp 284 return getImm() == Other.getImm();
284 return getImm() == Other.getImm();
349 return hash_combine(MO.getType(), MO.getTargetFlags(), MO.getImm());
806 OS << getImm();
lib/CodeGen/MachinePipeliner.cpp 2130 int64_t LoadOffset = MI->getOperand(OffsetPosLd).getImm();
2131 int64_t StoreOffset = PrevDef->getOperand(OffsetPos1).getImm();
2174 MI->getOperand(OffsetPos).getImm() + RegAndOffset.second * OffsetDiff;
2781 MI->getOperand(OffsetPos).getImm() - It->second.second;
lib/CodeGen/MachineSink.cpp 755 return MBP.LHS.isReg() && MBP.RHS.isImm() && MBP.RHS.getImm() == 0 &&
lib/CodeGen/MachineVerifier.cpp 864 if (!isUInt<6>(MI->getOperand(1).getImm()))
876 NumOps = 1 + InlineAsm::getNumOperandRegisters(MO.getImm());
1297 if (DstSize + OffsetOp.getImm() > SrcSize)
1320 if (SrcSize + OffsetOp.getImm() > DstSize)
1397 int64_t Imm = MI->getOperand(2).getImm();
1578 MI->getOperand(Offset).getImm() != StackMaps::ConstantOp ||
lib/CodeGen/ModuloSchedule.cpp 1008 int64_t NewOffset = OldMI->getOperand(OffsetPos).getImm();
lib/CodeGen/PeepholeOptimizer.cpp 937 (unsigned)CopyLike.getOperand(3).getImm());
980 CopyLike.getOperand(2).getImm());
1058 Dst.SubReg = CopyLike.getOperand(CurrentSrcIdx + 1).getImm();
2013 if (DefSubReg != Def->getOperand(3).getImm())
2021 Def->getOperand(3).getImm());
lib/CodeGen/PrologEpilogInserter.cpp 324 unsigned ExtraInfo = I->getOperand(InlineAsm::MIOp_ExtraInfo).getImm();
1257 Offset.setImm(Offset.getImm() + refOffset + SPAdj);
lib/CodeGen/RegisterCoalescer.cpp 373 MI->getOperand(3).getImm());
lib/CodeGen/SelectionDAG/SelectionDAGISel.cpp 600 assert(MI->getOperand(1).getImm() == 0 &&
lib/CodeGen/StackMaps.cpp 107 switch (MOI->getImm()) {
117 int64_t Imm = (++MOI)->getImm();
123 int64_t Size = (++MOI)->getImm();
126 int64_t Imm = (++MOI)->getImm();
134 int64_t Imm = MOI->getImm();
367 const int64_t ID = MI.getOperand(PatchPointOpers::IDPos).getImm();
lib/CodeGen/TargetInstrInfo.cpp 338 MO.setImm(Pred[j].getImm());
1188 (unsigned)MOSubIdx.getImm()));
1214 InputReg.SubIdx = (unsigned)MOSubIdx.getImm();
1242 InsertedReg.SubIdx = (unsigned)MOSubIdx.getImm();
lib/CodeGen/TwoAddressInstructionPass.cpp 1765 unsigned SubIdx = mi->getOperand(3).getImm();
1819 unsigned SubIdx = MI.getOperand(i+1).getImm();
lib/Target/AArch64/AArch64AdvSIMDScalarPass.cpp 137 if (MI->getOpcode() == AArch64::UMOVvi64 && MI->getOperand(2).getImm() == 0) {
lib/Target/AArch64/AArch64AsmPrinter.cpp 243 uint32_t AccessInfo = MI.getOperand(1).getImm();
512 O << MO.getImm();
580 if (MO.isImm() && MO.getImm() == 0) {
827 int64_t CallTarget = Opers.getCallTarget().getImm();
957 MI->getOperand(1).getImm() == 0) {
961 TmpInst.addOperand(MCOperand::createImm(MI->getOperand(1).getImm()));
1121 TS->EmitARM64WinCFIAllocStack(MI->getOperand(0).getImm());
1125 TS->EmitARM64WinCFISaveFPLR(MI->getOperand(0).getImm());
1129 assert(MI->getOperand(0).getImm() < 0 &&
1131 TS->EmitARM64WinCFISaveFPLRX(-MI->getOperand(0).getImm());
1135 TS->EmitARM64WinCFISaveReg(MI->getOperand(0).getImm(),
1136 MI->getOperand(1).getImm());
1140 assert(MI->getOperand(1).getImm() < 0 &&
1142 TS->EmitARM64WinCFISaveRegX(MI->getOperand(0).getImm(),
1143 -MI->getOperand(1).getImm());
1147 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1147 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1149 TS->EmitARM64WinCFISaveRegP(MI->getOperand(0).getImm(),
1150 MI->getOperand(2).getImm());
1154 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1154 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1156 assert(MI->getOperand(2).getImm() < 0 &&
1158 TS->EmitARM64WinCFISaveRegPX(MI->getOperand(0).getImm(),
1159 -MI->getOperand(2).getImm());
1163 TS->EmitARM64WinCFISaveFReg(MI->getOperand(0).getImm(),
1164 MI->getOperand(1).getImm());
1168 assert(MI->getOperand(1).getImm() < 0 &&
1170 TS->EmitARM64WinCFISaveFRegX(MI->getOperand(0).getImm(),
1171 -MI->getOperand(1).getImm());
1175 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1175 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1177 TS->EmitARM64WinCFISaveFRegP(MI->getOperand(0).getImm(),
1178 MI->getOperand(2).getImm());
1182 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1182 assert((MI->getOperand(1).getImm() - MI->getOperand(0).getImm() == 1) &&
1184 assert(MI->getOperand(2).getImm() < 0 &&
1186 TS->EmitARM64WinCFISaveFRegPX(MI->getOperand(0).getImm(),
1187 -MI->getOperand(2).getImm());
1195 TS->EmitARM64WinCFIAddFP(MI->getOperand(0).getImm());
lib/Target/AArch64/AArch64CondBrTuning.cpp 192 MI.getOperand(1).getImm() != 31)
252 MI.getOperand(1).getImm() != 63)
lib/Target/AArch64/AArch64ConditionOptimizer.cpp 173 unsigned ShiftAmt = AArch64_AM::getShiftValue(I->getOperand(3).getImm());
177 } else if (I->getOperand(2).getImm() << ShiftAmt >= 0xfff) {
255 const int OldImm = (int)CmpMI->getOperand(2).getImm();
306 if (Cond[0].getImm() != -1) {
308 CC = (AArch64CC::CondCode)(int)Cond[0].getImm();
385 const int HeadImm = (int)HeadCmpMI->getOperand(2).getImm();
386 const int TrueImm = (int)TrueCmpMI->getOperand(2).getImm();
lib/Target/AArch64/AArch64ConditionalCompares.cpp 274 if (Cond[0].getImm() != -1) {
276 CC = (AArch64CC::CondCode)(int)Cond[0].getImm();
280 switch (Cond[1].getImm()) {
330 if (I->getOperand(3).getImm() || !isUInt<5>(I->getOperand(2).getImm())) {
330 if (I->getOperand(3).getImm() || !isUInt<5>(I->getOperand(2).getImm())) {
617 if (HeadCond[0].getImm() == -1) {
620 switch (HeadCond[1].getImm()) {
726 if (HeadCond[0].getImm() == -1) {
727 switch (HeadCond[1].getImm()) {
lib/Target/AArch64/AArch64ExpandPseudoInsts.cpp 113 uint64_t Imm = MI.getOperand(1).getImm();
lib/Target/AArch64/AArch64FalkorHWPFFix.cpp 671 Off = LI.OffsetOpnd->getImm() >> 2;
lib/Target/AArch64/AArch64FrameLowering.cpp 281 uint64_t CalleePopAmount = IsDestroy ? I->getOperand(1).getImm() : 0;
286 int64_t Amount = I->getOperand(0).getImm();
491 int Imm = MBBI->getOperand(ImmIdx).getImm();
619 ImmOpnd->setImm(ImmOpnd->getImm() + LocalStackSize);
702 assert(MBBI->getOperand(OpndIdx).getImm() == 0 &&
772 OffsetOpnd.setImm(OffsetOpnd.getImm() + LocalStackSize / Scale);
1364 ArgumentPopSize = StackAdjust.getImm();
1428 if (OffsetOp.getImm() == 0)
lib/Target/AArch64/AArch64ISelLowering.cpp 1345 unsigned CondCode = MI.getOperand(3).getImm();
lib/Target/AArch64/AArch64InstrInfo.cpp 119 NumBytes = MI.getOperand(1).getImm();
297 if (Cond[0].getImm() != -1) {
299 AArch64CC::CondCode CC = (AArch64CC::CondCode)(int)Cond[0].getImm();
303 switch (Cond[1].getImm()) {
374 if (Cond[0].getImm() != -1) {
376 BuildMI(&MBB, DL, get(AArch64::Bcc)).addImm(Cond[0].getImm()).addMBB(TBB);
381 BuildMI(&MBB, DL, get(Cond[1].getImm())).add(Cond[2]);
383 MIB.addImm(Cond[3].getImm());
451 if (!DefMI->getOperand(2).isImm() || DefMI->getOperand(2).getImm() != 1 ||
452 DefMI->getOperand(3).getImm() != 0)
551 CC = AArch64CC::CondCode(Cond[0].getImm());
556 switch (Cond[1].getImm()) {
595 switch (Cond[1].getImm()) {
608 if (Cond[1].getImm() == AArch64::TBZW || Cond[1].getImm() == AArch64::TBNZW)
608 if (Cond[1].getImm() == AArch64::TBZW || Cond[1].getImm() == AArch64::TBNZW)
612 AArch64_AM::encodeLogicalImmediate(1ull << Cond[3].getImm(), 32));
617 AArch64_AM::encodeLogicalImmediate(1ull << Cond[3].getImm(), 64));
676 uint64_t Imm = MI.getOperand(1).getImm();
726 return (MI.getOperand(3).getImm() == 0);
772 unsigned Imm = MI.getOperand(3).getImm();
785 unsigned Imm = MI.getOperand(3).getImm();
799 unsigned Imm = MI.getOperand(3).getImm();
807 unsigned Imm = MI.getOperand(3).getImm();
819 unsigned Imm = MI.getOperand(3).getImm();
879 unsigned IsSigned = MI.getOperand(3).getImm();
921 if (MI.getOperand(2).getImm() != 0 || MI.getOperand(3).getImm() != 31)
921 if (MI.getOperand(2).getImm() != 0 || MI.getOperand(3).getImm() != 31)
971 if (MI.getOperand(0).getImm() == 0x14)
1024 CmpValue = MI.getOperand(2).getImm() != 0;
1039 MI.getOperand(2).getImm(),
1312 return static_cast<AArch64CC::CondCode>(Instr.getOperand(Idx - 2).getImm());
1327 return static_cast<AArch64CC::CondCode>(Instr.getOperand(Idx - 1).getImm());
1582 if (MI.getOperand(1).isImm() && MI.getOperand(1).getImm() == 0) {
1584 MI.getOperand(2).getImm() == 0 && "invalid MOVZi operands");
1613 MI.getOperand(3).getImm() == 0 && "invalid ORRrs operands");
1618 if (MI.getOperand(2).getImm() == 0) {
1620 MI.getOperand(3).getImm() == 0 && "invalid ADDXri operands");
1664 MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0) {
1687 MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0) {
2021 Offset = LdSt.getOperand(2).getImm() * Scale;
2025 Offset = LdSt.getOperand(3).getImm() * Scale;
2361 int64_t Offset1 = FirstLdSt.getOperand(2).getImm();
2365 int64_t Offset2 = SecondLdSt.getOperand(2).getImm();
3416 Offset += ImmOpnd.getImm() * Scale;
3465 Offset += StackOffset(MI.getOperand(ImmIdx).getImm(), MVT::i8);
4030 .addImm(MUL->getOperand(3).getImm());
4172 uint64_t Imm = Root.getOperand(2).getImm();
4175 unsigned Val = Root.getOperand(3).getImm();
4264 uint64_t Imm = Root.getOperand(2).getImm();
4266 unsigned Val = Root.getOperand(3).getImm();
4778 if (IsTestAndBranch && MI.getOperand(1).getImm())
4817 DefMI->getOperand(2).getImm(), Is32Bit ? 32 : 64);
4864 AArch64CC::CondCode CC = (AArch64CC::CondCode)DefMI->getOperand(3).getImm();
5494 int64_t Imm = MI.getOperand(0).getImm();
5713 MI.getOperand(3).getImm() == 0x0) {
5721 MI.getOperand(3).getImm() == 0x0) {
lib/Target/AArch64/AArch64InstructionSelector.cpp 1291 IsZero = I.getOperand(1).getImm() == 0;
1571 uint64_t Val = I.getOperand(1).getImm();
1605 unsigned Offset = I.getOperand(2).getImm();
1619 MachineInstrBuilder(MF, I).addImm(I.getOperand(2).getImm() +
1649 unsigned LSB = I.getOperand(3).getImm();
1931 uint64_t Align = I.getOperand(2).getImm();
4021 Immed = Root.getImm();
lib/Target/AArch64/AArch64LegalizerInfo.cpp 727 unsigned Align = MI.getOperand(2).getImm();
lib/Target/AArch64/AArch64LoadStoreOptimizer.cpp 626 ? getLdStOffsetOp(StoreInst).getImm()
627 : getLdStOffsetOp(StoreInst).getImm() * StoreSize;
629 ? getLdStOffsetOp(LoadInst).getImm()
630 : getLdStOffsetOp(LoadInst).getImm() * LoadSize;
747 if (getLdStOffsetOp(*I).getImm() ==
748 getLdStOffsetOp(*MergeMI).getImm() + OffsetStride)
753 int OffsetImm = getLdStOffsetOp(*RtMI).getImm();
814 int Offset = getLdStOffsetOp(*I).getImm();
815 int PairedOffset = getLdStOffsetOp(*Paired).getImm();
847 int OffsetImm = getLdStOffsetOp(*RtMI).getImm();
994 ? getLdStOffsetOp(*LoadI).getImm()
995 : getLdStOffsetOp(*LoadI).getImm() * LoadSize;
997 ? getLdStOffsetOp(*StoreI).getImm()
998 : getLdStOffsetOp(*StoreI).getImm() * StoreSize;
1225 int Offset = getLdStOffsetOp(FirstMI).getImm();
1256 int MIOffset = getLdStOffsetOp(MI).getImm();
1386 int Value = Update->getOperand(2).getImm();
1387 assert(AArch64_AM::getShiftValue(Update->getOperand(3).getImm()) == 0 &&
1454 if (AArch64_AM::getShiftValue(MI.getOperand(3).getImm()))
1463 int UpdateOffset = MI.getOperand(2).getImm();
1495 int MIUnscaledOffset = getLdStOffsetOp(MemMI).getImm() * getMemScale(MemMI);
1555 int Offset = getLdStOffsetOp(MemMI).getImm();
1665 int Offset = getLdStOffsetOp(MI).getImm();
1726 int UnscaledOffset = getLdStOffsetOp(MI).getImm() * getMemScale(MI);
lib/Target/AArch64/AArch64MCInstLower.cpp 267 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/AArch64/AArch64MacroFusion.cpp 167 SecondMI.getOperand(3).getImm() == 16))
173 SecondMI.getOperand(3).getImm() == 16))
179 FirstMI->getOperand(3).getImm() == 32)) &&
181 SecondMI.getOperand(3).getImm() == 48))
220 return SecondMI.getOperand(2).getImm() == 0;
lib/Target/AArch64/AArch64RedundantCopyElimination.cpp 145 AArch64CC::CondCode CC = (AArch64CC::CondCode)CondBr.getOperand(0).getImm();
197 int32_t KnownImm = PredI.getOperand(2).getImm();
198 int32_t Shift = PredI.getOperand(3).getImm();
384 int64_t SrcImm = IsMoveImm ? MI->getOperand(1).getImm() : 0;
lib/Target/AArch64/AArch64RegisterInfo.cpp 471 Offset += StackOffset(MI.getOperand(FIOperandNum + 1).getImm(), MVT::i8);
lib/Target/AArch64/AArch64SIMDInstrOpt.cpp 327 CurrentMI->getOperand(2).getImm() == LaneNumber) {
440 unsigned LaneNumber = MI.getOperand(4).getImm();
455 unsigned LaneNumber = MI.getOperand(3).getImm();
643 switch (DefiningMI->getOperand(2*i+2).getImm()) {
lib/Target/AArch64/AArch64SpeculationHardening.cpp 213 CondCode = AArch64CC::CondCode(analyzeBranchCondCode[0].getImm());
lib/Target/AArch64/AArch64StackTaggingPreRA.cpp 197 assert(I.getOperand(2).getImm() == 0);
lib/Target/AMDGPU/AMDGPUInstructionSelector.cpp 237 APInt Imm(64, MO.getImm());
439 unsigned Offset = I.getOperand(2).getImm();
571 int64_t Offset = I.getOperand(3).getImm();
811 Offset = Op.getImm();
996 unsigned AuxiliaryData = MI.getOperand(5).getImm();
1038 int64_t Tgt = I.getOperand(1).getImm();
1039 int64_t Enabled = I.getOperand(2).getImm();
1040 int64_t Done = I.getOperand(7).getImm();
1041 int64_t VM = I.getOperand(8).getImm();
1054 int64_t Tgt = I.getOperand(1).getImm();
1055 int64_t Enabled = I.getOperand(2).getImm();
1059 int64_t Done = I.getOperand(5).getImm();
1060 int64_t VM = I.getOperand(6).getImm();
1435 APInt Imm(Size, I.getOperand(1).getImm());
1440 .addImm(I.getOperand(1).getImm());
1613 uint64_t Align = I.getOperand(2).getImm();
lib/Target/AMDGPU/AMDGPUMCInstLower.cpp 132 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/AMDGPU/AMDGPURegisterBankInfo.cpp 1273 unsigned CachePolicy = MI.getOperand(5).getImm();
lib/Target/AMDGPU/AMDILCFGStructurizer.cpp 435 switch (I->getOperand(2).getImm()) {
lib/Target/AMDGPU/GCNDPPCombine.cpp 196 assert(0LL == (Mod0->getImm() & ~(SISrcMods::ABS | SISrcMods::NEG)));
197 DPPInst.addImm(Mod0->getImm());
219 assert(0LL == (Mod1->getImm() & ~(SISrcMods::ABS | SISrcMods::NEG)));
220 DPPInst.addImm(Mod1->getImm());
279 if (OldOpnd->getImm() == 0)
286 if (static_cast<uint32_t>(OldOpnd->getImm()) ==
292 if (static_cast<int32_t>(OldOpnd->getImm()) ==
298 if (static_cast<int32_t>(OldOpnd->getImm()) ==
306 if (OldOpnd->getImm() == 1)
347 return (Imm->getImm() & Mask) == Value;
371 const bool MaskAllLanes = RowMaskOpnd->getImm() == 0xF &&
372 BankMaskOpnd->getImm() == 0xF;
376 bool BoundCtrlZero = BCZOpnd->getImm();
410 if (OldOpndValue->getImm() == 0) {
471 FwdSubReg = OrigMI.getOperand(OpNo + 1).getImm();
lib/Target/AMDGPU/GCNHazardRecognizer.cpp 112 if (MI.getOperand(GDS).getImm())
128 return RegOp->getImm() & AMDGPU::Hwreg::ID_MASK_;
933 !MI->getOperand(0).getImm()));
998 return (MI->getOperand(1).getImm() == 0) &&
1001 const int64_t Imm = MI->getOperand(0).getImm();
1059 (MI->getOperand(0).getImm() & 0xfffe) == 0xfffe)
1094 !I->getOperand(1).getImm()));
1116 !I->getOperand(1).getImm();
1147 if (!Offset || (Offset->getImm() & 6) == 0)
lib/Target/AMDGPU/R600ClauseMergePass.cpp 88 .getImm();
95 .getImm();
136 if (LatrCFAlu.getOperand(Mode0Idx).getImm() &&
137 RootCFAlu.getOperand(Mode0Idx).getImm() &&
138 (LatrCFAlu.getOperand(KBank0Idx).getImm() !=
139 RootCFAlu.getOperand(KBank0Idx).getImm() ||
140 LatrCFAlu.getOperand(KBank0LineIdx).getImm() !=
141 RootCFAlu.getOperand(KBank0LineIdx).getImm())) {
152 if (LatrCFAlu.getOperand(Mode1Idx).getImm() &&
153 RootCFAlu.getOperand(Mode1Idx).getImm() &&
154 (LatrCFAlu.getOperand(KBank1Idx).getImm() !=
155 RootCFAlu.getOperand(KBank1Idx).getImm() ||
156 LatrCFAlu.getOperand(KBank1LineIdx).getImm() !=
157 RootCFAlu.getOperand(KBank1LineIdx).getImm())) {
161 if (LatrCFAlu.getOperand(Mode0Idx).getImm()) {
163 LatrCFAlu.getOperand(Mode0Idx).getImm());
165 LatrCFAlu.getOperand(KBank0Idx).getImm());
167 .setImm(LatrCFAlu.getOperand(KBank0LineIdx).getImm());
169 if (LatrCFAlu.getOperand(Mode1Idx).getImm()) {
171 LatrCFAlu.getOperand(Mode1Idx).getImm());
173 LatrCFAlu.getOperand(KBank1Idx).getImm());
175 .setImm(LatrCFAlu.getOperand(KBank1LineIdx).getImm());
206 assert(MI.getOperand(8).getImm() && "CF ALU instruction disabled");
lib/Target/AMDGPU/R600ControlFlowFinalizer.cpp 374 return val->isImm() && (val->getImm() == Imm);
446 MILit.addImm(Literals[i]->getImm());
453 MILit.addImm(Literals[i + 1]->getImm());
493 MI.getOperand(0).setImm(Addr + MI.getOperand(0).getImm());
687 .addImm(Alu->getOperand(0).getImm())
688 .addImm(Alu->getOperand(1).getImm())
689 .addImm(Alu->getOperand(2).getImm())
690 .addImm(Alu->getOperand(3).getImm())
691 .addImm(Alu->getOperand(4).getImm())
692 .addImm(Alu->getOperand(5).getImm())
693 .addImm(Alu->getOperand(6).getImm())
694 .addImm(Alu->getOperand(7).getImm())
695 .addImm(Alu->getOperand(8).getImm());
lib/Target/AMDGPU/R600EmitClauseMarkers.cpp 264 if (TII->getFlagOp(*I).getImm() & MO_FLAG_PUSH)
lib/Target/AMDGPU/R600ExpandSpecialInstrs.cpp 77 uint64_t Val = OldMI->getOperand(OpIdx).getImm();
117 uint64_t Flags = MI.getOperand(3).getImm();
121 MI.getOperand(2).getImm(), // opcode
lib/Target/AMDGPU/R600ISelLowering.cpp 355 MI.getOperand(1).getImm());
372 MI.getOperand(1).getImm());
430 unsigned InstExportType = MI.getOperand(1).getImm();
437 .getImm();
lib/Target/AMDGPU/R600InstrInfo.cpp 300 Result.push_back(std::make_pair(&MO, Sel.getImm()));
323 Result.push_back(std::make_pair(&MO, Sel.getImm()));
330 Result.push_back(std::make_pair(&MO, Operand.getImm()));
551 IG[i]->getOperand(Op).getImm());
773 PredSet->getOperand(2).setImm(Cond[1].getImm());
789 PredSet->getOperand(2).setImm(Cond[1].getImm());
891 return MI.getOperand(3).getImm() == 0 && MI.getOperand(4).getImm() == 0;
891 return MI.getOperand(3).getImm() == 0 && MI.getOperand(4).getImm() == 0;
935 switch (MO.getImm()) {
1037 unsigned RegIndex = MI.getOperand(RegOpIdx).getImm();
1038 unsigned Channel = MI.getOperand(ChanOpIdx).getImm();
1051 unsigned RegIndex = MI.getOperand(RegOpIdx).getImm();
1052 unsigned Channel = MI.getOperand(ChanOpIdx).getImm();
1358 setImmOperand(*MIB, Operands[i], MO.getImm());
1482 FlagOp.setImm(FlagOp.getImm() | (Flag << (NUM_MO_FLAGS * Operand)));
1494 unsigned InstFlags = FlagOp.getImm();
lib/Target/AMDGPU/R600OptimizeVectorRegisters.cpp 79 unsigned Chan = Instr->getOperand(i + 1).getImm();
272 unsigned Swizzle = MI.getOperand(i + Offset).getImm() + 1;
lib/Target/AMDGPU/R600Packetizer.cpp 87 if (OperandIdx > -1 && BI->getOperand(OperandIdx).getImm() == 0)
357 (MI->getOpcode() == R600::CF_ALU && !MI->getOperand(8).getImm())) {
lib/Target/AMDGPU/SIAddIMGInit.cpp 87 unsigned TFEVal = TFE->getImm();
88 unsigned LWEVal = LWE->getImm();
89 unsigned D16Val = D16 ? D16->getImm() : 0;
108 unsigned dmask = MO_Dmask->getImm();
lib/Target/AMDGPU/SIFixSGPRCopies.cpp 352 Imm = ImmOp->getImm();
447 Inits[Imm->getImm()].push_front(&MI);
727 TII->isInlineConstant(APInt(64, Copied.getImm(), true))) {
728 MO->ChangeToImmediate(Copied.getImm());
lib/Target/AMDGPU/SIFoldOperands.cpp 50 ImmToFold = FoldOp->getImm();
212 unsigned Val = Mod.getImm();
225 Mod.setImm(Mod.getImm() | SISrcMods::OP_SEL_0);
226 Mod.setImm(Mod.getImm() & ~SISrcMods::OP_SEL_1);
230 Mod.setImm(Mod.getImm() & ~SISrcMods::OP_SEL_1);
475 Defs.push_back(std::make_pair(Sub, Def->getOperand(I + 1).getImm()));
498 UseMI->getOperand(UseOpIdx).ChangeToImmediate(OpToFold.getImm());
524 auto SubImm = Op->getImm();
563 unsigned RegSeqDstSubReg = UseMI->getOperand(UseOpIdx + 1).getImm();
647 UseMI->getOperand(1).ChangeToImmediate(OpToFold.getImm());
705 int64_t Imm = Def->getImm();
793 UseMI->getOperand(1).ChangeToImmediate(OpToFold.getImm());
852 APInt Imm(64, OpToFold.getImm());
972 MI->getOperand(1).ChangeToImmediate(~ImmOp->getImm());
989 if (Src0->isImm() && Src0->getImm() == 0) {
1006 if (!evalBinaryInstruction(Opc, NewImm, Src0->getImm(), Src1->getImm()))
1006 if (!evalBinaryInstruction(Opc, NewImm, Src0->getImm(), Src1->getImm()))
1028 int32_t Src1Val = static_cast<int32_t>(Src1->getImm());
1091 (Src1ModIdx == -1 || !MI->getOperand(Src1ModIdx).getImm()) &&
1092 (Src0ModIdx == -1 || !MI->getOperand(Src0ModIdx).getImm())) {
1247 if (!TII->getNamedOperand(MI, AMDGPU::OpName::clamp)->getImm())
1264 = TII->getNamedOperand(MI, AMDGPU::OpName::src0_modifiers)->getImm();
1266 = TII->getNamedOperand(MI, AMDGPU::OpName::src1_modifiers)->getImm();
1378 int OMod = getOModValue(Op, ImmOp->getImm());
1426 if (!DefOMod || DefOMod->getImm() != SIOutMods::NONE)
lib/Target/AMDGPU/SIFrameLowering.cpp 1101 int64_t Amount = I->getOperand(0).getImm();
1110 uint64_t CalleePopAmount = IsDestroy ? I->getOperand(1).getImm() : 0;
lib/Target/AMDGPU/SIISelLowering.cpp 3399 int Offset = TII->getNamedOperand(MI, AMDGPU::OpName::offset)->getImm();
3492 int Offset = TII->getNamedOperand(MI, AMDGPU::OpName::offset)->getImm();
3656 .addImm(MI.getOperand(0).getImm());
3664 .addImm(MI.getOperand(0).getImm());
3706 .addImm((MI.getOperand(1).getImm() & Mask) | 0x70000);
lib/Target/AMDGPU/SIInsertSkips.cpp 194 switch (MI.getOperand(2).getImm()) {
278 int64_t KillVal = MI.getOperand(1).getImm();
283 int64_t Imm = Op.getImm();
379 if (Op2.isImm() && Op2.getImm() != -1)
397 M->getOperand(1).getImm() != -1)
lib/Target/AMDGPU/SIInsertWaitcnts.cpp 867 ((MI.getOperand(0).getImm() & AMDGPU::SendMsg::ID_MASK_) ==
1076 int64_t Imm = II->getOperand(0).getImm();
1082 AMDGPU::Waitcnt(0, 0, 0, II->getOperand(1).getImm()));
1113 unsigned IEnc = II->getOperand(0).getImm();
1130 unsigned ICnt = II->getOperand(1).getImm();
1272 int Imm = TII->getNamedOperand(Inst, AMDGPU::OpName::tgt)->getImm();
lib/Target/AMDGPU/SIInstrInfo.cpp 276 Offset = OffsetImm->getImm();
290 uint8_t Offset0 = Offset0Imm->getImm();
291 uint8_t Offset1 = Offset1Imm->getImm();
337 Offset = OffsetImm->getImm();
348 Offset = OffsetImm->getImm();
351 Offset += SOffset->getImm();
366 Offset = OffsetImm->getImm();
385 Offset = getNamedOperand(LdSt, AMDGPU::OpName::offset)->getImm();
838 switch (Cond[0].getImm()) {
1367 return MI.getOperand(0).getImm() + 1;
1427 APInt Imm(64, SrcOp.getImm());
1484 unsigned SubReg = AMDGPU::sub0 + MI.getOperand(3).getImm();
1590 APInt Imm(64, SrcOp.getImm());
1604 MovDPP.addImm(MI.getOperand(I).getImm());
1634 int Src0ModsVal = Src0Mods->getImm();
1635 int Src1ModsVal = Src1Mods->getImm();
1653 RegOp.ChangeToImmediate(NonRegOp.getImm());
2009 auto Pred = Cond[0].getImm();
2069 = getBranchOpcode(static_cast<BranchPredicate>(Cond[0].getImm()));
2110 Cond[0].setImm(-Cond[0].getImm());
2122 switch (Cond[0].getImm()) {
2161 BranchPredicate Pred = static_cast<BranchPredicate>(Cond[0].getImm());
2341 UseMI.getOperand(1).ChangeToImmediate(ImmOp->getImm());
2388 const int64_t Imm = ImmOp->getImm();
2437 Src0->ChangeToImmediate(Def->getOperand(1).getImm());
2456 Src0->ChangeToImmediate(Def->getOperand(1).getImm());
2471 const int64_t Imm = ImmOp->getImm();
2601 return Def->getOperand(1).getImm();
2699 .addImm(Src0Mods ? Src0Mods->getImm() : 0)
2701 .addImm(Src1Mods ? Src1Mods->getImm() : 0)
2705 .addImm(Clamp ? Clamp->getImm() : 0)
2706 .addImm(Omod ? Omod->getImm() : 0);
2842 int64_t Imm = MO.getImm();
2857 return AMDGPU::isInlinableLiteral64(MO.getImm(),
2918 return Op0.getImm() == Op1.getImm();
2918 return Op0.getImm() == Op1.getImm();
2976 return Mods && Mods->getImm();
3335 (!OMod->isImm() || OMod->getImm() != 0)) {
3353 if (Clamp && (!Clamp->isImm() || Clamp->getImm() != 0)) {
3360 if (OMod && (!OMod->isImm() || OMod->getImm() != 0)) {
3369 DstUnused->getImm() == AMDGPU::SDWA::UNUSED_PRESERVE) {
3396 uint64_t DMaskImm = DMask->getImm();
3404 if (D16 && D16->getImm() && !ST.hasUnpackedD16VMem())
3408 if ((LWE && LWE->getImm()) || (TFE && TFE->getImm()))
3408 if ((LWE && LWE->getImm()) || (TFE && TFE->getImm()))
3554 uint64_t Imm = Op->getImm();
3636 if (Offset->getImm() != 0) {
3652 AMDGPU::getMIMGDimInfoByEncoding(DimOp->getImm());
3693 unsigned DC = DppCt->getImm();
3893 return MachineOperand::CreateImm(static_cast<int32_t>(Op.getImm()));
3895 return MachineOperand::CreateImm(static_cast<int32_t>(Op.getImm() >> 32));
4110 Src0.ChangeToImmediate(Src1.getImm());
4768 MIB.addImm(GLC->getImm());
4772 MIB.addImm(DLC->getImm());
4779 MIB.addImm(TFE->getImm());
5044 uint32_t Imm = OffsetWidthOp.getImm();
5563 uint32_t Imm = Inst.getOperand(2).getImm();
6382 if (MI.getOperand(1 + 2 * I + 1).getImm() == SubReg) {
6402 if (RSR.SubReg == (unsigned)MI.getOperand(3).getImm())
lib/Target/AMDGPU/SIInstrInfo.h 918 return MI.getOperand(Idx).getImm();
lib/Target/AMDGPU/SILoadStoreOptimizer.cpp 143 AddrReg[i]->getImm() != AddrRegNext.getImm()) {
143 AddrReg[i]->getImm() != AddrRegNext.getImm()) {
284 TII.getNamedOperand(MI, AMDGPU::OpName::dmask)->getImm();
453 DMask0 = TII.getNamedOperand(*I, AMDGPU::OpName::dmask)->getImm();
456 Offset0 = I->getOperand(OffsetIdx).getImm();
464 GLC0 = TII.getNamedOperand(*I, AMDGPU::OpName::glc)->getImm();
466 SLC0 = TII.getNamedOperand(*I, AMDGPU::OpName::slc)->getImm();
468 DLC0 = TII.getNamedOperand(*I, AMDGPU::OpName::dlc)->getImm();
513 DMask1 = TII.getNamedOperand(*Paired, AMDGPU::OpName::dmask)->getImm();
517 Offset1 = Paired->getOperand(OffsetIdx).getImm();
524 GLC1 = TII.getNamedOperand(*Paired, AMDGPU::OpName::glc)->getImm();
526 SLC1 = TII.getNamedOperand(*Paired, AMDGPU::OpName::slc)->getImm();
528 DLC1 = TII.getNamedOperand(*Paired, AMDGPU::OpName::dlc)->getImm();
645 if ((TFEOp && TFEOp->getImm()) || (LWEOp && LWEOp->getImm()))
645 if ((TFEOp && TFEOp->getImm()) || (LWEOp && LWEOp->getImm()))
658 CI.I->getOperand(Idx).getImm() != CI.Paired->getOperand(Idx).getImm())
658 CI.I->getOperand(Idx).getImm() != CI.Paired->getOperand(Idx).getImm())
768 if (Swizzled != -1 && CI.I->getOperand(Swizzled).getImm())
1439 return Op.getImm();
1449 return Def->getOperand(1).getImm();
1505 uint64_t Offset1 = Src1->getImm();
1535 if (TII->getNamedOperand(MI, AMDGPU::OpName::offset)->getImm()) {
1600 TII->getNamedOperand(MINext, AMDGPU::OpName::offset)->getImm())
lib/Target/AMDGPU/SILowerControlFlow.cpp 287 bool ExecModified = MI.getOperand(3).getImm() != 0;
lib/Target/AMDGPU/SILowerI1Copies.cpp 757 int64_t Imm = MI->getOperand(1).getImm();
lib/Target/AMDGPU/SIMemoryLegalizer.cpp 110 if (Bit.getImm() != 0)
611 static_cast<AtomicOrdering>(MI->getOperand(0).getImm());
613 SyncScope::ID SSID = static_cast<SyncScope::ID>(MI->getOperand(1).getImm());
lib/Target/AMDGPU/SIModeRegister.cpp 245 unsigned Dst = TII->getNamedOperand(MI, AMDGPU::OpName::simm16)->getImm();
266 unsigned Val = TII->getNamedOperand(MI, AMDGPU::OpName::imm)->getImm();
lib/Target/AMDGPU/SIOptimizeExecMaskingPreRA.cpp 234 if (!Op1->isReg() || !Op2->isImm() || Op2->getImm() != 1)
250 Op1->getImm() != 0 || Op2->getImm() != 1)
250 Op1->getImm() != 0 || Op2->getImm() != 1)
lib/Target/AMDGPU/SIPeepholeSDWA.cpp 340 Mods = Mod->getImm();
344 Mods = Mod->getImm();
397 DstUnused->getImm() == AMDGPU::SDWA::DstUnused::UNUSED_PRESERVE) {
524 return Op.getImm();
542 return Copied.getImm();
1034 SDWAInst.addImm(Mod->getImm());
1046 SDWAInst.addImm(Mod->getImm());
1124 DstUnused->getImm() == AMDGPU::SDWA::DstUnused::UNUSED_PRESERVE) {
1196 Copy.addImm(Op.getImm());
lib/Target/AMDGPU/SIRegisterInfo.cpp 318 return MI->getOperand(OffIdx).getImm();
406 int64_t NewOffset = OffsetOp->getImm() + Offset;
1051 TII->getNamedOperand(*MI, AMDGPU::OpName::offset)->getImm(),
1081 TII->getNamedOperand(*MI, AMDGPU::OpName::offset)->getImm(),
1213 = TII->getNamedOperand(*MI, AMDGPU::OpName::offset)->getImm();
lib/Target/AMDGPU/SIShrinkInstructions.cpp 87 if (MovSrc.isImm() && (isInt<32>(MovSrc.getImm()) ||
88 isUInt<32>(MovSrc.getImm()))) {
92 Src0.ChangeToImmediate(MovSrc.getImm());
129 return isInt<16>(Src.getImm()) &&
135 return isUInt<16>(Src.getImm()) &&
143 if (isInt<16>(Src.getImm())) {
148 if (isUInt<16>(Src.getImm())) {
161 if (!isInt<32>(Src.getImm()) || TII->isInlineConstant(Src))
164 ReverseImm = reverseBits<int32_t>(static_cast<int32_t>(Src.getImm()));
274 unsigned TFEVal = MI.getOperand(TFEIdx).getImm();
275 unsigned LWEVal = MI.getOperand(LWEIdx).getImm();
327 !AMDGPU::isInlinableLiteral32(SrcImm->getImm(), ST.hasInv2PiInlineImm())) {
328 uint32_t Imm = static_cast<uint32_t>(SrcImm->getImm());
613 uint8_t Nop0 = MI.getOperand(0).getImm() + 1;
614 uint8_t Nop1 = NextMI.getOperand(0).getImm() + 1;
lib/Target/ARC/ARCBranchFinalize.cpp 115 unsigned CC = getCCForBRcc(MI->getOperand(3).getImm());
122 .addImm(getCCForBRcc(MI->getOperand(3).getImm()));
138 .addImm(MI->getOperand(3).getImm());
lib/Target/ARC/ARCExpandPseudos.cpp 64 isUInt<6>(SI.getOperand(2).getImm()) ? ARC::ADD_rru6 : ARC::ADD_rrlimm;
67 .addImm(SI.getOperand(2).getImm());
lib/Target/ARC/ARCFrameLowering.cpp 476 unsigned Amt = Old.getOperand(0).getImm();
lib/Target/ARC/ARCInstrInfo.cpp 50 return Op.isImm() && Op.getImm() == 0;
353 Cond[2].setImm(GetOppositeBranchCondition((ARCCC::CondCode)Cond[2].getImm()));
lib/Target/ARC/ARCMCInstLower.cpp 89 return MCOperand::createImm(MO.getImm() + Offset);
lib/Target/ARC/ARCOptAddrMode.cpp 130 Amount = Sign * MI.getOperand(2).getImm();
177 int64_t Offset = MO.getImm() + Disp;
214 if (Offset.getImm() != 0) {
345 int64_t NewOffset = Incr.getImm();
377 NewOffset += MO.getImm();
lib/Target/ARC/ARCRegisterInfo.cpp 200 Offset += MI.getOperand(FIOperandNum + 1).getImm();
lib/Target/ARM/ARMAsmPrinter.cpp 224 O << MO.getImm();
294 O << ~(MI->getOperand(OpNum).getImm());
299 O << (MI->getOperand(OpNum).getImm() & 0xffff);
340 unsigned Flags = FlagsOP.getImm();
348 unsigned OpFlags = MI->getOperand(OpNum).getImm();
351 Flags = MI->getOperand(OpNum).getImm();
1046 MCSymbol *TBInstPC = GetCPISymbol(MI->getOperand(0).getImm());
1173 Offset = -MI->getOperand(2).getImm();
1177 Offset = MI->getOperand(2).getImm();
1180 Offset = MI->getOperand(2).getImm()*4;
1184 Offset = -MI->getOperand(2).getImm()*4;
1282 .addImm(MI->getOperand(2).getImm())
1298 .addImm(MI->getOperand(2).getImm())
1405 MI->getOperand(2).getImm(), OutContext);
1438 MI->getOperand(3).getImm(), OutContext);
1497 MCInst.addImm(MI->getOperand(3).getImm());
1499 MCInst.addImm(MI->getOperand(2).getImm())
1524 MI->getOperand(2).getImm(), OutContext));
1545 MI->getOperand(2).getImm(), OutContext));
1553 .addImm(MI->getOperand(3).getImm())
1576 MI->getOperand(2).getImm(), OutContext));
1598 .addImm(MI->getOperand(3).getImm())
1612 unsigned LabelId = (unsigned)MI->getOperand(0).getImm();
1653 OutStreamer->EmitLabel(GetCPISymbol(MI->getOperand(3).getImm()));
1737 OutStreamer->EmitLabel(GetCPISymbol(MI->getOperand(3).getImm()));
1771 TmpInst.addOperand(MCOperand::createImm(MI->getOperand(2).getImm()));
1785 TmpInst.addOperand(MCOperand::createImm(MI->getOperand(2).getImm()));
1806 OutStreamer->EmitZeros(MI->getOperand(1).getImm());
lib/Target/ARM/ARMBaseInstrInfo.cpp 178 unsigned OffImm = MI.getOperand(NumOps - 2).getImm();
179 ARMCC::CondCodes Pred = (ARMCC::CondCodes)MI.getOperand(NumOps - 1).getImm();
458 .addImm(Cond[0].getImm())
466 .addImm(Cond[0].getImm())
477 ARMCC::CondCodes CC = (ARMCC::CondCodes)(int)Cond[0].getImm();
488 if (PIdx != -1 && I->getOperand(PIdx).getImm() != ARMCC::AL)
495 return PIdx != -1 && MI.getOperand(PIdx).getImm() != ARMCC::AL;
504 .addImm(Pred[0].getImm())
512 PMO.setImm(Pred[0].getImm());
524 ARMCC::CondCodes CC1 = (ARMCC::CondCodes)Pred1[0].getImm();
525 ARMCC::CondCodes CC2 = (ARMCC::CondCodes)Pred2[0].getImm();
581 int64_t OpcImm = Opc.getImm();
590 unsigned OffImm = Opc.getImm();
598 unsigned OffImm = Opc.getImm();
611 unsigned OffImm = MI.getOperand(Op + 2).getImm();
618 unsigned OffImm = MI.getOperand(Op + 2).getImm();
730 return MI.getOperand(2).getImm();
745 return MI.getOperand(1).getImm();
1213 MI.getOperand(3).getImm() == 0) {
1224 MI.getOperand(2).getImm() == 0) {
1231 MI.getOperand(1).getImm() == 0) {
1450 MI.getOperand(3).getImm() == 0) {
1461 MI.getOperand(2).getImm() == 0) {
1468 MI.getOperand(1).getImm() == 0) {
2134 return (ARMCC::CondCodes)MI.getOperand(PIdx).getImm();
2265 unsigned CondCode = MI.getOperand(3).getImm();
2533 Offset += MI.getOperand(FrameRegIdx+1).getImm();
2576 InstrOffs = MI.getOperand(ImmIdx).getImm();
2581 InstrOffs = ARM_AM::getAM2Offset(MI.getOperand(ImmIdx).getImm());
2582 if (ARM_AM::getAM2Op(MI.getOperand(ImmIdx).getImm()) == ARM_AM::sub)
2588 InstrOffs = ARM_AM::getAM3Offset(MI.getOperand(ImmIdx).getImm());
2589 if (ARM_AM::getAM3Op(MI.getOperand(ImmIdx).getImm()) == ARM_AM::sub)
2599 InstrOffs = ARM_AM::getAM5Offset(MI.getOperand(ImmIdx).getImm());
2600 if (ARM_AM::getAM5Op(MI.getOperand(ImmIdx).getImm()) == ARM_AM::sub)
2607 InstrOffs = ARM_AM::getAM5Offset(MI.getOperand(ImmIdx).getImm());
2608 if (ARM_AM::getAM5Op(MI.getOperand(ImmIdx).getImm()) == ARM_AM::sub)
2617 InstrOffs = MI.getOperand(ImmIdx).getImm();
2688 CmpValue = MI.getOperand(1).getImm();
2702 CmpMask = MI.getOperand(1).getImm();
2719 if (CmpMask != MI->getOperand(2).getImm())
2793 OI->getOperand(2).getImm() == ImmValue) {
2801 OI->getOperand(3).getImm() == ImmValue) {
3075 CC = (ARMCC::CondCodes)Instr.getOperand(IO - 1).getImm();
3236 uint32_t ImmVal = (uint32_t)DefMI.getOperand(1).getImm();
3346 unsigned ShOpVal = MI.getOperand(3).getImm();
3362 unsigned ShOpVal = MI.getOperand(3).getImm();
3375 return (ARM_AM::getAM3Op(MI.getOperand(3).getImm()) == ARM_AM::sub) ? 3 : 2;
3390 unsigned ShOpVal = MI.getOperand(4).getImm();
3403 unsigned ShOpVal = MI.getOperand(4).getImm();
3422 return (ARM_AM::getAM3Op(MI.getOperand(4).getImm()) == ARM_AM::sub) ? 3 : 2;
3454 unsigned ShOpVal = MI.getOperand(4).getImm();
3470 return (ARM_AM::getAM3Op(MI.getOperand(4).getImm()) == ARM_AM::sub) ? 4
3478 return (ARM_AM::getAM3Op(MI.getOperand(4).getImm()) == ARM_AM::sub) ? 4
3496 return (ARM_AM::getAM3Op(MI.getOperand(5).getImm()) == ARM_AM::sub) ? 5
3510 return (ARM_AM::getAM3Op(MI.getOperand(5).getImm()) == ARM_AM::sub) ? 5
4086 unsigned ShOpVal = DefMI.getOperand(3).getImm();
4098 unsigned ShAmt = DefMI.getOperand(3).getImm();
4111 unsigned ShOpVal = DefMI.getOperand(3).getImm();
4129 unsigned ShAmt = DefMI.getOperand(3).getImm();
5238 unsigned ShOpVal = MI->getOperand(3).getImm();
5318 InsertedReg.SubIdx = MOIndex.getImm() == 0 ? ARM::ssub_0 : ARM::ssub_1;
5384 if (Pred != ARMCC::AL || CmpMI->getOperand(1).getImm() != 0)
lib/Target/ARM/ARMBaseInstrInfo.h 152 return PIdx != -1 ? (ARMCC::CondCodes)MI.getOperand(PIdx).getImm()
lib/Target/ARM/ARMBaseRegisterInfo.cpp 508 InstrOffs = MI->getOperand(Idx+1).getImm();
514 InstrOffs = ARM_AM::getAM5Offset(OffOp.getImm());
515 if (ARM_AM::getAM5Op(OffOp.getImm()) == ARM_AM::sub)
522 InstrOffs = ARM_AM::getAM2Offset(MI->getOperand(ImmIdx).getImm());
523 if (ARM_AM::getAM2Op(MI->getOperand(ImmIdx).getImm()) == ARM_AM::sub)
528 InstrOffs = ARM_AM::getAM3Offset(MI->getOperand(ImmIdx).getImm());
529 if (ARM_AM::getAM3Op(MI->getOperand(ImmIdx).getImm()) == ARM_AM::sub)
534 InstrOffs = MI->getOperand(ImmIdx).getImm();
810 ? ARMCC::AL : (ARMCC::CondCodes)MI.getOperand(PIdx).getImm();
lib/Target/ARM/ARMConstantIslandPass.cpp 1035 unsigned Size = U.CPEMI->getOperand(2).getImm();
1071 dbgs() << "User of CPE#" << CPEMI->getOperand(0).getImm()
1379 CPEMI->getOperand(2).getImm();
1400 EndInsertOffset += U.CPEMI->getOperand(2).getImm();
1453 unsigned Size = CPEMI->getOperand(2).getImm();
1560 unsigned Size = CPEMI->getOperand(2).getImm();
1659 ARMCC::CondCodes CC = (ARMCC::CondCodes)MI->getOperand(1).getImm();
2228 Shift->getOperand(3).getImm() != 2 ||
2301 .addImm(CPEMI->getOperand(0).getImm());
lib/Target/ARM/ARMExpandPseudoInsts.cpp 672 unsigned Lane = MI.getOperand(MI.getDesc().getNumOperands() - 3).getImm();
852 unsigned ImmVal = (unsigned)MO.getImm();
885 unsigned Imm = MO.getImm();
1222 .addImm(MI.getOperand(3).getImm()) // 'pred'
1235 .addImm(MI.getOperand(3).getImm()) // 'pred'
1247 .addImm(MI.getOperand(3).getImm())
1248 .addImm(MI.getOperand(4).getImm()) // 'pred'
1261 .addImm(MI.getOperand(4).getImm())
1262 .addImm(MI.getOperand(5).getImm()) // 'pred'
1275 .addImm(MI.getOperand(2).getImm())
1276 .addImm(MI.getOperand(3).getImm()) // 'pred'
1287 .addImm(MI.getOperand(2).getImm())
1288 .addImm(MI.getOperand(3).getImm()) // 'pred'
1301 .addImm(MI.getOperand(2).getImm())
1302 .addImm(MI.getOperand(3).getImm()) // 'pred'
1325 .addImm(MI.getOperand(3).getImm())
1326 .addImm(MI.getOperand(4).getImm()) // 'pred'
lib/Target/ARM/ARMFastISel.cpp 2922 const uint64_t Imm = MI->getOperand(2).getImm();
lib/Target/ARM/ARMFrameLowering.cpp 2173 : (ARMCC::CondCodes)Old.getOperand(PIdx).getImm();
lib/Target/ARM/ARMISelLowering.cpp10019 unsigned SizeVal = MI.getOperand(2).getImm();
10020 unsigned Align = MI.getOperand(3).getImm();
10441 unsigned Offset = MI.getOperand(4).getImm();
10515 .addImm(MI.getOperand(3).getImm())
10573 if (MI.getOperand(0).getImm() == ARMCC::NE)
10708 for (unsigned I = 0; I != MI.getOperand(4).getImm(); ++I) {
lib/Target/ARM/ARMInstructionSelector.cpp 975 if (Val.getImm() != 0) {
lib/Target/ARM/ARMLoadStoreOptimizer.cpp 220 unsigned OffField = MI.getOperand(NumOperands - 3).getImm();
509 Offset = MO.getImm() - WordOffset * getImmScale(Opc);
526 MO.getImm() + WordOffset * 4 :
527 MO.getImm() - WordOffset * 4 ;
1206 return MI.getOperand(2).getImm() * Scale;
1398 if (MI->getOperand(2).getImm() != 0)
1400 if (isAM5 && ARM_AM::getAM5Offset(MI->getOperand(2).getImm()) != 0)
1509 if (MI.getOperand(3).getImm() != 0)
lib/Target/ARM/ARMLowOverheadLoops.cpp 153 MI->getOperand(2).getImm() == ARMCC::AL;
lib/Target/ARM/ARMMCInstLower.cpp 84 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/ARM/ARMOptimizeBarriersPass.cpp 71 if (MI.getOperand(0).getImm() == DMBType) {
76 DMBType = MI.getOperand(0).getImm();
81 DMBType = MI.getOperand(0).getImm();
lib/Target/ARM/MLxExpansionPass.cpp 279 unsigned LaneImm = HasLane ? MI->getOperand(4).getImm() : 0;
281 ARMCC::CondCodes Pred = (ARMCC::CondCodes)MI->getOperand(NextOp).getImm();
lib/Target/ARM/Thumb2InstrInfo.cpp 89 unsigned Mask = MBBI->getOperand(1).getImm();
482 Offset += MI.getOperand(FrameRegIdx+1).getImm();
573 Offset += MI.getOperand(FrameRegIdx+1).getImm();
586 int InstrOffs = ARM_AM::getAM5Offset(OffOp.getImm());
587 if (ARM_AM::getAM5Op(OffOp.getImm()) == ARM_AM::sub)
600 int InstrOffs = ARM_AM::getAM5FP16Offset(OffOp.getImm());
601 if (ARM_AM::getAM5FP16Op(OffOp.getImm()) == ARM_AM::sub)
614 Offset += MI.getOperand(FrameRegIdx + 1).getImm();
626 Offset += MI.getOperand(FrameRegIdx + 1).getImm() * 4;
632 Offset += MI.getOperand(FrameRegIdx + 1).getImm() * 4;
727 return (ARMVCC::VPTCodes)MI.getOperand(PIdx).getImm();
lib/Target/ARM/Thumb2SizeReduction.cpp 469 unsigned Offset = MI->getOperand(3).getImm();
470 unsigned PredImm = MI->getOperand(4).getImm();
565 if (MI->getOperand(3).getImm())
572 OffsetImm = MI->getOperand(2).getImm();
635 unsigned Imm = MI->getOperand(2).getImm();
643 if (MI->getOperand(3).getImm() != ARMCC::AL)
699 if (MI->getOperand(2).getImm() == 0)
780 unsigned Imm = MI->getOperand(2).getImm();
878 if (((unsigned)MO.getImm()) > Limit)
lib/Target/ARM/ThumbRegisterInfo.cpp 374 Offset += MI.getOperand(FrameRegIdx+1).getImm();
386 int InstrOffs = MI.getOperand(ImmIdx).getImm();
lib/Target/AVR/AVRAsmPrinter.cpp 69 O << MO.getImm();
104 unsigned OpFlags = MI->getOperand(OpNum - 1).getImm();
161 unsigned OpFlags = MI->getOperand(OpNum - 1).getImm();
165 O << '+' << MI->getOperand(OpNum + 1).getImm();
lib/Target/AVR/AVRExpandPseudoInsts.cpp 227 unsigned Imm = MI.getOperand(2).getImm();
299 unsigned Imm = MI.getOperand(2).getImm();
331 unsigned Imm = MI.getOperand(2).getImm();
519 unsigned Imm = MI.getOperand(1).getImm();
560 unsigned Imm = MI.getOperand(1).getImm();
695 unsigned Imm = MI.getOperand(2).getImm();
992 unsigned Imm = MI.getOperand(0).getImm();
1046 unsigned Imm = MI.getOperand(3).getImm();
1080 unsigned Imm = MI.getOperand(3).getImm();
1114 unsigned Imm = MI.getOperand(1).getImm();
1146 unsigned Imm = MI.getOperand(1).getImm();
1176 unsigned Imm = MI.getOperand(0).getImm();
lib/Target/AVR/AVRISelLowering.cpp 1662 AVRCC::CondCodes CC = (AVRCC::CondCodes)MI.getOperand(3).getImm();
lib/Target/AVR/AVRInstrInfo.cpp 88 MI.getOperand(2).getImm() == 0) {
107 MI.getOperand(1).getImm() == 0) {
386 AVRCC::CondCodes OldBranchCode = (AVRCC::CondCodes)Cond[0].getImm();
421 AVRCC::CondCodes CC = (AVRCC::CondCodes)Cond[0].getImm();
470 AVRCC::CondCodes CC = static_cast<AVRCC::CondCodes>(Cond[0].getImm());
lib/Target/AVR/AVRMCInstLower.cpp 79 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/AVR/AVRRegisterInfo.cpp 116 Offset += -MI.getOperand(2).getImm();
119 Offset += MI.getOperand(2).getImm();
147 Offset += MI.getOperand(FIOperandNum + 1).getImm();
lib/Target/AVR/AVRRelaxMemOperations.cpp 93 int64_t Imm = MI.getOperand(1).getImm();
lib/Target/BPF/BPFAsmPrinter.cpp 82 O << MO.getImm();
127 int Offset = OffsetMO.getImm();
lib/Target/BPF/BPFISelLowering.cpp 677 int CC = MI.getOperand(3).getImm();
725 int64_t imm32 = MI.getOperand(2).getImm();
lib/Target/BPF/BPFInstrInfo.cpp 48 uint64_t CopyLen = MI->getOperand(2).getImm();
49 uint64_t Alignment = MI->getOperand(3).getImm();
lib/Target/BPF/BPFMCInstLower.cpp 65 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/BPF/BPFMIPeephole.cpp 137 MI.getOperand(2).getImm() == 32) {
148 SllMI->getOperand(2).getImm() != 32)
378 MI.getOperand(2).getImm() == 32) {
385 MI2->getOperand(2).getImm() != 32)
402 int64_t imm = MI.getOperand(2).getImm();
lib/Target/BPF/BPFMISimplifyPatchable.cpp 97 if (!MI.getOperand(2).isImm() || MI.getOperand(2).getImm())
117 assert(MI.getOperand(2).getImm() == 0);
lib/Target/BPF/BPFRegisterInfo.cpp 97 MI.getOperand(i + 1).getImm();
lib/Target/Hexagon/BitTracker.cpp 729 unsigned SS = MI.getOperand(2).getImm();
731 unsigned ST = MI.getOperand(4).getImm();
lib/Target/Hexagon/HexagonAsmPrinter.cpp 86 O << MO.getImm();
171 if (Offset.getImm())
172 O << "+#" << Offset.getImm();
lib/Target/Hexagon/HexagonBitSimplify.cpp 435 unsigned Sub1 = I.getOperand(2).getImm(), Sub2 = I.getOperand(4).getImm();
435 unsigned Sub1 = I.getOperand(2).getImm(), Sub2 = I.getOperand(4).getImm();
1127 unsigned S = MI.getOperand(ImN).getImm();
1192 unsigned S = MI.getOperand(ImN).getImm();
1959 int64_t Off = OffOp.getImm();
2120 int32_t Imm = MI->getOperand(2).getImm();
2283 if (In->getOperand(2).getImm() != ImmOp)
2329 unsigned BN = MI->getOperand(2).getImm();
2581 if (!CmpOp.isImm() || CmpOp.getImm() != 0)
2630 return Op.getImm() != 0;
2642 return Op.getImm() == 0;
3280 if (DefPrehR->getOperand(1).getImm() != 0)
lib/Target/Hexagon/HexagonBitTracker.cpp 270 return eIMM(Op.getImm(), W);
325 return rr0(eIMM(im(1), W0), Outputs);
332 int Off = op(2).getImm();
381 return rr0(eADD(rc(1), eIMM(im(2), W0)), Outputs);
383 RegisterCell RC = eADD(eIMM(im(1), W0), eASL(rc(2), im(3)));
383 RegisterCell RC = eADD(eIMM(im(1), W0), eASL(rc(2), im(3)));
387 RegisterCell RC = eADD(eIMM(im(1), W0), eLSR(rc(2), im(3)));
387 RegisterCell RC = eADD(eIMM(im(1), W0), eLSR(rc(2), im(3)));
391 RegisterCell RC = eADD(rc(1), eADD(rc(2), eIMM(im(3), W0)));
395 RegisterCell M = eMLS(rc(2), eIMM(im(3), W0));
396 RegisterCell RC = eADD(eIMM(im(1), W0), lo(M, W0));
401 RegisterCell RC = eADD(eIMM(im(1), W0), lo(M, W0));
405 RegisterCell M = eMLS(eIMM(im(2), W0), rc(3));
410 RegisterCell M = eMLS(rc(2), eIMM(im(3), W0));
420 RegisterCell RC = eADD(rc(1), eSUB(eIMM(im(2), W0), rc(3)));
424 RegisterCell RC = eADD(rc(1), eADD(rc(2), eIMM(im(3), W0)));
436 RegisterCell RC = eADD(rc(1), eASL(rc(2), im(3)));
442 return rr0(eADD(RPC, eIMM(im(2), W0)), Outputs);
448 return rr0(eSUB(eIMM(im(1), W0), rc(2)), Outputs);
450 RegisterCell RC = eSUB(eIMM(im(1), W0), eASL(rc(2), im(3)));
450 RegisterCell RC = eSUB(eIMM(im(1), W0), eASL(rc(2), im(3)));
454 RegisterCell RC = eSUB(eIMM(im(1), W0), eLSR(rc(2), im(3)));
454 RegisterCell RC = eSUB(eIMM(im(1), W0), eLSR(rc(2), im(3)));
458 RegisterCell RC = eSUB(rc(1), eADD(rc(2), eIMM(im(3), W0)));
484 RegisterCell M = eMLS(rc(2), eIMM(im(3), W0));
489 RegisterCell M = eMLS(rc(2), eIMM(im(3), W0));
499 RegisterCell M = eMLS(rc(1), eIMM(im(2), W0));
503 RegisterCell M = eMLS(rc(1), eIMM(-im(2), W0));
507 RegisterCell M = eMLS(rc(1), eIMM(im(2), W0));
525 return rr0(eAND(rc(1), eIMM(im(2), W0)), Outputs);
533 RegisterCell RC = eAND(eIMM(im(1), W0), eASL(rc(2), im(3)));
533 RegisterCell RC = eAND(eIMM(im(1), W0), eASL(rc(2), im(3)));
537 RegisterCell RC = eAND(eIMM(im(1), W0), eLSR(rc(2), im(3)));
537 RegisterCell RC = eAND(eIMM(im(1), W0), eLSR(rc(2), im(3)));
549 return rr0(eORL(rc(1), eIMM(im(2), W0)), Outputs);
557 RegisterCell RC = eORL(eIMM(im(1), W0), eASL(rc(2), im(3)));
557 RegisterCell RC = eORL(eIMM(im(1), W0), eASL(rc(2), im(3)));
561 RegisterCell RC = eORL(eIMM(im(1), W0), eLSR(rc(2), im(3)));
561 RegisterCell RC = eORL(eIMM(im(1), W0), eLSR(rc(2), im(3)));
570 RegisterCell RC = eORL(rc(1), eAND(rc(2), eIMM(im(3), W0)));
574 RegisterCell RC = eORL(rc(1), eORL(rc(2), eIMM(im(3), W0)));
598 return rr0(eASL(rc(1), im(2)), Outputs);
603 return rr0(eADD(rc(1), eASL(rc(2), im(3))), Outputs);
606 return rr0(eSUB(rc(1), eASL(rc(2), im(3))), Outputs);
609 return rr0(eAND(rc(1), eASL(rc(2), im(3))), Outputs);
612 return rr0(eORL(rc(1), eASL(rc(2), im(3))), Outputs);
615 return rr0(eXOR(rc(1), eASL(rc(2), im(3))), Outputs);
623 return rr0(eASR(rc(1), im(2)), Outputs);
628 return rr0(eADD(rc(1), eASR(rc(2), im(3))), Outputs);
631 return rr0(eSUB(rc(1), eASR(rc(2), im(3))), Outputs);
634 return rr0(eAND(rc(1), eASR(rc(2), im(3))), Outputs);
637 return rr0(eORL(rc(1), eASR(rc(2), im(3))), Outputs);
643 RegisterCell RC = eASR(eADD(eASR(XC, im(2)), eIMM(1, 2*W0)), 1);
647 int64_t S = im(2);
663 return rr0(eLSR(rc(1), im(2)), Outputs);
666 return rr0(eADD(rc(1), eLSR(rc(2), im(3))), Outputs);
669 return rr0(eSUB(rc(1), eLSR(rc(2), im(3))), Outputs);
672 return rr0(eAND(rc(1), eLSR(rc(2), im(3))), Outputs);
675 return rr0(eORL(rc(1), eLSR(rc(2), im(3))), Outputs);
678 return rr0(eXOR(rc(1), eLSR(rc(2), im(3))), Outputs);
682 RC[im(2)] = BT::BitValue::Zero;
687 RC[im(2)] = BT::BitValue::One;
692 uint16_t BX = im(2);
701 uint16_t BX = im(2);
714 uint16_t Wd = im(2), Of = im(3);
714 uint16_t Wd = im(2), Of = im(3);
730 uint16_t Wd = im(3), Of = im(4);
730 uint16_t Wd = im(3), Of = im(4);
950 BT::BitValue V = rc(1)[im(2)];
lib/Target/Hexagon/HexagonConstExtenders.cpp 754 Offset = Op.getImm();
1059 return R.shift(Op2.getImm());
1084 int32_t Off = MI.getOperand(OffP).getImm();
1174 ED.Expr.S = MI.getOperand(OpNum-1).getImm();
1658 Shift = MI.getOperand(MI.mayLoad() ? 2 : 1).getImm();
1878 ImmOp.setImm(ImmOp.getImm() + Diff);
lib/Target/Hexagon/HexagonConstPropagation.cpp 1942 unsigned Sub1 = MI.getOperand(2).getImm();
1943 unsigned Sub2 = MI.getOperand(4).getImm();
1982 int64_t V = MI.getOperand(1).getImm();
2027 uint64_t Hi = MI.getOperand(1).getImm();
2028 uint64_t Lo = MI.getOperand(2).getImm();
2040 int64_t B = MI.getOperand(2).getImm();
2145 unsigned Bits = MI.getOperand(2).getImm();
2146 unsigned Offset = MI.getOperand(3).getImm();
2497 uint64_t Val = MO.getImm();
2639 APInt A(32, Src2.getImm(), true);
2650 APInt A(32, Src2.getImm(), true);
2688 int64_t V = ValOp.getImm();
lib/Target/Hexagon/HexagonCopyToCombine.cpp 157 bool NotExt = Op1.isImm() && isInt<8>(Op1.getImm());
176 return !Op.isImm() || !isInt<N>(Op.getImm());
657 int64_t V = HiOperand.getImm();
658 V = (V << 32) | (0x0ffffffffLL & LoOperand.getImm());
675 .addImm(LoOperand.getImm());
680 .addImm(HiOperand.getImm())
691 .addImm(LoOperand.getImm());
696 .addImm(HiOperand.getImm())
706 .addImm(LoOperand.getImm());
711 .addImm(HiOperand.getImm())
721 .addImm(LoOperand.getImm());
726 .addImm(HiOperand.getImm())
735 if (isInt<8>(LoOperand.getImm())) {
737 .addImm(HiOperand.getImm())
738 .addImm(LoOperand.getImm());
743 if (isInt<8>(HiOperand.getImm())) {
745 .addImm(HiOperand.getImm())
746 .addImm(LoOperand.getImm());
753 .addImm(HiOperand.getImm())
754 .addImm(LoOperand.getImm());
801 .addImm(HiOperand.getImm())
851 .addImm(LoOperand.getImm());
lib/Target/Hexagon/HexagonFrameLowering.cpp 2123 In.getOperand(i+1).getImm() != 0)
2334 unsigned A = AI->getOperand(2).getImm();
lib/Target/Hexagon/HexagonGenMux.cpp 218 if (Src2.isImm() && isInt<8>(Src2.getImm()))
lib/Target/Hexagon/HexagonGenPredicate.cpp 198 if (MI->getOperand(2).isImm() && MI->getOperand(2).getImm() == 0)
lib/Target/Hexagon/HexagonHardwareLoops.cpp 779 int64_t StartV = Start->getImm();
780 int64_t EndV = End->getImm();
854 StartV = Start->getImm();
856 EndV = End->getImm();
931 EndValInstr->getOperand(2).getImm() == StartV) {
1429 return (EndVal->getImm() == Imm);
1500 Val = MO.getImm();
1547 unsigned Sub2 = DI->getOperand(2).getImm();
1548 unsigned Sub4 = DI->getOperand(4).getImm();
1790 nonIndI->getOperand(2).getImm() == - RB.second) {
lib/Target/Hexagon/HexagonInstrInfo.cpp 258 if (!OpOff.isImm() || OpOff.getImm() != 0)
272 if (!OpOff.isImm() || OpOff.getImm() != 0)
306 if (!OpOff.isImm() || OpOff.getImm() != 0)
324 if (!OpOff.isImm() || OpOff.getImm() != 0)
594 BccOpc = Cond[0].getImm();
613 } else if (isEndLoopN(Cond[0].getImm())) {
614 int EndLoopOp = Cond[0].getImm();
625 } else if (isNewValueJump(Cond[0].getImm())) {
639 addImm(Cond[2].getImm()).addMBB(TBB);
652 assert((!isNewValueJump(Cond[0].getImm())) &&
655 if (isEndLoopN(Cond[0].getImm())) {
656 int EndLoopOp = Cond[0].getImm();
695 : Loop->getOperand(1).getImm();
733 int64_t TripCount = Loop->getOperand(1).getImm() + TripCountAdjust;
1058 .addImm(-MI.getOperand(1).getImm());
1100 .addImm(MI.getOperand(1).getImm())
1107 .addImm(MI.getOperand(1).getImm() + Offset)
1123 .addImm(MI.getOperand(2).getImm())
1129 .addImm(MI.getOperand(2).getImm() + Offset)
1527 unsigned opcode = Cond[0].getImm();
1562 if (Cond.empty() || isNewValueJump(Cond[0].getImm()) ||
1563 isEndLoopN(Cond[0].getImm())) {
1844 Value = MI.getOperand(2).getImm();
1908 int OffsetA = isPostIncrement(MIa) ? 0 : OffA.getImm();
1909 int OffsetB = isPostIncrement(MIb) ? 0 : OffB.getImm();
1934 Value = OffsetOp.getImm();
1940 Value = AddOp.getImm();
2066 int ImmValue = MO.getImm();
3142 if (Cond.empty() || !isPredicated(Cond[0].getImm()))
3144 return !isPredicatedTrue(Cond[0].getImm());
3179 Offset = OffsetOp.getImm();
3324 ((isUInt<5>(MI.getOperand(2).getImm())) ||
3325 (MI.getOperand(2).getImm() == -1)))
3349 isIntRegForSubInst(Src1Reg) && (MI.getOperand(2).getImm() == 0))
3395 int V = CmpOp.getImm();
3745 isShiftedUInt<5,2>(MI.getOperand(2).getImm()))
3750 isShiftedUInt<4,2>(MI.getOperand(2).getImm())))
3759 MI.getOperand(2).isImm() && isUInt<4>(MI.getOperand(2).getImm()))
3779 isShiftedUInt<3,1>(MI.getOperand(2).getImm()))
3788 isUInt<3>(MI.getOperand(2).getImm()))
3799 isShiftedUInt<5,3>(MI.getOperand(2).getImm()))
3859 isShiftedUInt<5,2>(MI.getOperand(1).getImm()))
3864 isShiftedUInt<4,2>(MI.getOperand(1).getImm()))
3872 MI.getOperand(1).isImm() && isUInt<4>(MI.getOperand(1).getImm()))
3890 isShiftedUInt<3,1>(MI.getOperand(1).getImm()))
3900 isShiftedInt<6,3>(MI.getOperand(1).getImm()))
3907 isShiftedUInt<4,2>(MI.getOperand(1).getImm()) &&
3908 MI.getOperand(2).isImm() && isUInt<1>(MI.getOperand(2).getImm()))
3915 MI.getOperand(1).isImm() && isUInt<4>(MI.getOperand(1).getImm()) &&
3916 MI.getOperand(2).isImm() && isUInt<1>(MI.getOperand(2).getImm()))
3921 isShiftedUInt<5,3>(MI.getOperand(2).getImm()))
3949 isShiftedUInt<6,2>(MI.getOperand(2).getImm()))
3953 isInt<7>(MI.getOperand(2).getImm()))
3958 ((MI.getOperand(2).getImm() == 1) ||
3959 (MI.getOperand(2).getImm() == -1)))
3980 ((MI.getOperand(2).getImm() == 1) ||
3981 (MI.getOperand(2).getImm() == 255)))
4011 MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0)
4020 MI.getOperand(2).isImm() && isUInt<2>(MI.getOperand(2).getImm()))
4028 ((MI.getOperand(1).isImm() && isUInt<2>(MI.getOperand(1).getImm())) ||
4031 ((MI.getOperand(2).isImm() && isUInt<2>(MI.getOperand(2).getImm())) ||
4041 ((MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0) ||
4050 ((MI.getOperand(1).isImm() && MI.getOperand(1).getImm() == 0) ||
4143 unsigned Opc = getInvertedPredicatedOpcode(Cond[0].getImm());
4264 if (isNewValueJump(Cond[0].getImm()) || Cond[1].isMBB()) {
4436 Operand.setImm(Operand.getImm() | memShufDisabledMask);
4444 return (Operand.isImm() && (Operand.getImm() & memShufDisabledMask) != 0);
lib/Target/Hexagon/HexagonMCInstLower.cpp 143 MCConstantExpr::create(MO.getImm(), AP.OutContext), AP.OutContext);
lib/Target/Hexagon/HexagonNewValueJump.cpp 254 int64_t v = Op2.getImm();
589 cmpOp2 = MI.getOperand(2).getImm();
lib/Target/Hexagon/HexagonOptAddrMode.cpp 162 if (!OffsetOp.isImm() || OffsetOp.getImm() > 3)
373 int64_t newOffset = OffsetOp.getImm() + AddMI->getOperand(2).getImm();
373 int64_t newOffset = OffsetOp.getImm() + AddMI->getOperand(2).getImm();
424 OffsetOp.setImm(ImmOp.getImm() + OffsetOp.getImm());
424 OffsetOp.setImm(ImmOp.getImm() + OffsetOp.getImm());
511 int64_t Offset = ImmOp.getOffset() + OldMI->getOperand(2).getImm();
522 if (OldMI->getOperand(3).isImm() && OldMI->getOperand(3).getImm() == 0) {
568 int64_t Offset = ImmOp.getOffset() + OldMI->getOperand(1).getImm();
576 } else if (ImmOpNum == 1 && OldMI->getOperand(2).getImm() == 0) {
644 MIB.addGlobalAddress(GV, UseMI->getOperand(2).getImm()+ImmOp.getOffset(),
651 MIB.addGlobalAddress(GV, UseMI->getOperand(1).getImm()+ImmOp.getOffset(),
lib/Target/Hexagon/HexagonPeephole.cpp 158 if (Src1.getImm() != 0)
175 if (Src2.getImm() != 32)
lib/Target/Hexagon/HexagonRDFOpt.cpp 132 if (!A.isImm() || A.getImm() != 0)
lib/Target/Hexagon/HexagonRegisterInfo.cpp 200 int RealOffset = Offset + MI.getOperand(FIOp+1).getImm();
lib/Target/Hexagon/HexagonSplitConst32AndConst64.cpp 80 uint64_t ImmValue = MI.getOperand(1).getImm();
87 int64_t ImmValue = MI.getOperand(1).getImm();
lib/Target/Hexagon/HexagonSplitDouble.cpp 338 uint64_t D = MI->getOperand(1).getImm();
347 int32_t Prof1 = Op1.isImm() ? profitImm(Op1.getImm()) : 0;
348 int32_t Prof2 = Op2.isImm() ? profitImm(Op2.getImm()) : 0;
359 int64_t V = OpX.getImm();
381 unsigned S = MI->getOperand(3).getImm();
389 unsigned S = MI->getOperand(2).getImm();
495 if (!TII->PredOpcodeHasJMP_c(Cond[0].getImm()))
651 int64_t Off = PostInc ? 0 : MI->getOperand(2).getImm();
660 int64_t Off = PostInc ? 0 : MI->getOperand(1).getImm();
673 int64_t Inc = Load ? MI->getOperand(3).getImm()
674 : MI->getOperand(2).getImm();
705 uint64_t V = Op1.getImm();
785 int64_t Sh64 = Op2.getImm();
910 int64_t Sh64 = Op3.getImm();
lib/Target/Hexagon/HexagonStoreWidening.cpp 137 return MO.getImm();
291 int Off1 = S1->getOperand(1).getImm();
292 int Off2 = S2->getOperand(1).getImm();
410 unsigned Val = (SO.getImm() & Mask) << Shift;
432 int64_t Off = FirstSt->getOperand(1).getImm();
455 int64_t Off = FirstSt->getOperand(1).getImm();
lib/Target/Hexagon/HexagonVExtract.cpp 79 unsigned V = DI->getOperand(1).getImm();
lib/Target/Hexagon/HexagonVLIWPacketizer.cpp 482 int64_t NewOff = Off.getImm() - (FrameSize + HEXAGON_LRFP_SIZE);
503 Off.setImm(Off.getImm() + FrameSize + HEXAGON_LRFP_SIZE);
533 int64_t Offset = MI.getOperand(OPI).getImm();
lib/Target/Lanai/LanaiAsmPrinter.cpp 74 O << MO.getImm();
126 unsigned Flags = FlagsOP.getImm();
lib/Target/Lanai/LanaiDelaySlotFiller.cpp 112 RI->getOperand(2).isImm() && RI->getOperand(2).getImm() == -8);
lib/Target/Lanai/LanaiInstrInfo.cpp 188 CmpValue = MI.getOperand(1).getImm();
221 OI->getOperand(2).getImm() == ImmValue)
372 CC = (LPCC::CondCode)Instr.getOperand(IO - 1).getImm();
522 unsigned CondCode = MI.getOperand(3).getImm();
626 static_cast<LPCC::CondCode>(Instruction->getOperand(1).getImm());
652 static_cast<LPCC::CondCode>(Condition[0].getImm());
680 unsigned ConditionalCode = Condition[0].getImm();
721 MI.getOperand(2).getImm() == 0) {
750 MI.getOperand(1).getImm() == 0) {
765 !(LdSt.getOperand(3).isImm() && LdSt.getOperand(3).getImm() == LPAC::ADD))
790 Offset = LdSt.getOperand(2).getImm();
lib/Target/Lanai/LanaiMCInstLower.cpp 108 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/Lanai/LanaiMemAluCombiner.cpp 178 return Op1.getImm() == Op2.getImm();
178 return Op1.getImm() == Op2.getImm();
186 (Op.isImm() && Op.getImm() == 0));
267 InstrBuilder.addImm(AluOffset.getImm());
311 ((Offset.getImm() == 0 &&
314 ((IsSpls && isInt<10>(Op2.getImm())) ||
315 (!IsSpls && isInt<16>(Op2.getImm())))) ||
316 Offset.getImm() == Op2.getImm()))
316 Offset.getImm() == Op2.getImm()))
376 LPAC::AluCode AluOpcode = static_cast<LPAC::AluCode>(AluOperand.getImm());
lib/Target/Lanai/LanaiRegisterInfo.cpp 151 MI.getOperand(FIOperandNum + 1).getImm();
215 assert((MI.getOperand(3).getImm() == LPAC::ADD) &&
lib/Target/MSP430/MSP430AsmPrinter.cpp 89 O << MO.getImm();
lib/Target/MSP430/MSP430ISelLowering.cpp 1586 .addImm(MI.getOperand(3).getImm());
lib/Target/MSP430/MSP430InstrInfo.cpp 135 MSP430CC::CondCodes CC = static_cast<MSP430CC::CondCodes>(Cond[0].getImm());
232 static_cast<MSP430CC::CondCodes>(I->getOperand(1).getImm());
254 MSP430CC::CondCodes OldBranchCode = (MSP430CC::CondCodes)Cond[0].getImm();
286 BuildMI(&MBB, DL, get(MSP430::JCC)).addMBB(TBB).addImm(Cond[0].getImm());
lib/Target/MSP430/MSP430InstrInfo.h 74 assert(I.getOperand(1).getImm() >= 0 && "Size must not be negative");
75 return I.getOperand(1).getImm();
lib/Target/MSP430/MSP430MCInstLower.cpp 132 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/MSP430/MSP430RegisterInfo.cpp 127 Offset += MI.getOperand(FIOperandNum + 1).getImm();
lib/Target/Mips/MicroMipsSizeReduction.cpp 312 Imm = MI->getOperand(Op).getImm();
lib/Target/Mips/Mips16ISelLowering.cpp 677 .addImm(MI.getOperand(4).getImm());
729 int64_t imm = MI.getOperand(1).getImm();
782 int64_t Imm = MI.getOperand(2).getImm();
lib/Target/Mips/Mips16RegisterInfo.cpp 127 Offset += MI.getOperand(OpNo + 1).getImm();
lib/Target/Mips/MipsAsmPrinter.cpp 216 unsigned LabelId = (unsigned)MI->getOperand(0).getImm();
528 O << "0x" << Twine::utohexstr(MO.getImm());
533 O << "0x" << Twine::utohexstr(MO.getImm() & 0xffff);
538 O << MO.getImm();
543 O << MO.getImm() - 1;
548 if (!isPowerOf2_64(MO.getImm()))
550 O << Log2_64(MO.getImm());
554 if (MO.getType() == MachineOperand::MO_Immediate && MO.getImm() == 0) {
569 unsigned Flags = FlagsOP.getImm();
628 int Offset = OffsetMO.getImm();
689 O << MO.getImm();
756 O << Mips::MipsFCCToString((Mips::CondCode)MO.getImm());
lib/Target/Mips/MipsConstantIslandPass.cpp 948 unsigned Size = U.CPEMI->getOperand(2).getImm();
984 dbgs() << "User of CPE#" << CPEMI->getOperand(0).getImm()
1276 CPEMI->getOperand(2).getImm();
1297 EndInsertOffset += U.CPEMI->getOperand(2).getImm();
1314 unsigned Size = CPEMI->getOperand(2).getImm();
1418 unsigned Size = CPEMI->getOperand(2).getImm();
1654 int64_t V = Literal.getImm();
lib/Target/Mips/MipsFrameLowering.cpp 143 int64_t Amount = I->getOperand(0).getImm();
lib/Target/Mips/MipsInstrInfo.cpp 51 return op.isImm() && op.getImm() == 0;
108 unsigned Opc = Cond[0].getImm();
186 Cond[0].setImm(getOppositeBranchOpc(Cond[0].getImm()));
589 return MI.getOperand(2).getImm();
733 int64_t Pos = MOPos.getImm();
744 int64_t Size = MOSize.getImm();
lib/Target/Mips/MipsMCInstLower.cpp 190 return MCOperand::createImm(MO.getImm() + offset);
lib/Target/Mips/MipsSEFrameLowering.cpp 374 unsigned N = Op2.getImm();
lib/Target/Mips/MipsSEISelDAGToDAG.cpp 54 unsigned Mask = MI.getOperand(1).getImm();
90 (MI.getOperand(2).getImm() == 0)) {
96 (MI.getOperand(2).getImm() == 0)) {
lib/Target/Mips/MipsSEISelLowering.cpp 3176 unsigned Lane = MI.getOperand(2).getImm();
3221 unsigned Lane = MI.getOperand(2).getImm() * 2;
3251 unsigned Lane = MI.getOperand(2).getImm();
3287 unsigned Lane = MI.getOperand(2).getImm();
lib/Target/Mips/MipsSEInstrInfo.cpp 231 if (!MI.getOperand(1).isImm() || MI.getOperand(1).getImm() != (1<<4))
778 unsigned N = I->getOperand(2).getImm();
lib/Target/Mips/MipsSERegisterInfo.cpp 104 unsigned ConstraintID = InlineAsm::getMemoryConstraintID(MO.getImm());
204 Offset += MI.getOperand(OpNo + 1).getImm();
lib/Target/NVPTX/NVPTXAsmPrinter.cpp 160 lowerImageHandleSymbol(MO.getImm(), MCOp);
164 lowerImageHandleSymbol(MO.getImm(), MCOp);
175 lowerImageHandleSymbol(MO.getImm(), MCOp);
183 lowerImageHandleSymbol(MO.getImm(), MCOp);
191 lowerImageHandleSymbol(MO.getImm(), MCOp);
247 MCOp = MCOperand::createImm(MO.getImm());
2224 O << MO.getImm();
2253 MI->getOperand(opNum + 1).getImm() == 0)
lib/Target/NVPTX/NVPTXRegisterInfo.cpp 122 MI.getOperand(FIOperandNum + 1).getImm();
lib/Target/PowerPC/PPCAsmPrinter.cpp 223 O << MO.getImm();
353 unsigned NumNOPBytes = MI.getOperand(1).getImm();
387 int64_t CallTarget = CalleeMO.getImm();
1225 unsigned RetOpcode = MI->getOperand(0).getImm();
1273 static_cast<PPC::Predicate>(MI->getOperand(1).getImm())))
lib/Target/PowerPC/PPCBranchSelector.cpp 338 PPC::Predicate Pred = (PPC::Predicate)I->getOperand(0).getImm();
lib/Target/PowerPC/PPCEarlyReturn.cpp 93 .addImm(J->getOperand(0).getImm())
lib/Target/PowerPC/PPCFastISel.cpp 2309 unsigned MB = MI->getOperand(3).getImm();
2320 unsigned MB = MI->getOperand(3).getImm();
lib/Target/PowerPC/PPCFrameLowering.cpp 1479 int StackAdj = StackAdjust.getImm();
1747 BuildMI(MBB, MBBI, dl, TII.get(PPC::TAILBA)).addImm(JumpTarget.getImm());
1760 BuildMI(MBB, MBBI, dl, TII.get(PPC::TAILBA8)).addImm(JumpTarget.getImm());
2315 if (int CalleeAmt = I->getOperand(1).getImm()) {
lib/Target/PowerPC/PPCISelLowering.cpp10972 unsigned SelectPred = MI.getOperand(4).getImm();
11486 unsigned Imm = MI.getOperand(1).getImm();
11507 unsigned Mode = MI.getOperand(1).getImm();
lib/Target/PowerPC/PPCInstrInfo.cpp 307 if (MI.getOperand(1).isImm() && !MI.getOperand(1).getImm() &&
359 if (MI.getOperand(1).isImm() && !MI.getOperand(1).getImm() &&
382 if (MI.getOperand(3).getImm() != 0)
415 unsigned MB = MI.getOperand(4).getImm();
416 unsigned ME = MI.getOperand(5).getImm();
721 BuildMI(&MBB, DL, get(Cond[0].getImm() ?
724 else if (Cond[0].getImm() == PPC::PRED_BIT_SET)
726 else if (Cond[0].getImm() == PPC::PRED_BIT_UNSET)
730 .addImm(Cond[0].getImm())
738 BuildMI(&MBB, DL, get(Cond[0].getImm() ?
741 else if (Cond[0].getImm() == PPC::PRED_BIT_SET)
743 else if (Cond[0].getImm() == PPC::PRED_BIT_UNSET)
747 .addImm(Cond[0].getImm())
814 auto SelectPred = static_cast<PPC::Predicate>(Cond[0].getImm());
1317 Cond[0].setImm(Cond[0].getImm() == 0 ? 1 : 0);
1320 Cond[0].setImm(PPC::InvertPredicate((PPC::Predicate)Cond[0].getImm()));
1333 if (DefMI.getOperand(1).getImm() != 0)
1443 MI.setDesc(get(Pred[0].getImm() ? (isPPC64 ? PPC::BDNZLR8 : PPC::BDNZLR)
1445 } else if (Pred[0].getImm() == PPC::PRED_BIT_SET) {
1448 } else if (Pred[0].getImm() == PPC::PRED_BIT_UNSET) {
1454 .addImm(Pred[0].getImm())
1462 MI.setDesc(get(Pred[0].getImm() ? (isPPC64 ? PPC::BDNZ8 : PPC::BDNZ)
1464 } else if (Pred[0].getImm() == PPC::PRED_BIT_SET) {
1472 } else if (Pred[0].getImm() == PPC::PRED_BIT_UNSET) {
1486 .addImm(Pred[0].getImm())
1500 if (Pred[0].getImm() == PPC::PRED_BIT_SET) {
1505 } else if (Pred[0].getImm() == PPC::PRED_BIT_UNSET) {
1515 .addImm(Pred[0].getImm())
1537 PPC::Predicate P1 = (PPC::Predicate) Pred1[0].getImm();
1538 PPC::Predicate P2 = (PPC::Predicate) Pred2[0].getImm();
1619 Value = MI.getOperand(2).getImm();
1703 PPC::Predicate Pred = (PPC::Predicate)UseMI->getOperand(0).getImm();
1768 PPC::Predicate Pred = (PPC::Predicate)UseMI->getOperand(0).getImm();
1879 PPC::Predicate Pred = (PPC::Predicate) UseMI->getOperand(0).getImm();
1933 int64_t SH = MI->getOperand(2).getImm();
1934 int64_t MB = MI->getOperand(3).getImm();
1935 int64_t ME = MI->getOperand(4).getImm();
1965 } else if (MIOpC == PPC::RLDICL && MI->getOperand(2).getImm() == 0) {
1966 int64_t MB = MI->getOperand(3).getImm();
2652 Imm = ADDIMI.getOperand(2).getImm();
2702 OffsetImm = ImmOperand.getImm();
2788 int64_t Immediate = DefMI->getOperand(1).getImm();
2824 int64_t Comparand = MI.getOperand(2).getImm();
2872 int64_t Addend = MI.getOperand(2).getImm();
2886 int64_t SH = MI.getOperand(2).getImm();
2887 int64_t MB = MI.getOperand(3).getImm();
2910 int64_t SH = MI.getOperand(2).getImm();
2911 int64_t MB = MI.getOperand(3).getImm();
2912 int64_t ME = MI.getOperand(4).getImm();
2937 int64_t LogicalImm = MI.getOperand(2).getImm();
3569 int64_t Immediate = ImmMO.getImm();
3896 if (Opcode == PPC::RLDICL && MI.getOperand(3).getImm() >= 33)
3901 MI.getOperand(3).getImm() > 0 &&
3902 MI.getOperand(3).getImm() <= MI.getOperand(4).getImm())
3902 MI.getOperand(3).getImm() <= MI.getOperand(4).getImm())
3916 int64_t Imm = MI.getOperand(1).getImm();
3926 MI.getOperand(3).getImm() >= 32)
3930 MI.getOperand(3).getImm() >= 32 &&
3931 MI.getOperand(3).getImm() <= 63 - MI.getOperand(2).getImm())
3931 MI.getOperand(3).getImm() <= 63 - MI.getOperand(2).getImm())
3937 MI.getOperand(3).getImm() <= MI.getOperand(4).getImm())
3937 MI.getOperand(3).getImm() <= MI.getOperand(4).getImm())
3981 unsigned StackOffset = MI.getOperand(1).getImm();
4174 TripCount = LoopCount->getOperand(1).getImm();
4210 int64_t TripCount = LoopCount->getOperand(1).getImm() + TripCountAdjust;
4281 Offset = LdSt.getOperand(1).getImm();
lib/Target/PowerPC/PPCMCInstLower.cpp 176 OutMO = MCOperand::createImm(MO.getImm());
lib/Target/PowerPC/PPCMIPeephole.cpp 165 return MI->getOperand(3).getImm();
168 MI->getOperand(3).getImm() <= 63 - MI->getOperand(2).getImm())
168 MI->getOperand(3).getImm() <= 63 - MI->getOperand(2).getImm())
169 return MI->getOperand(3).getImm();
174 MI->getOperand(3).getImm() <= MI->getOperand(4).getImm())
174 MI->getOperand(3).getImm() <= MI->getOperand(4).getImm())
175 return 32 + MI->getOperand(3).getImm();
178 uint16_t Imm = MI->getOperand(2).getImm();
332 int Immed = MI.getOperand(3).getImm();
383 unsigned FeedImmed = DefMI->getOperand(3).getImm();
425 (DefMI->getOperand(2).getImm() == 0 ||
426 DefMI->getOperand(2).getImm() == 3)) {
486 unsigned ShiftImm = DefMI->getOperand(3).getImm();
487 unsigned SplatImm = MI.getOperand(2).getImm();
678 if (MI.getOperand(2).getImm() != 0)
703 if (MI.getOperand(3).getImm() <= KnownZeroCount) {
782 auto LiImm = LiMI->getOperand(1).getImm(); // save the imm of LI
833 PPC::Predicate Pred = (PPC::Predicate)BI->getOperand(0).getImm();
866 uint64_t Imm = CMPI->getOperand(2).getImm();
871 PPC::Predicate Pred = (PPC::Predicate)BI->getOperand(0).getImm();
885 uint64_t Imm = CMPI->getOperand(2).getImm();
890 PPC::Predicate Pred = (PPC::Predicate)BI->getOperand(0).getImm();
1142 int16_t Imm = (int16_t)I->getOperand(2).getImm();
1173 PPC::Predicate Pred = (PPC::Predicate)BI2->getOperand(0).getImm();
1191 NewImm1 = Imm1 = (int16_t)CMPI1->getOperand(2).getImm();
1192 NewImm2 = Imm2 = (int16_t)CMPI2->getOperand(2).getImm();
1351 uint64_t SHSrc = MOpSHSrc.getImm();
1352 uint64_t MBSrc = MOpMBSrc.getImm();
1353 uint64_t SHMI = MOpSHMI.getImm();
1354 uint64_t MEMI = MOpMEMI.getImm();
1410 uint64_t SHMI = MOpSHMI.getImm();
1411 uint64_t MEMI = MOpMEMI.getImm();
lib/Target/PowerPC/PPCPreEmitPeephole.cpp 97 int64_t Imm = BBI->getOperand(1).getImm();
131 AfterBBI->getOperand(1).getImm() != Imm)
lib/Target/PowerPC/PPCQPXLoadSplat.cpp 148 if (MI->getOperand(2).getImm() != 0)
lib/Target/PowerPC/PPCRegisterInfo.cpp 1057 Offset += MI.getOperand(OffsetOperandNo).getImm();
1193 MI->getOperand(2).getImm() == 0)
1252 Offset += MI.getOperand(OffsetOperandNo).getImm();
1276 Offset += MI->getOperand(OffsetOperandNo).getImm();
lib/Target/PowerPC/PPCVSXSwapRemoval.cpp 295 int immed = MI.getOperand(3).getImm();
840 EltNo = MI->getOperand(2).getImm();
842 EltNo = MI->getOperand(1).getImm();
867 unsigned Selector = MI->getOperand(3).getImm();
lib/Target/RISCV/RISCVAsmPrinter.cpp 99 if (MO.isImm() && MO.getImm() == 0) {
113 OS << MO.getImm();
lib/Target/RISCV/RISCVExpandPseudoInsts.cpp 243 static_cast<AtomicOrdering>(MI.getOperand(4).getImm());
306 static_cast<AtomicOrdering>(MI.getOperand(5).getImm());
447 static_cast<AtomicOrdering>(MI.getOperand(IsSigned ? 7 : 6).getImm());
558 static_cast<AtomicOrdering>(MI.getOperand(IsMasked ? 6 : 5).getImm());
lib/Target/RISCV/RISCVFrameLowering.cpp 451 int64_t Amount = MI->getOperand(0).getImm();
lib/Target/RISCV/RISCVISelLowering.cpp 1254 auto CC = static_cast<ISD::CondCode>(MI.getOperand(3).getImm());
1269 SequenceMBBI->getOperand(3).getImm() != CC ||
lib/Target/RISCV/RISCVInstrInfo.cpp 54 MI.getOperand(2).getImm() == 0) {
77 MI.getOperand(1).getImm() == 0) {
355 unsigned Opc = Cond[0].getImm();
417 Cond[0].setImm(getOppositeBranchOpcode(Cond[0].getImm()));
502 int64_t Imm = MO.getImm();
lib/Target/RISCV/RISCVMCInstLower.cpp 105 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/RISCV/RISCVMergeBaseOffset.cpp 153 int64_t OffLo = AddiImmOp.getImm();
161 int64_t OffHi = OffsetLui.getOperand(1).getImm();
172 Offset = OffsetTail.getOperand(1).getImm() << 12;
192 int64_t Offset = Tail.getOperand(2).getImm();
239 int64_t Offset = TailImmOp.getImm();
lib/Target/RISCV/RISCVRegisterInfo.cpp 117 MI.getOperand(FIOperandNum + 1).getImm();
lib/Target/Sparc/DelaySlotFiller.cpp 370 StructSize = MO.getImm();
423 && (!OrMI->getOperand(2).isImm() || OrMI->getOperand(2).getImm() != 0))
456 int64_t imm = SetHiMI->getOperand(1).getImm();
lib/Target/Sparc/SparcAsmPrinter.cpp 355 O << (int)MO.getImm();
397 MI->getOperand(opNum+1).getImm() == 0)
lib/Target/Sparc/SparcFrameLowering.cpp 209 int Size = MI.getOperand(0).getImm();
lib/Target/Sparc/SparcISelLowering.cpp 3121 unsigned CC = (SPCC::CondCodes)MI.getOperand(3).getImm();
lib/Target/Sparc/SparcInstrInfo.cpp 49 MI.getOperand(2).getImm() == 0) {
68 MI.getOperand(1).getImm() == 0) {
155 Cond.push_back(MachineOperand::CreateImm(LastInst->getOperand(1).getImm()));
260 unsigned CC = Cond[0].getImm();
300 SPCC::CondCodes CC = static_cast<SPCC::CondCodes>(Cond[0].getImm());
lib/Target/Sparc/SparcMCInstLower.cpp 78 return MCOperand::createImm(MO.getImm());
lib/Target/Sparc/SparcRegisterInfo.cpp 180 Offset += MI.getOperand(FIOperandNum + 1).getImm();
lib/Target/SystemZ/SystemZAsmPrinter.cpp 35 .addImm(MI->getOperand(1).getImm());
40 .addImm(MI->getOperand(2).getImm());
49 .addImm(MI->getOperand(1).getImm());
54 .addImm(MI->getOperand(2).getImm());
64 .addImm(MI->getOperand(3).getImm())
65 .addImm(MI->getOperand(4).getImm())
66 .addImm(MI->getOperand(5).getImm());
110 .addImm(MI->getOperand(2).getImm())
120 .addImm(MI->getOperand(2).getImm())
135 .addImm(MI->getOperand(0).getImm())
136 .addImm(MI->getOperand(1).getImm())
144 .addImm(MI->getOperand(2).getImm())
153 .addImm(MI->getOperand(2).getImm())
161 .addImm(MI->getOperand(1).getImm())
162 .addImm(MI->getOperand(2).getImm())
170 .addImm(MI->getOperand(1).getImm())
171 .addImm(MI->getOperand(2).getImm())
180 .addImm(MI->getOperand(2).getImm())
189 .addImm(MI->getOperand(2).getImm())
197 .addImm(MI->getOperand(1).getImm())
198 .addImm(MI->getOperand(2).getImm())
206 .addImm(MI->getOperand(1).getImm())
207 .addImm(MI->getOperand(2).getImm())
231 .addImm(MI->getOperand(0).getImm())
232 .addImm(MI->getOperand(1).getImm())
242 .addImm(MI->getOperand(0).getImm())
243 .addImm(MI->getOperand(1).getImm())
251 .addImm(MI->getOperand(2).getImm())
260 .addImm(MI->getOperand(2).getImm())
268 .addImm(MI->getOperand(1).getImm())
269 .addImm(MI->getOperand(2).getImm())
277 .addImm(MI->getOperand(1).getImm())
278 .addImm(MI->getOperand(2).getImm())
287 .addImm(MI->getOperand(2).getImm())
296 .addImm(MI->getOperand(2).getImm())
304 .addImm(MI->getOperand(1).getImm())
305 .addImm(MI->getOperand(2).getImm())
313 .addImm(MI->getOperand(1).getImm())
314 .addImm(MI->getOperand(2).getImm())
342 .addImm(MI->getOperand(2).getImm());
348 .addImm(MI->getOperand(2).getImm());
498 .addImm(MI->getOperand(0).getImm())
499 .addImm(MI->getOperand(1).getImm())
573 unsigned NumNOPBytes = MI.getOperand(1).getImm();
611 uint64_t CallTarget = CalleeMO.getImm();
698 MI->getOperand(OpNo + 1).getImm(),
lib/Target/SystemZ/SystemZElimCompare.cpp 209 if (MI.getOperand(2).getImm() != -1)
217 Branch->getOperand(0).getImm() != SystemZ::CCMASK_ICMP ||
218 Branch->getOperand(1).getImm() != SystemZ::CCMASK_CMP_NE)
261 Branch->getOperand(0).getImm() != SystemZ::CCMASK_ICMP ||
262 Branch->getOperand(1).getImm() != SystemZ::CCMASK_CMP_EQ)
359 unsigned CCValid = MI->getOperand(FirstOpNum).getImm();
360 unsigned CCMask = MI->getOperand(FirstOpNum + 1).getImm();
373 unsigned CCMask = AlterMasks[I + 1]->getImm();
415 Compare.getOperand(1).isImm() && Compare.getOperand(1).getImm() == 0;
536 assert((CCMask.getImm() & ~SystemZ::CCMASK_ICMP) == 0 &&
lib/Target/SystemZ/SystemZFrameLowering.cpp 493 uint64_t Offset = StackSize + MBBI->getOperand(AddrOpNo + 1).getImm();
lib/Target/SystemZ/SystemZISelLowering.cpp 6575 unsigned CCValid = FirstMI->getOperand(3).getImm();
6576 unsigned CCMask = FirstMI->getOperand(4).getImm();
6596 if (MI->getOperand(4).getImm() == (CCValid ^ CCMask))
6625 unsigned CCValid = MI.getOperand(3).getImm();
6626 unsigned CCMask = MI.getOperand(4).getImm();
6641 assert(NextMIIt->getOperand(3).getImm() == CCValid &&
6643 if (NextMIIt->getOperand(4).getImm() == CCMask ||
6644 NextMIIt->getOperand(4).getImm() == (CCValid ^ CCMask)) {
6723 int64_t Disp = MI.getOperand(2).getImm();
6725 unsigned CCValid = MI.getOperand(4).getImm();
6726 unsigned CCMask = MI.getOperand(5).getImm();
6818 int64_t Disp = MI.getOperand(2).getImm();
6824 BitSize = MI.getOperand(6).getImm();
6936 int64_t Disp = MI.getOperand(2).getImm();
6942 BitSize = MI.getOperand(6).getImm();
7050 int64_t Disp = MI.getOperand(2).getImm();
7055 int64_t BitSize = MI.getOperand(7).getImm();
7231 uint64_t DestDisp = MI.getOperand(1).getImm();
7233 uint64_t SrcDisp = MI.getOperand(3).getImm();
7234 uint64_t Length = MI.getOperand(4).getImm();
7473 uint64_t Control = MI.getOperand(2).getImm();
lib/Target/SystemZ/SystemZInstrInfo.cpp 98 LowOffsetOp.setImm(LowOffsetOp.getImm() + 8);
107 unsigned HighOpcode = getOpcodeForOffset(NewOpcode, HighOffsetOp.getImm());
108 unsigned LowOpcode = getOpcodeForOffset(NewOpcode, LowOffsetOp.getImm());
124 OffsetMO.getImm());
144 MI.getOperand(1).setImm(uint32_t(MI.getOperand(1).getImm()));
180 MI.getOperand(2).getImm());
293 unsigned CCValid = WorkingMI.getOperand(3).getImm();
294 unsigned CCMask = WorkingMI.getOperand(4).getImm();
313 MI.getOperand(2).getImm() == 0 && MI.getOperand(3).getReg() == 0) {
336 MI.getOperand(1).getImm() != 0 || !MI.getOperand(3).isFI() ||
337 MI.getOperand(4).getImm() != 0)
341 int64_t Length = MI.getOperand(2).getImm();
433 unsigned OldCCValid = Cond[0].getImm();
434 unsigned OldCCMask = Cond[1].getImm();
473 Cond[1].setImm(Cond[1].getImm() ^ Cond[0].getImm());
473 Cond[1].setImm(Cond[1].getImm() ^ Cond[0].getImm());
502 unsigned CCValid = Cond[0].getImm();
503 unsigned CCMask = Cond[1].getImm();
525 Value = MI.getOperand(1).getImm();
576 unsigned CCValid = Pred[0].getImm();
577 unsigned CCMask = Pred[1].getImm();
617 int32_t ImmVal = (int32_t)DefMI.getOperand(1).getImm();
721 unsigned CCValid = Pred[0].getImm();
722 unsigned CCMask = Pred[1].getImm();
905 isUInt<12>(MI->getOperand(2).getImm()) &&
955 uint64_t Imm = MI.getOperand(2).getImm() << And.ImmLSB;
1008 isInt<8>(MI.getOperand(2).getImm()) && !MI.getOperand(3).getReg()) {
1024 .addImm(MI.getOperand(2).getImm());
1044 isInt<8>(MI.getOperand(2).getImm())) {
1051 .addImm(MI.getOperand(2).getImm());
1057 isInt<8>((int32_t)MI.getOperand(2).getImm())) ||
1059 isInt<8>((int64_t)MI.getOperand(2).getImm()))) {
1066 .addImm((int8_t)MI.getOperand(2).getImm());
1072 isInt<8>((int32_t)-MI.getOperand(2).getImm())) ||
1074 isInt<8>((int64_t)-MI.getOperand(2).getImm()))) {
1081 .addImm((int8_t)-MI.getOperand(2).getImm());
1137 .addImm(MI.getOperand(2).getImm())
1145 .addImm(MI.getOperand(2).getImm())
1378 MI.getOperand(5).setImm(MI.getOperand(5).getImm() ^ 32);
1417 return SystemZII::Branch(SystemZII::BranchNormal, MI.getOperand(0).getImm(),
1418 MI.getOperand(1).getImm(), &MI.getOperand(2));
1432 MI.getOperand(2).getImm(), &MI.getOperand(3));
1437 MI.getOperand(2).getImm(), &MI.getOperand(3));
1442 MI.getOperand(2).getImm(), &MI.getOperand(3));
1447 MI.getOperand(2).getImm(), &MI.getOperand(3));
1604 if (!(MI && isInt<8>(MI->getOperand(1).getImm())))
1609 if (!(MI && isUInt<8>(MI->getOperand(1).getImm())))
lib/Target/SystemZ/SystemZMCInstLower.cpp 85 return MCOperand::createImm(MO.getImm());
lib/Target/SystemZ/SystemZPostRewrite.cpp 166 unsigned CCValid = MI.getOperand(3).getImm();
167 unsigned CCMask = MI.getOperand(4).getImm();
lib/Target/SystemZ/SystemZRegisterInfo.cpp 130 if (Use.getOperand(1).getImm() == 0) {
268 MI->getOperand(FIOperandNum + 1).getImm());
lib/Target/SystemZ/SystemZShortenInst.cpp 93 uint64_t Imm = MI.getOperand(1).getImm();
352 ImmMO.setImm(ImmMO.getImm() & 0xfff);
lib/Target/WebAssembly/WebAssemblyAsmPrinter.cpp 378 OS << MO.getImm();
lib/Target/WebAssembly/WebAssemblyCFGStackify.cpp 689 int64_t RetType = Try->getOperand(0).getImm();
694 std::prev(B)->getOperand(0).getImm() == RetType;
lib/Target/WebAssembly/WebAssemblyExplicitLocals.cpp 212 Reg2Local[Reg] = static_cast<unsigned>(MI.getOperand(1).getImm());
lib/Target/WebAssembly/WebAssemblyFrameLowering.cpp 141 assert(!I->getOperand(0).getImm() && (hasFP(MF) || hasBP(MF)) &&
lib/Target/WebAssembly/WebAssemblyInstrInfo.cpp 199 if (Cond[0].getImm()) {
230 Cond.front() = MachineOperand::CreateImm(!Cond.front().getImm());
lib/Target/WebAssembly/WebAssemblyMCInstLower.cpp 260 auto BT = static_cast<WebAssembly::BlockType>(MO.getImm());
271 MCOp = MCOperand::createImm(MO.getImm());
lib/Target/WebAssembly/WebAssemblyRegNumbering.cpp 78 int64_t Imm = MI.getOperand(1).getImm();
lib/Target/WebAssembly/WebAssemblyRegisterInfo.cpp 78 assert(FrameOffset >= 0 && MI.getOperand(OffsetOperandNum).getImm() >= 0);
79 int64_t Offset = MI.getOperand(OffsetOperandNum).getImm() + FrameOffset;
103 ImmMO.setImm(ImmMO.getImm() + uint32_t(FrameOffset));
lib/Target/WebAssembly/WebAssemblySetP2AlignOperands.cpp 58 assert(MI.getOperand(OperandNo).getImm() == 0 &&
lib/Target/X86/X86AsmPrinter.cpp 218 O << MO.getImm();
268 O << MO.getImm();
295 int DispVal = DispSpec.getImm();
320 unsigned ScaleVal = MI->getOperand(OpNo + X86::AddrScaleAmt).getImm();
342 unsigned ScaleVal = MI->getOperand(OpNo + X86::AddrScaleAmt).getImm();
373 int64_t DispVal = DispSpec.getImm();
450 O << MO.getImm();
474 O << MO.getImm();
513 O << -MO.getImm();
lib/Target/X86/X86AvoidStoreForwardingBlocks.cpp 322 if (Scale.getImm() != 1)
573 int64_t LdDispImm = getDispOperand(LoadInst).getImm();
574 int64_t StDispImm = getDispOperand(StoreInst).getImm();
688 int64_t LdDispImm = getDispOperand(LoadInst).getImm();
698 int64_t PBstDispImm = getDispOperand(PBInst).getImm();
lib/Target/X86/X86CallFrameOptimization.cpp 292 return ImmOp.getImm() == 0 ? Convert : Exit;
298 return ImmOp.getImm() == -1 ? Convert : Exit;
430 (I->getOperand(X86::AddrScaleAmt).getImm() != 1) ||
436 int64_t StackDisp = I->getOperand(X86::AddrDisp).getImm();
529 int64_t Val = PushOp.getImm();
lib/Target/X86/X86CondBrFolding.cpp 469 CmpValue = MI.getOperand(ValueIndex).getImm();
lib/Target/X86/X86EvexToVex.cpp 160 Imm.setImm(Imm.getImm() * Scale);
175 int64_t ImmVal = Imm.getImm();
197 int64_t ImmVal = Imm.getImm();
lib/Target/X86/X86ExpandPseudo.cpp 97 JTInst->getOperand(2 + 2 * Target).getImm())
202 int StackAdj = StackAdjust.getImm();
255 MIB.addImm(MBBI->getOperand(2).getImm());
300 int64_t StackAdj = MBBI->getOperand(0).getImm();
310 int64_t StackAdj = MBBI->getOperand(0).getImm();
lib/Target/X86/X86FixupLEAs.cpp 311 return (Offset.isImm() && Offset.getImm() != 0) || Offset.isGlobal();
328 bool IsInt8 = Offset.isImm() && isInt<8>(Offset.getImm());
363 if (Segment.getReg() != 0 || !Disp.isImm() || Scale.getImm() > 1 ||
387 if (BaseReg != 0 && IndexReg != 0 && Disp.getImm() == 0 &&
410 if (OptIncDec && (Disp.getImm() == 1 || Disp.getImm() == -1)) {
410 if (OptIncDec && (Disp.getImm() == 1 || Disp.getImm() == -1)) {
411 bool IsINC = Disp.getImm() == 1;
427 .addReg(BaseReg).addImm(Disp.getImm())
431 .addReg(BaseReg).addImm(Disp.getImm());
500 if (Scale.getImm() > 1)
514 if (Offset.getImm() != 0) {
520 .addImm(Offset.getImm());
558 bool IsScale1 = Scale.getImm() == 1;
614 (Offset.getImm() == 1 || Offset.getImm() == -1)) {
614 (Offset.getImm() == 1 || Offset.getImm() == -1)) {
616 getINCDECFromLEA(MI.getOpcode(), Offset.getImm() == 1);
lib/Target/X86/X86FloatingPoint.cpp 1527 unsigned Flags = MI.getOperand(i).getImm();
lib/Target/X86/X86FrameLowering.cpp 425 Offset = PI->getOperand(2).getImm();
429 PI->getOperand(2).getImm() == 1 &&
433 Offset = PI->getOperand(4).getImm();
438 Offset = -PI->getOperand(2).getImm();
lib/Target/X86/X86ISelLowering.cpp29275 unsigned ArgSize = MI.getOperand(6).getImm();
29276 unsigned ArgMode = MI.getOperand(7).getImm();
29277 unsigned Align = MI.getOperand(8).getImm();
29548 int64_t RegSaveFrameIndex = MI.getOperand(1).getImm();
29549 int64_t VarArgsFPOffset = MI.getOperand(2).getImm();
29669 X86::CondCode CC = X86::CondCode(MIItBegin->getOperand(3).getImm());
29691 if (MIIt->getOperand(3).getImm() == OppCC)
29835 X86::CondCode FirstCC = X86::CondCode(FirstCMOV.getOperand(3).getImm());
29839 X86::CondCode(SecondCascadedCMOV.getOperand(3).getImm());
29923 X86::CondCode CC = X86::CondCode(MI.getOperand(3).getImm());
29936 (NextMIIt->getOperand(3).getImm() == CC ||
29937 NextMIIt->getOperand(3).getImm() == OppCC)) {
lib/Target/X86/X86InsertPrefetch.cpp 227 Current->getOperand(MemOpOffset + X86::AddrScaleAmt).getImm())
230 .addImm(Current->getOperand(MemOpOffset + X86::AddrDisp).getImm() +
lib/Target/X86/X86InstrBuilder.h 105 AM.Scale = Op1.getImm();
114 AM.Disp = Op3.getImm();
lib/Target/X86/X86InstrInfo.cpp 168 return -(I->getOperand(1).getImm());
199 MI.getOperand(Op + X86::AddrScaleAmt).getImm() == 1 &&
201 MI.getOperand(Op + X86::AddrDisp).getImm() == 0) {
688 unsigned Imm = MI.getOperand(ShiftAmtOperandIdx).getImm();
809 unsigned ShAmt = MI.getOperand(2).getImm();
828 addRegOffset(MIB, InRegLEA, true, MI.getOperand(2).getImm());
1127 int64_t Imm = MI.getOperand(2).getImm();
1155 int64_t Imm = MI.getOperand(2).getImm();
1429 uint8_t Imm = MI.getOperand(MI.getNumOperands()-1).getImm();
1554 unsigned Amt = MI.getOperand(3).getImm();
1586 if ((MI.getOperand(3).getImm() ^ Mask) == 1) {
1621 int8_t Imm = MI.getOperand(3).getImm() & Mask;
1630 unsigned Imm = MI.getOperand(MI.getNumOperands() - 1).getImm();
1683 assert(MI.getOperand(3).getImm() == 0x02 && "Unexpected immediate!");
1698 unsigned Imm = MI.getOperand(3).getImm();
1731 unsigned Imm = MI.getOperand(MI.getNumOperands() - 1).getImm() & 0x7;
1743 unsigned Imm = MI.getOperand(3).getImm() & 0x7;
1764 unsigned Imm = MI.getOperand(MI.getNumOperands() - 1).getImm() & 0x1f;
1776 int8_t Imm = MI.getOperand(3).getImm() & 0xFF;
1808 X86::CondCode CC = static_cast<X86::CondCode>(MI.getOperand(OpNo).getImm());
2013 unsigned Imm = MI.getOperand(3 + OpOffset).getImm() & 0x7;
2042 if (MI.getOperand(3).getImm() == 0x02)
2189 MI.getOperand(MI.getDesc().getNumOperands() - 1).getImm());
2199 MI.getOperand(MI.getDesc().getNumOperands() - 1).getImm());
2210 MI.getOperand(MI.getDesc().getNumOperands() - 1).getImm());
2422 if (BranchCond[0].getImm() > X86::LAST_VALID_COND) {
2429 TailCall.getOperand(1).getImm() != 0) {
2452 if (CC != BranchCond[0].getImm())
2620 X86::CondCode OldBranchCode = (X86::CondCode)Cond[0].getImm();
2734 (Cond[0].getImm() == X86::COND_NE || Cond[0].getImm() == X86::COND_E)) {
2734 (Cond[0].getImm() == X86::COND_NE || Cond[0].getImm() == X86::COND_E)) {
2737 MBP.Predicate = Cond[0].getImm() == X86::COND_NE
2793 X86::CondCode CC = (X86::CondCode)Cond[0].getImm();
2839 if ((X86::CondCode)Cond[0].getImm() > X86::LAST_VALID_COND)
2879 .addImm(Cond[0].getImm());
3209 if (MemOp.getOperand(MemRefBegin + X86::AddrScaleAmt).getImm() != 1)
3222 Offset = DispMO.getImm();
3291 CmpValue = MI.getOperand(1).getImm();
3326 CmpValue = MI.getOperand(2).getImm();
3389 OI.getOperand(2).getImm() == ImmValue)
3929 int64_t Imm = MIB->getOperand(1).getImm();
4066 int64_t ShiftAmt = MIB->getOperand(2).getImm();
4738 unsigned Imm = MI.getOperand(MI.getNumOperands() - 1).getImm();
5558 if (MO1.getImm() == 0) {
5995 X86::CondCode CC = static_cast<X86::CondCode>(Cond[0].getImm());
6596 unsigned Imm = MI.getOperand(NumOperands - 1).getImm();
6698 unsigned Imm = MI.getOperand(NumOperands - 1).getImm() & 255;
6806 unsigned Imm = MI.getOperand(3).getImm();
7592 int64_t Coef = MI.getOperand(2).getImm();
7593 int64_t Offset = MI.getOperand(4).getImm();
lib/Target/X86/X86InstrInfo.h 108 return MO.isImm() && (MO.getImm() == 1 || MO.getImm() == 2 ||
108 return MO.isImm() && (MO.getImm() == 1 || MO.getImm() == 2 ||
109 MO.getImm() == 4 || MO.getImm() == 8);
109 MO.getImm() == 4 || MO.getImm() == 8);
158 return I.getOperand(2).getImm();
159 return I.getOperand(1).getImm();
lib/Target/X86/X86InstructionSelector.cpp 649 Val = I.getOperand(1).getImm();
1145 int64_t Index = I.getOperand(2).getImm();
1278 int64_t Index = I.getOperand(3).getImm();
lib/Target/X86/X86MCInstLower.cpp 410 return MCOperand::createImm(MO.getImm());
1122 CallTargetMCOp = MCOperand::createImm(CallTarget.getImm());
1161 static_cast<FaultMaps::FaultKind>(FaultingMI.getOperand(1).getImm());
1163 unsigned Opcode = FaultingMI.getOperand(3).getImm();
1202 unsigned MinSize = MI.getOperand(0).getImm();
1203 unsigned Opcode = MI.getOperand(1).getImm();
1240 unsigned NumShadowBytes = MI.getOperand(1).getImm();
1261 if (!(CalleeMO.isImm() && !CalleeMO.getImm())) {
1268 if (CalleeMO.getImm())
1269 CalleeMCOp = MCOperand::createImm(CalleeMO.getImm());
1543 unsigned OpCode = MI.getOperand(0).getImm();
1575 unsigned OpCode = MI.getOperand(0).getImm();
1753 XTS->emitFPOPushReg(MI->getOperand(0).getImm());
1756 XTS->emitFPOStackAlloc(MI->getOperand(0).getImm());
1759 XTS->emitFPOStackAlign(MI->getOperand(0).getImm());
1762 assert(MI->getOperand(1).getImm() == 0 &&
1764 XTS->emitFPOSetFrame(MI->getOperand(0).getImm());
1783 OutStreamer->EmitWinCFIPushReg(MI->getOperand(0).getImm());
1787 OutStreamer->EmitWinCFISaveReg(MI->getOperand(0).getImm(),
1788 MI->getOperand(1).getImm());
1792 OutStreamer->EmitWinCFISaveXMM(MI->getOperand(0).getImm(),
1793 MI->getOperand(1).getImm());
1797 OutStreamer->EmitWinCFIAllocStack(MI->getOperand(0).getImm());
1801 OutStreamer->EmitWinCFISetFrame(MI->getOperand(0).getImm(),
1802 MI->getOperand(1).getImm());
1806 OutStreamer->EmitWinCFIPushFrame(MI->getOperand(0).getImm());
1899 int64_t Disp = MI->getOperand(1 + X86::AddrDisp).getImm();
1930 int64_t Disp = MI->getOperand(X86::AddrDisp).getImm();
2252 DecodeVPERMIL2PMask(C, (unsigned)CtrlOp.getImm(), ElSize, Width, Mask);
lib/Target/X86/X86OptimizeLEAs.cpp 405 return Op1.isImm() ? Op1.getImm() - Op2.getImm()
405 return Op1.isImm() ? Op1.getImm() - Op2.getImm()
463 !isInt<32>(MI.getOperand(MemOpNo + X86::AddrDisp).getImm() +
582 assert(MI.getOperand(1).getImm() == 0 && "DBG_VALUE with nonzero offset");
645 Op.setImm(Op.getImm() + AddrDispShift);
lib/Target/X86/X86RegisterInfo.cpp 683 MI.getOperand(2).getImm() != 1 ||
685 MI.getOperand(4).getImm() != 0 ||
772 int64_t Offset = MI.getOperand(FIOperandNum + 1).getImm() + FIOffset;
779 int Imm = (int)(MI.getOperand(FIOperandNum + 3).getImm());
lib/Target/X86/X86WinAllocaExpander.cpp 92 return Def->getOperand(1).getImm();
177 Offset -= MI.getOperand(0).getImm();
180 Offset += MI.getOperand(0).getImm();
lib/Target/XCore/XCoreAsmPrinter.cpp 211 O << MO.getImm();
267 if (MI->getOperand(2).getImm() == 0) {
lib/Target/XCore/XCoreFrameLowering.cpp 494 uint64_t Amount = Old.getOperand(0).getImm();
lib/Target/XCore/XCoreInstrInfo.cpp 54 return op.isImm() && op.getImm() == 0;
289 unsigned Opc = GetCondBranchFromCond((XCore::CondCode)Cond[0].getImm());
298 unsigned Opc = GetCondBranchFromCond((XCore::CondCode)Cond[0].getImm());
406 Cond[0].setImm(GetOppositeBranchCondition((XCore::CondCode)Cond[0].getImm()));
lib/Target/XCore/XCoreMCInstLower.cpp 88 return MCOperand::createImm(MO.getImm() + offset);
lib/Target/XCore/XCoreRegisterInfo.cpp 296 Offset += MI.getOperand(FIOperandNum + 1).getImm();
unittests/CodeGen/MachineOperandTest.cpp 32 ASSERT_TRUE(MO.getImm() == 50);
114 ASSERT_TRUE(MO.getImm() == 3);
120 MachineOperand::printSubRegIdx(OS, MO.getImm(), nullptr);