|
reference, declaration → definition
definition → references, declarations, derived classes, virtual overrides
reference to multiple definitions → definitions
unreferenced
|
References
gen/lib/Target/AArch64/AArch64GenSubtargetInfo.inc20241 if (MI->getOperand(1).isImm() &&
gen/lib/Target/X86/X86GenInstrInfo.inc49356 MI.getOperand(4).isImm()
gen/lib/Target/X86/X86GenSubtargetInfo.inc22766 MI->getOperand(2).isImm()
include/llvm/CodeGen/GlobalISel/InstructionSelectorImpl.h 254 else if (State.MIs[InsnID]->getOperand(1).isImm())
700 if (!State.MIs[InsnID]->getOperand(OpIdx).isImm()) {
912 } else if (State.MIs[OldInsnID]->getOperand(1).isImm())
include/llvm/CodeGen/MachineInstr.h 1066 && getOperand(1).isImm();
include/llvm/CodeGen/MachineOperand.h 531 assert(isImm() && "Wrong MachineOperand accessor");
649 assert(isImm() && "Wrong MachineOperand mutator");
lib/CodeGen/AsmPrinter/AsmPrinter.cpp 840 bool MemLoc = MI->getOperand(0).isReg() && MI->getOperand(1).isImm();
873 } else if (MI->getOperand(0).isImm()) {
lib/CodeGen/AsmPrinter/AsmPrinterInlineAsm.cpp 530 if (MO.isImm()) {
631 if (MO.isImm()) {
641 if (!MO.isImm())
646 if (!MO.isImm())
lib/CodeGen/AsmPrinter/DwarfDebug.cpp 240 assert((!Op1.isImm() || (Op1.getImm() == 0)) && "unexpected offset");
241 MachineLocation MLoc(RegOp.getReg(), Op1.isImm());
244 if (MI->getOperand(0).isImm())
648 if (ParamValue->first.isImm()) {
1346 if (DbgValue->getOperand(0).isImm() && MBB->pred_empty())
lib/CodeGen/AsmPrinter/DwarfUnit.cpp 544 assert(MO.isImm() && "Invalid machine operand!");
lib/CodeGen/ExpandPostRAPseudos.cpp 78 MI->getOperand(1).isImm() &&
80 MI->getOperand(3).isImm() && "Invalid subreg_to_reg");
lib/CodeGen/GlobalISel/CSEInfo.cpp 349 } else if (MO.isImm())
lib/CodeGen/GlobalISel/LegalizerHelper.cpp 990 if (!MI.getOperand(2).isImm())
2260 assert(MI.getOperand(2).isImm() && "Expected immediate");
lib/CodeGen/GlobalISel/Utils.cpp 230 if (!CstVal.isImm() && !CstVal.isCImm() &&
236 APInt Val = CstVal.isImm() ? APInt(BitWidth, CstVal.getImm())
lib/CodeGen/ImplicitNullChecks.cpp 477 if (!(MBP.LHS.isReg() && MBP.RHS.isImm() && MBP.RHS.getImm() == 0 &&
lib/CodeGen/LiveDebugValues.cpp 232 } else if (MI.getOperand(0).isImm()) {
687 if (isDbgValueDescribedByReg(MI) || MI.getOperand(0).isImm() ||
lib/CodeGen/LiveDebugVariables.cpp 602 !(MI.getOperand(1).isReg() || MI.getOperand(1).isImm()) ||
642 assert(!MI.getOperand(1).isImm() && "DBG_VALUE with indirect flag before "
lib/CodeGen/MIRCanonicalizerPass.cpp 198 if (II->getOperand(i).isImm()) {
lib/CodeGen/MachineInstr.cpp 798 if (!FlagMO.isImm())
1105 assert(FlagMO.isImm() && "Invalid tied operand on inline asm");
1617 } else if (i == AsmDescOp && MO.isImm()) {
1678 if (MO.isImm() && isOperandSubregIdx(i))
lib/CodeGen/MachineLICM.cpp 935 } else if (!MO.isImm()) {
lib/CodeGen/MachineSink.cpp 755 return MBP.LHS.isReg() && MBP.RHS.isImm() && MBP.RHS.getImm() == 0 &&
lib/CodeGen/MachineVerifier.cpp 859 if (!MI->getOperand(1).isImm())
874 if (!MO.isImm())
1287 if (!OffsetOp.isImm()) {
1309 if (!OffsetOp.isImm()) {
1388 if (!MI->getOperand(2).isImm()) {
1469 if (!AlignOp.isImm()) {
1570 if (!MI->getOperand(StatepointOpers::IDPos).isImm() ||
1571 !MI->getOperand(StatepointOpers::NBytesPos).isImm() ||
1572 !MI->getOperand(StatepointOpers::NCallArgsPos).isImm())
1577 if (!MI->getOperand(Offset).isImm() ||
1579 !MI->getOperand(Offset + 1).isImm())
lib/CodeGen/StackMaps.cpp 106 if (MOI->isImm()) {
133 assert(MOI->isImm() && "Expected constant operand.");
lib/CodeGen/TargetInstrInfo.cpp 337 } else if (MO.isImm()) {
1184 assert(MOSubIdx.isImm() &&
1209 assert(MOSubIdx.isImm() &&
1235 assert(MOSubIdx.isImm() &&
lib/Target/AArch64/AArch64AsmPrinter.cpp 580 if (MO.isImm() && MO.getImm() == 0) {
676 assert(MI->getOperand(0).isReg() && MI->getOperand(1).isImm());
lib/Target/AArch64/AArch64ConditionOptimizer.cpp 174 if (!I->getOperand(2).isImm()) {
lib/Target/AArch64/AArch64InstrInfo.cpp 451 if (!DefMI->getOperand(2).isImm() || DefMI->getOperand(2).getImm() != 1 ||
1582 if (MI.getOperand(1).isImm() && MI.getOperand(1).getImm() == 0) {
1664 MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0) {
1687 MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0) {
1935 if (!MI.getOperand(2).isImm())
1996 !LdSt.getOperand(2).isImm())
2002 !LdSt.getOperand(3).isImm())
2039 assert(OfsOp.isImm() && "Offset operand wasn't immediate.");
4174 if (Root.getOperand(3).isImm()) {
4265 if (Root.getOperand(3).isImm()) {
5519 assert(StackOffsetOperand.isImm() && "Stack offset wasn't immediate!");
lib/Target/AArch64/AArch64InstructionSelector.cpp 1290 else if (I.getOperand(1).isImm())
1570 } else if (I.getOperand(1).isImm()) {
4020 if (Root.isImm())
lib/Target/AArch64/AArch64LoadStoreOptimizer.cpp 709 if (!getLdStOffsetOp(MI).isImm())
1247 getLdStOffsetOp(MI).isImm()) {
1451 if (!MI.getOperand(2).isImm())
1611 if (!getLdStOffsetOp(MI).isImm())
lib/Target/AArch64/AArch64RedundantCopyElimination.cpp 194 if (PredI.getOperand(2).isImm() && DomBBClobberedRegs.available(SrcReg) &&
lib/Target/AArch64/AArch64SIMDInstrOpt.cpp 642 if (DefiningMI->getOperand(2*i+2).isImm()) {
lib/Target/AMDGPU/AMDGPUInstructionSelector.cpp 235 assert(MO.isImm());
810 if (Op.isImm())
lib/Target/AMDGPU/GCNDPPCombine.cpp 146 if (Op1.isImm())
262 assert(OldOpnd->isImm());
319 if (!CombBCZ && OldOpndValue && OldOpndValue->isImm()) {
346 assert(Imm->isImm());
368 assert(RowMaskOpnd && RowMaskOpnd->isImm());
370 assert(BankMaskOpnd && BankMaskOpnd->isImm());
375 assert(BCZOpnd && BCZOpnd->isImm());
392 assert(!OldOpndValue || OldOpndValue->isImm() || OldOpndValue == OldOpnd);
399 if (!OldOpndValue || !OldOpndValue->isImm()) {
lib/Target/AMDGPU/R600ControlFlowFinalizer.cpp 374 return val->isImm() && (val->getImm() == Imm);
445 if (Literals[i]->isImm()) {
452 if (Literals[i + 1]->isImm()) {
lib/Target/AMDGPU/R600InstrInfo.cpp 329 if (Operand.isImm()) {
1357 assert (MO.isImm());
1392 assert(MI.getOperand(Idx).isImm());
1461 assert(FlagOp.isImm());
lib/Target/AMDGPU/SIFixSGPRCopies.cpp 335 if (!ImmOp->isImm())
440 (!MO.isImm() && !MO.isReg()) || (MO.isImm() && Imm)) {
440 (!MO.isImm() && !MO.isReg()) || (MO.isImm() && Imm)) {
443 } else if (MO.isImm())
726 if (Copied.isImm() &&
lib/Target/AMDGPU/SIFoldOperands.cpp 49 if (FoldOp->isImm()) {
359 if (Opc == AMDGPU::S_SETREG_B32 && OpToFold->isImm()) {
403 (OpToFold->isImm() || OpToFold->isFI() || OpToFold->isGlobal())) {
465 if (Op->isImm()) {
496 if (OpToFold.isImm() && TII->isInlineConstant(OpToFold, OpTy) &&
521 if (!Op->isImm())
610 OpToFold.isImm() || OpToFold.isFI() || OpToFold.isGlobal();
703 if (Def->isImm() &&
792 if (OpToFold.isImm())
954 if (ImmSrc.isImm())
985 if (!Src0->isImm() && !Src1->isImm())
985 if (!Src0->isImm() && !Src1->isImm())
989 if (Src0->isImm() && Src0->getImm() == 0) {
1004 if (Src0->isImm() && Src1->isImm()) {
1004 if (Src0->isImm() && Src1->isImm()) {
1023 if (Src0->isImm() && !Src1->isImm()) {
1023 if (Src0->isImm() && !Src1->isImm()) {
1122 bool FoldingImm = OpToFold.isImm() || OpToFold.isFI() || OpToFold.isGlobal();
1145 if (OpToFold.isImm() && tryConstantFoldOp(*MRI, TII, UseMI, &OpToFold)) {
1369 if (Src0->isImm()) {
1372 } else if (Src1->isImm()) {
1500 OpToFold.isImm() || OpToFold.isFI() || OpToFold.isGlobal();
lib/Target/AMDGPU/SIInsertSkips.cpp 282 if (Op.isImm()) {
379 if (Op2.isImm() && Op2.getImm() != -1)
396 !M->getOperand(1).isImm() ||
lib/Target/AMDGPU/SIInstrInfo.cpp 623 assert(DefOp.isReg() || DefOp.isImm());
837 assert(Cond[0].isImm() && "Cond[0] is not an immediate");
1426 if (SrcOp.isImm()) {
1589 if (SrcOp.isImm()) {
1652 if (NonRegOp.isImm())
2066 assert(TBB && Cond[0].isImm());
2109 if (Cond[0].isImm()) {
2328 if (!ImmOp->isImm())
2600 Def->getOperand(1).isImm())
2632 if (!Src0->isReg() && !Src0->isImm())
2635 if (Src0->isImm() && !isInlineConstant(MI, Src0Idx, *Src0))
2832 if (!MO.isImm() ||
2929 assert(MO.isImm() || MO.isTargetIndex() || MO.isFI() || MO.isGlobal());
2940 if (MO.isImm() && isInlineConstant(MO, OpInfo)) {
3105 if (MO.isImm())
3245 if (MI.getOperand(i).isImm() || MI.getOperand(i).isGlobal()) {
3264 if (!MO.isReg() && (!MO.isImm() || !isInlineConstant(MI, i))) {
3275 if (!MI.getOperand(i).isImm() && !MI.getOperand(i).isFI()) {
3335 (!OMod->isImm() || OMod->getImm() != 0)) {
3353 if (Clamp && (!Clamp->isImm() || Clamp->getImm() != 0)) {
3360 if (OMod && (!OMod->isImm() || OMod->getImm() != 0)) {
3368 if (DstUnused && DstUnused->isImm() &&
3891 if (Op.isImm()) {
3945 assert(MO.isImm() || MO.isTargetIndex() || MO.isFI() || MO.isGlobal());
4002 assert(MO->isImm() || MO->isTargetIndex() || MO->isFI() || MO->isGlobal());
4091 if ((!Src1.isImm() && !Src1.isReg()) ||
4109 if (Src1.isImm())
5042 assert(OffsetWidthOp.isImm() &&
lib/Target/AMDGPU/SIInstrInfo.h 747 return MO.isImm() && !isInlineConstant(MO, OpInfo.OperandType);
752 return MO.isImm() && !isInlineConstant(MI, OpIdx);
lib/Target/AMDGPU/SILoadStoreOptimizer.cpp 141 if (AddrReg[i]->isImm() || AddrRegNext.isImm()) {
141 if (AddrReg[i]->isImm() || AddrRegNext.isImm()) {
142 if (AddrReg[i]->isImm() != AddrRegNext.isImm() ||
142 if (AddrReg[i]->isImm() != AddrRegNext.isImm() ||
163 if (AddrOp->isImm())
1438 if (Op.isImm())
1446 !Def->getOperand(1).isImm())
1499 if (Src0->isImm())
1502 if (!Src1->isImm())
lib/Target/AMDGPU/SILowerI1Copies.cpp 754 if (!MI->getOperand(1).isImm())
lib/Target/AMDGPU/SIOptimizeExecMaskingPreRA.cpp 232 if (Op1->isImm() && Op2->isReg())
234 if (!Op1->isReg() || !Op2->isImm() || Op2->getImm() != 1)
249 if (!Op1->isImm() || !Op2->isImm() || !CC->isReg() ||
249 if (!Op1->isImm() || !Op2->isImm() || !CC->isReg() ||
lib/Target/AMDGPU/SIPeepholeSDWA.cpp 377 assert(Src && (Src->isReg() || Src->isImm()));
523 if (Op.isImm()) {
539 if (!Copied.isImm())
1178 if (!Op.isImm() && !(Op.isReg() && !TRI->isVGPR(*MRI, Op.getReg())))
1195 if (Op.isImm())
lib/Target/AMDGPU/SIShrinkInstructions.cpp 87 if (MovSrc.isImm() && (isInt<32>(MovSrc.getImm()) ||
189 if (!Src1.isImm())
326 if (SrcImm->isImm() &&
579 if (Src.isImm() &&
651 if (Src1->isImm() && isKImmOperand(TII, *Src1)) {
672 if (Src.isImm() && Register::isPhysicalRegister(Dst.getReg())) {
lib/Target/ARC/ARCInstrInfo.cpp 50 return Op.isImm() && Op.getImm() == 0;
73 (MI.getOperand(2).isImm()) && // the imm is zero
92 (MI.getOperand(2).isImm()) && // the imm is zero
386 int BccOpc = Cond[1].isImm() ? ARC::BRcc_ru6_p : ARC::BRcc_rr_p;
438 if (!MI.getOperand(BasePos).isReg() || !MI.getOperand(OffsetPos).isImm())
lib/Target/ARC/ARCOptAddrMode.cpp 129 assert(MI.getOperand(2).isImm() && "Expected immediate operand");
175 if (!MO.isImm())
202 if (!Offset.isImm()) {
344 assert(Incr.isImm() && "Expected immediate increment");
376 assert(MO.isImm() && "expected immediate operand");
lib/Target/ARM/ARMAsmPrinter.cpp 292 if (!MI->getOperand(OpNum).isImm())
297 if (!MI->getOperand(OpNum).isImm())
338 if (!FlagsOP.isImm())
lib/Target/ARM/ARMBaseInstrInfo.cpp 579 assert(Opc.isImm());
1212 MI.getOperand(3).isImm() && MI.getOperand(2).getReg() == 0 &&
1223 if (MI.getOperand(1).isFI() && MI.getOperand(2).isImm() &&
1230 if (MI.getOperand(0).isFI() && MI.getOperand(1).isImm() &&
1449 MI.getOperand(3).isImm() && MI.getOperand(2).getReg() == 0 &&
1460 if (MI.getOperand(1).isFI() && MI.getOperand(2).isImm() &&
1467 if (MI.getOperand(0).isFI() && MI.getOperand(1).isImm() &&
3208 if (!DefMI.getOperand(1).isImm())
lib/Target/ARM/ARMExpandPseudoInsts.cpp 851 assert (MO.isImm() && "MOVi32imm w/ non-immediate source operand!");
lib/Target/ARM/ARMFastISel.cpp 2920 if (MI->getNumOperands() < 3 || !MI->getOperand(2).isImm())
lib/Target/ARM/ARMInstructionSelector.cpp 974 assert(Val.isImm() && "Unexpected operand for G_CONSTANT");
lib/Target/ARM/Thumb2SizeReduction.cpp 705 if (MI->getOperand(1).isImm())
876 } else if (MO.isImm() &&
lib/Target/AVR/AVRInstrInfo.cpp 87 if (MI.getOperand(1).isFI() && MI.getOperand(2).isImm() &&
106 if (MI.getOperand(0).isFI() && MI.getOperand(1).isImm() &&
lib/Target/BPF/BPFAsmPrinter.cpp 126 assert(OffsetMO.isImm() && "Unexpected offset for inline asm memory operand.");
lib/Target/BPF/BPFMISimplifyPatchable.cpp 97 if (!MI.getOperand(2).isImm() || MI.getOperand(2).getImm())
lib/Target/Hexagon/HexagonAsmPrinter.cpp 145 if (MI->getOperand(OpNo).isImm())
170 if (Offset.isImm()) {
lib/Target/Hexagon/HexagonBitSimplify.cpp 1126 assert(MI.getOperand(ImN).isImm());
1191 assert(MI.getOperand(ImN).isImm());
1956 if (!OffOp.isImm())
2119 if (Opc == Hexagon::A2_andir && MI->getOperand(2).isImm()) {
2581 if (!CmpOp.isImm() || CmpOp.getImm() != 0)
2629 if (Op.isImm())
2641 if (Op.isImm())
3278 if (!DefPrehR->getOperand(1).isImm())
lib/Target/Hexagon/HexagonBitTracker.cpp 269 if (Op.isImm())
lib/Target/Hexagon/HexagonConstExtenders.cpp 698 if (Op.isImm())
753 if (Op.isImm())
1056 if (Rb != Register(Op1) || !Op2.isImm())
1072 !MI.getOperand(OffP).isImm())
1876 P.first->getOperand(J+1).isImm());
lib/Target/Hexagon/HexagonConstPropagation.cpp 1980 if (!VO.isImm())
2025 if (!MI.getOperand(1).isImm() || !MI.getOperand(2).isImm())
2025 if (!MI.getOperand(1).isImm() || !MI.getOperand(2).isImm())
2594 bool Imm1 = Src1.isImm(), Imm2 = Src2.isImm();
2594 bool Imm1 = Src1.isImm(), Imm2 = Src2.isImm();
2637 if (!Src2.isImm())
2648 if (!Src2.isImm())
2687 if (ValOp.isImm()) {
lib/Target/Hexagon/HexagonCopyToCombine.cpp 153 if (!Op1.isImm() && Op1.getTargetFlags() != HexagonII::MO_NO_FLAG)
157 bool NotExt = Op1.isImm() && isInt<8>(Op1.getImm());
176 return !Op.isImm() || !isInt<N>(Op.getImm());
216 return (HighRegInst.getOperand(1).isImm() &&
217 LowRegInst.getOperand(1).isImm());
612 bool IsC64 = OptForSize && LoOperand.isImm() && HiOperand.isImm() &&
612 bool IsC64 = OptForSize && LoOperand.isImm() && HiOperand.isImm() &&
654 assert(LoOperand.isImm() && HiOperand.isImm() &&
654 assert(LoOperand.isImm() && HiOperand.isImm() &&
lib/Target/Hexagon/HexagonFrameLowering.cpp 2122 if (i+1 >= n || !In.getOperand(i+1).isImm() ||
lib/Target/Hexagon/HexagonGenMux.cpp 218 if (Src2.isImm() && isInt<8>(Src2.getImm()))
lib/Target/Hexagon/HexagonGenPredicate.cpp 198 if (MI->getOperand(2).isImm() && MI->getOperand(2).getImm() == 0)
lib/Target/Hexagon/HexagonHardwareLoops.cpp 677 if (Op2.isImm() || Op1.getReg() == IVReg)
749 if (!Start->isReg() && !Start->isImm())
751 if (!End->isReg() && !End->isImm())
777 if (Start->isImm() && End->isImm()) {
777 if (Start->isImm() && End->isImm()) {
849 bool RegToImm = Start->isReg() && End->isImm(); // for (reg..imm)
853 if (Start->isImm())
855 if (End->isImm())
869 if (Start->isImm())
871 else if (End->isImm())
878 if (Start->isImm())
880 else if (End->isImm())
905 if (Start->isImm() && StartV == 0) {
1422 if (!EndVal->isImm())
1499 if (MO.isImm()) {
1579 if (MO.isImm()) {
1735 } else if (MO.isImm()) {
1789 nonIndI->getOperand(2).isImm() &&
1821 if (CmpImmOp->isImm())
lib/Target/Hexagon/HexagonInstrInfo.cpp 258 if (!OpOff.isImm() || OpOff.getImm() != 0)
272 if (!OpOff.isImm() || OpOff.getImm() != 0)
306 if (!OpOff.isImm() || OpOff.getImm() != 0)
324 if (!OpOff.isImm() || OpOff.getImm() != 0)
593 if (!Cond.empty() && Cond[0].isImm())
637 } else if(Cond[2].isImm()) {
1526 assert(Cond[0].isImm() && "First entry in the cond vector not imm-val");
1842 if (!Op2.isImm())
1905 if (!MIa.getOperand(OffsetPosA).isImm() ||
1906 !MIb.getOperand(OffsetPosB).isImm())
1933 if (OffsetOp.isImm()) {
1939 if (AddOp.isImm()) {
2062 assert(MO.isImm() && "Extendable operand must be Immediate type");
3177 if (!OffsetOp.isImm())
3216 if (!MI.getOperand(BasePos).isReg() || !MI.getOperand(OffsetPos).isImm())
3323 isIntRegForSubInst(SrcReg) && MI.getOperand(2).isImm() &&
3348 MI.getOperand(2).isImm() &&
3393 if (!CmpOp.isImm())
3744 MI.getOperand(2).isImm() &&
3749 (MI.getOperand(2).isImm() &&
3759 MI.getOperand(2).isImm() && isUInt<4>(MI.getOperand(2).getImm()))
3778 MI.getOperand(2).isImm() &&
3787 MI.getOperand(2).isImm() &&
3798 MI.getOperand(2).isImm() &&
3858 HRI.getStackRegister() == Src1Reg && MI.getOperand(1).isImm() &&
3863 MI.getOperand(1).isImm() &&
3872 MI.getOperand(1).isImm() && isUInt<4>(MI.getOperand(1).getImm()))
3889 MI.getOperand(1).isImm() &&
3899 HRI.getStackRegister() == Src1Reg && MI.getOperand(1).isImm() &&
3906 if (isIntRegForSubInst(Src1Reg) && MI.getOperand(1).isImm() &&
3908 MI.getOperand(2).isImm() && isUInt<1>(MI.getOperand(2).getImm()))
3915 MI.getOperand(1).isImm() && isUInt<4>(MI.getOperand(1).getImm()) &&
3916 MI.getOperand(2).isImm() && isUInt<1>(MI.getOperand(2).getImm()))
3920 if (MI.getOperand(2).isImm() &&
3948 HRI.getStackRegister() == SrcReg && MI.getOperand(2).isImm() &&
3952 if ((DstReg == SrcReg) && MI.getOperand(2).isImm() &&
3957 if (isIntRegForSubInst(SrcReg) && MI.getOperand(2).isImm() &&
3979 MI.getOperand(2).isImm() &&
4011 MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0)
4020 MI.getOperand(2).isImm() && isUInt<2>(MI.getOperand(2).getImm()))
4028 ((MI.getOperand(1).isImm() && isUInt<2>(MI.getOperand(1).getImm())) ||
4031 ((MI.getOperand(2).isImm() && isUInt<2>(MI.getOperand(2).getImm())) ||
4041 ((MI.getOperand(2).isImm() && MI.getOperand(2).getImm() == 0) ||
4050 ((MI.getOperand(1).isImm() && MI.getOperand(1).getImm() == 0) ||
4359 assert((MO.isMBB() || MO.isImm()) &&
4428 return Cond.empty() || (Cond[0].isImm() && (Cond.size() != 1));
4435 if (Operand.isImm())
4444 return (Operand.isImm() && (Operand.getImm() & memShufDisabledMask) != 0);
lib/Target/Hexagon/HexagonNewValueJump.cpp 251 if (!Op2.isImm())
lib/Target/Hexagon/HexagonOptAddrMode.cpp 162 if (!OffsetOp.isImm() || OffsetOp.getImm() > 3)
370 if (!OffsetOp.isImm())
505 OldMI->getOperand(2).isImm()) {
522 if (OldMI->getOperand(3).isImm() && OldMI->getOperand(3).getImm() == 0) {
698 !MI->getOperand(2).isImm() || HII->isConstExtended(*MI)))
lib/Target/Hexagon/HexagonRDFOpt.cpp 132 if (!A.isImm() || A.getImm() != 0)
lib/Target/Hexagon/HexagonSplitDouble.cpp 347 int32_t Prof1 = Op1.isImm() ? profitImm(Op1.getImm()) : 0;
348 int32_t Prof2 = Op2.isImm() ? profitImm(Op2.getImm()) : 0;
358 if (OpX.isImm()) {
704 assert(Op0.isReg() && Op1.isImm());
784 assert(Op0.isReg() && Op1.isReg() && Op2.isImm());
909 assert(Op0.isReg() && Op1.isReg() && Op2.isReg() && Op3.isImm());
lib/Target/Hexagon/HexagonStoreWidening.cpp 136 assert(MO.isImm() && "Expecting immediate offset");
406 assert(SO.isImm() && "Expecting an immediate operand");
lib/Target/Lanai/LanaiAsmPrinter.cpp 124 if (!FlagsOP.isImm())
lib/Target/Lanai/LanaiDelaySlotFiller.cpp 112 RI->getOperand(2).isImm() && RI->getOperand(2).getImm() == -8);
lib/Target/Lanai/LanaiInstrInfo.cpp 720 if (MI.getOperand(1).isFI() && MI.getOperand(2).isImm() &&
749 if (MI.getOperand(0).isFI() && MI.getOperand(1).isImm() &&
764 if (!LdSt.getOperand(1).isReg() || !LdSt.getOperand(2).isImm() ||
765 !(LdSt.getOperand(3).isImm() && LdSt.getOperand(3).getImm() == LPAC::ADD))
lib/Target/Lanai/LanaiMemAluCombiner.cpp 186 (Op.isImm() && Op.getImm() == 0));
247 assert((AluOffset.isReg() || AluOffset.isImm()) &&
252 unsigned NewOpc = mergedOpcode(MemInstr->getOpcode(), AluOffset.isImm());
266 else if (AluOffset.isImm())
301 if (Op2.isImm()) {
310 if (Offset.isImm() &&
375 assert(AluOperand.isImm() && "Unexpected memory operator type");
lib/Target/MSP430/MSP430AsmPrinter.cpp 115 if (Disp.isImm() && Base.getReg() == MSP430::SR)
lib/Target/Mips/MicroMipsSizeReduction.cpp 310 if (!MI->getOperand(Op).isImm())
lib/Target/Mips/MipsAsmPrinter.cpp 567 if (!FlagsOP.isImm())
627 assert(OffsetMO.isImm() && "Unexpected offset for inline asm memory operand.");
lib/Target/Mips/MipsConstantIslandPass.cpp 1653 if (Literal.isImm()) {
lib/Target/Mips/MipsInstrInfo.cpp 51 return op.isImm() && op.getImm() == 0;
113 assert((Cond[i].isImm() || Cond[i].isReg()) &&
729 if (!MOPos.isImm()) {
740 if (!MOSize.isImm()) {
lib/Target/Mips/MipsSEISelDAGToDAG.cpp 89 (MI.getOperand(2).isImm()) &&
95 (MI.getOperand(2).isImm()) &&
lib/Target/Mips/MipsSEInstrInfo.cpp 52 (MI.getOperand(2).isImm()) && // the imm is zero
74 (MI.getOperand(2).isImm()) && // the imm is zero
231 if (!MI.getOperand(1).isImm() || MI.getOperand(1).getImm() != (1<<4))
lib/Target/NVPTX/NVPTXAsmPrinter.cpp 159 if (OpNo == 4 && MO.isImm()) {
163 if (OpNo == 5 && MO.isImm() && !(MCID.TSFlags & NVPTXII::IsTexModeUnifiedFlag)) {
174 if (OpNo == VecSize && MO.isImm()) {
182 if (OpNo == 0 && MO.isImm()) {
190 if (OpNo == 1 && MO.isImm()) {
2252 if (MI->getOperand(opNum + 1).isImm() &&
lib/Target/PowerPC/PPCAsmPrinter.cpp 270 if (MI->getOperand(OpNo).isImm())
386 if (CalleeMO.isImm()) {
lib/Target/PowerPC/PPCBranchSelector.cpp 304 if (I->getOpcode() == PPC::BCC && !I->getOperand(2).isImm())
307 !I->getOperand(1).isImm())
311 !I->getOperand(0).isImm())
lib/Target/PowerPC/PPCFrameLowering.cpp 1477 assert(StackAdjust.isImm() && "Expecting immediate value.");
lib/Target/PowerPC/PPCInstrInfo.cpp 307 if (MI.getOperand(1).isImm() && !MI.getOperand(1).getImm() &&
359 if (MI.getOperand(1).isImm() && !MI.getOperand(1).getImm() &&
1331 if (!DefMI.getOperand(1).isImm())
2129 return MO.isCPI() || MO.isGlobal() || MO.isImm();
2692 if (!ImmOperand.isImm())
2785 !DefMI->getOperand(1).isImm())
3567 if (ImmMO.isImm()) {
3654 if (ImmMO->isImm()) {
3978 if (!MI.getOperand(1).isImm() || !MI.getOperand(2).isReg())
4274 if (!LdSt.getOperand(1).isImm() || !LdSt.getOperand(2).isReg())
lib/Target/PowerPC/PPCMIPeephole.cpp 1140 if (!I->getOperand(2).isImm())
1181 else if (CMPI1->getOperand(2).isImm() && CMPI2->getOperand(2).isImm()) {
1181 else if (CMPI1->getOperand(2).isImm() && CMPI2->getOperand(2).isImm()) {
1347 if (!(MOpSHSrc.isImm() && MOpMBSrc.isImm() && MOpSHMI.isImm() &&
1347 if (!(MOpSHSrc.isImm() && MOpMBSrc.isImm() && MOpSHMI.isImm() &&
1347 if (!(MOpSHSrc.isImm() && MOpMBSrc.isImm() && MOpSHMI.isImm() &&
1348 MOpMEMI.isImm()))
1407 if (!(MOpSHMI.isImm() && MOpMEMI.isImm()))
1407 if (!(MOpSHMI.isImm() && MOpMEMI.isImm()))
lib/Target/PowerPC/PPCPreEmitPeephole.cpp 89 if (!BBI->getOperand(1).isImm())
130 if (!AfterBBI->getOperand(1).isImm() ||
lib/Target/RISCV/RISCVAsmPrinter.cpp 99 if (MO.isImm() && MO.getImm() == 0) {
lib/Target/RISCV/RISCVInstrInfo.cpp 53 if (MI.getOperand(1).isFI() && MI.getOperand(2).isImm() &&
76 if (MI.getOperand(0).isFI() && MI.getOperand(1).isImm() &&
501 if (MO.isImm()) {
lib/Target/Sparc/DelaySlotFiller.cpp 308 if (Operand1.isImm() || Operand1.isGlobal())
368 if (!MO.isImm())
423 && (!OrMI->getOperand(2).isImm() || OrMI->getOperand(2).getImm() != 0))
453 if (!SetHiMI->getOperand(1).isImm())
lib/Target/Sparc/SparcAsmPrinter.cpp 396 if (MI->getOperand(opNum+1).isImm() &&
lib/Target/Sparc/SparcInstrInfo.cpp 48 if (MI.getOperand(1).isFI() && MI.getOperand(2).isImm() &&
67 if (MI.getOperand(0).isFI() && MI.getOperand(1).isImm() &&
lib/Target/SystemZ/SystemZAsmPrinter.cpp 610 if (CalleeMO.isImm()) {
lib/Target/SystemZ/SystemZElimCompare.cpp 415 Compare.getOperand(1).isImm() && Compare.getOperand(1).getImm() == 0;
lib/Target/SystemZ/SystemZInstrInfo.cpp 522 MI.getOperand(1).isImm()) {
lib/Target/X86/X86AsmPrinter.cpp 369 if (!DispSpec.isImm()) {
512 if (MO.isImm()) {
lib/Target/X86/X86AvoidStoreForwardingBlocks.cpp 320 if (!Disp.isImm())
lib/Target/X86/X86CallFrameOptimization.cpp 429 !I->getOperand(X86::AddrScaleAmt).isImm() ||
433 !I->getOperand(X86::AddrDisp).isImm())
528 if (PushOp.isImm()) {
lib/Target/X86/X86CondBrFolding.cpp 467 if (!MI.getOperand(ValueIndex).isImm())
lib/Target/X86/X86ExpandPseudo.cpp 199 assert(StackAdjust.isImm() && "Expecting immediate value.");
lib/Target/X86/X86FixupLEAs.cpp 163 if (!MI.getOperand(2).isImm()) {
311 return (Offset.isImm() && Offset.getImm() != 0) || Offset.isGlobal();
328 bool IsInt8 = Offset.isImm() && isInt<8>(Offset.getImm());
363 if (Segment.getReg() != 0 || !Disp.isImm() || Scale.getImm() > 1 ||
492 if (Segment.getReg() != 0 || !Offset.isImm() ||
613 if (OptIncDec && Offset.isImm() &&
lib/Target/X86/X86FloatingPoint.cpp 1526 i != e && MI.getOperand(i).isImm(); i += 1 + NumOps) {
lib/Target/X86/X86InstrInfo.cpp 196 MI.getOperand(Op + X86::AddrScaleAmt).isImm() &&
198 MI.getOperand(Op + X86::AddrDisp).isImm() &&
601 MI.getOperand(1 + X86::AddrScaleAmt).isImm() &&
620 if (MI.getOperand(1 + X86::AddrScaleAmt).isImm() &&
1125 if (!MI.getOperand(2).isImm())
1153 if (!MI.getOperand(2).isImm())
3219 if (!DispMO.isImm())
3289 if (MI.getOperand(1).isImm()) {
3324 if (MI.getOperand(2).isImm()) {
6595 if (MI.getOperand(NumOperands - 1).isImm()) {
6697 if (MI.getOperand(NumOperands - 1).isImm()) {
7572 if (!MI.getOperand(4).isImm() || !MI.getOperand(2).isImm())
7572 if (!MI.getOperand(4).isImm() || !MI.getOperand(2).isImm())
lib/Target/X86/X86InstrInfo.h 108 return MO.isImm() && (MO.getImm() == 1 || MO.getImm() == 2 ||
119 (MI.getOperand(Op + X86::AddrDisp).isImm() ||
lib/Target/X86/X86InstructionSelector.cpp 648 } else if (I.getOperand(1).isImm()) {
lib/Target/X86/X86MCInstLower.cpp 1261 if (!(CalleeMO.isImm() && !CalleeMO.getImm())) {
2238 if (!CtrlOp.isImm())
lib/Target/X86/X86OptimizeLEAs.cpp 206 return MO.isImm() || MO.isCPI() || MO.isJTI() || MO.isSymbol() ||
215 return (MO1.isImm() && MO2.isImm()) ||
215 return (MO1.isImm() && MO2.isImm()) ||
405 return Op1.isImm() ? Op1.getImm() - Op2.getImm()
462 if (MI.getOperand(MemOpNo + X86::AddrDisp).isImm() &&
644 if (Op.isImm())
lib/Target/X86/X86RegisterInfo.cpp 777 if (MI.getOperand(FIOperandNum+3).isImm()) {
lib/Target/X86/X86WinAllocaExpander.cpp 89 !Def->getOperand(1).isImm())
lib/Target/XCore/XCoreInstrInfo.cpp 54 return op.isImm() && op.getImm() == 0;
68 (MI.getOperand(2).isImm()) && // the imm is zero
88 (MI.getOperand(2).isImm()) && // the imm is zero
unittests/CodeGen/MachineOperandTest.cpp 31 ASSERT_TRUE(MO.isImm());
113 ASSERT_TRUE(MO.isImm());