reference, declarationdefinition
definition → references, declarations, derived classes, virtual overrides
reference to multiple definitions → definitions
unreferenced

References

lib/Target/ARM/ARMBaseInstrInfo.cpp
  136   if (Subtarget.isThumb2() || Subtarget.hasVFP2Base())
  136   if (Subtarget.isThumb2() || Subtarget.hasVFP2Base())
  855   else if (ARM::DPRRegClass.contains(DestReg, SrcReg) && Subtarget.hasFP64())
  858     Opc = Subtarget.hasNEON() ? ARM::VORRq : ARM::MVE_VORR;
  879     Opc = Subtarget.hasNEON() ? ARM::VORRq : ARM::MVE_VORR;
  883     Opc = Subtarget.hasNEON() ? ARM::VORRq : ARM::MVE_VORR;
  900     Opc = Subtarget.isThumb2() ? ARM::tMOVr : ARM::MOVr;
  919              !Subtarget.hasFP64()) {
  924     copyFromCPSR(MBB, I, DestReg, KillSrc, Subtarget);
  927     copyToCPSR(MBB, I, SrcReg, KillSrc, Subtarget);
 1086         if (Subtarget.hasV5TEOps()) {
 1106       if (ARM::DPairRegClass.hasSubClassEq(RC) && Subtarget.hasNEON()) {
 1123                  Subtarget.hasMVEIntegerOps()) {
 1137             Subtarget.hasNEON()) {
 1160             Subtarget.hasNEON()) {
 1325       if (Subtarget.hasV5TEOps()) {
 1348     if (ARM::DPairRegClass.hasSubClassEq(RC) && Subtarget.hasNEON()) {
 1362                Subtarget.hasMVEIntegerOps()) {
 1374           Subtarget.hasNEON()) {
 1397           Subtarget.hasNEON()) {
 1514   bool isThumb1 = Subtarget.isThumb1Only();
 1515   bool isThumb2 = Subtarget.isThumb2();
 1516   const ARMBaseInstrInfo *TII = Subtarget.getInstrInfo();
 1585   if (!MI.isCopy() || Subtarget.dontWidenVMOVS() || !Subtarget.hasFP64())
 1585   if (!MI.isCopy() || Subtarget.dontWidenVMOVS() || !Subtarget.hasFP64())
 1842   if (Subtarget.isThumb1Only()) return false;
 1923   if (Subtarget.isThumb1Only()) return false;
 2031   if (Subtarget.isThumb2() && TBB.getParent()->getFunction().hasMinSize()) {
 2043   if (!Subtarget.hasBranchPredictor()) {
 2047     unsigned TakenBranchCost = Subtarget.getMispredictionPenalty();
 2067     if (Subtarget.isThumb2() && TCycles + FCycles > 4) {
 2076     UnpredCost += Subtarget.getMispredictionPenalty() * ScalingUpFactor / 10;
 2088   return Subtarget.isThumb2() ? divideCeil(NumInsts, 4) * 2 : 0;
 2108   if (Subtarget.isThumb2())
 2119   return Subtarget.isProfitableToUnpredicate();
 3643     if (Subtarget.isSwift() && (Desc.mayLoad() || Desc.mayStore()))
 3716     switch (Subtarget.getLdStMultipleTiming()) {
 3758   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3758   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3763   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 3763   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 3815   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3815   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3823   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 3823   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 3849   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3849   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3854   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 3854   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 3889   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3889   if (Subtarget.isCortexA8() || Subtarget.isCortexA7()) {
 3895   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 3895   } else if (Subtarget.isLikeA9() || Subtarget.isSwift()) {
 4297       return Subtarget.isLikeA9() ? 1 : 20;
 4311     if (Latency > 0 && Subtarget.isThumb2()) {
 4341   Adj += adjustDefLatency(Subtarget, DefMI, DefMCID, DefAlign);
 4366     int Adj = Subtarget.getPreISelOperandLatencyAdjustment();
 4382       (Subtarget.isCortexA8() || Subtarget.isLikeA9() ||
 4382       (Subtarget.isCortexA8() || Subtarget.isLikeA9() ||
 4383        Subtarget.isCortexA7())) {
 4410   } else if (DefIdx == 0 && Latency > 2 && Subtarget.isSwift()) {
 4438   if (DefAlign < 8 && Subtarget.checkVLDnAccessAlignment())
 4617                         !Subtarget.cheapPredicableCPSRDef())) {
 4647                                      !Subtarget.cheapPredicableCPSRDef()))) {
 4669   int Adj = adjustDefLatency(Subtarget, MI, MCID, DefAlign);
 4702   if (Subtarget.nonpipelinedVFP() &&
 4737   if (MI.getOpcode() == ARM::tMOVr && !Subtarget.hasV6Ops()) {
 4770   assert(!Subtarget.isROPI() && !Subtarget.isRWPI() &&
 4770   assert(!Subtarget.isROPI() && !Subtarget.isRWPI() &&
 4783   if (Subtarget.isGVIndirectSymbol(GV)) {
 4841   if (Subtarget.hasNEON()) {
 4849     if (Subtarget.useNEONForFPMovs() && !isPredicated(MI) &&
 4862   if ((Domain & ARMII::DomainNEONA8) && Subtarget.isCortexA8())
 4946     assert(Subtarget.hasNEON() && "VORRd requires NEON");
 5139   auto PartialUpdateClearance = Subtarget.getPartialUpdateClearance();
 5232   return Subtarget.getFeatureBits()[ARM::HasV6KOps];
lib/Target/ARM/ARMBaseInstrInfo.h
  122   const ARMSubtarget &getSubtarget() const { return Subtarget; }