AI Infrastructure Abstraction Engineer
-
Lieu :San Jose, California, US
-
Centre d'intérêtIngénieur - logiciels
-
Plage De Rémunération279000 USD - 354600 USD
-
Type de posteExpérimenté
-
Intérêt pour la technologieIntelligence Artificielle
-
ID de poste1445897
Meet the Team
We are an innovation team on a mission to transform how enterprises harness AI. Operating with the agility of a startup and the focus of an incubator, we’re building a tight-knit group of AI and infrastructure experts driven by bold ideas and a shared goal: to rethink systems from the ground up and deliver breakthrough solutions that redefine what's possible — faster, leaner, and smarter.
We thrive in a fast-paced, experimentation-rich environment where new technologies aren’t just welcome — they’re expected. Here, you'll work side-by-side with seasoned engineers, architects, and thinkers to craft the kind of iconic products that can reshape industries and unlock entirely new models of operation for the enterprise.
If you're energized by the challenge of solving hard problems, love working at the edge of what's possible, and want to help shape the future of AI infrastructure — we'd love to meet you.
Your Impact
As an AI Infrastructure Abstraction Engineer, you will help shape the next generation of AI compute platforms by designing systems that abstract away hardware complexity and expose logical, scalable, and secure interfaces for AI workloads. Your work will enable multi-tenancy, resource isolation, and dynamic scheduling of GPUs and accelerators at scale — making infrastructure programmable, elastic, and developer-friendly.
You will bridge the gap between raw compute resources and AI/ML frameworks, allowing infrastructure teams and model developers to consume shared GPU resources with the performance and reliability of bare metal, but with the flexibility of cloud-native systems. Your contributions will empower internal and external users to run AI workloads securely, efficiently, and predictably — regardless of the underlying hardware topology.
This role is critical to enabling AI infrastructure that is multi-tenant by design, scalable in practice, and abstracted for portability across diverse platforms.
KEY RESPONSIBILITIES
- Design and implement infrastructure abstractions that cleanly separate logical compute units (vGPUs, GPU pods, AI queues) from physical hardware (nodes, devices, interconnects).
- Develop runtime services, APIs, and control planes to expose GPU and accelerator resources to users and frameworks with multi-tenant isolation and QoS guarantees.
- Architect systems for secure GPU sharing, including time-slicing, memory partitioning, and namespace isolation across tenants or jobs.
- Collaborate with platform, orchestration, and scheduling teams to map logical resources to physical devices based on utilization, priority, and topology.
- Define and enforce resource usage policies, including fair sharing, quota management, and oversubscription strategies.
- Integrate with model training and serving frameworks (e.g., PyTorch, TensorFlow, Triton) to ensure smooth and predictable resource consumption.
- Build observability and telemetry pipelines to trace logical-to-physical mappings, usage patterns, and performance anomalies.
- Partner with infrastructure security teams to ensure secure onboarding, access control, and workload isolation in shared environments.
- Support internal developers in adopting abstraction APIs, ensuring high performance while abstracting away low-level details.
- Contribute to the evolution of internal compute platform architecture, with a focus on abstraction, modularity, and scalability.
Minimum Qualifications:
- Bachelors + 15 years of related experience, or Masters + 12 years of related experience, or PhD + 8 years of related experience
- Experience building scalable, production-grade infrastructure components or control planes using Go, Python, and C++,
- Experience with Kubernetes, Docker or Kubevirt for virtualization, containerization, and orchestration frameworks
- Experience designing or implementing logical resource abstractions for compute, storage, or networking with a focus in multi-tenant environments.
- Experience integrating with AI/ML platforms or pipelines (e.g., PyTorch, TensorFlow, Triton Inference Server, MLFlow).
Preferred Qualifications:
- Experience with GPU sharing, scheduling, or isolation techniques (e.g., MPS, MIG, time-slicing, device plugin frameworks, or vGPU technologies).
- Solid grasp of resource management concepts including quotas, fairness, prioritization, and elasticity.
#WeAreCisco
#WeAreCisco where every individual brings their unique skills and perspectives together to pursue our purpose of powering an inclusive future for all.
Our passion is connection—we celebrate our employees’ diverse set of backgrounds and focus on unlocking potential. Cisconians often experience one company, many careers where learning and development are encouraged and supported at every stage. Our technology, tools, and culture pioneered hybrid work trends, allowing all to not only give their best, but be their best.
We understand our outstanding opportunity to bring communities together and at the heart of that is our people. One-third of Cisconians collaborate in our 30 employee resource organizations, called Inclusive Communities, to connect, foster belonging, learn to be informed allies, and make a difference. Dedicated paid time off to volunteer—80 hours each year—allows us to give back to causes we are passionate about, and nearly 86% do!
Our purpose, driven by our people, is what makes us the worldwide leader in technology that powers the internet. Helping our customers reimagine their applications, secure their enterprise, transform their infrastructure, and meet their sustainability goals is what we do best. We ensure that every step we take is a step towards a more inclusive future for all. Take your next step and be you, with us!
Lorsqu’elle est disponible, la fourchette salariale affichée pour ce poste reflète l’échelle d’embauche prévue pour les salaires des nouveaux embauchés aux États-Unis et au Canada. Pour les postes non liés à la vente, les fourchettes d’embauche reflètent uniquement le salaire de base; les employés sont également admissibles à des primes annuelles. Les fourchettes d’embauche pour les postes de vente comprennent la rémunération de base et la rémunération incitative. La rémunération individuelle est déterminée par le lieu d’embauche du candidat et par d’autres facteurs, incluant, sans s’y limiter, les compétences, l’expérience et les études, certifications ou formations pertinentes. Les candidats pourraient ne pas être admissibles à la fourchette salariale complète selon leur lieu d’embauche aux États-Unis ou au Canada. Le recruteur peut fournir plus d’informations sur la rémunération du poste dans votre lieu au cours du processus de recrutement.
Les employés américains ont accès à une assurance médicale, dentaire et visuelle de qualité, à un régime 401(k) avec une contribution équivalente de Cisco, à une couverture d’invalidité à court et à long terme, à une assurance vie de base et à de nombreuses prestations de bien-être.
Les employés reçoivent jusqu’à douze jours fériés payés par année civile, ce qui comprend un jour férié flottant (pour les employés non exemptés), plus un jour de congé pour leur anniversaire. Les nouveaux employés non exemptés accumulent jusqu’à 16 jours de congés annuels, à raison de 4,92 heures par période de paie. Les nouveaux employés exemptés participent à la politique de congés annuels flexibles de Cisco qui ne fixe pas de limite précise quant au nombre de jours de congé pouvant être pris par les employés admissibles. Cependant, cette flexibilité dépend de la disponibilité et de certaines contraintes opérationnelles. Tous les nouveaux employés sont admissibles aux congés de maladie, sous réserve de la Politique relative aux congés de maladie de Cisco. Ils auront droit à quatre-vingts (80) heures de congés de maladie à leur date d’embauche et le 1er janvier de chaque année par la suite. Jusqu’à 80 heures de congés de maladie non utilisées seront reportées d’une année civile à l’autre, de sorte que le nombre maximal d’heures de congé de maladie dont un employé peut disposer est de 160 heures. Les employés de l’Illinois bénéficient d’un programme spécifique de congés spécialement conçu pour répondre aux exigences locales. Tous les employés disposent également de congés payés pour faire face à des situations critiques ou d'urgence. Nous offrons des heures supplémentaires rémunérées pour faire du bénévolat et rendre service à la communauté.
Les employés participant à des plans de vente reçoivent, en plus de leur salaire de base, une rémunération incitative fondée sur les performances, qui est répartie entre les composantes sur quota et non. Pour la rémunération incitative basée sur des quotas, Cisco paie généralement comme suit :
0,75 % de l'incitatif cible pour chaque tranche de 1 % du chiffre d’affaires atteint jusqu’à concurrence de 50 % du quota;
1,5 % de l'incitatif cible pour chaque tranche de 1 % du chiffre d'affaires atteint entre 50 % et 75 %;
1 % de l'incitatif cible pour chaque tranche de 1 % du chiffre d'affaires atteint entre 75 % et 100 %; et lorsque le rendement dépasse 100 % d’atteinte, les taux incitatifs sont égaux ou supérieurs à 1 % pour chaque tranche de 1 % du chiffre d'affaires atteint, sans limites de rémunération incitative.
Pour les éléments de performance de vente non basés sur les quotas, tels que les objectifs de vente stratégiques, Cisco peut payer jusqu’à 125 % de l’objectif. Les plans de vente de Cisco ne prévoient pas de seuil minimum de performance pour le versement de la rémunération incitative pour les ventes.
Renseignements confidentiels de Cisco