Architecte IA (H/F)
Description du poste :
Rattaché au Responsable Infrastructure, vous intervenez sur un projet structurant : concevoir et déployer un environnement IA cloud souverain, interne à l'entreprise, en s'affranchissant totalement des providers américains.
L'objectif du POC est d'évaluer la capacité à déployer, gérer et industrialiser des workloads IA sur un environnement Scaleway, dans un contexte cloud hybride (On-premise / Kubernetes).
Vous devrez proposer une architecture scalable, stable, sécurisée (SSO), maintenable et adaptée à une population cible de 300 utilisateurs internes.
Vos missions***Concevoir et documenter une architecture IA cloud souveraine sur Scaleway
- Déployer un environnement GPU adapté aux workloads IA
- Implémenter l'Infrastructure as Code (Terraform Mettre en place des workloads IA/ML sous Kubernetes
- Concevoir et implémenter une architecture RAG (obligatoire)
- Intégrer et comparer différents modèles LLM (open source)
- Étudier les approches agentiques si pertinentes
- Assurer l'intégration dans les environnements de travail
- Mettre en place les mécanismes de sécurité (SSO)
- Réaliser des benchmarks : performance, latence, scalabilité, coûts
- Produire un rapport d'analyse coût/performance
- Formuler des recommandations stratégiques pour un déploiement pérenne
Le POC devra aboutir à une solution fonctionnelle, exploitable et documentée, ne nécessitant pas une dépendance opérationnelle continue.
Environnement technique***Cloud souverain : Scaleway
- Infrastructure as Code : Terraform
- Kubernetes
- GPU Infrastructure
Description du profil Vous avez déjà réalisé des projets similaires en Cloud Architecture / Dev
Ops / MLOps***Vous avez déjà déployé des workloads IA/ML en environnement cloud, idéalement dans un contexte structurant ou en phase de montée en charge***Vous maîtrisez l'Infrastructure as Code, notamment Terraform, que vous avez utilisé dans des projets de déploiement d'architectures complexes***Vous avez d'une expérience concrète en architecture RAG***Vous connaissez différents modèles LLM (open source notamment) et êtes capable de challenger les choix techniques en fonction des contraintes de performance, de sécurité et de coûts