Python Engineer - Industrialisation de Workflows Data Science H/F
BORDEAUX, 33
il y a 2 jours
Poste et missions :
Dans le cadre du déploiement de cas d'usage Data Science à fort impact métier, notre client recherche un profil senior Python pour industrialiser les notebooks Jupyter développés par les Data Scientists.
Responsabilités :
- Refactorer et structurer les notebooks Jupyter en scripts, modules ou microservices Python.
- Mettre en œuvre les bonnes pratiques de développement logiciel (tests, packaging, logging, CI/CD).
- Participer à l'architecture des pipelines de traitement de données et de déploiement de modèles.
- Collaborer avec les MLOps pour assurer l'intégration dans les environnements de production (containers, APIs, orchestrateurs.).
- Documenter et transmettre les bonnes pratiques aux équipes Data Science.
Environnement technique :
- Langage principal : Python 3 (avancé).
- Notebooks : Jupyter, VSCode, Jupytext.
- Packaging : Poetry, setup.py, Docker.
- CI/CD & versioning : Git, GitLab CI, MLflow, DVC.
- Orchestration : Airflow, Prefect (selon projets).
- API : FastAPI ou Flask.
- Infra / Ops : Docker, Kubernetes, Terraform (exposition via MLOps).
- Monitoring : Prometheus, Grafana, Sentry.
- Cloud : AWS / GCP / Azure (en fonction des projets).
Modalités :
- Localisation : Bordeaux.
- Télétravail : Partiel.
Dans le cadre du déploiement de cas d'usage Data Science à fort impact métier, notre client recherche un profil senior Python pour industrialiser les notebooks Jupyter développés par les Data Scientists.
Responsabilités :
- Refactorer et structurer les notebooks Jupyter en scripts, modules ou microservices Python.
- Mettre en œuvre les bonnes pratiques de développement logiciel (tests, packaging, logging, CI/CD).
- Participer à l'architecture des pipelines de traitement de données et de déploiement de modèles.
- Collaborer avec les MLOps pour assurer l'intégration dans les environnements de production (containers, APIs, orchestrateurs.).
- Documenter et transmettre les bonnes pratiques aux équipes Data Science.
Environnement technique :
- Langage principal : Python 3 (avancé).
- Notebooks : Jupyter, VSCode, Jupytext.
- Packaging : Poetry, setup.py, Docker.
- CI/CD & versioning : Git, GitLab CI, MLflow, DVC.
- Orchestration : Airflow, Prefect (selon projets).
- API : FastAPI ou Flask.
- Infra / Ops : Docker, Kubernetes, Terraform (exposition via MLOps).
- Monitoring : Prometheus, Grafana, Sentry.
- Cloud : AWS / GCP / Azure (en fonction des projets).
Modalités :
- Localisation : Bordeaux.
- Télétravail : Partiel.
Plateforme de publication
Offres pouvant vous intéresser
VIENNE, 38
il y a 1 mois
POITIERS, 86
il y a 1 mois
NANTES, 44
il y a 4 jours
NANTES, 44
il y a 2 jours