Consultant Databricks Lyon H/F
ALBIGNY SUR SAONE,
69
il y a 3 jours
Les missions du poste
Nous recherchons un Consultant Data spécialisé Databricks pour accompagner des projets de transformation et d'exploitation de données à grande échelle. Vous interviendrez sur la conception, l'industrialisation et l'optimisation de pipelines de données dans un environnement cloud moderne.
Vos missions
- Concevoir, développer et maintenir des pipelines de données sur Databricks.
- Intégrer et transformer des données issues de différentes sources (SQL, NoSQL, API, fichiers).
- Assurer la qualité, la performance et la sécurité des traitements.
- Participer aux phases de cadrage, design et architecture data.
- Contribuer à l'automatisation et à l'industrialisation des process (CI/CD, monitoring, tests).
- Collaborer avec les équipes Data, Dev et Métiers dans un cadre Agile.
- Rédiger la documentation technique et assurer le transfert de connaissances.
Stack & compétences techniques
- Databricks (notebooks, Delta Lake, MLflow).
- Langages : Python, PySpark, SQL.
- Cloud : Azure (Data Lake, Data Factory, Synapse), AWS ou GCP selon contexte.
- Bases de données : SQL Server, PostgreSQL, MongoDB (apprécié).
- CI/CD & DevOps : Git, Jenkins, Azure DevOps.
- Outils Data : Spark, Hadoop, Kafka (souhaité).
- Méthodologie : Agile/Scrum.
Profil recherché
- Expérience confirmée en ingénierie Data et projets Big Data.
- Maîtrise de l'écosystème Databricks et des environnements cloud.
- Bonne capacité d'analyse, de modélisation et de résolution de problèmes.
- Autonomie, rigueur et esprit d'équipe.
- Anglais technique.
Type d'emploi : Temps plein, CDI
Statut : Cadre
Rémunération : 30 000,00€ à 40 000,00€ par an
Avantages :
* Prise en charge du transport quotidien
* RTT
Lieu du poste : En présentiel
Nous recherchons un Consultant Data spécialisé Databricks pour accompagner des projets de transformation et d'exploitation de données à grande échelle. Vous interviendrez sur la conception, l'industrialisation et l'optimisation de pipelines de données dans un environnement cloud moderne.
Vos missions
- Concevoir, développer et maintenir des pipelines de données sur Databricks.
- Intégrer et transformer des données issues de différentes sources (SQL, NoSQL, API, fichiers).
- Assurer la qualité, la performance et la sécurité des traitements.
- Participer aux phases de cadrage, design et architecture data.
- Contribuer à l'automatisation et à l'industrialisation des process (CI/CD, monitoring, tests).
- Collaborer avec les équipes Data, Dev et Métiers dans un cadre Agile.
- Rédiger la documentation technique et assurer le transfert de connaissances.
Stack & compétences techniques
- Databricks (notebooks, Delta Lake, MLflow).
- Langages : Python, PySpark, SQL.
- Cloud : Azure (Data Lake, Data Factory, Synapse), AWS ou GCP selon contexte.
- Bases de données : SQL Server, PostgreSQL, MongoDB (apprécié).
- CI/CD & DevOps : Git, Jenkins, Azure DevOps.
- Outils Data : Spark, Hadoop, Kafka (souhaité).
- Méthodologie : Agile/Scrum.
Profil recherché
- Expérience confirmée en ingénierie Data et projets Big Data.
- Maîtrise de l'écosystème Databricks et des environnements cloud.
- Bonne capacité d'analyse, de modélisation et de résolution de problèmes.
- Autonomie, rigueur et esprit d'équipe.
- Anglais technique.
Type d'emploi : Temps plein, CDI
Statut : Cadre
Rémunération : 30 000,00€ à 40 000,00€ par an
Avantages :
* Prise en charge du transport quotidien
* RTT
Lieu du poste : En présentiel
Plateforme de publication

Offres pouvant vous intéresser
BOULOGNE BILLANCOURT,
92
il y a 1 mois
VITROLLES,
13
il y a 10 jours
GRENOBLE,
38
il y a 3 jours
ANNECY,
74
il y a 3 jours