Data Engineer (F/H) (IT) / Freelance
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇
3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous !
Présentation des missions
Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT.
Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité.
Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec :
- Le Tech Lead Data et un data engineer
- Les équipes produit
- Les équipes métier (migration / fonctionnel)
- Les équipes infra / DevOps
-
Modèles de données (dbt)
- Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED)
- Implémenter les règles métier de façon explicite et documentée
- Centraliser les règles communes (mapping, normalisation, référentiels)
-
Robustesse & fiabilité des pipelines
- Pipelines reproductibles, OS-agnostiques, déployables via CI/CD
- Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles
- Alertes sur écarts ou régressions, optimisation des performances
-
Contributions applicatives
- Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import
- Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM)
- Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server)
-
Documentation & collaboration transverse
- Documenter modèles, règles de transformation, conventions de nommage
- Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration
- Collaborer avec les équipes métier, produit et infra
Transformation : dbt, SQL avancé, Python
Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent
Orchestration : Airflow (ou équivalent)
Application : FastAPI, Vue.js + TypeScript + Quasar
IA : scikit-learn, embeddings vectoriels, NLP, LLM
Infra / CI/CD : Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines
Data quality :Tests dbt, Pytest
Profil candidat
✌Ce que nous recherchons chez vous :
- Bac+3/5 en informatique ou équivalent, avec au moins 2 à 5 ans d’expérience sur des projets data
- Solide maîtrise de SQL (modélisation, optimisation) et bonnes bases Python
- Première expérience avec DBT et/ou Snowflake (Redshift, BigQuery, Synapse…) est un plus
- Connaissance des principes de CI/CD, des tests automatisés et des bonnes pratiques DevOps
- Vous savez travailler en équipe, faire preuve de rigueur et d’autonomie
- Esprit d’initiative et goût du challenge dans un environnement en pleine évolution
- Une expérience en développement web Python (Flask, Django) et front (VueJS, React) serait appréciée.
Situation géographique
Montpellier (34)
Quelques infos importantes à retenir
- Expérience de 4/5 ans minimum sur un poste similaire
- 3 jours de télétravail par semaine
- Type de contrat : Freelance.
Si vous êtes prêt(e) à relever ce défi et à contribuer à des projets stimulants, n’hésitez pas à postuler dès maintenant !
#J-18808-Ljbffr