Expert Kafka H/F
TOULOUSE,
31
il y a 1 jour
Nous avons une mission d'expert Kafka, qui s'inscrit dans un environnement technique exigeant, centré sur l'administration et l'optimisation d'architectures événementielles pour la transformation digitale documentaire des clients.
Contexte :
Equipe technique de taille humaine (6 personnes), encadrement par un(e) lead technique.
Possibilité de télétravail partiel, process d'intégration rapide, environnement collaboratif.
Projets liés à la transformation digitale documentaire, la dématérialisation, la gestion de flux de documents massifs et la souveraineté numérique.
Missions principales :
Installer, configurer et administrer la plateforme Kafka (notamment Confluent).
Maintenir la plateforme en condition opérationnelle (gestion proactive de la disponibilité, de la performance et de la montée en charge)
Automatiser les déploiements, opérations de RUN et tâches de maintenance grâce à du scripting (Bash, Python, etc.) et des outils d'orchestration CI/CD.
Assurer la sécurité, l'intégrité et la scalabilité des données transitant via la plateforme (HA, encryption, règles d'accès).
Monitorer et analyser l'activité de Kafka avec des outils type ELK ou Prometheus/Grafana, mettre en place des alertes pertinentes et documenter les incidents.
Suivre et accompagner les évolutions de l'écosystème Kafka (Kafka streams, Connect, REST Proxy), rédiger/améliorer la documentation associée, réaliser une veille techno continue.
Stack et Environnement :
Kafka/Confluent, clusters multi-noeuds, automation CI/CD (Gitlab), conteneurisation Docker/Kubernetes en contexte hybride cloud/on-premise.
Outillage de monitoring : ELK, Prometheus, Grafana.
Ecosystème cloud et outils afférents (Gitlab, Artifactory/JFrog, Keycloak pour IAM, APIs REST/Async).
Contexte :
Equipe technique de taille humaine (6 personnes), encadrement par un(e) lead technique.
Possibilité de télétravail partiel, process d'intégration rapide, environnement collaboratif.
Projets liés à la transformation digitale documentaire, la dématérialisation, la gestion de flux de documents massifs et la souveraineté numérique.
Missions principales :
Installer, configurer et administrer la plateforme Kafka (notamment Confluent).
Maintenir la plateforme en condition opérationnelle (gestion proactive de la disponibilité, de la performance et de la montée en charge)
Automatiser les déploiements, opérations de RUN et tâches de maintenance grâce à du scripting (Bash, Python, etc.) et des outils d'orchestration CI/CD.
Assurer la sécurité, l'intégrité et la scalabilité des données transitant via la plateforme (HA, encryption, règles d'accès).
Monitorer et analyser l'activité de Kafka avec des outils type ELK ou Prometheus/Grafana, mettre en place des alertes pertinentes et documenter les incidents.
Suivre et accompagner les évolutions de l'écosystème Kafka (Kafka streams, Connect, REST Proxy), rédiger/améliorer la documentation associée, réaliser une veille techno continue.
Stack et Environnement :
Kafka/Confluent, clusters multi-noeuds, automation CI/CD (Gitlab), conteneurisation Docker/Kubernetes en contexte hybride cloud/on-premise.
Outillage de monitoring : ELK, Prometheus, Grafana.
Ecosystème cloud et outils afférents (Gitlab, Artifactory/JFrog, Keycloak pour IAM, APIs REST/Async).
Plateforme de publication

Offres pouvant vous intéresser
TOULOUSE,
31
il y a 16 heures
TOULOUSE,
31
il y a 16 heures
LESQUIN,
59
il y a 1 mois
Consultant DevOps H/F (H/F)
32 000,00 € - 50 000,00 € / an
LES LILAS,
93
il y a 16 jours