Ingénieur Systèmes Embarqués
Floware est une startup deeptech labellisée Bpifrance qui développe une solution SaaS combinant intelligence artificielle et IoT pour l'analyse et l'optimisation des flux de mobilité urbaine. Notre plateforme Floware Vision permet aux acteurs publics et privés de disposer de données précises et actionnables pour planifier, gérer et améliorer les infrastructures de transport.
Au cœur de notre solution : des capteurs intelligents propriétaires déployés en extérieur, embarquant des modèles de computer vision sur GPU NVIDIA et connectés en temps réel à notre infrastructure cloud. Ces capteurs sont conçus pour fonctionner de façon autonome et résiliente dans des conditions d'exploitation exigeantes — alimentation instable, accès difficile, exposition aux intempéries.
Floware est partenaire de l'École Polytechnique, de CentraleSupélec, du CEREMA et de l'Institut Vedecom, et participe à deux projets Horizon Europe. Nous sommes en phase d'industrialisation active de notre plateforme capteur et en forte accélération commerciale.
L'Ingénieur Systèmes Embarqués & IoT est responsable du développement, de l'intégration et de la fiabilisation du logiciel embarqué des capteurs Floware. Il travaille au plus près du matériel — carte de supervision, GPU NVIDIA, modules de connectivité — et assure le lien entre le traitement edge (computer vision, acquisition) et l'infrastructure cloud.
Ce poste couvre un spectre technique large, de la programmation bas niveau à l'intégration système, en passant par le déploiement des modèles IA sur la cible et la supervision à distance des capteurs en production. Il requiert une rigueur d'ingénierie élevée, une capacité à travailler avec du matériel physique et une sensibilité aux contraintes du déploiement terrain.
Développement du logiciel embarqué
- Développer et maintenir le logiciel embarqué des capteurs (Python, C/C++) fonctionnant sur plateforme GPU NVIDIA sous Linux
- Implémenter et faire évoluer les services systèmes : démarrage, supervision des processus, watchdog, gestion des modes dégradés et reprise automatique après incident
- Développer l'interface entre le PCB de supervision (microcontrôleur) et la plateforme de traitement principale : remontée d'état, commandes à distance, journalisation
- Assurer la robustesse du système face aux coupures d'alimentation, micro-coupures et variations de tension dans des conditions terrain réelles
- Gérer les mises à jour logicielles à distance (OTA) de façon sécurisée et résiliente
Intégration et déploiement des modèles IA
- Déployer et optimiser les modèles de computer vision propriétaires sur GPU NVIDIA (inférence embarquée via TensorRT ou équivalent)
- Tester et valider les performances des modèles sur cible, en coordination avec l'équipe data science
- Assurer l'intégration des pipelines de traitement vidéo : acquisition, prétraitement, inférence, post-traitement et transmission des résultats
- Contribuer à la définition des contraintes d'optimisation (latence, consommation, précision) pour le déploiement en edge
Connectivité IoT et communication cloud
- Implémenter et maintenir la couche de communication entre les capteurs et l'infrastructure cloud (MQTT, Azure IoT Hub)
- Développer les mécanismes de supervision à distance : télémétrie, alertes, commandes, récupération de journaux
- Assurer la robustesse des échanges réseau en conditions dégradées (connectivité intermittente, reconnexion automatique, gestion des files de messages)
- Contribuer à la sécurisation des échanges embarqués-cloud (authentification des appareils, chiffrement, gestion des certificats)
Évaluation et intégration des modules optiques
- Contribuer à la sélection des modules caméra adaptés aux cas d'usage : analyse de flux multimodal, LAPI, détection longue distance, conditions nocturnes — en lien avec le bureau d'études spécialisé qui pilote la conception
- Participer à l'évaluation des fournisseurs et à la qualification des modules retenus : comparaison des offres, tests sur banc, validation des performances
- Assurer l'intégration logicielle des modules caméra dans la chaîne de traitement embarquée : pilotes, paramétrage du capteur d'image (exposition, gain, balance des blancs), gestion des flux vidéo
- Valider les performances du module optique sur cible en conditions réelles : qualité d'image, taux de détection, robustesse aux variations d'environnement (luminosité, température, intempéries)
- Participer à la phase d'industrialisation du capteur : qualification du PCB de supervision, intégration du module optique dans la chaîne de production, procédures de test en série
- Définir et exécuter les protocoles de test fonctionnels et de validation système (bancs de test, scénarios de défaillance, tests de robustesse électrique et optique)
- Diagnostiquer et résoudre les anomalies remontées depuis le parc capteur en production
- Produire et maintenir une documentation technique rigoureuse : architecture logicielle, interfaces, spécifications optiques, procédures de déploiement et de maintenance
Déploiements terrain
- Participer aux déploiements initiaux sur site pour valider l'installation, le câblage et la mise en service des capteurs
- Définir et rédiger les procédures d'installation et de maintenance à destination des équipes terrain
- Assurer le support technique de niveau 2 pour les incidents capteur en production
GPU NVIDIA (edge computing), Linux embarqué (Ubuntu/Jetpack)
TensorRT, ONNX, OpenCV, GStreamer — inférence optimisée sur GPU
Optique & caméra
Modules caméra industriels / embarqués, LAPI, pilotes V4L2, ISP, traitement flux vidéo
IoT & connectivité
Microcontrôleur (PCB dédié), interfaces série/I²C/SPI/GPIO
Secteur, batterie LiPo, solaire — gestion multi-sources avec reprise automatique
Conteneurisation
Docker sur edge, déploiement de services en production
Git, CI/CD, outils de banc de test, monitoring embarqué
PROFIL RECHERCHÉ
Formation & expérience
- Formation d'ingénieur en systèmes embarqués, électronique, informatique industrielle, optronique ou domaine connexe
- 5 ans d'expérience en développement de systèmes embarqués Linux, idéalement sur des plateformes ARM ou GPU
- Expérience en développement Python et C/C++ dans un contexte temps réel ou contraint
- Expérience en intégration de systèmes IoT avec communication vers le cloud
Compétences techniques
- Maîtrise de Linux embarqué : gestion des services, systemd, supervision de processus, démarrage système
- Bonne connaissance des interfaces matérielles basses : UART, I²C, SPI, GPIO
- Expérience en déploiement et optimisation de modèles d'inférence sur GPU embarqué (TensorRT, ONNX ou équivalent)
- Maîtrise de la chaîne d'acquisition vidéo embarquée : pilotes caméra (V4L2 ou équivalent), paramétrage ISP, gestion des flux (GStreamer ou équivalent)
- Pratique des protocoles IoT (MQTT) et des plateformes de gestion d'appareils (Azure IoT Hub, AWS IoT ou équivalent)
- Connaissance des problématiques d'alimentation embarquée : gestion batterie, modes veille, robustesse électrique
- Capacité à écrire des tests unitaires et des protocoles de validation système
- Maîtrise de Git et des pratiques de développement logiciel collaboratif
Systèmes optiques & caméra pour l'analyse vidéo (atout très souhaitable)
- Connaissance des modules caméra embarqués pour l'analyse vidéo en extérieur : capteurs d'image, optiques fixes ou motorisées, modules industriels
- Familiarité avec les systèmes LAPI : contraintes optiques, résolution, distance de lecture, conditions d'éclairage
- Connaissance du marché des modules caméra et des critères de sélection pour des applications de vision industrielle en extérieur
- Compréhension des paramètres optiques clés pour la qualité de détection : champ de vision, profondeur de champ, sensibilité en faible luminosité, distorsion, IR cut filter
Compétences complémentaires appréciées
- Connaissance des mécanismes OTA sur systèmes embarqués Linux
- Appétence pour l'électronique : lecture de schémas, debug à l'oscilloscope, compréhension des cahiers des charges matériels
- Expérience en contexte de déploiement terrain : installation, maintenance, diagnostic à distance
- Connaissance de Docker en environnement edge
- Rigueur et méthode dans la démarche de test et de validation — sens de la qualité logicielle dans un contexte matériel contraint
- Capacité à diagnostiquer des anomalies complexes mêlant logiciel, matériel et environnement réseau
- Autonomie et sens des responsabilités dans le suivi d'un parc de capteurs en production
- Goût pour le travail pluridisciplinaire : interaction régulière avec l'équipe data science, le prestataire matériel et les équipes terrain
- Capacité à documenter et à transmettre avec clarté
Un défi technique réel
Conception et industrialisation d'un capteur embarqué en conditions d'exploitation exigeantes — un périmètre technique rare en startup.
IA embarquée de pointe
Déploiement de modèles de computer vision propriétaires sur GPU NVIDIA, dans un contexte edge computing à fort enjeu de performance.
Environnement R&D stimulant
Partenariats avec l'École Polytechnique, CentraleSupélec, le CEREMA et l'Institut Vedecom. Participation à des projets Horizon Europe.
#J-18808-Ljbffr