Chargement en cours

Post-doctorat (H/F) : Explication des systèmes d'IA via l'abstraction causale

HÈRES, 65
il y a 6 jours

Vos missions en quelques mots

Missions :
La personne embauchée contribuera au volet de recherche consacré à l'abstraction causale, qui vise à construire des cadres d'évaluation rigoureux pour l'interprétabilité de l'IA en s'appuyant sur l'abstraction causale, ainsi qu'à développer de nouvelles méthodes d'interprétabilité. Ses missions incluront l'avancement des fondements théoriques du projet, la définition des métriques d'évaluation, la mise en place d'une chaîne d'évaluation robuste pour les méthodes d'interprétabilité, ainsi que la conception de nouveaux algorithmes d'interprétation.
Activités :
La personne embauchée mènera des travaux théoriques sur l'abstraction causale et l'alignement causal, implémentera des algorithmes et des pipelines expérimentaux en Python/PyTorch, et conduira des expériences sur des clusters GPU. Il ou elle collaborera étroitement avec l'investigateur principal et les doctorants de l'équipe, interagira avec les partenaires internationaux, et participera à la supervision et à la coordination des stagiaires de Master impliqués dans le projet. La préparation régulière de résultats de recherche, la contribution aux soumissions à des conférences, ainsi que la participation aux réunions du projet feront partie intégrante de ses activités.
Contexte de travail :
La personne embauchée rejoindra le CNRS au sein de l'équipe GetAlp du Laboratoire d'Informatique de Grenoble (LIG). GetAlp mène des recherches en TAL, apprentissage automatique, évaluation et interprétabilité. Le projet sera encadré par Maxime Peyrard (CNRS), en collaboration avec des doctorants et des partenaires externes. La personne embauchée bénéficiera d'un environnement scientifique local dynamique dans le domaine de l'IA et d'un accès aux infrastructures de calcul GPU.


Profil recherché

Competences :
Le poste requiert un doctorat en apprentissage automatique, TAL, causalité ou discipline apparentée, ainsi qu'une excellente maîtrise de l'apprentissage profond et un intérêt marqué pour l'interprétabilité. De très bonnes compétences en programmation Python, une familiarité avec les architectures neuronales modernes et une capacité à mener des recherches de manière autonome sont attendues. Une expérience en modélisation causale, en apprentissage de représentations ou en interprétabilité mécanistique est un atout.
Contraintes et risques :


Niveau d'études minimum requis
  • Niveau
    Niveau 8 Doctorat/diplômes équivalents
  • Spécialisation
    Formations générales


Langues
  • Français
    Seuil

Entreprise
CNRS
Plateforme de publication
JOBRAPIDO
Offres pouvant vous intéresser
Soyez le premier à postuler aux nouvelles offres
Soyez le premier à postuler aux nouvelles offres
Créez gratuitement et simplement une alerte pour être averti de l’ajout de nouvelles offres correspondant à vos attentes.
* Champs obligatoires
Ex: boulanger, comptable ou infirmière
Alerte crée avec succès