Thèse Cadre de Raisonnement pour une Explicabilité Adaptative Intelligible et Centrée sur l'Humain des Systèmes d'Intelligence Artificielle H/F - Doctorat.Gouv.Fr
- CDD
- Doctorat.Gouv.Fr
Les missions du poste
Établissement : Université de Technologie Belfort-Montbéliard École doctorale : SPIM - Sciences Physiques pour l'Ingénieur et Microtechniques Laboratoire de recherche : Connaissance et Intelligence Artificielle Distribuées Direction de la thèse : Vincent HILAIRE ORCID 0000000327257140 Début de la thèse : 2026-10-01 Date limite de candidature : 2026-05-20T23:59:59 L'explicabilité des systèmes d'intelligence artificielle (IA) est devenue un enjeu scientifique, éthique
et sociétal majeur, en particulier dans des domaines centrés sur l'humain (human-centric) et sen
sibles tels que la santé, la finance ou l'éducation, où les prédictions algorithmiques influencent di
rectement des décisions humaines à fort impact. Dans ces contextes, l'enjeu ne réside plus unique
ment dans la compréhension interne des modèles, mais dans la capacité des systèmes d'IA à com
muniquer leurs raisonnements de manière intelligible, pertinente et contextualisée [1]. Cette évolution
s'inscrit dans un changement de paradigme, passant d'une approche model-centric à une vision user-
centric, centrée sur les besoins et le contexte des utilisateurs. L'explication ne doit plus être
considérée comme une donnée brute, mais comme un processus de communication adap tatif entre
le système d'IA et l'humain. Elle joue ainsi un rôle déterminant dans la justification, la confiance et
l'appropriation des décisions. Les travaux existants en Explainable Artificial Intelligence (XAI) se sont
largement concentrés sur des méthodes d'explication post-hoc appliquées à des modèles de type
boîte noire [2]. Bien que largement diffusées, ces approches présentent des limites importantes :
manque de fidélité au raisonnement réel du modèle, incohérences entre méthodes d'explication,
absence de mesure explicite de la confiance, faible actionnabilité pour des utilisateurs non experts,
ainsi que des coûts computationnels parfois incompatibles avec des usages en temps réel. Dans des
contextes à fort enjeu, ces limites peuvent induire une illusion de compréhension et de confiance,
rendant l'utilisation de telles explications potentiellement problématique, voire dangereuse [3]. Ces
constats mettent en évidence un problème fondamental : expliquer a posteriori des modèles opaques
ne garantit pas une compréhension fiable et cohérente. Il devient dès lors nécessaire d'adopter des
approches intégrant l'interprétabilité directement dans la conception des modèles d'IA (XAI by
design), afin de concilier performance prédictive, transparence et fidélité explicative [4]. Par ailleurs,
les explications doivent être adaptées aux profils et aux contextes d'usage et s'inscrire dans une
approche centrée sur l'utilisateur, capable de produire des explications fidèles, naturelles,
intelligibles, interactives et flexibles (explanation facilities) [5,6]. Voir résumé L'objectif de cette thèse est de concevoir un cadre formel d'interprétabilité adaptative, capable de
produire des explications différenciées en fonction du profil de l'utilisateur et du contexte d'usage.
Dans une approche centrée sur l'utilisateur, il s'agira de formaliser explicitement les profils des
utilisateurs (niveau d'expertise, rôle, objectifs, contraintes, préférences), ainsi que leurs contextes
d'usage, au sein d'un modèle symbolique et formel, sous la forme d'une ontologie. Cette ontologie
permettra d'orienter le processus d'explication, d'assurer l'interopérabilité entre différents modèles
d'IA, et d'élargir la notion classique d'explicabilité en intégrant des concepts complémentaires centrés
sur l'utilisateur. En structurant les différents types d'explications possibles, ainsi que les relations
entre profils, contextes et formes d'explication (abductives, contrastives, etc.), le modèle symbolique
constituera un support de raisonnement permettant de définir des règles logiques capables d'orienter
dynamiquement le processus d'explication du raisonnement de l'IA. Ce cadre sera intégré au sein
d'un système explicatif couplé à différents types de modèles d'intelligence artificielle (réseaux de
neurones, forêts aléatoires, etc.). Le système sera également capable d'apprendre à partir des
retours des utilisateurs, permettant une mise à jour de l'ontologie en temps réel. Enfin, l'impact de
ces explications adaptatives sera évalué au travers des études de cas menées dans différents
domaines d'application et auprès de profils utilisateurs variés, afin d'analyser leurs effets sur la
compréhension, la confiance et l'appropriation des décisions produites par les systèmes d'IA. Cette
thèse vise à contribuer à une vision renouvelée de l'XAI dans laquelle l'explicabilité n'est plus un ajout
a posteriori, mais une composante centrale de la conception de systèmes d'IA fiables, responsables
et réellement centrés sur l'humain. Voir objectifs
Le profil recherché
Un diplôme de master recherche ou équivalent dont la spécialité principale est l'informatique
Une bonne maîtrise de l'anglais (oral et écrit) est exigée
Des connaissances en intelligence artificielle, en explicabilité, en ingénierie des connaissances
et en ontologie seront appréciées
Un bon esprit de travail en équipe