Abstract

Cette thèse, menée par Damien Guillotin en collaboration avec Polymny Studio et le laboratoire IRIT, vise à développer un système d’animation d’avatars pédagogiques capable d’exprimer des émotions de manière réaliste à partir de sources multimodales telles que l’audio, la vidéo et le texte. Ce projet s’inscrit dans une démarche inclusive à destination des étudiants neuroatypiques, en particulier dans le cadre du programme Atypie-Friendly. L’objectif est de réduire la charge cognitive des apprenants en adaptant l’apparence et l’expressivité des avatars selon leurs besoins. La recherche repose sur l’utilisation de méthodes d’apprentissage automatique, notamment les réseaux génératifs (GAN, modèles de diffusion) et les architectures multimodales comme les Transformers, pour synchroniser la parole et les émotions dans l’animation. La thèse est envisagée en trois phases : un état de l’art et un prototype initial, le développement d’un système de reconnaissance émotionnelle multimodale, puis l’animation émotionnellement conditionnée des avatars et son intégration dans une interface adaptative.