L’intelligence artificielle entre en scène

par Camille Stassart Durée de lecture : 5 min

Les machines, seront-elles un jour pourvues d’intelligence émotionnelle ? C’est la question à laquelle a tenté de répondre un panel d’intervenants lors d’une conférence au Forum international IMPACT (International Meeting in Performing Arts and Creative Technologies). Ce projet de recherche est soutenu par le programme INTERREG Euregio Meuse-Rhin, la Wallonie et la Communauté germanophone. L’objectif ? Favoriser la coopération des acteurs du secteur des nouvelles technologies et des industries culturelles créatives.

La conférence « Détection des émotions et intelligence artificielle au service du théâtre » est revenue sur les avancées de l’IA (intelligence artificielle) dans le domaine de la reconnaissance des émotions humaines, et son intérêt pour les arts de la scène.

Nous sommes capables d’exprimer six émotions primaires : la colère, la peur, la joie, la tristesse, la surprise et le dégoût.

Le deep learning, une plongée en profondeur dans les émotions

Bien qu’il n’existe pas de consensus scientifique sur la question, on dit généralement que nous sommes capables d’exprimer six émotions primaires : la colère, la peur, la joie, la tristesse, la surprise et le dégoût. En 1872, dans “The expression of the Emotions in Man and Animals”, Charles Darwin décrit ces émotions comme innées, universelles et communicatives.

Communicative dans l’idée où l’émotion est accompagnée de signes physiologiques. Que l’on ressente de la colère ou bien de la joie, nos expressions faciales, notre gestuelle et nos intonations sont différentes.

« Dans la recherche, une discipline appelée « l’intelligence artificielle émotionnelle » étudie et développe des systèmes pour détecter, interpréter et, à terme, simuler les émotions humaines » précise le Pr. Gilles Louppe, spécialiste de l’IA et du deep learning à l’ULiège.

Les scientifiques exploitent à cette fin la méthode du deep learning. Celle-ci s’appuie sur des réseaux, composés de plusieurs « couches » de neurones artificiels, chacune recevant et interprétant les informations de la couche précédente.

La start-up MoodMe, fondée en 2015, développe et commercialise des composants softwares destinés à la détection d’émotions et à l’identification faciale (c) MoodMe

Comme l’humain, l’IA apprend de ses erreurs

« Contrairement à la programmation classique où l’on indique à un logiciel ce qu’il doit faire, on fournit ici à la machine une routine d’apprentissage. Elle est, de cette façon, capable d’apprendre par elle-même de ses erreurs, et donc de s’améliorer » développe le Pr. Louppe.

Cette routine d’apprentissage se construit en injectant au système des millions d’exemples. Il est ainsi tout à fait possible aujourd’hui d’entraîner une IA à détecter et à interpréter les émotions humaines. Et ce, en lui fournissant des bases de données de photos de personnes arborant des expressions faciales émotionnelles. Une technique déjà exploitée par le monde industriel.

La start-up MoodMe, fondée en 2015, développe et commercialise ainsi des composants softwares destinés à la détection d’émotions et à l’identification faciale. « Notre technologie se fonde sur plusieurs réseaux de neurones. Sur base de photos ou de vidéo, l’outil est capable de déterminer le sexe, l’âge et les émotions exprimées par la personne représentée. Ainsi que l’intensité de ces émotions, sur une échelle de 1 à 100 », indique Chandra Dekeyser, co-fondateur et CEO de MoodMe.

Le virtuel en scène

Une autre façon pour qu’une IA apprenne les émotions humaines consiste à lui fournir « des enregistrements audios de personnes parlant avec émotion. Ou encore des textes où l’auteur fait part d’un ressenti, offrant la possibilité au réseau d’apprendre que tel ou tel mot est employé de manière neutre, péjorative ou bien positive » déclare le Pr. Louppe.

Dans les arts de la scène, ces technologies pourraient servir d’outil aux acteurs pour améliorer leur jeu. « Des IA en mesure d’identifier des émotions pourraient être utilisées pour analyser le jeu de l’acteur, le texte. Et , par là, évaluer la pertinence du ressenti simulé par le comédien », explique Alain Bouffioux, responsable du Projet Impact à l’Interface Entreprises-ULiège.

Une autre application envisageable dans les arts serait de donner la réplique à ces IA. Le film japonais « Sayōnara », sorti en 2015, l’a fait en mettant en scène Leona, un androïde.

Ce long-métrage, le premier du genre, s’inspire de la pièce de théâtre du même nom dans laquelle joue la même IA :

Dans ces exemples, un robot humanoïde est employé, mais comme le rappelle le Pr. Louppe, « il est aujourd’hui possible de créer des personnes virtuelles, des avatars, capables d’interagir avec le spectateur et de simuler telles ou telles émotions ».

Au Dali Museum, en Floride (USA), les visiteurs ont l’occasion depuis avril 2019 d’en apprendre davantage sur la vie de l’artiste auprès de la personne qui le connaissait le mieux : Salvador Dali lui-même.

L’expérience « Dali Lives » ressuscite en effet virtuellement le peintre, avec qui le visiteur peut interagir via une série d’écrans du musée. En plus de 1000 heures d’apprentissage basé sur des collections d’interviews, de photos, de citations et d’images d’archives, l’IA a appris qui était l’artiste et comment il se comportait. Et ce, afin de reproduire une version la plus crédible possible du peintre décédé.

Print Friendly, PDF & Email