« Il est fondamental de construire des normes pour encadrer l’élaboration des objets sociotechniques d’IA, en utilisant l’intelligence collective »

« Il est fondamental de construire des normes pour encadrer l’élaboration des objets sociotechniques d’IA, en utilisant l’intelligence collective »

© Jason Leung

Après des études scientifiques, Laurence Devillers choisit de mener des recherches en IA dans le domaine du traitement automatique de la langue et de l’apprentissage machine, étant fascinée par le langage humain, les émotions et la conscience. Chercheuse au CNRS, au LISN à Saclay, professeure à Sorbonne-Université en IA appliquée aux sciences humaines et éthique de l’IA, autrice d’essais : Les robots émotionnels, et Des robots et des hommes, elle sera speaker au One to one Biarritz. Interview.

Vous parlez justement de la détection des émotions, des capacités de dialogue, des interactions pouvant être reproduites par les robots. De quelle façon modélise-t-on des émotions humaines ?

Les émotions humaines sont en quelque sorte l’expression de nos sentiments, l’interface avec les autres, elles vont de pair avec des sensations physiques et un passage à l’action. L’expression des émotions est multimodale et combine des indices dans la voix, le visage, la posture, les gestes ou encore les signaux d’ordre physiologiques, comme les mesures sur le rythme cardiaque ou la sudation de la peau. Pour la reconnaissance des émotions à partir de la voix, on s’appuie par exemple sur des indices comme le timbre, l’énergie, le rythme ou encore la qualité vocale de la voix d’une personne. Il est plus facile, d’un point de vue informatique pour un robot de simuler des émotions même si celles-ci sont dépourvues de sensations physiques que de les reconnaître.

La reconnaissance des émotions est plus compliquée à cause de la grande variabilité des expressions entre les individus et les cultures. Nous procédons en trois phases pour construire un système d’IA capable de détecter des émotions : codage, annotation et création du modèle émotionnel. Prenons un exemple de reconnaissance de 4 émotions « joie, colère, tristesse, neutre » à partir d’une bande son. Nous codons la bande son en une séquence de vecteurs de coordonnées grâce à des algorithmes d’analyse du signal. Nous annotons manuellement ces séquences de vecteurs (segments de son, de mots, etc.), avec des étiquettes discrètes émotionnelles (colère, joie, tristesse ou neutre). L’algorithme d’apprentissage automatique consiste ensuite à « apprendre » un modèle à partir du signal et des annotations. Les méthodes d’apprentissage neuronales les plus performantes actuellement sont les transformers, réseaux de neurones profonds qui appartiennent au domaine du machine learning (apprentissage automatique) et plus précisément du deep learning (apprentisage profond).

Lors de la phase de reconnaissance des émotions à partir d’une bande son, un programme va enregistrer la parole d’un locuteur et utiliser le modèle émotionnel pour prédire que le signal correspond vraisemblablement à telle ou telle émotion. En quelque sorte, le programme essaie de trouver des ressemblances avec des signaux existants dans le corpus de données de départ. S’il trouve une ressemblance avec un signal étiqueté « joie », il en déduit que la personne est joyeuse.

Grâce à la détection des émotions, un système de dialogue peut adapter sa réponse à la personne. Je travaille principalement sur des applications de robot ou agent conversationnel assistant. Les objets connectés et spécifiquement les agents conversationnels comme Google Home, apportent une nouvelle dimension dans l’interaction, à savoir la parole, et pourraient devenir un moyen d’influence (de nudge) des individus. Ils ne sont pour l’instant ni régulés, ni évalués et sont très opaques.

Est-ce que vous pouvez m'expliquer ce que c'est que la théorie du « nudge » ?

Si on se réfère aux travaux de Richard Thaler, qui a d’ailleurs reçu un prix Nobel en économie en 2017, le nudge c'est une incitation à faire quelque chose, sans contraindre ni obliger. Exemple très simple : quand on cherche une chambre d'hôtel sur Internet, on nous propose celles encore disponibles, puis un message s'affiche nous précisant que X autres personnes cherchent une chambre similaire. L’objectif est d’inciter un individu à réserver une chambre en montrant bien que les disponibilités se raréfient. Donc, il s’agit de jouer sur le « stimulus d'incitation » ou au contraire « le frein à faire quelque chose » en décorrélant l’éthique et la morale dans la prise de décisions. Il est possible d’inciter les individus de façon bienveillante ou malveillante, les en empêcher de manger trop gras, ou encore en les poussant à la consommation, par exemple. Toutefois, mon sujet n'est pas de dire « c'est bien ou ce n’est pas bien », mais plutôt de décrire en profondeur les mécanismes qui sont utilisés, de les modéliser et de les auditer. Dans sa prise de décision, l’être humain est très influencé par un grand nombre de biais cognitifs. Et un point central de mes recherches est « comment décide-t-il ?  ». Ainsi, ces systèmes peuvent nous engager sur une voie à laquelle nous n’aurions pas spécialement pensé. Et c'est vrai que nous ne sommes pas forcément conscients de l'incitation que peuvent avoir ces machines sur nous. Il serait donc souhaitable de construire des normes en Europe et de règles éthiques pour encadrer ce pouvoir-là. C'est à dire que les industriels qui créent ces systèmes avec des mécanismes, qui ne sont pas forcément dangereux - qui vont dans le bon sens d'accompagnement pour une pathologie, pour l'éducation, etc - soient quand même auditables. C'est à dire que l'on puisse comprendre quels sont les stratagèmes utilisés, comment la personne s'adapte à la machine, et inversement, après une utilisation répétée.

En quoi pensez-vous qu’il soit important de parler de ces sujets au One-to-one Biarritz ?

Il est important de comprendre l’enjeu du trio : lois sur l'IA, élaboration des normes qui l’encadrent et éducation sur l’éthique. En effet aujourd’hui nous assistons à une guerre des normes, un lobbying puissant venant des grands groupes américains et chinois. Et il faut que les Européens - qui ont des valeurs particulières, qui respectent les droits de l'homme, la dignité de l'humain - soient vigilants aux problèmes de discrimination, d'injustice que peuvent engendrer certains programmes informatiques. Il faut attirer les talents créatifs pour construire ces normes. En effet, les outils d’IA sont des outils sociotechniques élaborés qui peuvent modifier le comportement des individus qu’ils ont en face, d’une façon positive – dans la médecine, l’éducation, et parfois le marketing - mais parfois d’une façon négative -l’addiction aux réseaux sociaux, aux jeux vidéo… Il est nécessaire de comprendre les risques et de les minimiser. Les ingénieurs qui conçoivent ces programmes ont donc une grande responsabilité dans le déploiement de l’IA puisqu’ils peuvent influencer les décisions humaines. L’IA manque cruellement de femmes, alors pour construire une société plus juste, il faudrait aussi pouvoir engager une intelligence collective mixte, homme-femme pour construire demain avec ces objets sociotechniques en intégrant des règles éthiques. À méditer !

commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.