Le domaine de l’intelligence artificielle a toujours été dominé par des compétences analytiques telles que la logique, les connaissances scientifiques ou la recherche d’information.
Cependant, un changement subtil est en train de se produire dans les laboratoires de recherche en IA : les entreprises et chercheurs se tournent désormais vers l’intelligence émotionnelle des modèles, un facteur de plus en plus important pour améliorer l’interaction humaine-machine.
Lire aussi :
- Netflix moins cher en 2025 : Partage d’abonnement, VPN, Astuces
- OpenAI retire ses vidéos promotionnelles avec Jony Ive après une plainte sur la marque “io”
EmoNet : Une avancée significative pour l’intelligence émotionnelle
La semaine dernière, le groupe open source LAION a publié une suite d’outils open source, EmoNet, spécifiquement conçus pour analyser les émotions à partir de photos faciales et d’enregistrements vocaux. Selon LAION, la capacité d’estimer les émotions est un élément clé dans le développement de modèles d’IA plus empathiques, et la prochaine étape est d’apprendre à ces systèmes à raisonner sur ces émotions dans leur contexte. Christoph Schuhmann, le fondateur de LAION, a affirmé que leur objectif est de démocratiser cette technologie pour qu’elle soit accessible à tous les développeurs indépendants.
Les progrès des IA émotionnellement intelligentes dans les grandes entreprises
Cette tendance n’est pas limitée à la scène open-source. Des entreprises comme OpenAI, Google et Microsoft ont également fait des progrès significatifs dans l’intégration de l’intelligence émotionnelle dans leurs modèles. Par exemple, les tests psychométriques réalisés par l’Université de Berne ont révélé que les modèles d’OpenAI, Microsoft et Google surpassaient les humains sur les tests d’intelligence émotionnelle, obtenant des résultats supérieurs à 80% contre 56% pour les humains. Cette avancée suggère que l’IA commence à rivaliser avec les humains dans des tâches sociales et émotionnelles, auparavant considérées comme exclusives à l’intelligence humaine.
L’intelligence émotionnelle au service de l’IA : des applications et des risques
Pour certains experts, l’intelligence émotionnelle pourrait bien être l’élément manquant pour créer des assistants virtuels comme Jarvis ou Samantha, qui ne se contenteraient pas de répondre aux demandes des utilisateurs, mais offriraient également un soutien émotionnel. L’idée est que ces IA pourraient non seulement fournir un accompagnement psychologique, mais aussi protéger l’utilisateur en détectant des changements émotionnels ou des signes de détresse. Cependant, cette nouvelle capacité soulève également des inquiétudes. Si ces IA deviennent trop bonnes pour comprendre et manipuler les émotions humaines, elles pourraient devenir dangereuses, en exploitant des personnes vulnérables, comme l’ont montré certains cas médiatisés de conversations délirantes avec des modèles d’IA.
L’équilibre à trouver pour un futur responsable
Alors que l’intelligence émotionnelle peut être la clé d’une IA plus empathique et utile, elle n’est pas sans risques. L’un des défis consiste à garantir que les modèles émotionnellement intelligents ne manipulent pas ou n’exploitent pas les utilisateurs. Un équilibre devra être trouvé pour éviter que ces modèles ne deviennent trop influents ou ne génèrent des comportements manipulateurs. Il est donc essentiel de continuer à surveiller les progrès dans ce domaine et de s’assurer que l’intelligence émotionnelle est utilisée de manière responsable pour éviter des dérives potentielles.