AccueilActualitésQuels sont les risques éthiques associés à l’utilisation de l’intelligence artificielle pour...

Quels sont les risques éthiques associés à l’utilisation de l’intelligence artificielle pour détecter les émotions humaines ?

Publié le

par

Google a récemment dévoilé une nouvelle génération de modèles d’intelligence artificielle, la famille PaliGemma 2, dotée d’une capacité qui suscite un vif débat : l’identification des émotions humaines.

Ces modèles peuvent analyser des images pour générer des légendes détaillées et répondre à des questions sur les personnes figurant sur des photos.

Lire aussi :

  1. Comment les agents IA comme Agentforce transforment-ils la productivité et les stratégies commerciales des entreprises ?
  2. Comment les nouvelles puces Trainium2 d’AWS révolutionnent-elles l’entraînement et le déploiement des grands modèles de langage (LLMs) ?

Une IA qui dépasse la reconnaissance d’objets

Dans une annonce partagée avec TechCrunch, Google a déclaré que PaliGemma 2 ne se limite pas à l’identification classique d’objets ou de personnes. Cette IA peut également décrire des actions, des émotions et la narration globale d’une scène. Cependant, la reconnaissance des émotions nécessite une phase d’ajustement spécifique, une démarche qui, selon certains experts, pourrait poser des risques éthiques.

Des chercheurs, comme Sandra Wachter de l’Oxford Internet Institute, remettent en question la validité de cette technologie. Elle souligne que « lire les émotions d’une personne à partir de son visage revient à demander conseil à une boule magique ». En effet, les émotions sont profondément subjectives et influencées par des facteurs culturels et contextuels, ce qui rend leur interprétation universelle très problématique.

Comment le nouveau mode chat IA de Brave améliore-t-il l’expérience de recherche en ligne par rapport à Google ?

Une technologie controversée et biaisée

Les systèmes de détection des émotions reposent souvent sur les travaux controversés de Paul Ekman, qui avait défini six émotions universelles. Des recherches ultérieures ont remis en question cette théorie, mettant en évidence des variations significatives dans l’expression émotionnelle selon les cultures. De plus, des études comme celle du MIT en 2020 ont montré que ces systèmes peuvent développer des biais involontaires, favorisant par exemple certaines expressions ou attribuant des émotions négatives de manière disproportionnée aux visages noirs.

Google affirme avoir effectué des tests rigoureux pour évaluer les biais démographiques de PaliGemma 2, utilisant notamment le benchmark FairFace. Cependant, ce dernier a lui-même été critiqué pour sa représentation limitée des groupes raciaux. Des experts comme Heidy Khlaaf, scientifique en chef à l’AI Now Institute, rappellent que l’interprétation des émotions ne peut se limiter aux expressions faciales, mais dépend aussi du contexte personnel et culturel.

Des risques pour les droits et la vie privée

Les systèmes de détection des émotions suscitent une vive opposition, notamment en Europe. L’AI Act de l’Union européenne interdit leur utilisation dans des contextes sensibles comme l’éducation ou l’emploi, bien qu’il reste des exceptions pour les forces de l’ordre. Des chercheurs craignent que des modèles comme PaliGemma 2 soient détournés à des fins discriminatoires, notamment dans le recrutement, la surveillance ou les contrôles aux frontières.

Google peut-il concilier ses engagements climatiques avec son partenariat en Arabie Saoudite, pays dépendant des énergies fossiles ?

Pour se défendre, Google assure que ses modèles respectent des standards stricts en matière d’éthique et de sécurité. Néanmoins, Sandra Wachter appelle à une vigilance accrue : « L’innovation responsable implique de penser aux conséquences dès le premier jour de développement d’un produit. »

 

Caroline
Caroline
"Caroline est une rédactrice passionnée et visionnaire pour 2051.fr, où elle explore les frontières de l'innovation et de la technologie. Elle possède une expertise particulière en intelligence artificiel, ce qui enrichit ses articles d'analyses perspicaces et de perspectives avant-gardistes. Avec une curiosité insatiable pour les évolutions technologiques et leur impact sur la société, Caroline s'engage à dévoiler les tendances émergentes qui dessineront notre avenir. Ses écrits ne se contentent pas de présenter des faits ; ils invitent à la réflexion, offrant aux lecteurs une fenêtre sur le monde de demain. Sa capacité à lier les avancées scientifiques aux enjeux sociétaux fait de ses articles une lecture incontournable pour ceux qui s'intéressent à l'avenir de notre planète."

Partager cet article

Actualités

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici