Google a récemment dévoilé une nouvelle génération de modèles d’intelligence artificielle, la famille PaliGemma 2, dotée d’une capacité qui suscite un vif débat : l’identification des émotions humaines.
Ces modèles peuvent analyser des images pour générer des légendes détaillées et répondre à des questions sur les personnes figurant sur des photos.
Lire aussi :
- Comment les agents IA comme Agentforce transforment-ils la productivité et les stratégies commerciales des entreprises ?
- Comment les nouvelles puces Trainium2 d’AWS révolutionnent-elles l’entraînement et le déploiement des grands modèles de langage (LLMs) ?
Une IA qui dépasse la reconnaissance d’objets
Dans une annonce partagée avec TechCrunch, Google a déclaré que PaliGemma 2 ne se limite pas à l’identification classique d’objets ou de personnes. Cette IA peut également décrire des actions, des émotions et la narration globale d’une scène. Cependant, la reconnaissance des émotions nécessite une phase d’ajustement spécifique, une démarche qui, selon certains experts, pourrait poser des risques éthiques.
Des chercheurs, comme Sandra Wachter de l’Oxford Internet Institute, remettent en question la validité de cette technologie. Elle souligne que « lire les émotions d’une personne à partir de son visage revient à demander conseil à une boule magique ». En effet, les émotions sont profondément subjectives et influencées par des facteurs culturels et contextuels, ce qui rend leur interprétation universelle très problématique.
Une technologie controversée et biaisée
Les systèmes de détection des émotions reposent souvent sur les travaux controversés de Paul Ekman, qui avait défini six émotions universelles. Des recherches ultérieures ont remis en question cette théorie, mettant en évidence des variations significatives dans l’expression émotionnelle selon les cultures. De plus, des études comme celle du MIT en 2020 ont montré que ces systèmes peuvent développer des biais involontaires, favorisant par exemple certaines expressions ou attribuant des émotions négatives de manière disproportionnée aux visages noirs.
Google affirme avoir effectué des tests rigoureux pour évaluer les biais démographiques de PaliGemma 2, utilisant notamment le benchmark FairFace. Cependant, ce dernier a lui-même été critiqué pour sa représentation limitée des groupes raciaux. Des experts comme Heidy Khlaaf, scientifique en chef à l’AI Now Institute, rappellent que l’interprétation des émotions ne peut se limiter aux expressions faciales, mais dépend aussi du contexte personnel et culturel.
Des risques pour les droits et la vie privée
Les systèmes de détection des émotions suscitent une vive opposition, notamment en Europe. L’AI Act de l’Union européenne interdit leur utilisation dans des contextes sensibles comme l’éducation ou l’emploi, bien qu’il reste des exceptions pour les forces de l’ordre. Des chercheurs craignent que des modèles comme PaliGemma 2 soient détournés à des fins discriminatoires, notamment dans le recrutement, la surveillance ou les contrôles aux frontières.
Pour se défendre, Google assure que ses modèles respectent des standards stricts en matière d’éthique et de sécurité. Néanmoins, Sandra Wachter appelle à une vigilance accrue : « L’innovation responsable implique de penser aux conséquences dès le premier jour de développement d’un produit. »