Google a rรฉcemment dรฉvoilรฉ une nouvelle gรฉnรฉration de modรจles dโintelligence artificielle, la famille PaliGemma 2, dotรฉe dโune capacitรฉ qui suscite un vif dรฉbat : lโidentification des รฉmotions humaines.
Ces modรจles peuvent analyser des images pour gรฉnรฉrer des lรฉgendes dรฉtaillรฉes et rรฉpondre ร des questions sur les personnes figurant sur des photos.
Lire aussi :
- Comment les agents IA comme Agentforce transforment-ils la productivitรฉ et les stratรฉgies commerciales des entreprises ?
- Comment les nouvelles puces Trainium2 dโAWS rรฉvolutionnent-elles lโentraรฎnement et le dรฉploiement des grands modรจles de langage (LLMs) ?
Une IA qui dรฉpasse la reconnaissance dโobjets
Dans une annonce partagรฉe avec TechCrunch, Google a dรฉclarรฉ que PaliGemma 2 ne se limite pas ร lโidentification classique dโobjets ou de personnes. Cette IA peut รฉgalement dรฉcrire des actions, des รฉmotions et la narration globale dโune scรจne. Cependant, la reconnaissance des รฉmotions nรฉcessite une phase dโajustement spรฉcifique, une dรฉmarche qui, selon certains experts, pourrait poser des risques รฉthiques.
Des chercheurs, comme Sandra Wachter de lโOxford Internet Institute, remettent en question la validitรฉ de cette technologie. Elle souligne que ยซ lire les รฉmotions dโune personne ร partir de son visage revient ร demander conseil ร une boule magique ยป. En effet, les รฉmotions sont profondรฉment subjectives et influencรฉes par des facteurs culturels et contextuels, ce qui rend leur interprรฉtation universelle trรจs problรฉmatique.
Une technologie controversรฉe et biaisรฉe
Les systรจmes de dรฉtection des รฉmotions reposent souvent sur les travaux controversรฉs de Paul Ekman, qui avait dรฉfini six รฉmotions universelles. Des recherches ultรฉrieures ont remis en question cette thรฉorie, mettant en รฉvidence des variations significatives dans lโexpression รฉmotionnelle selon les cultures. De plus, des รฉtudes comme celle du MIT en 2020 ont montrรฉ que ces systรจmes peuvent dรฉvelopper des biais involontaires, favorisant par exemple certaines expressions ou attribuant des รฉmotions nรฉgatives de maniรจre disproportionnรฉe aux visages noirs.
Google affirme avoir effectuรฉ des tests rigoureux pour รฉvaluer les biais dรฉmographiques de PaliGemma 2, utilisant notamment le benchmark FairFace. Cependant, ce dernier a lui-mรชme รฉtรฉ critiquรฉ pour sa reprรฉsentation limitรฉe des groupes raciaux. Des experts comme Heidy Khlaaf, scientifique en chef ร lโAI Now Institute, rappellent que lโinterprรฉtation des รฉmotions ne peut se limiter aux expressions faciales, mais dรฉpend aussi du contexte personnel et culturel.
Des risques pour les droits et la vie privรฉe
Les systรจmes de dรฉtection des รฉmotions suscitent une vive opposition, notamment en Europe. LโAI Act de lโUnion europรฉenne interdit leur utilisation dans des contextes sensibles comme lโรฉducation ou lโemploi, bien quโil reste des exceptions pour les forces de lโordre. Des chercheurs craignent que des modรจles comme PaliGemma 2 soient dรฉtournรฉs ร des fins discriminatoires, notamment dans le recrutement, la surveillance ou les contrรดles aux frontiรจres.
Pour se dรฉfendre, Google assure que ses modรจles respectent des standards stricts en matiรจre dโรฉthique et de sรฉcuritรฉ. Nรฉanmoins, Sandra Wachter appelle ร une vigilance accrue : ยซ Lโinnovation responsable implique de penser aux consรฉquences dรจs le premier jour de dรฉveloppement dโun produit. ยป