Google a rรฉcemment mis ร jour sa politique dโutilisation de lโintelligence artificielle gรฉnรฉrative, permettant son dรฉploiement dans des secteurs qualifiรฉs de ยซโฏhauts risquesโฏยป comme la santรฉ, lโemploi ou lโassurance.
Cette autorisation est conditionnรฉe ร une supervision humaine pour garantir que les dรฉcisions prises ne portent pas atteinte aux droits individuels.
Lire aussi :
- Comment utiliser la nouvelle fonctionnalitรฉ dโInstagram pour programmer vos messages privรฉs ?
- Comment Google Whisk rรฉvolutionne-t-il la gรฉnรฉration dโimages avec lโintelligence artificielle ?
Une nouvelle politique pour des secteurs sensibles
Dรฉsormais, les utilisateurs des outils dโIA gรฉnรฉrative de Google peuvent les employer pour des dรฉcisions automatisรฉes dans des domaines tels que le logement, lโaide sociale ou lโassurance. Toutefois, Google prรฉcise quโun humain doit superviser ces processus pour รฉviter des impacts nรฉgatifs sur les droits des individus. Cette supervision humaine, bien que dรฉjร mentionnรฉe dans les anciennes versions de la politique, est dรฉsormais mise en avant pour mieux encadrer ces usages.
Les dรฉcisions automatisรฉes par IA, comme lโapprobation de crรฉdits ou le tri de candidatures, reposent sur des donnรฉes souvent biaisรฉes. Les critiques soulignent que mรชme avec une supervision humaine, ces systรจmes pourraient reproduire des discriminations existantes, ce qui pose des dรฉfis รฉthiques et juridiques.
Willow : la puce quantique de Google pourrait-elle prouver l’existence d’un multivers ?
Une approche moins stricte que celle de ses concurrents
Comparรฉ ร ses rivaux, Google adopte une politique plus permissive. OpenAI, par exemple, interdit complรจtement lโusage de son IA dans des domaines comme le crรฉdit ou lโรฉducation. Anthropic, de son cรดtรฉ, autorise ces usages ร condition quโils soient rรฉalisรฉs sous la supervision de professionnels qualifiรฉs et que lโutilisation de lโIA soit explicitement signalรฉe.
Malgrรฉ cette flexibilitรฉ, Google insiste sur la nรฉcessitรฉ de responsabiliser ses clients pour limiter les dรฉrives potentielles de ces technologies.
Des rรฉgulations nรฉcessaires pour protรฉger les droits individuels
ร mesure que lโutilisation de lโIA dans des domaines critiques se gรฉnรฉralise, des rรฉgulateurs ร travers le monde adoptent des lois pour encadrer ces pratiques. En Europe, lโAI Act impose une gestion rigoureuse des risques pour les systรจmes ร haut risque. Aux รtats-Unis, des รtats comme New York exigent des audits rรฉguliers pour garantir lโรฉquitรฉ des outils dโIA utilisรฉs dans les processus dโembauche.
Ces initiatives reflรจtent une volontรฉ de protรฉger les droits fondamentaux tout en permettant ร lโinnovation de se dรฉvelopper dans un cadre รฉthique et sรฉcurisรฉ.
En autorisant lโutilisation de son IA dans les domaines ร haut risque, Google ouvre de nouvelles opportunitรฉs, mais sโexpose aussi ร des dรฉfis de taille. La supervision humaine reste essentielle pour limiter les biais et garantir un usage รฉthique de lโIA. Lโavenir de ces technologies dรฉpendra largement de la capacitรฉ des entreprises et des rรฉgulateurs ร travailler ensemble pour encadrer ces pratiques.