Google a récemment mis à jour sa politique d’utilisation de l’intelligence artificielle générative, permettant son déploiement dans des secteurs qualifiés de « hauts risques » comme la santé, l’emploi ou l’assurance.
Cette autorisation est conditionnée à une supervision humaine pour garantir que les décisions prises ne portent pas atteinte aux droits individuels.
Lire aussi :
- Comment utiliser la nouvelle fonctionnalité d’Instagram pour programmer vos messages privés ?
- Comment Google Whisk révolutionne-t-il la génération d’images avec l’intelligence artificielle ?
Une nouvelle politique pour des secteurs sensibles
Désormais, les utilisateurs des outils d’IA générative de Google peuvent les employer pour des décisions automatisées dans des domaines tels que le logement, l’aide sociale ou l’assurance. Toutefois, Google précise qu’un humain doit superviser ces processus pour éviter des impacts négatifs sur les droits des individus. Cette supervision humaine, bien que déjà mentionnée dans les anciennes versions de la politique, est désormais mise en avant pour mieux encadrer ces usages.
Les décisions automatisées par IA, comme l’approbation de crédits ou le tri de candidatures, reposent sur des données souvent biaisées. Les critiques soulignent que même avec une supervision humaine, ces systèmes pourraient reproduire des discriminations existantes, ce qui pose des défis éthiques et juridiques.
Willow : la puce quantique de Google pourrait-elle prouver l’existence d’un multivers ?
Une approche moins stricte que celle de ses concurrents
Comparé à ses rivaux, Google adopte une politique plus permissive. OpenAI, par exemple, interdit complètement l’usage de son IA dans des domaines comme le crédit ou l’éducation. Anthropic, de son côté, autorise ces usages à condition qu’ils soient réalisés sous la supervision de professionnels qualifiés et que l’utilisation de l’IA soit explicitement signalée.
Malgré cette flexibilité, Google insiste sur la nécessité de responsabiliser ses clients pour limiter les dérives potentielles de ces technologies.
Des régulations nécessaires pour protéger les droits individuels
À mesure que l’utilisation de l’IA dans des domaines critiques se généralise, des régulateurs à travers le monde adoptent des lois pour encadrer ces pratiques. En Europe, l’AI Act impose une gestion rigoureuse des risques pour les systèmes à haut risque. Aux États-Unis, des États comme New York exigent des audits réguliers pour garantir l’équité des outils d’IA utilisés dans les processus d’embauche.
Ces initiatives reflètent une volonté de protéger les droits fondamentaux tout en permettant à l’innovation de se développer dans un cadre éthique et sécurisé.
En autorisant l’utilisation de son IA dans les domaines à haut risque, Google ouvre de nouvelles opportunités, mais s’expose aussi à des défis de taille. La supervision humaine reste essentielle pour limiter les biais et garantir un usage éthique de l’IA. L’avenir de ces technologies dépendra largement de la capacité des entreprises et des régulateurs à travailler ensemble pour encadrer ces pratiques.