OpenAI investit dans une recherche académique ambitieuse visant à développer des algorithmes capables de prédire les jugements moraux humains.
Ce projet soulève des questions fondamentales sur l’éthique, la technologie et l’avenir de l’intelligence artificielle.
Lire aussi :
- Comment le nouveau mode chat IA de Brave améliore-t-il l’expérience de recherche en ligne par rapport à Google ?
- Comment cet incident pourrait-il influencer les relations entre les géants de l’IA et les créateurs de contenu ?
Une initiative ambitieuse pour une IA éthique
OpenAI a récemment accordé une subvention aux chercheurs de l’Université Duke dans le cadre d’un projet intitulé Research AI Morality. Cette initiative, qui s’inscrit dans un programme plus vaste doté d’un budget de 1 million de dollars sur trois ans, vise à créer des algorithmes capables d’anticiper les décisions éthiques humaines dans des contextes complexes, comme la médecine, le droit ou les affaires.
Les responsables du projet, Walter Sinnott-Armstrong et Jana Borg, sont déjà reconnus pour leurs travaux novateurs, incluant des études sur les scénarios où les humains préfèrent déléguer des décisions morales à des IA. Ils ont également exploré l’application de l’intelligence artificielle pour des problématiques éthiques, comme l’attribution de dons d’organes.
Les défis éthiques et techniques
La tâche de modéliser la moralité est colossale. Les systèmes d’IA actuels, comme ceux utilisés dans le projet OpenAI, sont basés sur des modèles d’apprentissage automatique qui analysent des millions d’exemples pour reconnaître des schémas. Cependant, ils restent incapables de comprendre des concepts abstraits comme l’éthique ou d’intégrer les émotions humaines dans leur raisonnement.
Des tentatives antérieures, comme l’outil Ask Delphi de l’Institut Allen, ont montré les limites actuelles. Bien que Delphi puisse donner des réponses simples à des dilemmes éthiques, une légère reformulation des questions suffisait à produire des réponses incohérentes, voire problématiques. Cela met en lumière les biais inhérents aux données sur lesquelles ces systèmes sont formés, souvent dominées par des perspectives culturelles occidentales.
Une moralité universelle : mission impossible ?
Un des principaux obstacles réside dans la nature subjective de la moralité. Depuis des millénaires, les philosophes débattent des différentes théories éthiques sans parvenir à un consensus universel. Une IA entraînée pour adopter un cadre moral pourrait refléter les biais de ses créateurs ou des données utilisées, excluant potentiellement des perspectives culturelles et philosophiques diverses.
De plus, des approches variées comme le kantianisme (fondé sur des règles absolues) ou l’utilitarisme (cherchant le plus grand bien pour le plus grand nombre) continuent d’alimenter des débats sans solution définitive. Quelle approche une IA devrait-elle privilégier ? Cette question reste sans réponse et soulève des préoccupations quant aux limites de la technologie dans ce domaine.
OpenAI, avec ce projet, tente de relever un défi majeur pour l’intelligence artificielle. Bien que le développement d’une IA capable de prédire ou de guider des jugements moraux soit encore loin d’être une réalité, cette initiative ouvre la voie à des discussions cruciales sur la place de l’éthique dans les technologies de demain.