OpenAI investit dans une recherche acadรฉmique ambitieuse visant ร dรฉvelopper des algorithmes capables de prรฉdire les jugements moraux humains.
Ce projet soulรจve des questions fondamentales sur l’รฉthique, la technologie et l’avenir de l’intelligence artificielle.
Lire aussi :
- Comment le nouveau mode chat IA de Brave amรฉliore-t-il lโexpรฉrience de recherche en ligne par rapport ร Google ?
- Comment cet incident pourrait-il influencer les relations entre les gรฉants de lโIA et les crรฉateurs de contenu ?
Une initiative ambitieuse pour une IA รฉthique
OpenAI a rรฉcemment accordรฉ une subvention aux chercheurs de lโUniversitรฉ Duke dans le cadre dโun projet intitulรฉ Research AI Morality. Cette initiative, qui sโinscrit dans un programme plus vaste dotรฉ dโun budget de 1 million de dollars sur trois ans, vise ร crรฉer des algorithmes capables dโanticiper les dรฉcisions รฉthiques humaines dans des contextes complexes, comme la mรฉdecine, le droit ou les affaires.
Les responsables du projet, Walter Sinnott-Armstrong et Jana Borg, sont dรฉjร reconnus pour leurs travaux novateurs, incluant des รฉtudes sur les scรฉnarios oรน les humains prรฉfรจrent dรฉlรฉguer des dรฉcisions morales ร des IA. Ils ont รฉgalement explorรฉ lโapplication de lโintelligence artificielle pour des problรฉmatiques รฉthiques, comme lโattribution de dons dโorganes.
Les dรฉfis รฉthiques et techniques
La tรขche de modรฉliser la moralitรฉ est colossale. Les systรจmes d’IA actuels, comme ceux utilisรฉs dans le projet OpenAI, sont basรฉs sur des modรจles d’apprentissage automatique qui analysent des millions dโexemples pour reconnaรฎtre des schรฉmas. Cependant, ils restent incapables de comprendre des concepts abstraits comme l’รฉthique ou dโintรฉgrer les รฉmotions humaines dans leur raisonnement.
Des tentatives antรฉrieures, comme l’outil Ask Delphi de lโInstitut Allen, ont montrรฉ les limites actuelles. Bien que Delphi puisse donner des rรฉponses simples ร des dilemmes รฉthiques, une lรฉgรจre reformulation des questions suffisait ร produire des rรฉponses incohรฉrentes, voire problรฉmatiques. Cela met en lumiรจre les biais inhรฉrents aux donnรฉes sur lesquelles ces systรจmes sont formรฉs, souvent dominรฉes par des perspectives culturelles occidentales.
Une moralitรฉ universelle : mission impossible ?
Un des principaux obstacles rรฉside dans la nature subjective de la moralitรฉ. Depuis des millรฉnaires, les philosophes dรฉbattent des diffรฉrentes thรฉories รฉthiques sans parvenir ร un consensus universel. Une IA entraรฎnรฉe pour adopter un cadre moral pourrait reflรฉter les biais de ses crรฉateurs ou des donnรฉes utilisรฉes, excluant potentiellement des perspectives culturelles et philosophiques diverses.
De plus, des approches variรฉes comme le kantianisme (fondรฉ sur des rรจgles absolues) ou l’utilitarisme (cherchant le plus grand bien pour le plus grand nombre) continuent d’alimenter des dรฉbats sans solution dรฉfinitive. Quelle approche une IA devrait-elle privilรฉgier ? Cette question reste sans rรฉponse et soulรจve des prรฉoccupations quant aux limites de la technologie dans ce domaine.
OpenAI, avec ce projet, tente de relever un dรฉfi majeur pour l’intelligence artificielle. Bien que le dรฉveloppement dโune IA capable de prรฉdire ou de guider des jugements moraux soit encore loin dโรชtre une rรฉalitรฉ, cette initiative ouvre la voie ร des discussions cruciales sur la place de lโรฉthique dans les technologies de demain.