Loading...

Une nouvelle étude de DARK SIDE OF AIA a montré que l’IA peut amener certaines personnes à franchir les frontières morales

Sans que nous le sachions parfois, l’intelligence artificielle pénètre nos vies au quotidien – depuis la fixation des prix dans les magasins de détail et la formulation de recommandations allant des films aux partenaires romantiques. Tout cela alors que le débat sur l’éthique de l’IA a continué de s’accélérer. Ce débat a maintenant pris une nouvelle dimension, celle de savoir si l’IA peut devenir une force tellement corrompue qu’elle peut forcer les gens à enfreindre les règles éthiques.

Alors que nous craignons que l’IA ne devienne trop puissante ou n’ait pas de limites éthiques à respecter, une étude récente, publiée par des chercheurs de l’Université d’Amsterdam, de l’Institut Max Planck, de la Otto Beisheim School of Management et de l’Université de Cologne visait à le découvrir. si c’est vrai. Les conseils générés par l’IA peuvent-ils vraiment amener les gens à franchir les frontières morales?

Et la réponse est étonnante OUI. Les chercheurs affirment qu’une enquête à grande échelle utilisant le modèle de langage GPT-2 d’OpenAI a montré que l’IA peut fonctionner comme un bouc émissaire. Il s’avère que même si les gens savaient qu’ils recevaient des conseils immoraux générés par des algorithmes, ils prendraient les conseils et détourneraient le blâme moral sur la technologie.

Loading...

L’essai mené, a permis à l’IA de générer des conseils de «promotion de l’honnêteté» et de «promotion de la malhonnêteté» et a assigné aux participants d’écouter l’une ou l’autre des versions avant de jouer à un jeu – en utilisant un ensemble de données de contributions d’environ 400 participants. Un groupe de 1500 personnes a ensuite été invité à lire les instructions, à recevoir les conseils et à s’engager dans une tâche visant à évaluer un comportement honnête ou malhonnête.

Les résultats ont montré que les conseils de «promotion de l’honnêteté» n’influençaient pas le comportement des participants, les conseils de «promotion de la malhonnêteté» étaient liés au mensonge pour le profit pendant le match. Dans une étude similaire publiée par le Center on Terrorism, Extremism, and Counterterrorism (CTEC) du Middlebury Institute of International Studies (CTEC), les co-auteurs ont constaté que GPT-3, le successeur de GPT-2, pouvait générer de manière fiable un texte «influent» qui a le potentiel de radicaliser les individus en suivant des idéologies extrémistes.

Le vrai problème se pose si ce type de technologie tombe entre les mains d’acteurs malveillants. Nous devons explorer et aborder le côté obscur de l’IA, sinon nous pourrions finir par vivre dans un monde de science-fiction dystopique comme le montrent les épisodes de la série Netflix «Black Mirror».

Loading...

Étiqueté dans :