L’évolution rapide de l’intelligence artificielle apporte son lot de surprises, parfois inattendues.
C’est ce qu’a découvert Flo Crivello, fondateur de la société Lindy, lorsqu’il a observé une situation pour le moins cocasse impliquant l’un de ses assistants IA. L’incident, bien qu’amusant pour certains, met en lumière les défis auxquels sont confrontés les développeurs d’IA lorsqu’ils doivent gérer les subtilités de la culture internet.
Lire aussi :
- L’utilisation de l’image de Taylor Swift par Trump, générée par l’IA, pourrait-elle être considérée comme illégale sous le ELVIS Act ?
- Comment l’arrivée d’Apple Podcasts sur le web pourrait-elle changer vos habitudes d’écoute de podcasts ?
Un Rickroll inattendu
Tout a commencé lorsqu’un client de Lindy a demandé à son assistant IA une vidéo tutorielle pour mieux comprendre la plateforme. L’assistant a répondu promptement en envoyant un lien vers une vidéo. Cependant, au lieu d’une vidéo explicative, le client a reçu un lien vers le clip de la célèbre chanson de Rick Astley, Never Gonna Give You Up, un classique du Rickroll, cette blague bien connue sur internet qui consiste à duper quelqu’un en lui envoyant un lien vers cette vidéo à la place de ce qu’il attendait.
Flo Crivello raconte : « Nous avons vu cela et nous nous sommes dit, ‘D’accord, quelle vidéo a-t-il envoyée ?’ et c’est là que nous avons compris qu’il y avait un problème. » Ce type d’erreur, bien que rare, souligne à quel point les modèles d’IA peuvent parfois imiter de manière involontaire les comportements des utilisateurs en ligne.
L’intégration involontaire de la culture internet dans les IA
Les grands modèles de langage, comme celui utilisé par Lindy, sont entraînés sur d’immenses volumes de données issues du web, ce qui signifie qu’ils absorbent une grande partie de la culture internet, y compris les blagues et les mèmes. Dans le cas de Lindy, cette influence a conduit à une réponse inattendue de l’IA, qui a reproduit un comportement humoristique spécifique sans en comprendre le contexte.
« Le fonctionnement de ces modèles est tel qu’ils essaient de prédire la séquence de texte la plus probable », explique Crivello. Ainsi, lorsqu’il s’agit de répondre à une demande de vidéo, l’IA a simplement suivi un cheminement logique qui l’a amenée à envoyer un lien YouTube, et ce lien s’est avéré être celui de Rick Astley.
Vers une meilleure gestion des comportements IA
Corriger ce type d’erreur est devenu plus simple grâce aux avancées des modèles d’IA. Flo Crivello explique qu’une simple modification dans le système de prompt a suffi pour éviter les Rickrolls. Cet incident met en lumière les capacités et les limites actuelles des IA, notamment leur tendance à imiter les comportements humains sans en comprendre pleinement le contexte. Toutefois, avec des ajustements continus, les entreprises peuvent affiner ces technologies pour éviter des erreurs similaires à l’avenir.