Les modèles d’IA continuent de nous surprendre, non seulement par leurs capacités, mais aussi par leurs limitations.
Une nouvelle observation intrigante révèle un comportement à la fois superficiel et révélateur de ces systèmes : ils choisissent des chiffres de manière apparemment aléatoire, mais en réalité, d’une manière qui ressemble étrangement à celle des êtres humains, c’est-à-dire de façon imparfaite.
Lire aussi :
- Les startups espagnoles atteignent une valeur globale de 100 milliards d’euros en 2023
- Comment xAI prévoit-elle d’utiliser les 6 milliards de dollars levés pour se positionner face aux géants de l’IA comme OpenAI, Microsoft et Google ?
L’illusion de la randomisation humaine
Pour comprendre ce phénomène, il faut d’abord se demander si les humains peuvent réellement choisir des chiffres de manière aléatoire. La réponse est étonnamment non. Les humains ont tendance à sur-analyser et à mal comprendre la notion de hasard. Par exemple, demandez à une personne de prédire 100 lancers de pièce et comparez ces prédictions avec 100 lancers réels. Les prédictions humaines manqueront souvent de véritables séquences aléatoires, comme une série de six ou sept faces ou piles consécutives, quelque chose que les gens évitent inconsciemment.
De même, lorsque les gens doivent choisir un chiffre entre 0 et 100, ils évitent souvent les extrêmes comme 1 ou 100, ainsi que les multiples de 5 et les chiffres répétitifs comme 66 et 99. Ces choix ne semblent pas aléatoires parce qu’ils ont des qualités distinctes : trop petits, trop grands, trop répétitifs. Les gens préfèrent souvent des chiffres au milieu de l’échelle, souvent terminés par 7.
Les IA et les biais humains
Cette prévisibilité humaine a des parallèles surprenants avec les modèles d’IA. Des ingénieurs de chez Gramener ont mené une expérience informelle mais fascinante : ils ont demandé à plusieurs grands modèles de langage (LLM) de choisir un chiffre aléatoire entre 0 et 100. Les résultats ont montré que les IA reproduisaient des biais similaires à ceux des humains dans leurs choix de chiffres.
Une réflexion sur les limites de l’IA
Cette observation soulève des questions intéressantes sur la manière dont les IA apprennent et reproduisent les comportements humains. Les modèles d’IA sont formés sur des données humaines, et il semble que même leurs imperfections soient apprises. Cela pourrait indiquer que ces systèmes, bien que puissants, ne sont pas réellement indépendants de leurs données d’entraînement et peuvent hériter de nos biais et de nos erreurs de perception.
En fin de compte, cette tendance à choisir des chiffres de manière non totalement aléatoire met en lumière une facette intrigante des modèles d’IA. Cela nous rappelle que, bien qu’ils soient des outils incroyablement avancés, ils restent profondément influencés par les données et les comportements humains. Cette prise de conscience pourrait être cruciale pour améliorer la conception et l’utilisation des systèmes d’IA à l’avenir.