L’apparition inattendue d’une recommandation pour l’application Peloton au milieu d’une conversation a provoqué une vague de critiques envers OpenAI.
Beaucoup d’utilisateurs ont immédiatement cru que ChatGPT venait d’introduire des publicités dans son interface — y compris pour les abonnés payants. L’entreprise a dû réagir en urgence pour clarifier la situation : selon elle, il ne s’agissait pas d’une publicité, mais d’une expérimentation mal calibrée liée à une nouvelle fonction de découverte d’applications. Retour sur un épisode révélateur des défis d’OpenAI.
Lire aussi :
- Apple peut-il enfin rattraper son retard en IA grâce à son nouveau chef venu de Google et Microsoft ?
- Google veut utiliser vos données pour personnaliser son IA : est-ce une avancée utile ou une intrusion inquiétante ?
Une suggestion Peloton qui ressemble fort à une pub
Tout a commencé avec un message publié sur X par Yuchen Jin, cofondateur de la startup Hyperbolic. Il y partage la capture d’écran d’une conversation où ChatGPT lui suggère brutalement d’installer l’application Peloton… alors qu’il discutait d’un podcast évoquant Elon Musk et xAI, un sujet totalement éloigné du fitness ou du sport.
Le détail qui a mis le feu aux poudres : Jin paie 200 dollars par mois pour ChatGPT Pro. L’idée qu’un abonnement à ce prix puisse inclure des “recommandations” commerciales a immédiatement enflammé les réseaux sociaux. En quelques heures, des centaines d’utilisateurs ont relayé le post, dénonçant ce qui ressemblait à une tentative d’intégration de publicités déguisées.
OpenAI se défend : “Ce n’était pas une publicité, juste une mauvaise expérience”
Face au bad buzz croissant, Daniel McAuley, responsable data chez ChatGPT, est intervenu pour apporter une explication. Selon lui, la recommandation Peloton n’était pas une publicité, mais simplement une suggestion automatisée pour découvrir une application, sans rémunération ni accord commercial.
Il reconnaît toutefois un problème majeur : la recommandation était hors contexte, ce qui en faisait une “mauvaise expérience utilisateur”. Il confirme qu’OpenAI teste actuellement la manière dont les apps partenaires peuvent apparaître naturellement dans les conversations, un élément déjà annoncé lors du lancement de la plateforme d’applications ChatGPT en octobre.
Un porte-parole d’OpenAI a également indiqué que ces suggestions faisaient partie d’un pilote expérimental, destiné à permettre aux utilisateurs d’activer des apps à la volée – comme Canva, Booking, Zillow, Figma ou Coursera – directement dans la conversation. Le problème ? Les utilisateurs ne peuvent pas désactiver ces suggestions, ce qui accentue le sentiment d’intrusion.
Une polémique révélatrice : le risque de confusion entre aide et publicité
Même si OpenAI assure qu’aucune publicité n’est prévue, l’incident laisse entrevoir un défi plus profond. Aux yeux de nombreux utilisateurs, une suggestion d’app ou de service — même gratuite — ressemble immédiatement à une recommandation commerciale. Et si celles-ci apparaissent hors contexte, elles deviennent vite agaçantes ou inquiétantes.
OpenAI va-t-il vraiment remplacer l’iPhone avec un appareil IA sans écran et ultra-simple ?
Dans un contexte où OpenAI ambitionne de transformer ChatGPT en véritable plateforme d’applications, ce type d’erreur pourrait décourager les utilisateurs… et les pousser vers des concurrents plus transparents. L’entreprise devra donc affiner son approche si elle veut convaincre que ses suggestions d’apps sont une aide — et non une tentative déguisée de monétisation.

