En cette ère de l’intelligence artificielle, ChatGPT apparaît comme un outil révolutionnaire, mais avec une face cachée inquiétante.
Des recherches récentes révèlent que des conversations apparemment anodines avec ChatGPT pourraient finir dans les méandres du Dark Web, un lieu infâme peuplé de cybercriminels. Cette révélation soulève des questions importantes sur la confidentialité et la sécurité dans l’utilisation des IA conversationnelles.
Lire aussi :
- Google frappe fort avec sa nouvelle version de Bard, ChatGPT tremble sur ses fondations
- Cet utilisateur de ChatGPT a eu une très très mauvaise surprise
Le Péril Insoupçonné de ChatGPT
Les chercheurs de Kaspersky ont identifié environ 3 000 publications sur le Dark Web impliquant l’utilisation illégale de ChatGPT et d’autres modèles de langage avancés. Ces échanges ne sont pas de simples bavardages ; ils incluent des menaces de cybersécurité telles que FraudGPT et des chatbots malveillants. L’intensité de cette activité criminelle a atteint un pic en mars 2023, révélant un intérêt accru pour ces pratiques illicites.
ChatGPT peut-il rendre riche ? On a lui demandé où investir il y a 1 an, le résultat est bluffant
La Monétisation des Comptes ChatGPT
Le Dark Web voit également une montée alarmante dans le vol et la vente de comptes ChatGPT. Avec plus de 3 000 annonces pour ces comptes dérobés, le marché noir connaît une expansion rapide. Les cybercriminels ne se contentent pas de voler ces comptes ; ils les utilisent pour une variété d’activités malveillantes, allant du développement de logiciels malveillants à l’exploitation de données personnelles.
L’Exploitation Malveillante de l’IA
Selon Alisa Kulishenko, analyste chez Kaspersky, les acteurs malveillants du cyberespace exploitent ChatGPT pour des fins néfastes avec une ingéniosité sans limite. Ils partagent des méthodes pour débloquer et utiliser les fonctionnalités de ChatGPT à des fins malveillantes, mettant en lumière la nécessité pour les utilisateurs de faire preuve d’une vigilance accrue.
Prévenir les Risques Liés à l’IA
Face à cette menace invisible mais tangible, les experts en sécurité de Kaspersky recommandent l’utilisation de solutions de sécurité robustes pour prévenir ces intrusions. Ils conseillent également une grande prudence dans l’utilisation de ChatGPT, rappelant que chaque mot partagé pourrait se retrouver dans des endroits inattendus et peu sûrs comme le Dark Web.
Perdre 18 kilos avec ChatGPT ? C’est possible comme le prouve cette influenceuse
La Sécurité des Données Personnelles en Question
Cette situation pose des questions critiques sur la sécurité des données personnelles dans l’ère de l’IA. Les utilisateurs doivent être conscients des risques potentiels et des mesures à prendre pour protéger leurs informations. La sensibilisation et l’éducation sur les meilleures pratiques de sécurité en ligne deviennent indispensables.