Dans un contexte de préoccupations croissantes autour de la sécurité des utilisateurs de ChatGPT, OpenAI a annoncé de nouvelles mesures pour améliorer la gestion des conversations sensibles.
Après plusieurs incidents tragiques, dont celui de l’adolescent Adam Raine, qui a utilisé ChatGPT pour discuter de ses pensées suicidaires, l’entreprise a décidé de prendre des mesures plus strictes en matière de sécurité et de prévention des risques. Parmi les nouvelles fonctionnalités, on retrouve l’intégration de GPT-5 pour gérer les conversations difficiles et la mise en place de contrôles parentaux, qui seront déployés dans le mois à venir.
Lire aussi :
- L’alliance américano-indienne d’un milliard de dollars peut-elle faire de l’Inde un leader du deep tech mondial ?
- LayerX peut-elle dépasser ses concurrents SaaS mondiaux grâce à son IA de gestion des back-offices ?
GPT-5 pour les conversations sensibles
Afin de répondre aux préoccupations soulevées par les incidents liés à ChatGPT, OpenAI a décidé de rediriger certaines conversations sensibles vers des modèles de raisonnement, tels que GPT-5, capable de prendre plus de temps pour analyser et comprendre le contexte avant de répondre. Cette mesure vise à éviter que le modèle ne suive aveuglément des conversations potentiellement dangereuses, comme celles qui concernent des sujets de santé mentale ou de détresse aiguë. GPT-5 est conçu pour être plus résistant aux demandes adversariales et pour fournir des réponses plus appropriées dans des situations de crise. Cette fonctionnalité permettra aux utilisateurs de recevoir des réponses plus réfléchies et sécurisées en cas de besoins émotionnels ou psychologiques.
Pourquoi OpenAI a-t-il décidé d’abandonner le modèle o3 au profit de GPT-5 ?
Contrôles parentaux et protection des jeunes utilisateurs
En plus de l’intégration de GPT-5, OpenAI mettra en place des contrôles parentaux dans les prochaines semaines. Ces contrôles permettront aux parents de relier leurs comptes aux comptes de leurs enfants et de gérer les interactions de ChatGPT avec des “règles de comportement adaptées à l’âge”. Les parents auront la possibilité de désactiver des fonctionnalités comme l’historique des chats et la mémoire de l’IA, des outils qui pourraient entraîner des problèmes de dépendance, de fixation sur des pensées négatives ou d’illusion de lecture de pensées. Un des ajouts importants des contrôles parentaux est la possibilité pour les parents de recevoir des notifications si le système détecte des signes de “détresse aiguë” chez leur enfant, une fonctionnalité cruciale pour prévenir tout comportement nuisible ou dangereux.
La collaboration entre OpenAI et Anthropic peut-elle renforcer la sécurité des chatbots d’IA ?
Une initiative de 120 jours pour renforcer la sécurité
OpenAI a également annoncé une “initiative de 120 jours” visant à améliorer ses systèmes de sécurité et à mieux définir des mesures de bien-être. L’entreprise s’associe à des experts en santé mentale et des professionnels spécialisés dans des domaines comme les troubles alimentaires et la santé des adolescents pour améliorer la conception des futurs garde-fous. Ces experts seront impliqués dans la définition et la mesure du bien-être, afin de prioriser les mesures de sécurité et de mieux répondre aux préoccupations de sécurité des utilisateurs, en particulier les plus vulnérables.