Après des incidents de sécurité graves, OpenAI a annoncé une série de nouvelles mesures destinées à renforcer la sécurité des utilisateurs de ChatGPT.
Ces ajustements font suite à des événements tragiques, notamment le suicide d’Adam Raine, un adolescent qui a discuté de ses pensées suicidaires avec ChatGPT. OpenAI va désormais rediriger les conversations sensibles vers des modèles de raisonnement plus adaptés, comme GPT-5, et introduira des contrôles parentaux pour les utilisateurs mineurs d’ici un mois.
Lire aussi :
- Comment l’IA de WordPress va-t-elle transformer la création de sites web ?
- Lovable peut-elle devenir le futur géant européen du développement assisté par IA ?
Redirection vers GPT-5 pour les conversations sensibles
OpenAI a reconnu que son modèle ChatGPT avait des failles importantes en matière de sécurité, notamment en ce qui concerne la détection de détresse mentale. En réponse, la société met en place une fonction de redirection automatique pour les conversations détectées comme sensibles ou présentant des signes de détresse. Les utilisateurs dont les conversations suscitent des préoccupations seront dirigés vers GPT-5, un modèle de raisonnement plus avancé, conçu pour offrir des réponses plus adaptées et moins susceptibles d’encourager des pensées dangereuses. Cette fonctionnalité vise à offrir une assistance plus ciblée et à éviter que les utilisateurs ne soient laissés sans réponse appropriée en cas de crise.
La collaboration entre OpenAI et Anthropic peut-elle renforcer la sécurité des chatbots d’IA ?
Contrôles parentaux pour protéger les adolescents
Dans le cadre de ces nouvelles mesures, OpenAI introduira des contrôles parentaux afin de permettre aux parents de mieux surveiller l’utilisation de ChatGPT par leurs enfants. Ces contrôles permettront aux parents de lier leur compte à celui de leur enfant, et de définir des règles pour un comportement adapté à l’âge, activées par défaut. De plus, les parents pourront désactiver des fonctions telles que la mémoire et l’historique des chats, qui pourraient encourager des comportements problématiques ou renforcer des pensées négatives. Un autre aspect important des contrôles parentaux sera la possibilité pour les parents de recevoir des notifications si une détresse aiguë est détectée dans les conversations de leurs enfants.
Les critiques de la réponse d’OpenAI et les défis à venir
Malgré ces efforts, certains critiques estiment que la réponse d’OpenAI est insuffisante. Jay Edelson, l’avocat représentant la famille Raine dans leur procès contre OpenAI, a dénoncé ce qu’il considère comme une réponse trop lente face aux dangers de ChatGPT. Selon lui, OpenAI savait dès le début que le modèle comportait des risques, et ces nouvelles mesures ne suffisent pas à compenser les failles de sécurité préexistantes. Il appelle à une action plus ferme, suggérant même que ChatGPT devrait être retiré du marché si sa sécurité ne peut être garantie de manière fiable.
GPT 5 arrive bientôt et va expédier GPT4 à l’âge de pierre avec ces innovations dingues
OpenAI met en place des mesures cruciales pour améliorer la sécurité des utilisateurs, notamment en dirigeant certaines conversations sensibles vers des modèles plus appropriés et en introduisant des contrôles parentaux pour protéger les jeunes utilisateurs. Toutefois, le chemin reste semé d’embûches, et la communauté attend de voir si ces changements suffiront à réduire les risques et à garantir un usage sûr et bénéfique de ChatGPT pour tous.