Face à la pression des activistes et des parents, OpenAI a pris une mesure proactive en formant une nouvelle équipe dédiée à étudier les moyens de prévenir l’utilisation abusive de ses outils d’IA par les enfants.
Cette initiative souligne l’importance croissante de la sécurité en ligne pour les mineurs dans un monde numérique en constante évolution.
Lire aussi :
- Merveilleux ou effrayant ? ChatGPT sera bientôt dans les jouets de nos enfants
- ChatGPT en péril ! Un tribunal sur le point d’ordonner sa destruction
Une équipe spécialisée pour un défi de taille
OpenAI révèle sur sa page carrière la formation d’une équipe de Sécurité des Enfants, une première dans l’industrie de l’intelligence artificielle. Cette équipe travaille en étroite collaboration avec les groupes de politique de plateforme, juridique et d’investigations d’OpenAI, ainsi qu’avec des partenaires externes, pour gérer les «processus, incidents et révisions» relatifs aux utilisateurs mineurs. La recherche d’un spécialiste de l’application de la sécurité des enfants, chargé d’appliquer les politiques d’OpenAI dans le contexte du contenu généré par IA, indique un engagement sérieux à protéger les jeunes utilisateurs.
L’intelligence artificielle peut-elle mettre fin à l’humanité?
Conformité et prévention : une nécessité dans le numérique
Les fournisseurs de technologie de taille significative consacrent une part importante de leurs ressources à se conformer à des lois telles que la règle de protection de la vie privée en ligne des enfants aux États-Unis, qui imposent des contrôles sur ce que les enfants peuvent — et ne peuvent pas — accéder sur le web, ainsi que sur les types de données que les entreprises peuvent collecter sur eux. L’initiative d’OpenAI de recruter des experts en sécurité des enfants est donc une étape logique, en particulier si l’entreprise anticipe une base d’utilisateurs mineurs significative un jour.
Éducation et IA : naviguer dans les eaux troubles
La formation de cette nouvelle équipe intervient après que OpenAI a annoncé un partenariat avec Common Sense Media pour collaborer sur des directives d’IA adaptées aux enfants et acquis son premier client dans le domaine de l’éducation. Cela suggère une prudence de la part d’OpenAI à ne pas enfreindre les politiques concernant l’utilisation de l’IA par les mineurs et à éviter une presse négative. Les enfants et les adolescents se tournent de plus en plus vers les outils d’IA pour l’aide non seulement avec les devoirs mais aussi les problèmes personnels. La documentation publiée par OpenAI pour ChatGPT dans les salles de classe, offrant des conseils aux éducateurs sur l’utilisation de l’IA générative comme outil d’enseignement, témoigne de cette tendance croissante et des défis qui l’accompagnent.
Les appels à des directives sur l’utilisation de l’IA générative par les enfants se font de plus en plus entendre, soulignant la nécessité d’une régulation adaptée pour protéger les jeunes utilisateurs dans un paysage numérique en évolution rapide. OpenAI, en formant son équipe de Sécurité des Enfants, prend des mesures importantes vers la création d’un environnement numérique sûr pour les générations futures, tout en naviguant dans les complexités de l’innovation technologique et de la conformité réglementaire.