AccueilActualitésQuels critères Meta utilise-t-elle pour déterminer si une intelligence artificielle représente un...

Quels critères Meta utilise-t-elle pour déterminer si une intelligence artificielle représente un risque trop élevé pour être déployée ?

Publié le

par

Meta, la société dirigée par Mark Zuckerberg, a toujours mis en avant sa volonté de rendre l’intelligence artificielle (IA) accessible à tous.

Cependant, un nouveau document stratégique, intitulé Frontier AI Framework, révèle que l’entreprise pourrait suspendre le développement de certains systèmes jugés trop dangereux.

Lire aussi :

  1. OpenAI va-t-il révolutionner l’IA avec des robots autonomes et des interfaces connectées ?
  2. Comment Apple parvient-il à maintenir une forte croissance de ses services malgré la baisse des ventes d’iPhone ?

Une classification des risques IA

Meta distingue deux types de systèmes IA à risque :

  • Les systèmes à haut risque : ils pourraient faciliter des cyberattaques ou des menaces biologiques et chimiques, mais sans garantir leur réussite.
  • Les systèmes à risque critique : ceux-ci pourraient entraîner des conséquences catastrophiques, impossibles à contenir dans leur contexte d’utilisation.

En d’autres termes, plus un système est capable de contourner les mesures de sécurité ou de causer des dommages massifs, plus son développement pourrait être interrompu.

Comment Meta compte-t-elle surpasser DeepSeek et maintenir son avance en intelligence artificielle ?

Un contrôle strict sur les systèmes dangereux

Lorsqu’un système est identifié comme à haut risque, Meta prévoit de restreindre son accès en interne et de ne pas le diffuser tant que des mesures d’atténuation n’auront pas réduit son danger à un niveau modéré. En revanche, si un système est classé comme à risque critique, le développement sera stoppé et des protections seront mises en place pour empêcher toute fuite.

Une évaluation des risques sans métriques fixes

Contrairement à ce que l’on pourrait imaginer, Meta ne base pas son évaluation des risques sur des tests empiriques standards. L’analyse repose sur les avis de chercheurs internes et externes, avec une validation par des décideurs de haut niveau. Cette approche s’explique par le fait que la science de l’évaluation des risques en IA reste encore immature et ne permet pas d’obtenir des métriques quantitatives définitives.

Un positionnement face à la concurrence

En publiant son Frontier AI Framework, Meta semble vouloir répondre aux critiques sur son modèle d’ouverture des IA. Contrairement à OpenAI, qui garde ses systèmes sous contrôle via une API, Meta propose des modèles accessibles au plus grand nombre. Cependant, cette stratégie a des inconvénients : ses modèles Llama ont déjà été exploités à des fins militaires par des adversaires des États-Unis.

Meta peut-elle maintenir sa position dans la course à l’intelligence artificielle tout en respectant les normes éthiques et juridiques ?

Avec ces nouvelles mesures, Meta cherche à concilier innovation et sécurité, tout en contrastant avec des acteurs comme DeepSeek, dont les systèmes ouverts manquent de garde-fous. Cette initiative marque une évolution dans la stratégie de Meta, qui semble vouloir éviter des conséquences incontrôlables tout en poursuivant son engagement pour une IA accessible.

 

Caroline
Caroline
"Caroline est une rédactrice passionnée et visionnaire pour 2051.fr, où elle explore les frontières de l'innovation et de la technologie. Elle possède une expertise particulière en intelligence artificiel, ce qui enrichit ses articles d'analyses perspicaces et de perspectives avant-gardistes. Avec une curiosité insatiable pour les évolutions technologiques et leur impact sur la société, Caroline s'engage à dévoiler les tendances émergentes qui dessineront notre avenir. Ses écrits ne se contentent pas de présenter des faits ; ils invitent à la réflexion, offrant aux lecteurs une fenêtre sur le monde de demain. Sa capacité à lier les avancées scientifiques aux enjeux sociétaux fait de ses articles une lecture incontournable pour ceux qui s'intéressent à l'avenir de notre planète."

Partager cet article

Actualités

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici