Meta, la société dirigée par Mark Zuckerberg, a toujours mis en avant sa volonté de rendre l’intelligence artificielle (IA) accessible à tous.
Cependant, un nouveau document stratégique, intitulé Frontier AI Framework, révèle que l’entreprise pourrait suspendre le développement de certains systèmes jugés trop dangereux.
Lire aussi :
- OpenAI va-t-il révolutionner l’IA avec des robots autonomes et des interfaces connectées ?
- Comment Apple parvient-il à maintenir une forte croissance de ses services malgré la baisse des ventes d’iPhone ?
Une classification des risques IA
Meta distingue deux types de systèmes IA à risque :
- Les systèmes à haut risque : ils pourraient faciliter des cyberattaques ou des menaces biologiques et chimiques, mais sans garantir leur réussite.
- Les systèmes à risque critique : ceux-ci pourraient entraîner des conséquences catastrophiques, impossibles à contenir dans leur contexte d’utilisation.
En d’autres termes, plus un système est capable de contourner les mesures de sécurité ou de causer des dommages massifs, plus son développement pourrait être interrompu.
Comment Meta compte-t-elle surpasser DeepSeek et maintenir son avance en intelligence artificielle ?
Un contrôle strict sur les systèmes dangereux
Lorsqu’un système est identifié comme à haut risque, Meta prévoit de restreindre son accès en interne et de ne pas le diffuser tant que des mesures d’atténuation n’auront pas réduit son danger à un niveau modéré. En revanche, si un système est classé comme à risque critique, le développement sera stoppé et des protections seront mises en place pour empêcher toute fuite.
Une évaluation des risques sans métriques fixes
Contrairement à ce que l’on pourrait imaginer, Meta ne base pas son évaluation des risques sur des tests empiriques standards. L’analyse repose sur les avis de chercheurs internes et externes, avec une validation par des décideurs de haut niveau. Cette approche s’explique par le fait que la science de l’évaluation des risques en IA reste encore immature et ne permet pas d’obtenir des métriques quantitatives définitives.
Un positionnement face à la concurrence
En publiant son Frontier AI Framework, Meta semble vouloir répondre aux critiques sur son modèle d’ouverture des IA. Contrairement à OpenAI, qui garde ses systèmes sous contrôle via une API, Meta propose des modèles accessibles au plus grand nombre. Cependant, cette stratégie a des inconvénients : ses modèles Llama ont déjà été exploités à des fins militaires par des adversaires des États-Unis.
Avec ces nouvelles mesures, Meta cherche à concilier innovation et sécurité, tout en contrastant avec des acteurs comme DeepSeek, dont les systèmes ouverts manquent de garde-fous. Cette initiative marque une évolution dans la stratégie de Meta, qui semble vouloir éviter des conséquences incontrôlables tout en poursuivant son engagement pour une IA accessible.