Anthropic a récemment pris une initiative audacieuse en publiant les “prompts systèmes” qui guident ses modèles d’IA Claude.
Ces instructions initiales, essentielles au fonctionnement des modèles, définissent le comportement et les réponses de l’IA, tout en imposant des limites strictes sur ce qu’elle peut faire.
Lire aussi :
- Comment les modèles TTT pourraient-ils surpasser les transformers dans le domaine de l’IA générative ?
- Quels sont les avantages du mode sombre sur Wikipedia et comment l’activer sur mobile et desktop ?
Les prompts systèmes : le cœur des modèles d’IA
Les modèles d’IA générative, malgré leur sophistication, ne sont pas dotés d’intelligence ou de personnalité. Ils fonctionnent sur la base de statistiques, en prédisant les mots les plus probables pour compléter une phrase. Les “prompts systèmes” jouent un rôle crucial en orientant ces modèles, en leur indiquant ce qu’ils doivent dire et comment ils doivent le dire. Par exemple, un prompt peut indiquer à un modèle d’être poli, mais de ne jamais s’excuser, ou de reconnaître ses limites de connaissance.
Traditionnellement, ces prompts sont gardés secrets par les entreprises pour des raisons de concurrence, mais aussi pour éviter que des utilisateurs malveillants n’essaient de contourner ces instructions. Cependant, Anthropic a choisi de publier ces prompts pour ses modèles Claude, y compris Claude 3 Opus, Claude 3.5 Sonnet et Claude 3.5 Haiku, dans un geste de transparence inégalé.
Panne des IA : ChatGPT, Claude et Perplexity hors service en même temps
Les nouvelles directives pour Claude
Les prompts récemment publiés par Anthropic, datés du 12 juillet, donnent des directives précises sur ce que Claude ne peut pas faire. Par exemple, Claude ne peut pas ouvrir d’URLs, de liens ou de vidéos, et doit répondre comme s’il était complètement incapable de reconnaître les visages. De plus, il lui est interdit de nommer ou d’identifier des humains sur des images, renforçant ainsi la protection de la vie privée.
Les prompts ne se limitent pas aux interdictions, ils définissent également la personnalité que Claude doit adopter. Le modèle Claude 3 Opus, par exemple, est décrit comme étant “très intelligent et curieux intellectuellement”, appréciant les discussions sur une large gamme de sujets. Il doit traiter les sujets controversés avec impartialité et fournir des réponses claires et réfléchies, sans jamais commencer ses réponses par “certainement” ou “absolument”.
Une pression sur les concurrents
En publiant ces prompts, Anthropic met en avant son engagement en faveur d’une IA plus éthique et transparente. Cette démarche pourrait inciter d’autres entreprises à suivre cet exemple, ouvrant la voie à une plus grande responsabilité dans le développement des technologies d’IA. Cette transparence pourrait aussi aider à renforcer la confiance des utilisateurs en leur offrant un aperçu du fonctionnement interne de ces modèles complexes.