AccueilActualitésComment la publication des prompts systèmes par Anthropic influence-t-elle la transparence dans...

Comment la publication des prompts systèmes par Anthropic influence-t-elle la transparence dans le domaine de l’IA ?

Publié le

par

Anthropic a récemment pris une initiative audacieuse en publiant les “prompts systèmes” qui guident ses modèles d’IA Claude.

Ces instructions initiales, essentielles au fonctionnement des modèles, définissent le comportement et les réponses de l’IA, tout en imposant des limites strictes sur ce qu’elle peut faire.

Lire aussi :

  1. Comment les modèles TTT pourraient-ils surpasser les transformers dans le domaine de l’IA générative ?
  2. Quels sont les avantages du mode sombre sur Wikipedia et comment l’activer sur mobile et desktop ?

Les prompts systèmes : le cœur des modèles d’IA

Les modèles d’IA générative, malgré leur sophistication, ne sont pas dotés d’intelligence ou de personnalité. Ils fonctionnent sur la base de statistiques, en prédisant les mots les plus probables pour compléter une phrase. Les “prompts systèmes” jouent un rôle crucial en orientant ces modèles, en leur indiquant ce qu’ils doivent dire et comment ils doivent le dire. Par exemple, un prompt peut indiquer à un modèle d’être poli, mais de ne jamais s’excuser, ou de reconnaître ses limites de connaissance.

Traditionnellement, ces prompts sont gardés secrets par les entreprises pour des raisons de concurrence, mais aussi pour éviter que des utilisateurs malveillants n’essaient de contourner ces instructions. Cependant, Anthropic a choisi de publier ces prompts pour ses modèles Claude, y compris Claude 3 Opus, Claude 3.5 Sonnet et Claude 3.5 Haiku, dans un geste de transparence inégalé.

Panne des IA : ChatGPT, Claude et Perplexity hors service en même temps

Les nouvelles directives pour Claude

Les prompts récemment publiés par Anthropic, datés du 12 juillet, donnent des directives précises sur ce que Claude ne peut pas faire. Par exemple, Claude ne peut pas ouvrir d’URLs, de liens ou de vidéos, et doit répondre comme s’il était complètement incapable de reconnaître les visages. De plus, il lui est interdit de nommer ou d’identifier des humains sur des images, renforçant ainsi la protection de la vie privée.

Les prompts ne se limitent pas aux interdictions, ils définissent également la personnalité que Claude doit adopter. Le modèle Claude 3 Opus, par exemple, est décrit comme étant “très intelligent et curieux intellectuellement”, appréciant les discussions sur une large gamme de sujets. Il doit traiter les sujets controversés avec impartialité et fournir des réponses claires et réfléchies, sans jamais commencer ses réponses par “certainement” ou “absolument”.

Une pression sur les concurrents

En publiant ces prompts, Anthropic met en avant son engagement en faveur d’une IA plus éthique et transparente. Cette démarche pourrait inciter d’autres entreprises à suivre cet exemple, ouvrant la voie à une plus grande responsabilité dans le développement des technologies d’IA. Cette transparence pourrait aussi aider à renforcer la confiance des utilisateurs en leur offrant un aperçu du fonctionnement interne de ces modèles complexes.

Comment les nouvelles fonctionnalités d’Anthropic aident-elles les développeurs à améliorer leurs applications IA ?

La publication des prompts systèmes de Claude par Anthropic est une étape importante vers une plus grande transparence dans l’industrie de l’IA. En dévoilant les règles qui guident ses modèles, Anthropic pose les bases d’une nouvelle norme pour les pratiques éthiques et responsables dans le développement de l’intelligence artificielle.

Partager cet article

Actualités

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici