L’intelligence artificielle générale (AGI), contrairement à l’IA spécialisée actuelle, promet une révolution en étant capable d’exécuter un large éventail de tâches cognitives à un niveau humain ou supérieur.
Lors de la conférence annuelle GTC de Nvidia, Jensen Huang, PDG de l’entreprise, a partagé sa vision sur l’AGI, souvent évoquée avec des termes comme “IA forte” ou “IA au niveau humain”. Il semble que l’idée de l’AGI le lasse, principalement en raison des malentendus fréquents et des citations erronées le concernant.
L’AGI suscite des questions fondamentales sur le rôle et le contrôle de l’humanité dans un futur dominé par des machines surpuissantes. L’inquiétude majeure réside dans l’indépendance de l’AGI, qui, à un certain niveau, pourrait devenir incontrôlable, un scénario souvent exploré dans la science-fiction.
Lire aussi :
- Elon Musk frappe fort : Des milliards injectés chez NVIDIA et AMD pour révolutionner Tesla !
- La guerre des semi-conducteurs s’étend à l’informatique dématérialisée : Microsoft lance deux super puces contre Nvidia et Amazon
Une prévision mesurée par Jensen Huang
Selon Huang, la réalisation d’une AGI passable dépend de la définition précise que l’on donne à l’AGI. Il compare ce concept à des situations concrètes comme l’arrivée d’une nouvelle année ou le fait d’atteindre un lieu précis, soulignant l’importance d’un accord sur les critères de réussite. Huang estime qu’avec des critères bien définis, tels que la réussite à un examen de barreau ou des tests de logique, l’AGI pourrait être une réalité dans les cinq prochaines années.
Cependant, il précise que sans une définition spécifique, il est difficile de faire des prédictions. L’approche de Nvidia semble être pragmatique et centrée sur des objectifs mesurables, s’éloignant des spéculations sans fin sur le “quand” et le “comment”.
La solution de Nvidia aux hallucinations de l’IA
Un autre sujet abordé par Huang est le problème des “hallucinations” de l’IA, où les systèmes fournissent des réponses plausibles mais incorrectes. Il propose une solution simple mais efficace : s’assurer que les réponses soient basées sur des recherches approfondies. Il nomme cette méthode “génération augmentée par récupération”, suggérant que l’IA devrait d’abord rechercher et valider les informations avant de répondre.
Pour les réponses critiques, comme les conseils de santé, Huang recommande de consulter plusieurs sources fiables. Il est impératif que l’IA puisse reconnaître quand elle ne connaît pas la réponse ou quand il n’y a pas de consensus, soulignant une approche prudente et réfléchie à l’information.
L’horizon de l’AGI et la responsabilité de l’IA
L’intervention de Jensen Huang jette une lumière sur l’avenir proche de l’AGI et les défis actuels de l’IA. Alors que Nvidia se positionne à l’avant-garde de cette révolution, le parcours vers une intelligence artificielle générale et fiable reste semé d’embûches, nécessitant une définition claire et des mesures de sécurité rigoureuses.
La vision de Huang rappelle l’importance de la prudence et de la rigueur dans le développement de technologies capables de redéfinir notre monde.