- Génération IA
- Posts
- Dans la tête de Claude
Dans la tête de Claude
Une Intelligence Artificielle capable de faire en 5 ans ce que l'humanité fait en 50 ans ? Le fondateur d'Anthropic révèle sa vision d'un futur plus proche qu'on ne le pense. Et sa collaboratrice, Amanda Askell, nous explique comment parler à Claude, l'IA la plus intéressante du marché.
Bonjour !
Cette semaine, tiens-toi bien, j'ai passé 5 heures à regarder une vidéo.
Ce n'était pas une série Netflix mais une très longue interview d'une personne dont la parole est encore rare.
S'il y a une seule personne à entendre ce mois-ci, c'est lui : sa vision éclaire à la fois ce qui se passe dans le monde de l'IA et ce qui attend l'humanité à court terme. Il y a du lourd.
L'écouter, lui et son équipe, m'a aussi permis de mieux comprendre, et donc d'utiliser plus efficacement, les chatbots d'IA. J'ai même eu quelques illuminations !
Alors reste avec moi, je t'emmène dans la tête de l'intelligence artificielle la plus intéressante du moment.
Et je te fais gagner ces 5 heures.
Je suis Benoît Raphaël, et avec Thomas Mahier (ingénieur en IA) et FlintGPT (robot un peu simplet mais gentil), je te propose de mieux comprendre et maîtriser l’intelligence artificielle.
Si on t’a transféré cette lettre, abonne-toi en un clic ici.
Si tu es abonné(e) et que tu souhaites te désabonner, pas de panique ! Va en bas cette lettre et clique sur le lien “vous désabonner ici”.
😍 Aujourd’hui voici comment tu vas devenir plus intelligent(e) avec Génération IA.
→ Découvre pourquoi le fondateur d'Anthropic pense qu'une IA au niveau d'un prix Nobel arrivera dès 2026-27.
→ Applique sept enseignements pour mieux “prompter” les IA, selon l'experte qui a le plus parlé avec Claude.
→ Explore les cinq raisons pour lesquelles Claude est devenu mon chatbot préféré.
L’homme dont je parle, c’est Dario Amodei, fondateur d’Anthropic, la société américaine à l’origine du principal concurrent de ChatGPT : Claude.
Son nom est peut-être nouveau pour toi, mais dans le monde de l'IA, sa vision façonne déjà notre futur.
Dario Amodei lors de son passage chez Lex Fridman, en train d’expliquer que oui mais non.
À la tête de la recherche chez OpenAI, Dario Amodei a dirigé le développement de GPT-2 et 3 (à l’origine de ChatGPT). Une expérience qui l'a convaincu de créer Anthropic, pour développer l'IA différemment, avec la sécurité et l'éthique comme priorités absolues.
Son profil détonne dans l'univers de l'IA : biologiste et physicien de formation, ce scientifique passionné apporte un regard nuancé et sans langue de bois, marqué par une humilité rare à ce niveau.
Dans son essai "Machines Of Loving Grace", il dessine un futur volontairement optimiste de l'IA, sans tomber dans le techno-solutionnisme ambiant. Une vision d'autant plus intéressante qu'Amodei alerte depuis 2022 sur les risques de l'IA. Souvent classé parmi les catastrophistes, il reste pourtant résolument optimiste.
La semaine dernière, il a donc donné une très longue interview à Lex Fridman. 5 heures (dont 2h30 laissées à ses collaborateurs) ! C'est une plongée passionnante dans la vision de l’une des entreprises les plus singulières de l'IA moderne. Mais aussi dans la “psychologie” de Claude. Parce que, oui, sans sombrer dans l’antropomorphisme, Claude a une personnalité. Et il y a une raison très pragmatique à cela.
Ces 5 heures d'interview sont une mine d'or : vision du futur de l'IA et conseils pratiques pour l'utiliser. J'en ai extrait pour toi les passages que j’ai trouvé les plus intéressants et utiles.
1. Plus vite que prévu !
Commençons par la phrase choc : Dario Amodei pense que nous atteindrons plus rapidement que prévu ce que certains appellent “l’AGI” (intelligence artificielle générale), mais que lui appelle “Powerful AI” (IA puissante).
Il parle de… 2026 ou 2027. C’est très proche.
Pour être honnète, c’est un sujet qui m’a toujours agacé. Mais le fondateur d’Anthropic a une manière très intéressante d’aborder la question.
Là, tu devrais me demander : mais c’est quoi l’AGIPowerfulAI ?
Haha, bonne question. Le sujet est assez casse-gueule si tu veux mon avis. Sinon carrément mystique. En tout cas suffisamment médiatique (et improuvable) pour permettre à ces boîtes de lever beaucoup de fonds.
Tu as sans doute entendu parler de l’AGI, c’est à dire une IA atteignant les capacités cognitives humaines. C’est l’objectif d’OpenAI. Ou peut-être encore de la Super-Intelligence : une IA qui dépasserait les capacités cognitives humaines, se transformant brutalement en une sorte de dieu mécanique dont on craint qu’il envahisse un jour l’univers de trombones.
Ces idées très théoriques et parfois irrationnelles agitent le milieu depuis longtemps, j’en avais parlé en détail dans cette lettre).
Dario Amodei les rejette.
Je trouve que le terme “AGI” manque de précision et s'est chargé d'un bagage science-fiction et de “hype”. Je préfère parler d'une “IA puissante” ou d'une “IA de niveau expert en sciences et ingénierie” - ça exprime mieux ce que je veux dire sans l'exagération.
En gros, alors que l'“AGI” évoque une intelligence universelle comparable à l'humain, transformant ses créateurs en faiseurs de dieux, l'“IA puissante” désigne des systèmes qui excellent dans des domaines précis pour des tâches définies, dépassant parfois les capacités humaines, mais avec leurs propres limites.
Le terme "IA puissante" suggère donc une évolution plus progressive, et palpable si j’ose dire. Elle mettrait entre les mains de chaque citoyen l’équivalent d’un expert de haut-niveau capable de raisonner et d’agir, et accélérerait considérablement les avancées en biologie, médecine et économie.
Voici à quoi ça ressemble (et ce sur quoi travaillent déjà activement tous les acteurs du moment à coups de milliards de dollars) :
L’IA PUISSANTE SELON ANTHROPIC :
Capacités Cognitives Avancées : Elle égale ou dépasse les experts de haut niveau dans des domaines comme la biologie, la programmation, les mathématiques, l'ingénierie et l'écriture.
Interfaces Polyvalentes : Elle dispose de toutes les "interfaces" accessibles à un humain travaillant virtuellement : texte, audio, vidéo, contrôle par souris et clavier, accès Internet.
Fonctionnement Autonome : Elle peut s'attaquer de manière indépendante à des tâches s'étalant sur plusieurs heures, jours, voire semaines, à l'instar d'un employé hautement qualifié.
Incarnation Virtuelle : Bien que dépourvue de corps physique et existant principalement sur un écran d'ordinateur, elle peut commander des outils physiques existants, des robots ou des équipements de laboratoire via un ordinateur.
Dario Amodei pense donc que ce niveau d'intelligence pourrait arriver d'ici 2026 ou 2027. Même s’il ajoute que sa prédiction n’a rien de scientifique et que beaucoup de contraintes pourraient repousser cette date, c’est quand même très précis.
2. Comment allons-nous travailler dans ce monde ?
Qui sera le prochain prix Nobel ? Dr Curie ou Mr Robot ? Ou les deux ? (Image générée avec Midjourney)
Ce qui m’a le plus frappé dans le discours d'Amodei, c'est sa vision concrète d'un futur imminent : celui où nous collaborerons avec des machines qui nous dépassent dans certains domaines de pointe. Et ça pose pas mal de questions…
Par exemple, quel serait le travail d’un biologiste ? D’ici deux ans, Super Claude pourrait servir d’assistant chercheur plus ou moins autonome. Mais à terme, il pourrait diriger lui-même des projets de recherche, tandis que les biologistes se concentreraient sur des trucs moins triviaux (hum hum) comme l'orientation stratégique des recherches, l'interprétation des découvertes ou le maintien de l'éthique dans la recherche.
Bon, tout ça ne nous dit rien sur les conséquences en terme d’emploi dans ces secteurs. C’est d’ailleurs la principale crainte d’Amodei (bien plus que celle des risques existentiels dont on va parler) : dans une économie très avancée dirigée par l'IA, les humains pourraient finir par ne plus pouvoir y contribuer de manière significative. Autre inquiétude : la concentration des pouvoirs entre les mains de quelques acteurs (spoiler : c’est déjà le cas !).
Je me dis qu’il serait intéressant qu’on s’y prépare un minimum au lieu de passer notre temps à dissoudre l’Assemblée nationale. Juste au cas où. Pas toi ?
Et sinon, pour quels bénéfices ces super assistants ? Dario Amodei pense que l’IA pourrait accomplir en 5-10 ans ce qui aurait normalement pris 50-100 ans à l'humanité dans les domaines de la science et de l’ingénierie. Ah oui.
Donc si on met de côté l’inconnue “impact social”, jusque-là tout va bien.
Oui mais…
3. Oui mais les risques, Patrick ?
Là on entame la partie qui fait peur. Mais l’approche pragmatique d’Anthropic permet de nuancer (dans un sens comme dans l’autre d’ailleurs).
Comme dit Yann LeCun, un des parrains de l’IA moderne, inutile d’inventer des parachutes avant d’avoir inventé l’avion qui vole.
Certes, répond Amodei, mais on peut quand-même déjà préparer le terrain.
Amodei identifie deux risques majeurs liés aux IA puissantes qui arriveront d’ici deux à trois ans :
La mauvaise utilisation : Des acteurs non-étatiques malveillants pourraient exploiter l'IA pour, au hasard, développer des armes biologiques.
L'autonomie incontrôlée : Les IA pourraient devenir trop indépendantes du contrôle humain, et illisibles. Avec des conséquences potentiellement, hum, catastrophiques.
Tu as senti ce petit frisson te parcourir le dos ? Moi aussi. Mais rassurons-nous, si j’ose dire, ces risques relèvent encore de la science-fiction, plus que de la science.
Et surtout, nuance Amodei, il est peu probable qu’ils surgissent du jour au lendemain.
Ne serait-ce que parce que le monde matériel ne va pas aussi vite que la vitesse de calcul de l’IA et de nos fantasmes virtuels. Les siens y compris.
Il y a des contraintes matérielles incompressibles (disponibilité de l’énergie, des matériaux, temps de fabrication des équipements…), la disponibilité des données (l’or rare des prochaines années), la rigidité des structures sociétales, les réglementations …
Bref, tout cela avance mal ou bien selon un rythme bien plus complexe qu’une courbe exponentielle sur un tableau statistique. Gardons la tête froide.
4. Maman, où est le parachute ?
Néanmoins, Anthropic a déjà mis en place un certain nombre de mesures de sécurité. L’objectif étant de s'assurer qu’elles évoluent au même rythme que les capacités des IA. Prends le temps de les lire, c’est une bonne matière à réflexion pour tout l’écosystème :
Une politique de développement responsable qui définit des niveaux de sécurité (il y en a 5, nous sommes au niveau 2) de plus en plus stricts selon les capacités des IA.
Des systèmes d'alerte précoce pour détecter les risques émergents avant qu'ils ne deviennent réels et éviter d’avoir à inventer le parachute de Yann LeCun à 100 mètres du sol par exemple.
Une IA “constitutionnelle” : cette technique est la signature d’Anthropic. Elle est utilisée pour entraîner ses modèles afin de les faire adhérer à des principes ou des directives spécifiques. Ils forment une "constitution" pour le comportement de Claude. Cette constitution définit les valeurs et comportements souhaités que le modèle doit adopter. Elle vise à aligner l'IA sur les besoins des humains.
Interpréter le “cerveau” de Claude : c’est l’un des points clés, à mon avis, de l’approche d’Anthropic. Et l’un des plus fascinants ! Chris Olah, en charge de cette mission, évoque le développement des modèles d’IA en des termes presques biologiques. Ils sont plus “cultivés” (comme des bactéries) que “programmés”… ce qui rend leur interprétabilité quasi impossible. Anthropic travaille donc sur ce qu’ils appellent l’“interprétabilité mécaniste” : une approche qui vise à comprendre les réseaux de neurones des modèles de l'intérieur, en révélant les mécanismes sous-jacents qui guident leurs décisions. Cette méthode me fait penser à celles des neuroscientifiques, qui stimulent ou “éteignent” des points précis du cerveau pour observer ce qui se passe et comprendre comment ce dernier s’organise. Afin de mieux détecter les maladies et les soigner.
Les premiers pas vers des “neurosciences” artificielles ? (Image générée avec Midjourney)
L'objectif d'Anthropic n'est pas de paraître éthique, explique Dario Amodei, mais de transformer tout l'écosystème de l'IA vers plus de sécurité. Il veut, insiste-t-il, créer une “course vers le haut” qui pousse les autres entreprises à adopter des pratiques similaires et élève les standards d’une industrie encore très chaotique. On a envie de le croire.
D’ailleurs je réalise soudain qu’il a un peu la tête de l’un des angelots de la Chapelle Sixtine, tu ne trouves pas ?
Les aventures de Picolo et Dario dans le monde magique de l’IA (image générée avec mes petits doigts)
Ce qu’il faut retenir :
Dario Amodei, fondateur d'Anthropic, prédit l'arrivée d'une "IA puissante" (dépassant les experts dans plusieurs domaines) d'ici 2027.
L'IA pourrait permettre d'accomplir en 5-10 ans ce qui aurait pris 50-100 ans en science et ingénierie.
Les principaux risques identifiés sont la mauvaise utilisation par des acteurs malveillants et une potentielle perte de contrôle de l'autonomie des IA.
Anthropic développe des systèmes de sécurité préventifs, dont une "constitution" pour encadrer le comportement de Claude et des méthodes pour mieux comprendre son fonctionnement interne.
Pour aller plus loin :
Tu veux comprendre d’où Dario Amodei tire ses prédictions sur l’arrivée précoce des IA puissantes ? Elle repose en partie sur son expérience, mais aussi sur un article scientifique paru en 2020 (contesté aujourd’hui) sur les "lois d'échelle" des modèles de langage. La théorie ? Plus on augmente la puissance de calcul et les données, plus les IA deviennent capables. Même si ce n'est qu'une tendance observée et non une loi scientifique, Amodei mise beaucoup sur sa continuation.
Si tu n’as pas le temps de lire l’essai de Dario Amodei (“Machine Of Loving Grace”) ou que 50 pages en anglais te font peur, Tristan Nitot (entrepreneur et ingénieur) en a fait une synthèse critique ici.
Sans le nommer, Amodei évoque un sujet très en vogue en ce moment : les agents IA. Vus comme la prochaine étape aprés les chatbots, ces assistants seront capables de travailler de façon autonome sur des tâches complexes (par exemple sélectionner, comparer, acheter un billet de train) et d’utiliser à notre place plusieurs logiciels à leur disposition.
Pour travailler sur cette vidéo, j’ai fait un truc tout simple. J’ai mis le lien Youtube dans NotebookLM plus celui du livre et je lui ai posé des questions au fil de mon visionnage. Ce qui m’a permis de générer des dizaines de notes parfaites avec des liens vers les passages du transcript original. Essaie !
Apprendre à parler à une IA
En écoutant l'équipe d'Anthropic partager sa vision et ses méthodes, j'ai mieux compris pourquoi Claude était devenu mon collaborateur quotidien.
Une révélation majeure : l'importance de développer une forme "psychologie artificielle". Cette approche, loin d'être un anthropomorphisme naïf, transforme fondamentalement notre manière d'interagir avec ces modèles.
Cette approche est portée par Amanda Askell, sans doute l'humaine qui a le plus dialogué avec Claude. Doctorante en philosophie chez Anthropic, elle façonne la personnalité de l'IA - non pas comme un exercice marketing, mais comme une nécessité pratique pour permettre des interactions efficaces avec des millions d'utilisateurs.
Amanda Askell, au micro de Lex Fridman qui dit un truc du genre : ‘‘‘mmmh, alors Aristote vous voyez…”
S'inspirant de l'éthique des vertus d'Aristote, elle conçoit Claude comme une entité authentique, responsable et ouverte d'esprit. L'IA doit être respectueuse tout en étant capable de défendre ses positions pour générer un dialogue constructif.
La première raison pour laquelle j’aime travailler avec Claude, c’est donc qu’il est “agréable” de converser avec lui. Il a une certaine délicatesse dans sa manière de répondre, mais aussi de s’enrichir au fil des échanges, à condition de bien savoir le piloter.
Les modèles de langage sont des systèmes très imparfaits, mais ils sont capables de vraies prouesses si on sait leur parler.
Voici sept enseignements que j’ai retenu en écoutant Amanda parler de son travail :
Bien prompter consiste à itérer jusqu’à réussir à débloquer les talents cachés de l’IA.
Il faut pour cela faire un peu de théorie de l’esprit : Claude n’est pas un humain, il ne réagit pas comme un humain, malgré ses talents d’imitation. En observant ses réponses, tu affines ta compréhension de son raisonnement et tu adaptes tes instructions.
La méthode idéale est de commencer simplement (contexte, tâche, format) puis d'enrichir progressivement.
Les modèles de langage ont été conçus pour adorer apprendre. Décris lui des des méthodes de pensée, donne lui des exemples, ou demande lui de se poser au moins 3 questions avant de te répondre.
Les nouveaux modèles demandent moins d'astuces techniques que leurs prédécesseurs - juste de la clarté, de la précision et un vocabulaire simple.
Pour formuler ton prompt, imagine que tu parles à une personne éduquée qui découvre le sujet.
Exprime d'abord ton besoin à voix haute : "Voici le contexte de mon projet, voici ce que je voudrais faire, voici les éléments essentiels à connaître, et voilà le résultat que j'attends." Ensuite, retranscris exactement ce discours. Tu peux même échanger avec l’IA sur la meilleure approche à adopter
Je vais te montrer un exemple.
Exercice : demander à Claude de m’aider à prompter
Je passe mon temps à enregistrer des notes mentales sur mes découvertes, mes réflexions, mes expérimentations. Pour cela j’utilise Dicte, une application mobile française dont j’ai déja souvent parlé. Elle me renvoie un transcript parfait mais… aussi fouilli que mes pensées ! Je voudrais donc pouvoir transformer ces pensées en quelque chose de plus structuré, mais rédigé un peu comme un journal de bord. Comment faire ? Je demande à Claude.
Tu vas voir que mon prompt est d’abord très fouilli :
Voici ce que je voudrais faire :
* demander à un assistant de retravailler mes notes mentales mais en les rendant plus fluides et compréhensibles, plus structurées, même si elles sont fouillies, sans perdre en precision ni même en style
* j'aimerais que l'assistant se pose des questions avant de répondre, pour m'assurer qu'il prenne le problème correctement, je pense, je ne veux pas de texte trop cliché, je veux qu'il saisisse les nuances et les passages où je ne suis pas sûr de moi.
* j'aimerais ensuite qu'il réécrive ces transcripts de notes mentales un peu comme un journal de bord, un carnet intime de réflexion, il faut donc qu'il s'interroge sur la persnnalité qui ressort de mes paroles pour les infuser dans l'écriture finale.
Aide moi à structurer ce que je veux de façon à en faire une instruction claire pour un modèle d’IA.
Claude me répond avec une analyse assez poussée de ce qu’il faut faire :
Je lui demande ensuite :
Maintenant structure le comme un prompt.
Avec cette structure :
[contexte] [tache] [methode et format]
Et voilà ! J’ai mon prompt !
Résultat ? Étonnament bon pour un premier jet !
👉 Si tu veux maîtriser parfaitement le prompt, découvre notre formation ultime. Et profite d’une réduction rien que pour toi (valable jusqu’à mardi !). Tu auras aussi accès au guide des prompts (plus d’une centaine de prompts !) et au groupe d’entraide.
Cinq raisons pour lesquelles Claude est devenu mon chatbot d’IA favori
Au-delà de la qualité des échanges, Claude est le seul chatbot a avoir vraiment été conçu comme un produit cohérent. Chaque nouvelle fonctonnalité est bien pensée et parfaitement intégrée. On sent que l’équipe est focus sur une seule chose et ne s’éparpille pas.
Si tu découvres Claude, voici 5 fonctionnalités dont je ne peux plus me passer :
Les assistants (“Projects”) : c’est un peu l’équivalent des GPTs mais mieux intégré. En créant un “projet”, tu génères un assistant spécialisé qui va t’aider sur une seule tâche, ce qui t’évite notamment de copier-coller des prompts complexes à chaque fois. Il te suffit d’entrer les instructions une fois et de lui ajouter des documents de travail si tu le souhaites. Je les utilise tous les jours.
L’analyseur de données (“Tool Analysis”) : avec cet outil, Claude peut enfin faire des calculs sans erreurs pour analyser tes données. Je l’utilise pour les sondages.
Le lecteur de PDF (“Visual PDF’s”): oui, tous les outils en ont un, mais Claude est le seul à pouvoir lire aussi les images et les graphiques.
L’exécuteur de code (“Artifact”) : permet à Claude de créer des petits programmes pour afficher une application, un document structuré, un tableau de bord… et de le partager avec tout le monde.
Le générateur de prompts et l’améliorateur de prompts : ils te permettent de créer un prompt structuré et complexe en quelques secondes. Pas toujours parfait mais ça te permet d’apprendre et d’aller plus vite. Tu y accèdes via la console d’Anthropic.
PARTICIPE !
On construit cette lettre ensemble !
Vous êtes désormais 24.696 à recevoir cette lettre, 1600 de plus que le mois dernier. La dernière édition, sur les hallucinations de l’IA, vous a beaucoup plu, 98,4% d’avis positifs ! Merci !
💚 “Top!” - 🧡 “Bien mais” - ❤️ “bof”
J’ai demandé à Claude d’analyser les résultats, il m’a produit ce tableau de bord interactif avec les commentaires les plus intéressants. Tu peux le retrouver ici.
Par exemple Ojay qui nous dit :
Le travail d'investigation se nuance de plus en plus au fil des éditions. Le côté 'c'est génial, foncez' devient plus factuel et prudent. Cela me conforte : comme avec toute technologie, il faut avancer avec prudence... Je constate aussi que vous commencez à poser la question de la dimension énergivore et environnementale de cette tech.
À ce propos, si tu veux faire analyser des données à Claude : pense bien à activer “Analyse Tool” en cliquant sur la petite éprouvette à droite de la fenêtre de prompt.
Choisis ensuite un format “.csv” pour le fichier à envoyer. Ne fais pas de prompt complexe, dis-lui juste : “Analyse ces données”. Laisse-le faire et te poser des questions si nécessaire. Ses résultats seront plus propres.
A toi de voter !
Comment as-tu trouvé cette édition spéciale ? Vote ici et laisse tes commentaires pour nous aider à nous améliorer !
Comment as-tu trouvé cette édition ?Vote et laisse un commentaire pour nous aider à nous améliorer ! |
Merci de nous avoir consacré un peu de ton temps. Je te souhaite une bonne semaine avec … Claude ?
🧠 Benoit, Thomas et FlintGPT.