- Génération IA
- Posts
- ChatGPT peut-il nous rendre plus bêtes ? (voici comment l'éviter)
ChatGPT peut-il nous rendre plus bêtes ? (voici comment l'éviter)
Une étude de Microsoft montre qu'un usage trop confiant de l'intelligence artificielle générative peut atrophier notre esprit critique. Vrai ou faux ? Pour l'éviter il faut changer radicalement notre approche du "prompt engineering" en 2025.

Bonjour !
Aujourd'hui, je vais te raconter comment devenir moins bête avec l’intelligence artificielle.
Une étude vient justement de sortir et, tiens toi bien, elle explique que l’usage intempestif de ChatGPT atrophie notre esprit critique.
Vrai ou faux ? Je te propose d’explorer ça et de partager avec toi une nouvelle méthode de prompting qui va te permettre d’éviter d’atrophier ton cerveau et même de stimuler ton intelligence. Accroche-toi bien !
Je suis Benoît Raphaël, et avec Thomas Mahier (ingénieur en IA) et FlintGPT (robot un peu simplet mais gentil), je te propose de mieux comprendre et maîtriser l’intelligence artificielle.
Si on t’a transféré cette lettre, abonne-toi en un clic ici.
Si tu es abonné(e) et que tu souhaites te désabonner, pas de panique ! Va en bas cette lettre et clique sur le lien “vous désabonner ici”.
😍 Aujourd’hui voici comment tu vas devenir plus intelligent(e) avec Génération IA.
→ Apprends à muscler ton intelligence avec l’IA plutôt que le contraire.
→ Découvre la nouvelle façon de prompter en 2025 avec ma nouvelle formation.
→ Devine quel est le meilleur chatbot du monde ? Mon top 4 complètement subjectif.
→ Et ajoute à ta liste un outil trés pratique pour gagner du temps.
Depuis des mois, j'entends la même rengaine : l'IA nous rendrait paresseux intellectuellement, atrophierait notre esprit critique, nous réduirait à de simples vérificateurs passifs.
J'ai toujours balayé ces remarques d'un revers mental. Pourquoi?
En partie parce que ces prophéties ne s’appuyaient sur aucune étude.
Mais c’était surtout mon expérience qui me soufflait l'inverse.
En dialoguant avec Claude ou ChatGPT, j'ai développé de nouvelles compétences, élargi mon horizon, affiné mon écriture. Ma compréhension de mon propre processus créatif s'est même approfondie au contact de ces proto-intelligences synthétiques.
Comment pourraient-elles simultanément m'enrichir et m'appauvrir?
Mais en janvier dernier, ces mêmes prophètes de la chute annoncée de l’humanité sont venus brandir (à raison) une nouvelle étude de Microsoft : L’impact de l’IA générative sur l’esprit critique. Conclusion des chercheurs après avoir interrogé 319 professionnels : plus on fait confiance à l'IA, moins on pense de façon critique. “Ah tu vois !”
Mince. Me voilà coincé dans un paradoxe. D'un côté, mon expérience qui affirme "tu n'as jamais autant appris". De l'autre, cette étude suggérant que je sacrifie peut-être mon esprit critique sur l'autel de la facilité algorithmique.

(Image générée avec Midjourney 6.1)
J'ai pourtant toujours gardé une méfiance instinctive envers les modèles d’IA. Quand ChatGPT est sorti, j’étais le premier à alerter sur ses hallucinations. "Rooo tu exagères, il se trompe pas beaucoup, c’est une IA" me disaient les optimistes. “Et puis ça va vite être corrigé !” Haha. Et moi je répondais : "Non, il se trompe souvent. Et ce pour une raison bien précise."
L'IA générative n'a pas de connaissance au sens où nous l'entendons. Elle n'a pas de base de données dans laquelle elle viendrait piocher des faits. Elle établit des relations entre mots et concepts, repère des motifs, puis tente de reconstruire sa "connaissance" en prédisant la réponse la plus probable. C'est pourquoi ses réponses ne sont jamais complètement exactes.
Cette compréhension des limites de l'IA m'a préservé du syndrome que j'appelle, hum, "l'effet Léa Salamé", cette fascination face à une intelligence artificielle perçue comme parfaite, infaillible, complexante dans son immense mémoire. Je m’étais amusé à fact-checker la journaliste de France Inter dans une indescriptible “interview de ChatGPT”. Tout était faux dans cette interview. Et c’est en partie parce que certains médias continuent de véhiculer ce fantasme de l’IA “parfaite et froide” que l’on en arrive à atrophier notre esprit critique en l’utilisant.
Au passage, petit exercice d’esprit critique : l’étude Microsoft doit être nuancée, les auteurs le reconnaissent eux-mêmes. Elle s'appuie sur les perceptions des participants plutôt que sur des observations directes et mesurables. Elle ne compare pas les performances cognitives avant et après l'adoption de l'IA.
Un autre article scientifique (qui est plus une synthèse théorique qu’une étude), "L'ironie de l'IA générative" (2024), explique comment l'IA peut parfois nous ralentir ou nous rendre moins efficaces alors qu’elle est censée simplifier notre travail.
Par exemple (et tu me diras si ça te parle) :
Quand l'IA fait une (trop) grande partie du travail à notre place, nous passons du rôle de créateur à celui de vérificateur. Poussé à l’extrême, ce changement de posture cognitive peut réduire notre vigilance et notre créativité.
Nous attendons trop de l'IA alors qu'elle n'est pas toujours à la hauteur. C'est ce que les chercheurs appellent "la frontière déchiquetée" : l'IA augmente notre productivité si nous restons dans ses domaines de compétence, mais nous fait perdre du temps si nous lui demandons l'impossible.
Interagir constamment avec l'IA crée des micro-coupures qui fragmentent notre concentration sur une tâche donnée.
En gros, ces informations ne nous disent qu’une seule chose (enfin, deux…) : l'IA peut effectivement atrophier notre esprit critique si nous ne la comprennons pas (effet Léa Salamé) ou si nous lui déléguons trop de choses, sans la vigilance adéquate (biais d’automatisation).
Pour être honnête, je me dis que nous avons peut-être tout faux depuis le début. Aux premiers jours de ChatGPT, nous cherchions tous la formule magique, le “prompt” parfait qui produirait les meilleurs résultats. Les guides de prompts fleurissaient partout (“Écris ‘ChatGPT’ dans les commentaires et je t’envoie mon guide ULTIME en mp !”).
On traitait les chatbots comme des outils programmables en langage naturel.
Depuis, non seulement notre compréhension de ces modèles s’est améliorée, mais ces derniers ont considérablement évolué ces deux dernières années – en fluidité, en précision, en capacité d'interaction naturelle.
L'interaction devient donc plus importante, plus intéressante aussi. On ne peut plus vraiment considérer l'IA comme un simple outil “promptable” si j’ose dire. C'est quelque chose d'autre, qui ressemble davantage à... une forme de management.

(Image générée avec Midjourney 6.1)
Sauf que les IA ne sont pas des collaborateurs humains.
Ce sont des profils atypiques qui ne traitent pas l'information comme nous.
Du coup, comment manager un collaborateur qui peut parfois se montrer brillant et parfois commettre des erreurs de raisonnement élémentaires qu'un enfant de huit ans éviterait ?
Eh bien il faut réapprendre à manager.
Depuis deux ans, je me suis petit à petit mis à voir l'IA comme un partenaire intellectuel très imparfait avec lequel je dialogue, et qui me fait grandir.
Cette pratique est devenue intuitive au fil du temps, nourrie par l'étude de plus en plus approfondie de l’architecture des modèles de langage et par l'expérience quotidienne.
Avec Thomas, mon associé, nous avons tenté de théoriser cette approche intuitive.
Nous l'avons baptisée "dialogue engineering" : l'art de construire une conversation avec l'intelligence artificielle.
C’est cette méthode que je voudrais partager avec toi.
Le dialogue engineering, c'est comprendre comment construire une conversation qui déplie progressivement les capacités latentes de l'IA, tout en stimulant notre propre réflexion.
Je le visualise comme la construction d'un château. Chaque échange pose une nouvelle pierre, ouvre une nouvelle porte, explore une nouvelle pièce, crée des passerelles entre différentes tours, puis les supprime ou les consolide.
En fait, cette construction génère un “contexte”. Un contexte correspond à l’ensemble des interactions dans une conversation sur lequel le modèle d’IA s'appuie pour prédire sa prochaine réponse. Plus cette construction est cohérente et travaillée, meilleure sera sa réponse.
Tu te demandes sans doute ce que j’entends par "déplier la connaissance" d'un modèle de langage. Je t’explique…

(Image générée avec Midjourney 6.1)
Un modèle comme Claude ou GPT n'a pas une base de données où il stockerait des informations qu'il pourrait simplement récupérer. Sa connaissance existe sous forme de connexions entre des concepts, encodées dans des milliards de paramètres mathématiques.
Lors de son entraînement, le modèle a parcouru d'immenses quantités de textes et apprend les relations entre les mots, les idées, les motifs de pensée. Quand je l'interroge, il ne retrouve pas un document précis pour me répondre, mais reconstruit une réponse en prédisant les séquences de mots les plus probables dans ce contexte.
Une simple question directe n'active que les connexions les plus évidentes, produisant une réponse superficielle. Mais un dialogue structuré stimule des réseaux de connexion plus profonds. Et les résultats, je peux en témoigner, sont vraiments bluffants.
Pour que tu comprennes bien, j'ai identifié pour toi plusieurs étapes dans la construction de cette conversation-château.
1. D'abord, les fondations. Je fais l'état des connaissances du modèle, je commence par une question ouverte pour laisser l'IA exposer sa compréhension initiale.
2. Ensuite, l'exploration latérale. Je demande plusieurs approches ou solutions, j’évalue ou fais évaluer chaque option, j’établis des ponts avec d'autres concepts ou disciplines.
3. Puis, l'exploration verticale. J’approfondis les pistes prometteuses, j’identifie des obstacles potentiels, je remets en question son raisonnement… ou le mien.
4. Je nettoie en permanence mon “contexte” : Je coupe une piste peu intéressante (en reprenant l’échange à ma question initiale), ou j’en consolide une autre (en demandant de récapituler).
5. Ensuite, la vérification et l'ajustement : je demande des sources pour les vérifier sur Google, je lui demande d’identifier les éléments négligés.
6. Enfin, je récapitule et formalise. Je lui demande de reformuler les points clés, de synthétiser les découvertes afin de parvenir à un livrable : une conférence, un texte, un manuel, un plan d’action, un prompt…

(Image générée avec Midjourney 6.1)
Pour que ça soit encore plus concret, je me suis amusé à expérimenter pour toi le “dialogue engineering” avec l'étude Microsoft sur l'esprit critique et l'IA.
Au lieu de simplement demander un résumé, j'ai engagé un dialogue structuré.
D'abord, j'ai demandé à Claude d'analyser l’étude pour comprendre ce qu'il en retenait.
Avant d’explorer une branche spécifique tirée de son analyse :
Explique cette phrase :
"""l'IA diminue l'effort requis pour certaines tâches, mais aussi la nécessité de penser de manière critique."""
J'ai ensuite changé de perspective :
Et si on renversait le problème ? Dans leur livre culte “Noise”, Daniel Kahneman et Olivier Sibony ont montré que les spécialistes humains font aussi beaucoup d'erreurs dans leurs décisions. Ne devrait-on pas être tout aussi vigilant avec eux ? Donne moi les pour et les contre.
Cette question a ouvert une nouvelle branche d'exploration et m'a fait comprendre que les experts médicaux, par exemple, connaissent des erreurs de diagnostic dans 10 à 15% des cas. Les experts humains ne sont pas infaillibles. L'IA n'a pas le monopole des erreurs.
À chaque étape, je demandais quelles étaient les failles dans tel ou tel raisonnement, obligeant à la fois l'IA et moi-même à maintenir une posture critique. Cette technique permet d’assouplir et de diversifier ses connexions, ce qui améliore ses réponses au fil de la conversation. Puis je synthétise tout ce que l’on a échangé et validé et repars en exploration latérale.
Récapitulons.
Propose une synthèse.
Puis propose moi 15 pistes de techniques que nous pourrions mettre en place pour renforcer nos capacités de supervision et de vigilance face à l'IA et pour muscler notre esprit critique.
Et j’ai abouti à la rédaction d’un petit manuel de méthodologie de management des IA. Très documenté. Super utile.
Sans cet échange méthodique, je n’aurais jamais eu cette profondeur de réponse, et je n’aurais pas aussi bien maîtrisé le sujet.
Cette réflexion m'amène à faire un parallèle avec le management des humains. Les humains font aussi des erreurs. Un manager, généralement généraliste, travaille avec des spécialistes souvent plus compétents que lui dans leur domaine. Il doit leur faire confiance tout en maintenant sa vigilance.
On n'a pas besoin de tout savoir pour manager un spécialiste. On a besoin de connaître les points de vigilance.
La différence avec l'IA, c'est qu'elle peut produire des réponses complètement délirantes sans le savoir, car il lui manque ce “bon sens”, qui lui permettrait d'identifier des réponses absurdes.
Manager une intelligence artificielle demande donc de nouveaux points de vigilance, basés sur une compréhension de sa "psychologie" et de sa façon de traiter l'information.
Cette démarche s'oppose frontalement à l'acceptation passive décrite par les chercheurs. Loin d'atrophier mon esprit critique, elle l'exerce intensément.
Cette méthode du dialogue engineering est devenue ma principale méthode de travail avec l'IA. Elle complète le prompt engineering traditionnel, qui reste (très) utile pour structurer des prompts que je vais ensuite re-exploiter pour des tâches répétitives. Le dialogue engineering nous permet d'explorer efficacement des territoires inconnus.
Cette exploration nous aide aussi à contrer nos propres biais, à élargir notre vision, à créer des passerelles entre différents domaines.
Nous avons toutes et tous une responsabilité dans ce qui se passe aujourd'hui. Quatre Français sur dix utilisent l’IA générative. Or, les médias perpétuent encore cette image d'IA toute-puissante, parfaite, digne de la science-fiction. Ou alors complétement stupides et mécaniques. Ce sont ces fausses interprétations qui nous amènent précisément à développer un rapport problématique avec ces technologies.
Ce qu'il faut retenir
L'IA générative peut affaiblir notre esprit critique si nous lui déléguons trop de tâches sans vigilance.
Contrairement à une idée reçue, l'IA n'a pas de base de données de connaissances mais établit des liens (+ ou - forts) entre les concepts, ce qui explique ses erreurs occasionnelles même sur des faits simples.
Je propose une approche appelée "Dialogue Engineering" qui consiste à construire progressivement une conversation structurée avec l'IA pour stimuler à la fois ses capacités et notre propre réflexion critique.
Cette méthode s'oppose à l'utilisation passive de l'IA par un dialogue itératif qui explore différentes pistes, vérifie les informations, remet en question les raisonnements et synthétise les découvertes.
Pour aller plus loin
Si tu ne sais pas par quoi commencer, fais comme Thomas. En ce moment il joue avec ce prompt tout simple. C’est complètement addictif et c’est un bon moyen de s’initier au “Dialogue Engineering” :
Apprends moi un truc que j'ignore probablement.
Et si tu veux approfondir cette méthode inédite je la développe dans la refonte complète de ma formation ChatGPT 2025 !
👇👇 Tu peux y accéder ici avec une belle réduction pour les abonnés (valable jusqu’à jeudi !) 👇👇
Mon top 4 des meilleurs chatbots d’IA

Bon évidemment pour comprendre la blague, il faut connaitre les logos. Sauras-tu identifier celui de ChatGPT, Grok et Claude ?
Ces trois dernières semaines, le petit monde de l’IA est passé de “woah Grok 3 est sorti, c’est la meilleure IA !” à “woaaaaah Claude 3.7 est sorti, c’est la meilleure IA !”, à (cette semaine) “Oooooh ChatGPT 4.5 est sorti c’est… euh.. c’est la meilleure IA ou pas ?”.
Bref, tu l’as compris, les acteurs américains ont sorti les couteaux, aprés la percée insolente du chinois DeepSeek en janvier dernier.
Voici ce que tu peux en retenir :
L’arrivée de ces nouveaux modèles, comme Claude 3.7 et Grok 3, nous fait passer dans l’ére des modèles d’IA hybrides. Ces modèles intègrent une brique de raisonnement en amont de la génération de réponse. Ce qui en fait les plus puissants du marché.
Le très attendu GPT-4.5, qui est sorti cette semaine sur ChatGPT, n’a impressioné personne. Ce n’est pas un modèle hybride, juste un modèle “plus puissant” en force brute. Malgré des hallucinations plus faibles, cela le place en dessous de ses deux principaux rivaux. Il est surtout plus cher et plus lent. Et il n’est disponible que pour les abonnés à 200$/mois ! Il est donc très coûteux en calcul, et donc (probablement) pas trés écologique.

Tu as du mal à suivre la stratégie d’OpenAI avec ses 9 modèles aux noms bizarres ? Eux aussi !
Alors quels sont aujourd’hui les meilleurs chatbots ?
Je te propose un classement complètement subjectif :
Claude est un chatbot élégant et parfaitement conçu. Il dispose du meilleur modèle d’IA pour la créativité, la rédaction, le code, l’analyse de données (à égalité avec ChatGPT) et l’exploration (“dialogue engineering”). Le plus ? Son mode “artifact” te permet de réaliser des infographies interactives, des petits jeux super jolis ou d’éditer du texte. Le moins ? Il ne peut pas (encore) surfer sur le web.
ChatGPT est peut-être plus intéressant si tu débutes. Il est bon en synthése et a de bonnes capacités de rédaction. Il peut aussi aller sur Internet, ce qui n’est pas (encore) le cas de Claude et peut générer des images (pas top). Il dispose aussi d’un éditeur (Canvas) qui te permet de corriger tes textes. En bref, il est plus polyvalent. Et son modèle iconique (GPT-4o) maîtrise parfaitement les outils à sa disposition.
Grok est un modèle trés puissant (raisonnement, recherche approfondie sur le web, code…), mais le chatbot manque encore d’outils pour le rendre polyvalent. Gros avantage : tu n’as pas besoin d’abonnement pour en profiter. Autre point notable (ou énervant, selon ta vision du personnage) : son créateur (Elon Musk) a un agenda politique affiché, ce qui n’est pas le cas de ses concurrents. Son IA est donc légèrement plus… décomplexée.
Mistral : moins bon que les 3 précédents, mais trés polyvalent (recherche web, analyse de données, assistants) même si le modèle a parfois un peu du mal à piloter ses outils. Il peut aussi générer des images (très jolies). En fait, la principale raison qui me fait le placer dans ce top 4, c’est qu’il est français et que c’est bien de soutenir un chatbot français. Eh oui, choisir un chatbot c’est aussi de la (géo)politique !
👉 Si tu veux t’initier à Mistral, regarde la petite formation video, trés accessible, de Jean-Baptiste Berthoux.
👉 Et si tu veux comprendre en détail les différences entre les différents modèles d’IA, je te propose de lire l’article très documenté du fondateur de Dicte.ai, Ciprian Melian.

La semaine dernière, sur le groupe d’entraide de Génération IA, on m’a demandé : “Comment récupérer le transcript d’une vidéo YouTube” ?
Un transcript est le texte intégral d’une video ou d’un podcast.
Alors j’en ai un que j’utilise tout le temps, il s’appelle “Free YouTube Transcript”. Tu colles le lien de la video et ça te donne le texte que tu peux copier coller dans ton ChatGPT pour faire une synthèse.
C’est vrai que c’est pratique, surtout pour les vidéos longues. Par exemple si tu veux récupérer des idées actionnables d’une interview ou d’une video pédagogique. Tu peux utiliser ce prompt tout bête dans ton chatbot préféré :
<transcript>
[COLLER ICI LE TRANSCRIPT DE LA VIDEO]
</transcript>
Propose moi 10 takeaways à partir de ce transcript.
Pourquoi est-il si difficile de faire en sorte que les modèles d'IA écrivent/comprennent l'humour ?
Excellente question, n'est-ce pas ? J'aimerais bien le savoir, je ne pense pas l'avoir complètement compris non plus. Mais étant donné que personne n'a (à ma connaissance) trouvé le moyen d'entraîner un LLM à être drôle, je suis prêt à croire que l'humour est vraiment difficile et nécessite des capacités sous-jacentes plus importantes ?
PARTICIPE !
On construit cette lettre ensemble !
Nous avons passé le cap des 31.000 abonnés ! Mais arrêtez-les !
La dernière édition, sur la “recherche approfondie”, vous a passionnés, 99,5% d’avis positifs ! Merci !

Parmi les commentaires, il y a Serge qui nous dit :
“Puis-je te suggérer de lire le pamphlet d’Olivier Hamant, “Antidote au culte de la performance ; la robustesse du vivant”. Je te suggère de le lire, lentement, paragraphe par paragraphe, en laissant le temps aux idées d’infuser . Merci pour tout.”
Le thème me semble en bonne résonnance avec la lettre d’aujourd’hui ! J’ai donc récupéré la référence.
“Notre excès de contrôle nous a fait perdre le contrôle. Il va maintenant falloir vivre dans un monde fluctuant, c’est-à-dire inventer la civilisation de la robustesse, contre la performance.”
Je le lirai pendant mon séjour à Paris ! (Oui, aujourd’hui je quitte Bali, comme tous les ans, pour séjourner France quelques semaines, avec un petit détour à Bruxelles). Fais-moi signe si tu veux me recontrer !
A toi de voter !
Comment as-tu trouvé cette édition ? Vote ici et laisse tes commentaires pour nous aider à nous améliorer !
Comment as-tu trouvé cette édition ?Vote et laisse un commentaire pour nous aider à nous améliorer ! |
Merci de nous avoir consacré un peu de ton temps. Je te souhaite une bonne semaine de conversations inspirantes ! N’oublie pas parler à tes amis humains !
🧠 Benoit, Thomas et FlintGPT.
Comment obtenir le texte d’une vidéo YouTube ?