• Génération IA
  • Posts
  • "Deep Research" : comment l'intelligence artificielle bouleverse la recherche sur le web

"Deep Research" : comment l'intelligence artificielle bouleverse la recherche sur le web

L'arrivée des moteurs de recherche IA de type "recherche profonde" change la donne sur le marché de la connaissance. Mais qu'en est-il vraiment et comment les utiliser sans risque ?

Bonjour !

Aujourd'hui, je vais te parler de “recherche profonde”. Non, ce n’est pas le titre d’un nouveau film pornographique, mais d’une fonctionnalité “bluffante” comme disent les influenceurs (haha, voir plus bas) apportée aux nouveaux modèles d’intelligence artificielle d’OpenAI et de Google.

Avec elle, j’ai pu produire en 15 minutes un rapport de 30 pages sur la géopolitique de l’IA rempli de liens vers des sources fiables. Et, étonnamment, sans erreur. D’autres n’ont pas eu cette chance, mais je me suis dit cette semaine qu’avec la combinaison des modèles de raisonnement et cette capacité de faire de la “recherche profonde”, nous venions peut-être de passer un nouveau cap dans nos usages de l’intelligence artificielle.

Je te propose d’explorer ça ensemble et de t’expliquer comment tu peux utiliser ces nouveaux outils en toute sécurité.

Je suis Benoît Raphaël, et avec Thomas Mahier (ingénieur en IA) et FlintGPT (robot un peu simplet mais gentil), je te propose de mieux comprendre et maîtriser l’intelligence artificielle.

Si on t’a transféré cette lettre, abonne-toi en un clic ici.

Si tu es abonné(e) et que tu souhaites te désabonner, pas de panique ! Va en bas cette lettre et clique sur le lien “vous désabonner ici”.

😍 Aujourd’hui voici comment tu vas devenir plus intelligent(e) avec Génération IA.

→ Comprends comment l'arrivée des moteurs de recherche IA de type "Deep Research" change la donne sur le marché de la connaissance. 

→ Apprends à les utiliser sans risque.

À télécharger : le rapport de Deep Research sur la géopolitique de l’IA.

→ Apprends à densifier tes prompts… et à TOUT densifier tant qu’on y est.

→ Découvre pourquoi le nouveau Mistral est désormais une alternative sérieuse à ChatGPT.

Benoit

Si tu as suivi les précédents épisodes de Génération IA, tu as dû noter que je n’étais pas un grand adepte de la recherche web avec l’IA. Sur le papier, ça a l’air magique : ChatGPT et ses amis accèdent à des infos à jour et peuvent citer leurs sources. Pourtant, ils racontent souvent n’importe quoi.

Perplexity, le plus connu des moteurs de recherche IA, m’a toujours laissé… perplexe. Dans notre dossier sur les hallucinations des modèles de langage, je rapporte une étude qui montre que 30 % des affirmations fournies par Perplexity ne sont pas soutenues par les sources qu’il cite.

Ce que tu ne vois pas forcément, c’est que ces outils se contentent souvent des trois ou quatre premiers résultats, sans creuser davantage. Leur indexation est floue, parfois biaisée, et ils n’ont pas toujours accès aux documents complets. Du coup, ils inventent.

“C’est pas grave, je vérifie toujours !” Eh bien non. Nous cliquons six fois moins sur les liens de Perplexity que sur ceux de Google. Question de confiance ou de paresse ? Je ne sais pas, demande à ChatGPT.

(Image générée avec Midjourney et mon petit filtre de style perso)

Sauf que depuis quelques jours, nous sommes entrés dans une nouvelle dimension. On l’appelle la “deep search”. La recherche approfondie.

Tu retrouves cette IA surdouée dans la version payante du chatbot Gemini et dans un outil universitaire open-source (que je t’ai présenté dans la dernière lettre) qui s’appelle “Co-Storm”.

Mais surtout, depuis une semaine, tu peux l’utiliser dans la version pro de ChatGPT.

Et c’est ce nouveau modèle en particulier qui a semé la panique dans la communauté des chercheurs.

Alors chaque outil a sa propre méthode (on va en parler) mais l’idée est la même :

Pour faire ses recherches, l’IA suit un certain raisonnement, consulte plusieurs dizaines de sources, et écrit d’une traite un rapport de 10 à 30 pages.

Comme j’étais méfiant, j’ai fait moi-même le test. J’ai demandé à ChatGPT “Deep Search” un rapport sur la géopolitique de l’IA en 2024 et 2025. Il m’a posé 3 questions pour préciser ma demande, puis il m’a dit : Attendez un instant. Et 15 minutes plus tard, j’avais sur mon bureau un document de 30 pages bien ficelé. Pour moi qui connais un peu le sujet, j’ai même trouvé des angles auquels je n’avais pas pensé.

Mais tu me connais, j’avais encore des doutes. Alors j’ai vérifié toutes ses infos avec les sources qu’il m’avait données. Résultat : aucune erreur. Même dans un tableau qu’il avait réalisé lui-même avec des chiffres piochés ça et là dans une étude.

Il y a des moments comme ça où quelque chose fait clic dans ta tête. Tu dis “ahah…”, et puis tu re-essaies. Allez ChatGPT, prends ça ! Je veux un rapport complet sur les nouveaux outils de “deep search” !

Ok boss !

10 minutes plus tard, j’avais un rapport de 24 pages sur les nouveaux outils deep search, avec un comparatif complet. Toujours pas d’erreur.

Ne t’inquiète pas, je vais nuancer un peu plus bas. C’est juste pour te mettre dans l’ambiance point de bascule.

Je ne suis pas le seul à avoir fait “ahah…”.

Voici ce qu’écrit Ethan Mollick, professeur associé à la Wharton School :

"J’ai reçu un flux constant de messages de personnes très haut placées dans divers domaines, qui, sans sollicitation, partagent leurs conversations et expliquent à quel point cela va transformer leur travail.

Cela n’est jamais arrivé avec d’autres produits d’IA.”

Tous les scientifiques ne sont pas d’accord, Gary Marcus par exemple, estime qu’il y a toujours un risque d’hallucinations (c’est vrai), insiste sur le fait que ces modèles ne font qu'imiter la forme du raisonnement et de la prose, sans véritable compréhension sémantique (c’est vrai aussi) et que, en conséquence, la diffusion rapide de telles technologies va surcharger le domaine médical avec des informations erronées (c’est possible).

Mollick a une approche plus nuancée : “OpenAI Deep Research n’excelle pas dans la collecte massive de citations ou de faits (Google est meilleur pour cela). En revanche, Deep Research est excellent pour identifier des arguments, repérer des failles et fournir une analyse.”

Sayash Kapoor, grand pourfendeur de l’IA bullshit (il est l’auteur d’AI Snake Oil) coupe la poire en deux : ces outils sont excellents pour certaines tâches et décevants pour d'autres. Kapoor souligne qu'il est indispensable de vérifier les résultats de Deep Research, car l'IA peut mal interpréter les données ou fournir des informations erronées. Et qu'il faut toujours conserver un regard critique sur les résultats obtenus.

La frontiére “utile/pas utile” de Deep Research, par Sayash Kapoor. En résumé : pas trés bon pour collecter des listes de données factuelles (il vaut mieux les lui fournir avant la recherche) mais trés utile pour des analyses,pour avoir une vue d'ensemble ou un état de l’art préalable à un travail d’enquête ou de recherche.

C’est un peu comme quand tu demandes à un doctorant de te faire un rapport sur un sujet avant de démarrer ton travail. Tu n’attends pas à ce que ça soit génial, ni que tout soit juste à 100%, tu as juste besoin d’une première analyse à partir d’informations et d’exemples pour t’aider à creuser.

Pour t’aider à relativiser, une étude estime que 25 % à 54 % des références bibliographiques des scientifiques humains contiendraient au moins une forme d’erreur​.

A ce propos, je me souviens m’être amusé à vérifier un rapport rendu au Président français par un célèbre sociologue : 5 erreurs dans les 20 premières pages entre les propos de l’auteur et les sources qu’il citait, en particulier sur l’interprétation des données chiffrées. Tu peux essayer avec n’importe quel livre.

La seule différence c’est que si l’IA ne se trompe pas moins qu’un étudiant, elle ne se trompe pas de la même manière. Tu dois accorder ta vigilance à la façon dont ces modèles traitent l’information : ils ne font “que” prédire le prochain mot en fonction du contexte qu’on leur donne, et n’ont pas accès à toutes les données.

Ce qui est probable, c’est que les consultants qui facturaient 2 à 10 jours pour ce type de rapport réalisé en 10 minutes, vont devoir s’interroger sur leur maniére d’appréhender leur métier.

Même s’ils restent perfectibles, ces nouveaux outils marquent un tournant : celui où l'IA commence à devenir un assistant de recherche véritablement utile (mais pas exclusif) plutôt qu'un simple générateur de texte (trop ?) confiant.

Comparatif : comment ça marche la “deep search” ?

Alors je te renvoie au rapport de notre ami ChatGPT (je te donnerai le lien plus bas) sur le sujet pour plus de détails sur chaque outil mais en gros, tu as trois approches :

Pour activer “deep search” il faut cliquer sur le bouton “recherche approfondie” dans ChatGPT (le type de modèle en entrée importe assez peu sauf si tu veux ajouter des documents en amont). À gauche tu peux voir le chat préliminaire ainsi que la jauge de progression de la recherche. À droite le modèle (o3) partage ses sources et ses réflexions au fil de l’eau.

  • ChatGPT est le plus puissant. OpenAI utilise son nouveau modèle “o3”, dont “deep search” est une version spécialisée. Ce modèle, dit de “raisonnement”, bénéficie d’un apprentissage par renforcement (similaire à “o1”) qui lui permet de raisonner plus efficacement qu’un modèle classique tout en faisant ses recherches. “Deep Research”est un agent d’IA autonome : il récolte des premières informations, puis raisonne sur ce qu’il a trouvé et lance de nouvelles recherches, change d’exploration, etc., jusqu’à ce qu’il ait assez d’informations pour écrire un rapport qui peut aller jusqu’à 40 pages. Le plus : tu peux lui fournir tes propres sources et documents avant qu’il entame des recherches. Son prix : il est trés cher. Pour l’utiliser, il faut avoir l’abonnement pro à 200$/mois.

  • Google Gemini a une autre approche : l’IA (Gemini 1.5 pro, qui n’est pas un modèle de raisonnement comme “o3”), fait d’abord un plan d’exploration, que tu valides, puis suit son plan à la lettre. Résultat : c’est plus léger, rarement plus de 10 pages, mais intéressant pour avoir des listes de liens rapidement (une quarantaine) et une synthèse. Le plus : il est très rapide. Son prix : il faut avoir l’abonnement “Gemini Advanced” à 20$/mois.

  • Co-Storm est plus original : à la suite de ta requête, plusieurs agents échangent entre eux, font des recherches sur Internet, comparent leurs résultats et produisent un long rapport (une trentaine de pages) en anglais avec des sources souvent plus fiables que ChatGPT. Le plus : tu peux intervenir à tout moment dans l’échange pour apporter tes infos ou pour ré-orienter les recherches. Le prix : c’est open-source, donc rien à payer !

Comment (bien) utiliser les IA de Deep Research ?

  • Ne sois pas trop long, mais sois clair et précis : donne l’objectif de ta recherche, le format (rapport, revue de web, liste…), la période de recherche, et sur le type de sources à privilégier (anglais, académiques, fiables, avis d’experts…)

  • Vérifie chaque source citée dans le rapport, en particulier les chiffres.

  • Fais attention aux rapports sur des infos récentes, elles peuvent entrer en conflit avec la date limite de connaissance du modèle (avril 2024). N’hésite pas à préciser dans ton prompt des éléments d’actualisation (nouveaux modèles d’IA, élection de D. Trump) ou, mieux, lui fournir tes propres documents pour renforcer son contexte et éviter les interprétations erronées.

  • Copie-colle le résultat dans un traducteur Markdown pour éviter les bugs d’édition. Puis récupère la version propre dans un Google Docs que tu pourras transformer ensuite en PDF.

Ce qu’il faut retenir :

  • La "deep search" est une nouvelle fonctionnalité d'IA qui permet de produire des rapports détaillés et sourcés en analysant des dizaines de sources web avec un taux d'erreur étonnamment bas.

  • Cette technologie est disponible via trois approches principales : ChatGPT (le plus puissant mais coûteux), Google Gemini (plus rapide mais moins approfondi), et Co-Storm (open-source avec interaction possible).

  • Bien que prometteuse, cette technologie nécessite toujours une vérification humaine des sources et une vigilance particulière concernant les informations récentes qui pourraient dépasser la date limite de connaissance des modèles.

Pour aller plus loin :

The Final Countdown (et l’Europe dans tout ça)

(Image générée avec Ideogram)

Le rapport généré par “o3 - Deep Research” est passionnant à lire. Il n’apporte rien de révolutionnaire, mais il synthétise de manière très utile l’ensemble des enjeux géopolitiques de l’IA dans le nouveau paysage mondial.

Tu peux télécharger ce rapport ici 👇

Les guerres de l IA en 2025.pdf1.84 MB • PDF Fichier

Ce passage, en particulier, m’a interpellé : il met en lumière la fragilité de l’Europe face à l’émergence des deux blocs USA/Chine.

La rivalité États-Unis–Chine est de loin le face-à-face structurant. On parle d’une « nouvelle Guerre froide technologique » centrée sur l’IA et les semi-conducteurs. Chaque camp cherche des soutiens : les États-Unis, désormais sous une administration Trump revenue au pouvoir en 2025, tentent de consolider un « bloc techno-démocratique » alignant Europe, Japon, Corée du Sud, etc. Dans les faits, toutefois, la volonté déclarée de Donald Trump et de plusieurs grands acteurs de la tech (dont Elon Musk) d’alléger voire de démanteler une partie de la régulation sur l’IA – notamment en matière de respect de la vie privée – contraste avec l’image d’un écosystème « respectueux des droits fondamentaux ». Les États-Unis justifient toujours leurs mesures de contrôle à l’exportation au nom de la « sécurité nationale », mais l’équilibre entre « bloc démocratique » et dérégulation pro-innovation n’est pas aussi tranché qu’il y paraît.

De son côté, la Chine continue de proposer des technologies clés en main à de nombreux pays d’Asie, d’Afrique et d’Amérique latine (reconnaissance faciale, villes intelligentes Safe City, cloud Alibaba) à moindre coût et sans exigences politiques. Le risque de bipolarisation s’accentue : d’un côté, un écosystème dominé par les normes plus ou moins occidentales, mais dont les principes de vie privée et de transparence pourraient être remis en cause par la nouvelle orientation pro-business américaine ; de l’autre, un écosystème sino-centré plus permissif en matière de surveillance et de contrôle étatique.

Certains analystes (Bruegel, Wilson Center) estiment que nous pourrions assister à un « split » en deux mondes de l’IA, aggravé par des restrictions d’exportation toujours plus strictes, rappelant l’époque de la Guerre froide où coexistaient deux systèmes technologiques. L’Europe, qui cherche à incarner un modèle de régulation éthique et protecteur des droits fondamentaux, se retrouve fragilisée : si l’administration Trump cessait de considérer l’UE comme un allié fiable, elle pourrait restreindre l’accès de l’Union aux puces, algorithmes ou logiciels américains. Bruxelles redouterait alors de se retrouver coincée entre, d’un côté, un partenaire transatlantique tentant de maximiser ses intérêts économiques avec une vision moins exigeante sur la protection des données, et de l’autre, un géant chinois qui propose des solutions technologiques intrusives et difficilement compatibles avec les exigences européennes en matière de vie privée et de droits fondamentaux.

“Les guerres de l’IA en 2025” - Rapport de o3 Deep Research

Des questions intéressantes, à la veille du Sommet mondial pour l’Action pour l’IA qui se tiendra à Paris lundi 10 et mardi 11 février dans un climat d’incertitude. Le Sommet doit composer avec une Amérique désormais plus centrée sur ses propres intérêts et moins engagée dans une régulation multilatérale. La participation de JD Vance (Vice-président) indique malgré tout un effort de dialogue avec les autres délégations.

Mistral gagnant ?

Mistral est disponible en version freemium,

Si tu cherches une alternative sérieuse à ChatGPT, tu peux désormais te tourner vers un chatbot français !

Développé par la startup Mistral AI, le Chat Mistral s’attaque frontalement aux mastodontes américains — ChatGPT et Claude — avec un modèle de langage certes légèrement moins puissant, mais dont les différences restent subtiles.

Au menu de sa nouvelle mise-à-jour : recherche web, lecture et analyse de PDF (y compris les images), “fonction canvas” pour co-écrire et corriger du texte, génération et exécution de code, création d’images via Flux (un modèle open source plus puissant que DALL-E), et un outil de Data Analysis pour visualiser tes données.

En prime, Chat Mistral se targue d’être 10x plus rapide, propose un abonnement mensuel moins cher à 14,99 €, et s’appuie sur un partenariat avec l’AFP pour l’accès à l’information.

Son récent déploiement d’applications mobiles Android et iOS prouve d’ailleurs son ambition de rivaliser directement avec ChatGPT. La percée du chatbot chinois DeepSeek, qui a su concurrencer les géants américains avec moins de moyens, ouvre la voie à des acteurs plus petits et agiles comme Mistral.

Bullshit therapy

Il y a une expression qui n’a de cesse de m’énerver, et je l’entends tous les jours sur les médias sociaux. Je te la résume sous forme de format bullshit en langage de programmation bullshit :

<bullshit>

Si <outil_ia> ne fonctionne pas très bien pour l’instant mais enflamme l’imagination alors écris :

“Cette IA est bluffante. J’ai réussi à [insérer un exemple bluffant comme “coder un jeu pacman” ou “faire parler mon avatar”] en 5 minutes 🤯.

Certes, pour l’instant c’est encore un peu limité en terme d’usage mais imaginez le POTENTIEL”.

</bullshit>

Mon astuce “Bullshit Therapy” : Dès que tu entends parler d’un outil et que tu vois associés les mots-clés “bluffant” et “potentiel”, arrête de lire, et va arroser une plante.

(Je devrais peut-être en faire un manuel, tu en penses quoi ?)

Dense, dense, dense…

J’ai passé les trois dernières semaines à bosser sur la refonte de notre formation ChatGPT. Un travail de titan ! J’ai réalisé à quel point notre façon de prompter avait changé, j’ai dû TOUT repenser. Au final c’était passionnant et je suis impatient de partager ça avec toi. Cette formation sera très différente de tout ce que tu as pu lire sur le sujet un peu partout… Lancemement d’ici la fin du mois !

Une des choses que j’ai apprises, c’est que faire de longs prompts hyper structurés n’était pas forcément utile. Tu peux être extrêmement concis, rédiger au minimum tes instructions, et obtenir les mêmes résultats, parfois même meilleurs !

L’essentiel est de comprendre comment un modèle de langage traite l’information et d’agir en conséquence.

Le plus important ? La clarté !

J’ai donc développé une technique qui consiste à commencer par le prompt le plus condensé et clair possible, de regarder ce que ça donne, puis d’ajouter petit à petit des éléments de contexte si nécessaire.

Comment faire le prompt le plus dense et le plus clair possible ? Passe le au filtre de ce prompt !

Voici un prompt pour ChatGPT :

{{ [PROMPT ORIGINAL] }} 

Condense cette instruction en une seule phrase. 

Évite le verbiage MAIS sans perdre en précision ni perdre de vue les étapes de raisonnement nécessaires à la création d'un contexte de qualité. 

La clarté de l'instruction est clé.

Identifie d'abord les mots-clés qui garantiront un résultat équivalent. 

Puis propose une version condensée.

Ce qui est intéressant avec ce prompt, c’est que tu peux aussi l’utiliser pour densifier n’importe quel texte en l’adaptant un peu.

Fais tes essais et dis moi ce que tu en penses !

Je pense que si l'on comprenait réellement l'intelligence, on pourrait la recréer sous forme logicielle avec un budget d’un million de dollars, entraînement compris. Il ne serait pas nécessaire de l’entraîner sur l’ensemble d’Internet ni sur les processus de pensée de milliers d’experts.

PARTICIPE !

On construit cette lettre ensemble !

Nous avons passé le cap des 28.000 abonnés ! C’est la folie. Grosse pression maintenant !

La dernière édition, consacrée à Deepseek, vous a beaucoup plu, 99,3% d’avis positifs ! Merci !

 💚 “Top!” - 🧡 “Bien mais” - ❤️ “bof”

J’ai demandé à Claude d’analyser les résultats, il m’a produit ce tableau de bord interactif avec les commentaires les plus intéressants. Tu peux le retrouver ici.

Par exemple “Ludovic” qui nous dit :

Moi aussi je veux bien une version premium histoire de vous financer un peu, mais si vous n'avez pas besoin de flouss je veux bien continuer à vous lire gratos!

ludovic

Alors oui oui on a bien besoin de financer ce travail de fond ! Nous allons lancer en février une version premium pour ceux qui en veulent plus. Ça fait plusieurs mois qu’on travaille dessus !

Je t’en parlerai dans la prochaine lettre ❤️.

A toi de voter !

Comment as-tu trouvé cette édition ? Vote ici et laisse tes commentaires pour nous aider à nous améliorer !

Comment as-tu trouvé cette édition ?

Vote et laisse un commentaire pour nous aider à nous améliorer !

Connexion ou S'abonner pour participer aux sondages.

Merci de nous avoir consacré un peu de ton temps. Je te souhaite une bonne semaine sous le signe de la curiosité !

🕵️‍♂️🕵🏻 🕵🏾‍♀️ Benoit, Thomas et FlintGPT.