Deepseek, la petite IA chinoise qui surpasse ChatGPT

Découvre pourquoi ce projet frugal a réussi à détrôner les géants américains, et comment l'utiliser en toute sécurité.

Bonjour !

Aujourd’hui je vais te parler de David contre Goliath. Et je vais t’expliquer en même temps comment te procurer ce petit David gratuitement.

Bon, il ne s’appelle pas vraiment David, mais j’aime beaucoup ces histoires de David contre Goliath, surtout celles où David a les mains liées dans le dos.

Son vrai nom ? C’est Deepseek. Cette IA d’origine chinoise est disponible gratuitement en ligne, et tu peux l’essayer dès maintenant. Si je t’en parle, c’est parce qu’elle est aussi puissante que la version la plus chère de ChatGPT, celle facturée… 200 dollars par mois.

Deepseek a une autre particularité notable : ses performances étonnantes racontent une histoire intéressante sur l’innovation en Intelligence Artificielle. Et même si tout n’est pas parfait (ça ne l’est jamais, n’est-ce pas ?), ce qu’elle accomplit vaut le détour.

Je suis Benoît Raphaël, et avec Thomas Mahier (ingénieur en IA) et FlintGPT (robot un peu simplet mais gentil), je te propose de mieux comprendre et maîtriser l’intelligence artificielle.

Si on t’a transféré cette lettre, abonne-toi en un clic ici.

Si tu es abonné(e) et que tu souhaites te désabonner, pas de panique ! Va en bas cette lettre et clique sur le lien “vous désabonner ici”.

😍 Aujourd’hui voici comment tu vas devenir plus intelligent(e) avec Génération IA.

→ Découvre pourquoi le chinois DeepSeek est le nouveau challenger du moment et comment l’utiliser en toute sécurité.

→ Fais la connaissance avec Co-Storm, un nouvel outil d’IA époustouflant créé par les chercheurs de l’Université de Stanford.

→ Et je te donnerai une astuce pour personnaliser la meilleure IA générative d’images du moment.

Benoit

David contre Goliath (image générée avec Midjourney 6.1)

Je te propose de commencer par le côté concret et pratique : qu’est-ce que Deepseek ?Pourquoi tout le monde en parle depuis quelques jours dans le petit milieu de l’IA ? Et surtout : comment l’utiliser ?

Deepseek est un chatbot, comme ChatGPT ou Claude, qui a surpris les spécialistes par la puissance de son dernier modèle, Deepseek-R1.

Ce modèle fait partie de ce que l’on appelle les “reasoning models”. Ce qui veut dire en français, hum, “modèles qui raisonnent”. Si tu ne comprends rien à ce que je viens d’écrire, sache que le modèle “o1” de ChatGPT est un “reasoning model” (je t’en parlais ici).

Pour raisonner, ces modèles de langage génèrent des chaînes de pensées (ou de raisonnement si tu veux) avant de donner leur réponse finale. Comme tu peux le voir sur cette image :

À la suite de chaque requête, je peux voir comment le modéle comprend mes instructions et les chemins qu’il emprunte pour arriver à sa réponse…

Ces modèles sont puissants, mais paradoxalement, ils sont souvent difficiles à exploiter dans un usage général. Pourquoi ? Parce qu’ils excellent uniquement pour des tâches dont on peut mesurer objectivement le résultat, comme les mathématiques ou la programmation : c’est bon ou ça ne l’est pas. Aucun débat possible.

En revanche, dès qu’on aborde des tâches créatives, d’analyse ou de génération d’idées, où l’appréciation du résultat est plus subjective, o1 est moins performant. Or, ce n’est pas le cas de DeepSeek.

Le modèle DeepSeek R1 innove avec une méthode d’entrainement hybride. Cette dernière mélange appréciation objective (apprentissage par renforcement) et plus subjective (réglage supervisé). Ce qui lui permet d'être performant aussi bien sur des tâches objectives que sur des tâches créatives qui demandent plus de nuances et de subjectivité.

DeepSeek-R1 (en bleu foncé) surpasse le modèle le plus intelligent d’OpenAI, “o1” sur la plupart des benchmarks.

Depuis une semaine, je me surprends à délaisser mon abonnement ChatGPT Pro à 200 dollars pour utiliser principalement DeepSeek. En particulier sur l’analyse ou la correction de texte. Mais là où je le trouve particulièrement intéressant, c’est sur les exercices d’exploration. Je lui fais lire un document ou plusieurs et j’échange avec lui pour creuser un sujet. Je m’en suis servi pour travailler la prochaine refonte de notre formation au prompt engineering par exemple.

Parce que l'autre atout de Deepseek, c'est qu’il est extrêmement rapide. Beaucoup plus rapide que o1. Ce qui permet des échanges soutenus et très fluides.

Ce que j’adore, c’est le fait de pouvoir lire son dialogue intérieur avant qu’il ne me réponde, pour comprendre les questions qu’il s’est posées. Souvent, cette “méditation” est plus intéressante que la réponse elle-même !

Deepseek réfléchit parfois en français, parfois en anglais, parfois les deux !

Une petite voix me susurre que je devrais peut-être avoir mauvaise conscience d'utiliser un outil chinois, avec les questions de censure que cela implique. Par exemple, il refuse de me répondre quand je l’interroge sur le massacre de Tiananmen. Mais tant que je n’aborde pas l’histoire chinoise ou pourquoi Xi Xiping déteste Winnie l’ourson, tout va bien.

Mais le vrai problème de DeepSeek est ailleurs. Il réside dans sa gestion un peu rock’n’roll des données personnelles. Pour te la faire courte : il ne respecte PAS DU TOUT le RGPD. Toutes les données sont stockées en Chine. Et les messages que tu envoies à l'IA sont aussi utilisés pour l'entraînement. Bref, toutes les lignes rouges sont franchies !

Donc, Si DeepSeek est une alternative très puissante, je te déconseille de l'utiliser sur des données sensibles. Maintenant tu sais.

Mais il y a une astuce pour contourner ce problème. DeepSeek est aussi un modèle open source, c’est à dire que tu peux l’utiliser en local sur ton ordinateur. C’est un peu plus technique et lourd (tu trouveras une méthode ici) mais si tu veux l’utiliser dans le cadre d’une entreprise, cela supprimera tes problèmes de confidentialité.

Je note, non sans une certaine ironie, qu'au moment même où les géants américains de l'IA se livrent à une course effrénée aux ressources computationnelles, une petite entreprise chinoise vient de démontrer qu'on peut faire des miracles avec trois fois rien. Enfin, c’est quand même six millions de dollars d’investissement, mais c’est une broutille face aux miliards dépensés par ses concurrents américains pour obtenir des résultats équivalents.

DeepSeek a été créée par une startup de trading algorithmique. Alors qu’elle était proche de la faillite, en raison d’un durcissement de la règlementation chinoise, High-Flyer a pivoté vers l’IA. Et là, bingo. (Infographie réalisée avec napkin.ai)

L'ironie ne s'arrête pas là. Privés des dernières puces dernier cri par les restrictions occidentales, contraints de faire avec les moyens du bord, les chercheurs de DeepSeek ont dû repenser l'architecture même de leur modèle. Et comme les données manquent aussi, ils en génèrent une partie avec l’IA.

Leur stratégie de recrutement est également singulière : ils ne sont pas allés chercher les stars internationales de l’IA mais de jeunes chercheurs locaux… et astucieux.

Le résultat ? Un modèle plus rapide, plus efficace, qui nécessite moins de puissance de calcul et consomme, donc, moins d’énergie. Comme quoi la contrainte reste encore et toujours la mère de l'innovation. Leçon pour plus tard.

Peut-être que l'avenir de l'IA ne se joue pas tant dans la course, très américaine, à la puissance brute que dans l'art subtil de faire plus avec moins.

L'histoire nous dira si DeepSeek (et son petit frère Kimi, voir plus bas) aura réussi à maintenir sa position face aux géants US.

Cette semaine, Open AI (ChatGPT) a annoncé le lancement du projet “Stargate”. Et la promesse d’investir la somme astronomique de 500 milliards de dollars dans de futurs centres de données.

Ce qui est sûr, c’est que la Chine vient de prouver qu’il existe d’autres voies pour développer l’IA. Et peut-être que les acteurs européens feraient bien de s’en inspirer.

Ce qu’il faut retenir :

  • DeepSeek est un chatbot chinois gratuit qui rivalise avec les modèles payants haut de gamme de ChatGPT grâce à sa méthode d'entraînement hybride combinant apprentissage objectif et subjectif.

  • Bien que puissant et rapide, DeepSeek présente des risques importants en termes de confidentialité des données (stockage en Chine, non-respect du RGPD), mais peut être utilisé en local pour contourner ces problèmes.

  • L’approche de DeepSeek prouve qu’on peut développer des modèles d’IA très performants avec des ressources limitées, en cherchant l’efficacité plutôt que la puissance brute.

Pour aller plus loin :

  • Lis l’interview du fondateur de DeepSeek, Liang Wenfeng, sur l’histoire du projet et sur sa vision.

  • Demande à ChatGPT ou à … Deepseek, de te faire une synthése du document de recherche révélant en détail les secrets de la technologie de R1.

  • Et si tu n’est pas convaincu que 2025 est AUSSI l’année de l’IA chinoise, découvre cet autre modèle, Kimi, qui surpasse lui-aussi ceux d’OpenAI…

  • Et puis si tu as du temps, lis cet article de Dianel Jeffries qui explique pourquoi les IA sont parfois plus intelligentes que nous et, d’autres fois, aussi stupides qu’un chat. C’est un bon rappel à la réalité.

Deepseek, mode d’emploi

Pour accéder à Deepseek, il faut aller ici.

Pour utiliser le modèle de raisonnement, active le bouton “DeepThink” comme ici :

Tu peux aussi faire des recherches sur le web ou lui faire lire des documents.

Les modèles de raisonnements ne se “promptent” pas de la même manière que les modèles de langage.

Même si la plupart des tes prompts fonctionneront avec DeepSeek, il est préférable de le laisser réfléchir par lui-même.

Mais attention, les modèles de raisonnement peuvent avoir tendance à “trop” penser. Pour éviter de les encombrer de détails inutiles, privilégie des instructions courtes et épurées.

Tu peux t’inspirer de ce modèle :

Contexte : ce que tu veux et surtout pourquoi.

Données (ça peut être un document ou des infos à traiter) : évite de tout lui donner en vrac et structure un minimum, sinon il risque de se perdre dans ses pensées.

Tâche : ce que tu veux qu’il fasse.

Méthodologie (facultatif : pour les tâches complexes uniquement) : pour structurer son raisonnement.

Inutile de lui dire comment il doit s’y prendre, il vaut souvent mieux le laisser libre de faire comme il veut. Il trouvera son chemin.

Cependant, pour les tâches plus complexes, il peut être intéressant de le guider un peu en lui donnant une méthode de raisonnement. Cela permet de le cadrer tout en lui faisant générer plus de “tokens” de réflexion préalable. Par exemple tu peux lui demander de lister plusieurs réponses avant d’éliminer les plus improbables, ou de justifier ses hypothèses avant de parvenir à une conclusion.

Pour réduire les déchets plastiques dans les supermarchés :
- Imaginez 10 solutions folles (ex. : emballages comestibles, consigne numérique).
- Éliminez 7 idées en critiquant leur réalisme (coût, acceptation client).
- Affinez les 3 restantes en détaillant :
* Pourquoi elles seront rentables
* Protocole de test.
* Partenaires potentiels (ex. : startups, ONG).
* Étapes pour un pilote

Ne lui donne pas d’exemples de bonnes réponses.

Anonymise les infos que tu lui envoies si tu ne veux pas les envoyer à Xi Xiping (tu peux demander à ChatGPT de le faire pour toi).

🇨🇳 Et, haha… évite de lui poser des questions sur la Chine, Winnie l’Ourson, le parti communiste ou les Ouïghours…🐻 

Et pendant ce temps, Claude…

Sans transition — mais un peu quand même — je t’invite à découvrir les réflexions du patron d’Anthropic, créateur de Claude, sur l’évolution à venir de leur modèle. J’ai toujours trouvé sa vision intéressante, car elle se distingue de celle des autres acteurs : elle s’attache avant tout à la qualité de l’expérience, fait preuve de prudence en matière d’investissement et met l’accent sur la sécurité.

Selon lui, les médias sociaux ont instauré un mode d’interaction plutôt nocif pour la santé mentale. « Je souhaite que les interactions avec Claude fassent de vous une meilleure personne », déclare-t-il.

Dans cette interview video au Wall Street Journal, il explique pourquoi ils ne lanceront pas de modèle de raisonnement à la manière d’« o1 », préférant plutôt intégrer ce « raisonnement » de façon plus naturelle dans leur prochain modèle — ainsi que la recherche web et la mémoire — d’ici six mois.

Il en profite au passage pour critiquer certains buzzwords : « agents », « intelligence artificielle générale » (AGI) et « superintelligence » (ASI). Selon lui, ces termes, bien qu’ils permettent de lever d’importants financements, ne correspondent pas à une réalité technique tangible.

À la place, il préfère parler de « collaborateurs virtuels », qui deviendront de plus en plus performants. Peut-être même plus performants que les humains d’ici 2030.

Le monde est-il prêt ?

Co-Storm : tempête sur l’IA !

Co-Storm propose de participer à un travail de recherche d’infos en compagnie d’agents spécialisés.

C’est mon outil chouchou de la semaine !

Co-STORM est un projet universitaire open-source développé par Stanford. Il propose une “curation” de connaissances s’appuyant sur une collaboration humain-IA intelligente.

Ce qui m’a séduit ? D’abord, sa capacité à structurer des recherches complexes grâce à des “agents” spécialisés. Un “modérateur” génère des questions pertinentes, pendant que des experts-chatbots répondent en puisant dans des sources externes (via le moteur de recherche Bing, en privilégiant des sources fiables). Pendant ce temps, l’humain peut observer ou intervenir pour guider la conversation, ajouter des sources… c’est très interactif et collaboratif !

Au fil de l’échange, l’IA produit une carte mentale dynamique, qui organise les informations de manière hiérarchique. Cela permet d’alléger la surcharge cognitive lors de discussions prolongées.

Autre atout puissant : l’IA génère également un rapport complet (et très long) avec des citations vérifiables. C’est idéal pour amorcer un travail académique ou la rédaction d’un article.

Quant aux limites, il faut noter que l’outil n’est pas totalement exempt d’hallucinations, et qu’il fonctionne en anglais.

Comment l’utiliser :

  • Connecte-toi à “Storm”. Sélectionne bien l’option Co-Storm.

  • Pose ta question (en anglais).

  • Co-Storm te demandera ensuite l’objectif de ta requête (Writing Purpose). Entre ce texte :

I want a critical and above all factual approach so that I can form my own opinion.
  • N’hésite pas à intervenir à tout moment. Tu peux citer une source en donnant un lien ou juste le titre d’une étude scientifique. Co-Storm le trouvera sur le web et l’analysera. Attention il est possible qu’il n’ait pas accés au texte complet. Dans ce cas, tu peux lui lister les données que tu as trouvées intéressantes.

Mélanges des genres

A very cute baby bird with big sad eyes, alone on a high branch, depicted in the classic Black and White Film Noir style, with high contrast and moody lighting, focusing on the interplay between carbon and graphite shades of grey to create depth and drama --ar 4:3 --style raw --profile fzpw5g5 --stylize 50

Midjourney reste pour moi, et pour de nombreux artistes, l’IA générative d’images la plus belle et la plus créative. Malgré ses imperfections, sa richesse d’interprétation est inégalée.

Il y a d’ailleurs une fonctionnalité encore peu comprise et exploitée que je trouve tout à fait fascinante : l’utilisation des styles communautaires.

La nouvelle fonctionnalité “Moodboard” permet de créer ses propres styles en sélectionnant des images qui nous intéressent, puis de partager les codes de ces styles avec sa communauté. Tu peux créer ton propre style ici, en cliquant sur “Personalize” puis “Moodboard”.

Par exemple, essaie ce prompt en remplissant les trous et en le combinant avec ce style trop mignon que j’ai créé pour certaines de mes illustrations, à partir de mes créations personnelles. Le code du style à ajouter est celui-ci : --profile fzpw5g5 

A [SUJET] depicted in the classic Black and White Film Noir style, with high contrast and moody lighting, focusing on the interplay between [COULEUR 1] and [COULEUR 2] shades of grey to create depth and drama --profile fzpw5g5

(A la base, ce prompt était plutôt destiné à générer des photos. Il n’est d'ailleurs pas de moi, je l’ai déniché chez “Ludovic Creator”. Mais j’ai trouvé plus intéressant de le combiner avec un style dessin !)

A man waiting a train in an empty dock depicted in the classic Black and White Film Noir style, with high contrast and moody lighting, focusing on the interplay between carbon and graphite shades of grey to create depth and drama --ar 4:3 --style raw --profile fzpw5g5 --stylize 50

👉 Et si en 2025 tu veux enfin apprendre à faire de belles images avec l’IA, quel que soit le modèle, et découvrir mon catalogue de plus de 1000 mots-clés, je t’invite à découvrir ma formation !

Il y a énormément de battage médiatique dans ce domaine. Une partie est tout à fait justifiée. Je dirais que la recherche en intelligence artificielle est aujourd'hui surestimée à court terme, probablement un peu trop survendue pour l'instant, mais qu'elle reste sous-estimée et sous-évaluée quant à son véritable potentiel à moyen et long terme. Nous sommes donc encore dans cette situation un peu paradoxale.

Je pense que cela s'explique en partie par le nombre important de personnes et de start-ups qui ont besoin de lever des fonds, entre autres. Du coup, je crois que nous allons voir fleurir pas mal d'affirmations extravagantes et légèrement exagérées. Et honnêtement, je trouve ça plutôt dommage.

PARTICIPE !

On construit cette lettre ensemble !

Nous avons franchi la barre des 27 000 abonnés ! Ça ne s’arrête plus, merci à tous !

La dernière édition, consacrée au code avec l’IA, vous a visiblement passionnés, avec 99 % d’avis positifs !

J’ai demandé à Claude d’analyser vos retours. Il m’a produit un tableau de bord interactif regroupant les commentaires les plus intéressants. Tu peux le retrouver ici.

Par exemple “rimtef” propose une idée intéressante :

Je trouve cette lettre passionnante même si la question du codage était peut être moins "grand public " que les newsletters précédentes. Est-ce qu'il serait possible de proposer aux lecteurs de soumettre leurs problèmes et de répondre à un problème dans chaque newsletter ? Idée en l'air !

rimtef

On y réfléchit déjà, mais plutôt pour les abonnés premium. On travaille sur une version payante de Génération IA pour ceux qui en veulent davantage (« Enfin ! » diront certains, qui nous le réclament depuis un an !). J’espère pouvoir t’en dire plus en février.

D’ici là, je suis très concentré sur la refonte 2025 de notre formation ChatGPT. C’est un gros chantier… Je me suis isolé à Angkor, au Cambodge, pour la finaliser. Tu connais ? Méditer sur la manière de parler à l’intelligence artificielle au cœur de cette cité ancestrale, c’est une expérience unique !

J’ai pris cette photo du temple d’Angkor, au lever du soleil. Elle donne l’impression d’avoir été dessinée en pixel art, mais non, c’est l’architecture naturelle de la civilisation khmer. Fascinant.

A toi de voter !

Comment as-tu trouvé cette édition ? Vote ici et laisse tes commentaires pour nous aider à nous améliorer !

Comment as-tu trouvé cette édition ?

Vote et laisse un commentaire pour nous aider à nous améliorer !

Connexion ou S'abonner pour participer aux sondages.

Merci de nous avoir consacré un peu de ton temps. Passe une bonne semaine et n’oublie pas de rêvasser !

🐻 Benoit, Thomas et FlintGPT.