• Génération IA
  • Posts
  • OpenAI, Reuters et le mythe de l'AGI : démêler le vrai du faux

OpenAI, Reuters et le mythe de l'AGI : démêler le vrai du faux

Retour sur les fantasmes médiatiques autour de l'intelligence artificielle générale et le mystérieux projet Q* d'OpenAI, illustrant la fine ligne entre information et spéculation.

L'agence Reuters participe-t-elle à la désinformation autour de l'IA ?

Voici une belle occasion de rappeler les bases de l'esprit critique, à commencer par la différence entre un fait et une opinioin.

De quoi parle-t-on ?

La tempête rocambolesque qui a enflammé le monde de la tech autour de l'éviction/ré-embauche du CEO d'OpenAI s'est terminée en eau de boudin par une succession de théories dignes d'un film de science-fiction.

Le projet s'appelerait Q*. Un nom qui fait penser à Star-Trek. Et qui a tout de suite rendu fous les commentateurs sur X (Twitter).

OpenAi aurait peut-être atteint, en interne, le graal de certains chercheurs en IA : l'intelligence artificielle générale (c'est à dire, je simplifie, une IA capable de raisonner comme un humain, voire de le dépasser). Ou plutôt : aurait franchi une étape importante dans cette direction.

Une info ? Ben oui puisque c'est une agence de presse qui le dit. Sauf que non. L'info c'est que Reuters a publié deux témoignages anonymes à propos d'une lettre concernant un projet au nom mysérieux. Ce dernier "aurait" fait peur à "certains" scientifiques, car il "pourrait" menacer l'humanité.

Remarquez qu'il y a beaucoup de guillemets et de conditionnel.

Ce n'est d'ailleurs pas vraiment une info : deux sources anonymes qui parlent au conditionnel, c'est un peu mieux qu'une rumeur. Mais passons.

Là où Reuters franchit le rubicon, c'est en ajoutant cette remarque faussement innocente :

"Certains membres d'OpenAI pensent que Q* pourrait constituer une percée dans la recherche de ce que l'on appelle l'intelligence artificielle générale (AGI)".

Et là on est sur une opinion.

L'impact ? Tout le monde s'est cru justifié de relayer "l'information" telle quelle (puisque "validée" par des journalistes professionnels). Mais le plus intéressant, c'est qu'ils se sont crus égalemeht légitimés de relayer les théories diverses et variées (pas toutes inintéressantes d'ailleurs) sur ce que ce Q* pouvait bien faire. Tout cela, bien sûr, sans aucune autre information scientifique disponible autre que l'opinion relayée par Reuters, dont ce n'est pas le rôle.

Ce qui nous donne l'équation : opinion + opinion = fausse information.

Voilà comment Reuters a nourri la désinformation.

En soi, cette maladresse journalistique est intéressante.

D'abord parce qu'elle a entrainé chez certains chercheurs des débats passionnants sur l'état de la recherche en IA, et notamment sur les difficultés ontologiques des modèles actuels à "raisonner" ou à calculer.

Ensuite parce qu'elle pose, en creux, un vrai problème : l'opacité des recherches d'OpenAI sur un sujet qui nous concerne tous.

À l'heure où l'Europe finalise son projet de règlementation et s'apprête à en exonérer les "foundation models" (c'est à dire les modèles comme GPT-4 ou Mistral qui servent de base aux outils d'IA), cette chape de plomb, renforcée après la tentative de "coup" chez OpenAI, contribue à alimenter les fantasmes et les décisions inadaptées.

(L'image a été générée par Jim Fan avec l'IA. Jim Fan est senior AI scientist chez NVidia et a publié pas mal de commentaires intéressants sur cette histoire)