- Génération IA
- Posts
- L'apprentissage humain des IA comme ChatGPT introduit-il des biais ?
L'apprentissage humain des IA comme ChatGPT introduit-il des biais ?
Découvrez pourquoi l'entrainement de ChatGPT par OpenAI pose des questions éthiques et techniques cruciales. Est-ce qu'une IA bien alignée est nécessairement biaisée ?
Saviez-vous que ChatGPT n'est pas juste un bête modèle de langage prédictif ?
Il est entrainé par des humains pour améliorer ses réponses.
Mais ça pose un gros problème.
Attention, on va apprendre un nouveau mot technique.
Le chatbot star d’OpenAI bénéficie de plusieurs couches d'entrainement (on appelle ça le "fine-tuning") dont une que l'on appelle le RLHF (en français "apprentissage par renforcement avec feedback humain").
En gros ce sont des humains qui corrigent l'IA quand elle répond "mal".
Y compris sur des questions éthiques.
Cela fait partie de ce qu'on appelle l'"allignement" des Intelligences Artificielles.
C'est à dire alligner leur comportement sur les vrais besoins des humains.
Par exemple répondre à une instruction au lieu de juste prédire la suite d'un texte.
Ou ... hum... éviter de répondre avec des mensonges.
Une étude du 10 octobre a analysé les biais dans les IA entrainées par RLHF :
"Peut-on vraiment améliorer les performances de l'IA des modèles linguistiques de grande taille (LLMs) sans sacrifier la diversité de leur production ?"
Voici le dilemme : la mise en œuvre du RLHF améliore les performances des modèles, mais réduit leur diversité de sortie de 60% à 90%.
Intrigant, non ?
En gros, cette couche d'entrainement corrige ces IA mais introduit de nouveaux biais.
Yann Le Cun, l'un des pionniers de l'apprentissage profond, propose une solution: le crowdsourcing.
Selon lui, "la rétroaction humaine pour les LLMs en open source doit être crowd-sourcée, à la manière de Wikipédia".
Human feedback for open source LLMs needs to be crowd-sourced, Wikipedia style.
It is the only way for LLMs to become the repository of all human knowledge and cultures.
Who wants to build the platform for this?— Yann LeCun (@ylecun)
2:58 AM • Oct 16, 2023
L'intelligence collective pour corriger les Intelligences artificielles ?
Mais ce n'est pas sans défis.
Comment garantir la confidentialité et la sécurité des données dans cette approche de crowdsourcing ?
Qui va construire la plateforme pour cela ?
La rétroaction humaine joue un rôle essentiel dans le développement et l'amélioration des LLMs.
Mais il nous reste encore à trouver l'équilibre entre sécurité et diversité.
L'Open Source en IA est-il une solution ou une boîte de pandore ?
(Image générée par Dall-E 3)