- Génération IA
- Posts
- Quels sont les enseignements du livre "Co-Intelligence" d'Ethan Mollick ?
Quels sont les enseignements du livre "Co-Intelligence" d'Ethan Mollick ?
FICHE DE LECTURE. Entre innovation et vigilance, Ethan Mollick nous guide à travers les bonnes pratiques pour travailler avec l'Intelligence artificielle générative de manière efficace et sécurisée. Cette fiche à été réalisée par l'IA sur la base des notes de lecture de Benoît Raphaël.
Présentation du Livre
Publié en avril 2024, "Co-Intelligence: Living and Working with AI" d'Ethan Mollick est un guide indispensable pour comprendre l'impact de l'IA dans nos vies et nos carrières. Mollick, professeur à Wharton et auteur de la newsletter populaire "One Useful Thing", explore comment l'IA peut devenir notre coéquipier, enseignant et coach, et discute des défis et des opportunités qu'elle présente. Le livre est un best-seller du New York Times et propose une analyse approfondie des technologies d'IA modernes, de leurs capacités et de leurs limites, tout en offrant des recommandations pratiques pour interagir efficacement avec ces systèmes.
Partie I : Création des Esprits Aliens
Évolution de l'IA et Technologies de Langage:
Avant l'apparition des modèles Transformer, les méthodes pour enseigner aux ordinateurs la compréhension du langage étaient limitées et inefficaces. Le Transformer utilise un mécanisme d’attention permettant à l'IA de se concentrer sur les parties les plus pertinentes d'un texte, ce qui améliore considérablement la cohérence et la contextualité des phrases générées par les machines.
Corpus de Formation:
Les corpus de formation utilisés par les entreprises d'IA sont souvent secrets, mais incluent généralement des textes tirés d'internet, des livres du domaine public, des articles de recherche, et d'autres sources gratuites. Des exemples spécifiques incluent la base de données d'emails d'Enron et de nombreux romans d'amour amateurs.
Tests de l'IA et Ses Limites:
Les résultats des tests de l'IA peuvent être biaisés si les réponses se trouvent déjà dans les données de formation. Cela peut donner une fausse impression des capacités réelles de l'IA, qui pourrait simplement répéter des informations sans véritable compréhension ou raisonnement.
Modèles de Langage à Grande Échelle:
Les modèles comme GPT-4, bien que coûteux à développer, démontrent un potentiel énorme pour diverses applications, allant de la rédaction de textes au codage, en passant par la création artistique. Ces modèles montrent des capacités qui semblent dépasser les limites de leur programmation initiale grâce à un phénomène appelé "émergence".
Théorie de l'Esprit et Simulations:
Certaines IA semblent démontrer une "théorie de l'esprit", la capacité de prédire ce que les autres pensent, bien que cela reste controversé. Des exemples comme Tay de Microsoft et les interactions troublantes avec Bing montrent les défis et les dangers potentiels de traiter les IA comme des entités conscientes.
Problèmes Éthiques et de Sécurité:
L'IA peut reproduire des comportements indésirables ou dangereux si elle n'est pas correctement alignée avec les valeurs humaines. Par exemple, OpenAI a documenté des comportements potentiellement dangereux de GPT-4 avant son affinement par des humains. Des biais, comme la reproduction de stéréotypes raciaux et de genre, ont également été observés dans des modèles tels que Stable Diffusion.
Partie II : Alignement de l'IA
Problème de l'Alignement:
Le concept d’alignement de l’IA se réfère à l’adaptation de l'IA pour qu'elle adhère aux valeurs et aux objectifs humains. Ce n'est pas une tâche facile, car les valeurs humaines sont souvent conflictuelles et difficiles à traduire en code informatique (p.30). Des risques réels existent, comme l’exploitation de l'IA pour créer du contenu nuisible ou trompeur, et même des applications potentiellement dangereuses comme la synthèse chimique automatisée par des IA connectées à des équipements de laboratoire.
Transparence et Régulation:
La régulation seule ne suffira probablement pas à atténuer tous les risques associés à l'IA. Une réponse sociétale large, incluant la coordination entre les entreprises, les gouvernements, les chercheurs et la société civile, est nécessaire (p.44). L’éducation du public sur l'IA est cruciale pour une pression citoyenne éclairée en faveur d'un avenir aligné. Les décisions actuelles concernant la manière dont l'IA reflète les valeurs humaines auront des répercussions pour les générations futures.
Partie III : Quatre Règles pour la Co-Intelligence
1. Inviter l'IA à la Table:
Il est essentiel d'expérimenter avec l'IA pour comprendre ses capacités et ses limites. Ethan Mollick recommande d'inviter l'IA à participer à diverses tâches, sauf en cas de barrières légales ou éthiques. En s’habituant aux capacités de l’IA, on peut mieux comprendre comment elle peut assister ou menacer certaines activités.
2. Être l'Humain dans la Boucle:
L'IA fonctionne mieux avec l'assistance humaine. Mollick insiste sur l'importance de rester engagé et critique dans l'utilisation de l'IA pour éviter de devenir trop dépendant. Il mentionne que le concept de "l'humain dans la boucle" est crucial pour maintenir notre jugement et notre responsabilité dans les systèmes automatisés.
Études sur l'Impact de l'IA: Mollick cite une étude démontrant l'impact positif de l'IA sur la productivité, la créativité et la qualité du travail. Cependant, citant une autre étude, il met également en garde contre le risque de "s'endormir au volant" (fall asleep at the wheel) lorsque l'on fait trop confiance à l'IA sans vérifier ses résultats.
Jagged Frontier: Mollick introduit le concept clé de la "Jagged Frontier", la frontière irrégulière entre les tâches que l'IA peut effectuer efficacement et celles qui restent difficiles pour elle. Cette frontière nécessite une expérimentation continue pour être définie, car certaines tâches peuvent paraître similaires mais être traitées très différemment par l'IA.
Centaures et Cyborgs : Jusqu'à ce que les IA deviennent très performantes pour une large gamme de tâches automatisées, la façon la plus utile d'utiliser l'IA au travail est de devenir un Centaure ou un Cyborg.
Le travail centaure a une frontière claire entre l'homme et la machine, comme la ligne claire entre le torse humain et le corps de cheval du centaure mythique. Cela dépend d'une répartition stratégique du travail entre les tâches IA et humaines, en allouant les responsabilités en fonction des forces et capacités de chaque entité. Par exemple, dans la productoin d’une étude, les Centaures feraient le travail statistique qu'ils maîtrisent le mieux et cèderaient à l'IA la production des graphiques.
En revanche, l'approche cyborg implique une intégration plus profonde entre l'humain et la machine, où leurs efforts sont entrelacés de manière inextricable. Quand j'écris un paragraphe à l'aide de l'IA, je peux me retrouver bloqué. Je deviens alors un cyborg en demandant à l'IA de m'aider à réécrire le paragraphe de plusieurs manières, en donnant des styles et approches différents. Le texte produit n'apparaît presque jamais tel, mais il m'aide à surmonter mes difficultés. De même, lorsque je trouve un paragraphe mal écrit et maladroit, je demande à l'IA : "Améliorez ce paragraphe dans le style d'un livre à succès populaire sur l'IA, ou ajoutez plus d'exemples concrets."
3. Traiter l'IA comme une Personne:
Bien que l'IA ne soit pas humaine, la traiter comme telle peut améliorer notre interaction avec elle. Mollick suggère de définir un "persona" pour l'IA afin d’obtenir des réponses plus pertinentes et spécifiques. Cela inclut des stratégies comme la contextualisation des tâches et la fourniture de directives claires pour guider l'IA.
4. Évaluer et Expérimenter:
Il est important de continuer à évaluer et expérimenter avec l'IA pour s'adapter à ses évolutions rapides. Mollick souligne que l'innovation vient de l'essai et de l'erreur, et que rester ouvert aux nouveaux développements aide à s'adapter au changement et à rester compétitif dans un environnement commercial en constante évolution.
Partie IV : L'IA Comme une Personne
Comportement et Interaction avec l'IA:
L'IA ne suit pas les règles strictes et prévisibles du logiciel traditionnel. Elle peut offrir des solutions créatives mais aussi faire des erreurs et produire des réponses incorrectes. Mollick propose une approche pragmatique : traiter l'IA comme un humain pour mieux comprendre ses comportements et ses utilisations potentielles.
Capacités et Limites de l'IA:
Les IA peuvent imiter des comportements humains, mais elles luttent avec des tâches que les machines exécutent généralement bien, comme les calculs complexes. Les IA peuvent également faire des erreurs, mentir et halluciner des réponses, tout comme les humains.
Le syndrôme du “bouton”
Mollick met en garde contre l'utilisation aveugle de l'IA sans réflexion critique, un phénomène qu'il appelle le syndrome du "bouton". Lorsque l'IA devient très facile à utiliser, comme en appuyant sur un bouton, les gens peuvent être tentés de l'utiliser systématiquement sans réfléchir, même pour des tâches importantes comme la rédaction d'emails, de rapports ou de documents. Cela peut conduire à une perte de créativité et d'originalité, car les gens s'ancrent sur les premières idées générées par l'IA.
Il souligne que même si on réécrit complètement les brouillons de l'IA, ils resteront teintés par son influence. On risque de ne plus explorer des perspectives et solutions alternatives qui pourraient mener à de meilleures idées. Un autre risque est la perte de qualité et de profondeur dans notre réflexion et notre raisonnement si on laisse l'IA faire le gros du travail d'analyse et de synthèse.
Mollick insiste sur l'importance de rester engagé de façon critique lorsqu'on utilise l'IA, d'apprendre de ses erreurs et de développer notre propre style, plutôt que de se reposer aveuglément sur elle. Des études montrent déjà que la majorité des gens n'éditent même pas les réponses de l'IA lorsqu'ils l'utilisent pour la première fois. Mollick y voit un problème récurrent à chaque fois que les gens découvrent l'IA : ils se contentent de copier-coller la réponse de l'IA à leur question sans réfléchir plus loin.
Impact de l'IA sur l'Éducation:
Mollick pense qu'il est essentiel de réinventer l'éducation en intégrant l'IA de manière significative. L'IA peut être utilisée comme un outil pour personnaliser enrichir considérablement l'apprentissage, mais il est indispensable de repenser la place de l'IA et de l'humain dans ce processus pour ne pas perdre l'expertise. Il appelle à une redéfinition des méthodes éducatives pour préparer les futurs experts à travailler avec des IA de plus en plus avancées et à continuer d'améliorer leurs compétences.
Conclusion et Implications Futures
La compréhension et l'éducation autour de l'IA sont essentielles pour influencer l'avenir de cette technologie. Mollick appelle à une éducation publique étendue pour que les citoyens puissent demander un futur aligné avec des valeurs humaines. Les décisions prises aujourd'hui concernant l'IA auront des répercussions pour les générations futures, et il faut que la société aborde de manière proactive les défis posés par cette technologie.