- Génération IA
- Posts
- Comment essayer Mistral sans connaissance technique
Comment essayer Mistral sans connaissance technique
Voulez-vous essayer le ChatGPT français open-source ? Voici comment utiliser Mistral en 5 secondes chrono sans aucune connaissance technique.
On parle beaucoup de Mistral AI, la licorne française qui a levé 385M€ la semaine dernière et dont le dernier modèle Mixtral8x7b est présenté comme d'un niveau équivalent à GPT-3.5 (le modèle utilisé par la version gratuite de ChatGPT).
Le problème c'est que pour utiliser ces modèles open-source, il faut avoir quelques connaissances techniques, et on n'est pas à l'abri de certains bugs.
De plus, le modèle de Mistral dans sa version brute a une nomenclature d'instructions peu intuitive.
C'est là qu'entre en jeu Openrouter AI. Cette plateforme est le "booking . com" des API d'IA génératives. Un moyen d'utiliser ces modèles pour vos applications au prix le plus attractif.
Mais Openrouter a aussi un espace de jeu, appelé Playground. Une sorte de ChatGPT qui permet de tester gratuitement tous les modèles du moment aussi simplement que le célèbre chatbot.
J'ai testé le dernier modèle de Mixtral avec les prompts que j'utilise habituellement pour ChatGPT et je l'ai trouvé vraiment très bon. Parfois même meilleur que la version 3.5 de ChatGPT. Et surtout avec moins de tics de langage (perso je n'en peux plus des tics de langage de ChatGPT).
Mixtral8x7b est plus plus sobre. Assez proche de l'expérience que l'on peut avoir avec Claude d'Anthropic.
Et surtout, il a une fenêtre de contexte de 32K (contre 4096 pour ChatGPT3.5), donc une capacité de traiter de très grands textes ou de longues conversations.
Et ce n'est que la version “small”, donc pas la plus puissante.
Une bonne alternative donc, ultra simple d'utilisation, pour la plupart de mes besoins quotidiens avec ChatGPT.
Notamment pour la création de contenus.
Et surtout, c'est une alternative française.
Pour l'essayez, cliquez ici.
N'oubliez pas de cliquer sur la fenêtre à droite pour régler le modèle (sinon il fera des réponses trop courtes), passez le paramètre Max Token à 16K (largement suffisant). Et c'est parti.
Alternatives :