Les LLM généralistes sont incroyablement puissants... mais ils restent des "touche-à-tout". Aujourd'hui, des modèles spécialisés existent : certains excellent dans le code, d'autres dans le raisonnement profond, d'autres encore dans les textes longs, la recherche web ou le multimodal.
L'éditeur est né précisément pour cela : au lieu de tout demander à un seul modèle, il met entre vos mains un orchestre de LLM, chacun appelé au bon moment pour faire ce qu'il fait de mieux.
Un modèle généraliste convient "pour tout", mais est rarement le meilleur en quoi que ce soit. En combinant plusieurs LLM, vous pouvez utiliser : le meilleur modèle pour l'analyse et le raisonnement, le plus fort pour l'écriture créative, le spécialiste du coding et du debugging, obtenant un résultat final qu'un seul modèle atteindrait difficilement.
La recherche sur les ensembles de LLM et les "conseils de LLM" montre que faire travailler plusieurs modèles ensemble, avec comparaison et vote, réduit les hallucinations et les erreurs par rapport à une seule voix.
Dans votre flux, vous pouvez : utiliser des modèles rapides et économiques pour classifier, résumer, nettoyer les données ; réserver les modèles premium uniquement pour les étapes vraiment critiques. C'est le "triangle" coût-vitesse-qualité : orchestrez plusieurs modèles pour obtenir un maximum de résultats avec un minimum de gaspillage.
Quand un nouveau modèle super-spécialisé sort (plus de contexte, plus de raisonnement, plus de coding...), vous n'avez pas à tout refaire : vous l'ajoutez à votre flux et le placez là où il performe le mieux. Votre travail n'est pas lié à un seul fournisseur.
Andrej Karpathy a publié llm-council, une petite application web open source qui fait quelque chose de génial : au lieu de demander la réponse à un seul modèle, elle envoie votre question à plusieurs LLM, les laisse se critiquer et s'évaluer mutuellement, puis un "Chairman" synthétise le meilleur en une réponse unique.
Divers travaux académiques étendent cette approche : des conseils de modèles hétérogènes qui vérifient les étapes intermédiaires, votent et corrigent le parcours, pour des résultats plus robustes et cohérents.
Quand vous construisez un flux dans l'éditeur :
Vous décomposez le problème en étapes (analyse, recherche, écriture, vérification...).
À chaque étape, vous choisissez (ou laissez le système choisir) le modèle le plus adapté : créatif, analytique, technique, réviseur.
La sortie d'une étape devient le contexte structuré pour la suivante, ainsi toute la "chaîne" raisonne vers le même objectif.
Où nécessaire, vous pouvez faire travailler plusieurs modèles en parallèle, comparer leurs réponses, demander une synthèse finale "à la Karpathy".
Résultat : vous ne "parlez plus à un chatbot", vous dirigez une équipe d'intelligences artificielles.
L'éditeur vous donne la baguette, vous décidez la symphonie.