Los LLMs generalistas son increíblemente potentes... pero siguen siendo "todoterreno". Hoy existen modelos especializados: algunos destacan en código, otros en razonamiento profundo, otros en textos largos, búsqueda web o multimodal.
El editor nació precisamente para esto: en lugar de pedirle todo a un único modelo, te pone en las manos una orquesta de LLMs, cada uno llamado en el momento adecuado para hacer lo que mejor sabe hacer.
Un modelo generalista está bien "para todo", pero raramente es el mejor en algo. Combinando múltiples LLMs puedes usar: el modelo top para análisis y razonamiento, el más fuerte para escritura creativa, el especialista en coding y debugging, obteniendo un resultado final que un solo modelo difícilmente alcanzaría.
La investigación sobre ensembles de LLM y "consejos de LLM" muestra que hacer trabajar múltiples modelos juntos, con comparación y votación, reduce las alucinaciones y errores en comparación con depender de una sola voz.
En tu flujo puedes: usar modelos rápidos y económicos para clasificar, resumir, limpiar datos; reservar los modelos premium solo para los pasos realmente críticos. Es el "triángulo" coste-velocidad-calidad: orquesta múltiples modelos para obtener máximos resultados con mínimo desperdicio.
Cuando sale un nuevo modelo super-especializado (más contexto, más razonamiento, más coding...), no tienes que rehacerlo todo: lo añades a tu flujo y lo pones donde rinde más. Tu trabajo no está atado a un único proveedor.
Andrej Karpathy publicó llm-council, una pequeña aplicación web de código abierto que hace algo brillante: en lugar de pedir la respuesta a un solo modelo, envía tu pregunta a múltiples LLMs, deja que se critiquen y evalúen mutuamente, y luego un "Chairman" sintetiza lo mejor en una única respuesta.
Varios trabajos académicos están extendiendo este enfoque: consejos de modelos heterogéneos que verifican pasos intermedios, votan y corrigen el camino, para resultados más robustos y consistentes.
Cuando construyes un flujo en el editor:
Descompones el problema en pasos (análisis, investigación, escritura, verificación...).
En cada paso eliges (o dejas que el sistema elija) el modelo más adecuado: creativo, analítico, técnico, revisor.
La salida de un paso se convierte en contexto estructurado para el siguiente, así toda la "cadena" razona hacia el mismo objetivo.
Donde sea necesario, puedes hacer trabajar múltiples modelos en paralelo, comparar sus respuestas, pedir una síntesis final "al estilo Karpathy".
Resultado: ya no estás "hablando con un chatbot", estás dirigiendo un equipo de inteligencias artificiales.
El editor te da la batuta, tú decides la sinfonía.