Mientras probaba distintas herramientas de coding con IA, me encontré con dos problemas bastante repetidos.
El primero era de costo: usar el mismo modelo para planear, implementar, revisar, probar y documentar no tiene mucho sentido. No todas las etapas requieren el mismo nivel de razonamiento.
El segundo era más importante: cuando un solo agente hace todo dentro de una conversación larga, el contexto se contamina. Empieza a mezclar decisiones, olvidar restricciones y perder precisión entre fases.
Para resolver eso, construí agentflow, un CLI para configurar un flujo multiagente donde cada etapa tiene una responsabilidad clara:
- plan
- aprobación
- implementación
- review
- testing
- documentación
La idea no es solo repartir tareas. También es trabajar con contexto más limpio en cada fase y usar el modelo adecuado según el tipo de trabajo.
Algo que me llamó la atención durante las pruebas fue que el valor no estaba solo en el posible ahorro de costo, sino en la consistencia del proceso. A medida que el flujo fue madurando, mejoró la cobertura de pruebas, bajó la intervención manual y aparecieron errores que valía más la pena detectar antes.
Lo que más me interesa de este enfoque no es “hacer que la IA programe sola”, sino diseñar mejor el proceso alrededor de ella.
Si quieres leer la explicación completa, aquí está el post original:
Post completo:
https://ricardolara.dev/es/blog/inteligencia-artificial-multiagente/
Paquete npm:
https://www.npmjs.com/package/@riclara/agentflow
Si trabajas con Claude Code, Codex o tooling similar, me interesaría mucho tu feedback.
Top comments (0)