En resumen
Los agentes de IA ahora pueden escribir código, llamar a APIs y ejecutar flujos de trabajo de varios pasos, pero la edición de video era una capacidad que faltaba. Las herramientas profesionales como After Effects y DaVinci Resolve usan líneas de tiempo en capas y gráficos de escenas JSON, formatos poco accesibles para los LLM. El nuevo proyecto open source de HeyGen, HyperFrames, cambia esto: permite a los agentes de IA componer video usando HTML, CSS y JavaScript, para luego renderizar el resultado como MP4, MOV o WebM. Se instala como una habilidad de Claude Code con un solo comando, y tu agente se convierte en editor de video.
Introducción
El video es el formato de comunicación más atractivo en la web, pero no existía una cadena de herramientas clara para que los agentes de IA pudieran generarlo y editarlo. Herramientas como Sora, Veo o Runway pueden producir clips completos, pero el resultado es monolítico y poco flexible: no puedes iterar ni componer escenas, ni realizar ajustes finos como modificar transiciones específicas.
HeyGen lanzó HyperFrames el 17 de abril de 2026 para resolver este problema. En vez de entrenar agentes en software de video tradicional, les dieron un formato conocido: HTML. Esta guía explica el funcionamiento, ventajas y cómo configurar HyperFrames para que tu agente edite video. Al final, te mostraremos cómo Apidog puede ayudarte a orquestar flujos de trabajo que produzcan video.
Por qué los agentes de IA no podían editar video antes
Las herramientas de edición de video tradicionales no están diseñadas para agentes, sino para usuarios humanos. Hay tres barreras principales:
- Las interfaces de usuario basadas en líneas de tiempo no se corresponden con el código. Los proyectos se almacenan en formatos propietarios o gráficos de escenas JSON difíciles de manipular y sin datos de entrenamiento suficientes para los modelos.
- Los gráficos en movimiento requieren pensamiento visual. Las animaciones suelen hacerse "a ojo" y los agentes necesitan abstraer el movimiento en texto.
- Las herramientas esperan un operador humano. Muchas funciones están detrás de menús UI, y las API de scripting son limitadas y frágiles.
Como resultado, los agentes solo podían automatizar tareas básicas con ffmpeg, pero cualquier composición más compleja requería intervención humana.
La revelación del HTML para video
El equipo de HeyGen observó que los LLM entienden perfectamente HTML, CSS y JavaScript gracias a sus datos de entrenamiento. Han visto miles de animaciones GSAP, composiciones SVG y experimentos con Canvas o Lottie. La web es el entorno nativo de los modelos.
Cuando pides a un modelo que genere una animación visual, sabe escribir HTML, posicionar elementos con CSS, animar con GSAP, renderizar SVG, componer capas y crear transiciones. Faltaba solo convertir una línea de tiempo HTML en video. Eso hace HyperFrames: HTML se convierte en video frame a frame.
Cómo funciona HyperFrames
HyperFrames añade algunos atributos data- al HTML estándar para definir la línea de tiempo del video. El resto es web puro.
| Atributo | Propósito |
|---|---|
data-composition-id |
ID único para la composición de video |
data-width / data-height
|
Resolución de salida en píxeles |
data-start |
Tiempo de inicio de la escena en segundos |
data-duration |
Duración de la escena en segundos |
data-track-index |
Orden de capa para escenas superpuestas |
El agente genera un HTML normal. HyperFrames lee los atributos, ejecuta la página en un navegador headless, captura frames y codifica la salida con FFmpeg. No hay DSL nuevo ni editor de fotogramas clave: las animaciones se definen con GSAP o CSS, que el modelo ya domina.
Un ejemplo mínimo
Esta composición genera un video de 5 segundos con dos escenas y menos de 70 líneas de HTML:
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<script src="https://cdn.jsdelivr.net/npm/gsap@3.14.2/dist/gsap.min.js"></script>
<style>
body { margin:0; width:1920px; height:1080px; overflow:hidden; background:#0D1B2A; }
.scene { position:absolute; inset:0; width:1920px; height:1080px; overflow:hidden; background:#0D1B2A; }
#scene2 { z-index:2; opacity:0; }
.s1 { display:flex; flex-direction:column; justify-content:center; padding:120px 160px; gap:20px; }
.s2 { display:flex; flex-direction:column; justify-content:center; align-items:center; padding:100px 160px; gap:32px; }
</style>
</head>
<body>
<div id="root" data-composition-id="hyperframes-intro"
data-width="1920" data-height="1080" data-start="0" data-duration="5">
<div id="scene1" class="scene">
<div class="s1">
<div class="s1-title">HTML is Video</div>
<div class="s1-sub">Compose. Animate. Render.</div>
</div>
</div>
<div id="scene2" class="scene">
<div class="s2-title">Start composing.</div>
</div>
</div>
<script>
window.__timelines = window.__timelines || {};
const tl = gsap.timeline({ paused: true });
// Scene 1: title entrance
tl.from(".s1-title", { x:-40, opacity:0, duration:0.5, ease:"power3.out" }, 0.25);
tl.from(".s1-sub", { y:15, opacity:0, duration:0.4, ease:"power2.out" }, 0.5);
// Blur crossfade transition
const T = 2.2;
tl.to("#scene1", { filter:"blur(8px)", scale:1.03, opacity:0, duration:0.35, ease:"power2.inOut" }, T);
tl.fromTo("#scene2",
{ filter:"blur(8px)", scale:0.97, opacity:0 },
{ filter:"blur(0px)", scale:1, opacity:1, duration:0.35, ease:"power2.inOut" }, T + 0.08);
window.__timelines["hyperframes-intro"] = tl;
</script>
</body>
</html>
Puntos clave:
- La animación es GSAP puro. Cualquier modelo que haya visto GSAP puede producir líneas similares.
-
La sobrecarga de HyperFrames es mínima: solo algunos atributos
data-en el elemento raíz.
Renderiza este HTML y obtendrás un MP4 en 1920x1080. Cambia textos, colores, añade logotipos: es HTML puro.
Lo que el agente puede usar realmente
Como HyperFrames utiliza un navegador real para renderizar, puedes usar cualquier stack web:
- Animaciones y transiciones CSS para movimientos simples.
- GSAP para animaciones y coreografías avanzadas.
- SVG para logotipos, formas y animaciones de trazados.
- Canvas para partículas o fondos generativos.
- Three.js para escenas 3D.
- D3.js para visualizaciones de datos.
- Lottie para animaciones de After Effects.
- Fuentes web (Google Fonts, custom).
-
Video o imágenes de fondo vía
<video>o<img>.
No hay frameworks adicionales ni arquitectura de plugins: el agente usa lo que ya sabe.
Cómo darle a tu agente la capacidad de editar video con un solo comando
HyperFrames se instala como habilidad de Claude Code con un solo comando npm:
npx skills add heygen-com/hyperframes
Esto descarga la habilidad desde GitHub, instala la herramienta y registra la capacidad de edición de video.
Luego, pídele a tu agente instrucciones naturales, por ejemplo:
Build me a 10-second product explainer video for a new API.
Start with a dark gradient background, animate the product name
sliding up from the bottom with a fade, then cut to three
bullet points with icons, end on a call-to-action card.
El agente generará el HTML, mostrará una vista previa local y renderizará el MP4. Sin claves API ni servicios externos: todo corre en tu máquina.
Configuración sin Claude Code
HyperFrames es independiente de frameworks. Puedes usarlo desde cualquier agente que ejecute comandos de shell y lea archivos.
Clona el repositorio e instala dependencias:
git clone https://github.com/heygen-com/hyperframes
cd hyperframes
npm install
Renderiza un archivo de composición:
npx hyperframes render my-video.html --output my-video.mp4
Previsualiza localmente:
npx hyperframes preview my-video.html
El preview abre un navegador para navegar la línea de tiempo y revisar la animación antes del render final.
Lo que esto desbloquea para los desarrolladores
Casos de uso que puedes implementar hoy:
- Marketing de productos automatizado: El agente genera videos de lanzamiento a partir de notas y los sube a tu CDN.
- Respuestas de video personalizadas: Webhooks disparan videos personalizados según eventos de usuario (bienvenida, recibos, hitos).
- Narración de datos: El agente recibe métricas y crea visualizaciones D3 renderizadas como recorridos de dashboard.
- B-roll dinámico para podcasts o videos largos: El agente genera gráficos en movimiento sincronizados con la transcripción.
- Videos de documentación de API: Analiza tu OpenAPI, genera tutoriales con diagramas animados y los exporta como clips.
Probando la orquestación del agente con Apidog
HyperFrames resuelve el renderizado, pero la orquestación —el bucle de agente, llamadas a herramientas y lógica LLM— es donde surgen los problemas en producción (errores de API, tiempos de espera, referencias rotas).
Apidog te ofrece un entorno de pruebas para todo lo que HyperFrames no cubre:
- Simula endpoints de LLM: Crea endpoints dummy de Claude u OpenAI con el esquema esperado. Prueba la robustez de tu pipeline antes de consumir tokens reales.
- Valida cargas útiles de uso de herramientas: Configura endpoints de assets, búsqueda o branding en Apidog y conéctalos a tu agente para verificar integridad.
- Monitorea el consumo de tokens: El seguimiento de Apidog te permite dimensionar prompts y evitar sorpresas de costo.
- Depura flujos multi-turno: Reproduce conversaciones exactas para identificar dónde el agente falla o se desvía.
El argumento filosófico
HeyGen sostiene que HTML no solo es un formato conveniente, sino también el formato correcto para el futuro del video. HTML es abierto, versionable, editable y accesible, en contraste con los formatos propietarios de la industria.
Un video basado en HTML es:
- Diferenciable en git: Puedes ver exactamente qué cambió.
- Componentizable: Reutiliza componentes como tarjetas de título o animaciones.
- Adaptable: Renderiza a diferentes resoluciones o formatos sin reconstruir.
- Accesible: Los lectores de pantalla pueden interpretar el contenido.
- Buscable: El texto del video es texto real, no píxeles.
HyperFrames convierte el contenido nativo web en una fuente de video viable.
Limitaciones a tener en cuenta
HyperFrames está en versión 1, y existen algunas limitaciones:
- Velocidad de renderizado: Escenas complejas (Three.js, Canvas) tardan más que simples animaciones de texto.
-
Entrada de video en vivo limitada: Puedes usar
<video>, pero integrar streams en tiempo real requiere lógica adicional. - Soporte de audio básico: Añade pistas de audio, pero la mezcla avanzada requiere FFmpeg externo.
- La creatividad depende del modelo: Modelos recientes como Opus 4.7 ofrecen los mejores resultados.
Considera estas limitaciones si planeas un flujo de producción.
Lista de verificación para empezar
- [ ] Instala Claude Code (o tu agente favorito)
- [ ] Ejecuta
npx skills add heygen-com/hyperframes - [ ] Pide a tu agente que cree un video simple de 5 segundos
- [ ] Renderiza la salida e inspecciona el MP4
- [ ] Itera: cambia estilo, tiempo o escenas
- [ ] Para flujos basados en API, configura endpoints de LLM y herramientas en Apidog
- [ ] Construye un video real (avance de producto, historia de datos, resumen de release notes)
- [ ] Marca con estrella el repo en github.com/heygen-com/hyperframes
Conclusión
Los agentes de IA llevan años codificando, pero la edición de video era el último gran dominio creativo dependiente del humano. HyperFrames elimina esa barrera usando el stack que los agentes ya dominan: HTML, CSS y JavaScript.
El enfoque es simple, flexible y capaz de producir gráficos en movimiento de calidad profesional. Si necesitas video generado (automatización de marketing, contenido personalizado, narrativas de datos, documentación impulsada por agentes), HyperFrames debe estar en tu stack.
Para la capa de orquestación y pruebas, valida los flujos de tu agente, llamadas a herramientas y requests LLM con Apidog antes de escalar. Las fallas de API no se renderizan en MP4.

Top comments (0)