Vídeo y audio se generan en un forward pass unificado. Viento, pisadas, voz, música: cada sonido cae en el fotograma correcto porque el modelo nunca los separa.
Seedance 2.0 — El generador de vídeo IA cinematográfico de ByteDance
Seedance 2.0 convierte un único prompt en un clip cinematográfico de 15 segundos con audio nativo, sincronización labial a nivel de fonema y control de cámara digno de un director. El modelo de vídeo IA multimodal que lidera Artificial Analysis por delante de Veo 3, Sora 2 y Gen-4.5.
Suelta una imagen de referencia para Seedance 2.0
El modelo acepta hasta 9 imágenes de referencia por generación. Sube una ficha de personaje, una foto de localización o una referencia de iluminación: extrae identidad, estilo y puesta en escena de lo que sueltes y dirige la escena a su alrededor.
Admite PNG, JPG, WebP hasta 24 MB
Elige la relación de aspecto
16:9 para cine, 9:16 para shorts, 1:1 para redes. Cada formato se renderiza hasta 4K.
Audio-vídeo nativo en una sola pasada
Es el primer modelo de vídeo de uso masivo que genera audio y vídeo conjuntamente — no como una capa postproducida. Las pisadas caen sobre charcos con precisión de fotograma, la tela cruje cuando sopla el viento, una cuerda de guitarra vibra sincronizada con la nota.
Prompt
Person walking through puddles in heavy rain, footsteps synchronized with splashing sounds, raindrops hitting umbrella in rhythm with audio, 4K quality, realistic water physics, cinematic atmosphere, perfect audio-visual timing.
Sincronización de audio nativa
Control de cámara a nivel de director
Seedance 2.0 toma al pie de la letra el vocabulario de director de fotografía. Pide un dolly-in, un rack focus, un ángulo holandés o un whip pan — lo ejecuta. Narrativa multiplano desde un único prompt, para que un render de 15 segundos se sienta como una secuencia montada.
Prompt
Professional portrait of a young man in a rainy urban street at night, neon signs reflecting on wet pavement, atmospheric fog, shallow depth of field, cinematic bokeh, moody color palette, 4K ultra-detailed, film noir aesthetic.
Control cinematográfico
Sincronización labial por fonema en 8+ idiomas
Suelta un retrato de personaje y una línea de diálogo: el modelo anima las formas bucales a nivel de fonema, no de palabra. El resultado aguanta inspección cercana en inglés, mandarín, japonés, coreano, español, francés, alemán y más.
Prompt
Close-up shot of a woman speaking directly to camera, clear articulation of words, natural facial expressions during speech, perfect lip-sync with audio, 4K cinematic quality, professional interview lighting, authentic conversational tone.
Sincronización por fonema
Física que aguanta
La tela se arruga como la tela. Los líquidos refractan. Las partículas obedecen a la gravedad y al viento de forma independiente. Entrenado con material del mundo real, su modelo del mundo sobrevive al escrutinio a cámara lenta que mata a otros modelos de vídeo.
Prompt
Slow-motion shot of a red silk scarf being thrown into the air, floating gracefully with realistic fabric physics, gentle wind affecting movement, 4K quality, cinematic lighting with soft shadows, photorealistic material properties.
Física del mundo real
9 imágenes + 3 vídeos + 3 audios por generación
Seedance 2.0 acepta cargas de referencia más ricas que cualquier otro modelo de vídeo público. Alimenta fichas de personajes, planos de localización, metraje existente y audio de referencia: los fusiona en un render coherente en vez de promediarlos en una papilla.
Prompt
4K close-up of water being poured into a crystal glass, realistic liquid physics with surface tension, light refraction through water and glass, dynamic splashing, photorealistic transparency and reflections, cinematic lighting.
Fusión multi-referencia
Lidera Artificial Analysis en 2026
Alcanzó Elo 1269 en la tabla de generación de vídeo de Artificial Analysis en abril de 2026, por delante de Google Veo 3, OpenAI Sora 2 y Runway Gen-4.5. En SeedVideoBench-2.0 lidera las tareas de texto-a-vídeo, imagen-a-vídeo y multimodales.
Prompt
Cherry blossom petals falling in slow motion, realistic wind patterns affecting each petal differently, natural gravity and air resistance, 4K cinematic quality, soft bokeh background, spring atmosphere, photorealistic textures.
Líder en benchmarks
Por qué los creadores eligen Seedance 2.0
Seedance 2.0 dejó atrás las concesiones. Salida cinematográfica, audio nativo, control de director y física de clase mundial — todo en un modelo, en una pasada, en un clip de 15 segundos.
Planes de créditos Seedance 2.0
Cada render cuesta créditos según la duración y la resolución. Elige el plan que se ajuste a cuánto ruedas. Los créditos de las suscripciones se acumulan; los packs de un solo pago nunca caducan.
Starter
$9.9/ mes
Para creadores en solitario que prueban el modelo.
Incluye:
- 2.950 créditos al mes
- ~30 renders/mes
Creator
$19.9/ mes
Para creadores de vídeo en activo.
Incluye:
- 6.500 créditos al mes
- ~65 renders/mes
Studio
$49.9/ mes
Para agencias con alto volumen.
Incluye:
- 18.000 créditos al mes
- ~180 renders/mes
FAQ de Seedance 2.0
Respuestas rápidas sobre ejecutar Seedance 2.0 a través de nuestro gateway alojado.
01¿Qué es Seedance 2.0?
Seedance 2.0 es el modelo de vídeo multimodal insignia de ByteDance, lanzado en febrero de 2026. Genera hasta 15 segundos con audio nativo, control de cámara a nivel de director y sincronización labial por fonema en 8+ idiomas, todo en un solo forward pass. El modelo lidera la tabla de Artificial Analysis por delante de Veo 3, Sora 2 y Gen-4.5.
02¿Se puede probar Seedance 2.0 gratis?
Al registrarte recibes créditos de inicio — suficientes para renderizar tu primer clip sin pagar. Después, cada render cuesta créditos según la duración y la resolución. Nuestros planes de créditos empiezan en 9,90 $/mes.
03¿Puedo usar Seedance 2.0 desde EE. UU.?
Sí. ByteDance excluyó a Estados Unidos del despliegue directo vía Dreamina. Nuestro gateway alojado retransmite las peticiones a través de regiones compatibles, así que los creadores de EE. UU. pueden usar la API completa de Seedance 2.0 sin VPN ni lista de espera.
04¿Qué duración tienen los vídeos de Seedance 2.0?
Cada render llega hasta 15 segundos. Dentro de esa ventana el modelo puede producir varios planos con cortes y transiciones naturales, por lo que la salida se siente como una secuencia montada en lugar de una toma continua.
05¿Qué entradas acepta Seedance 2.0?
En una sola pasada, Seedance 2.0 acepta un prompt de texto más hasta 9 imágenes de referencia, 3 clips de vídeo y 3 clips de audio. Identidad del personaje, localización, estilo de cámara e incluso sonido ambiente pueden derivarse de referencias.
06¿Seedance 2.0 realmente genera audio?
Sí, y es una de sus características definitorias. Vídeo y audio se generan conjuntamente en un solo forward pass — no postprocesados. Pisadas, diálogo, música y sonido ambiente caen en el fotograma correcto porque el modelo nunca los separa.
07¿Es Seedance 2.0 apto para uso comercial?
Los renders que generes mediante nuestro gateway son tuyos para uso comercial bajo nuestras condiciones de servicio. Seedance 2.0 incorpora moderación de contenido; los prompts que infrinjan la política se rechazan antes del cómputo.
