Top Qs
Línea de tiempo
Chat
Contexto

Runway

De Wikipedia, la enciclopedia libre

Remove ads

Runway AI, Inc. (también conocida como Runway y RunwayML ) es una empresa estadounidense con sede en la ciudad de Nueva York especializada en investigación y tecnologías de inteligencia artificial generativa.[1] La empresa se centra principalmente en la creación de productos y modelos para generar vídeos, imágenes y diversos contenidos multimedia. Es conocida por desarrollar los modelos comerciales de texto a vídeo Gen-1, Gen-2,[2][3] Gen-3 Alpha,[1] Gen-4,[4] Act-One y Act-Two,[5] Aleph y Game Worlds.[6]

Datos rápidos Tipo, Industria ...

Las herramientas y los modelos de IA de Runway se han utilizado en películas como Everything Everywhere All at Once,[7] en videos musicales de artistas como A$AP Rocky,[8] Kanye West,[9] Brockhampton y The Dandy Warhols,[10] y en la edición de programas de televisión como The Late Show[11] y Top Gear.[12]

Remove ads

Servicios y tecnologías

Resumir
Contexto

Runway se centra en inteligencia artificial generativa para vídeo, medios y arte. La empresa desarrolla tecnología propia de modelos que los profesionales de la cinematografía, posproducción, publicidad, edición y efectos visuales pueden utilizar. Además, ofrece una aplicación para iOS dirigida a consumidores.[13]

Se puede acceder al producto Runway a través de una plataforma web y mediante una API como servicio administrado.

Stable Difussion

Stable Diffusion es un modelo de texto a imagen de aprendizaje profundo de código abierto lanzado en 2022 basado en el artículo original "High-Resolution Image Synthesis with Latent Diffusion Models" publicado por Runway.[14][15][16] Stable Diffusion se utiliza principalmente para crear imágenes a través de descripciones de texto.

Gen-1

Gen-1 es un sistema de IA generativa de video a video que sintetiza nuevos videos aplicando la composición y el estilo de una imagen o un texto a la estructura del video original. El modelo se lanzó en febrero de 2023. Runway entrenó y desarrolló este modelo basándose en su artículo original "Structure and Content-Guided Video Synthesis with Diffusion Models".[17] Es un ejemplo de inteligencia artificial generativa para la creación de videos.

Gen-2

Gen-2 es un sistema de IA multimodal que puede generar nuevos vídeos a través de texto, imágenes o videoclips. El modelo es una continuación de Gen-1 e incluye una modalidad para generar vídeo adaptado a texto. Gen-2 es uno de los primeros modelos de texto a vídeo disponibles comercialmente.[18][19][20][21]

Gen-3 Alpha

Gen-3 Alpha es el primero de una próxima serie de modelos entrenados por Runway en una nueva infraestructura diseñada para entrenamiento multimodal a gran escala. Representa una mejora significativa en fidelidad, consistencia y movimiento con respecto a Gen-2, y un avance hacia la creación de modelos de mundo general.[22]

Los datos de entrenamiento para Gen-3 provienen de miles de videos de YouTube y, posiblemente, de películas pirateadas. Un exempleado de Runway declaró en 404 Media que una iniciativa la empresa consistía en compilar una lista de videos en hojas de cálculo, que luego se descargaban mediante youtube-dl a través de servidores proxy para evitar el bloqueo de YouTube. Mediante pruebas, 404 Media descubrió que al usar nombres de YouTubers famosos Gen-3 generaba videos en sus respectivos estilos.[23]

Gen-4

En marzo de 2025, Runway lanzó Gen-4, un modelo de IA para la generación de video descripto por la compañía como el más avanzado hasta la fecha. El modelo puede generar personajes, objetos y entornos consistentes en diferentes escenas, utilizando imágenes de referencia e indicaciones de texto.[24]

A diferencia de los modelos anteriores que trataban cada cuadro como una tarea separada con solo conexiones vagas entre ellos, Gen-4 permite a los usuarios generar personajes consistentes en todas las condiciones de iluminación utilizando una imagen de referencia de esos personajes.[25] El modelo introdujo varias características clave diseñadas para abordar desafíos muy comunes en la generación de videos a través de IA, particularmente cuestiones referidas a la consistencia visual y la continuidad narrativa que hacían que el contenido generado por IA pareciera inconexo.[26]

Gen-4 Turbo

Gen-4 Turbo, lanzado en abril de 2025,[27] es una versión más rápida y económica de Gen-4. El modelo Turbo consume menos créditos por segundo de video.

Referencias

Con Gen-4 References, los usuarios pueden cargar imágenes de referencia como base para personajes, objetos, escenarios o entornos en diferentes escenas.[25] El sistema puede extraer un personaje de una imagen y colocarlo en diferentes escenas, transformar elementos de personajes o entornos, combinar estilos visuales entre imágenes o combinar elementos de múltiples fuentes.[28]

Aleph

En julio de 2025, Runway lanzó Aleph, que agrega la capacidad de realizar ediciones en videos de entrada, incluyendo agregar, eliminar y transformar objetos, generar cualquier ángulo de una escena y modificar el estilo y la iluminación.[29] Con el lanzamiento de Aleph, el modelo Gen-4 ahora puede soportar varias tareas de edición, incluyendo manipulación de objetos, transformación de escenas, generación de ángulos de cámara y transferencia de estilos.[29]

Act-One y Act-Two

Act-One, lanzado en octubre de 2024, permite a los usuarios subir un video de base y luego transformarlo en personajes realistas o animados.[5] Los creadores pueden animar personajes en diversos estilos sin equipo de captura de movimiento ni rigging, pero manteniendo elementos importantes de la actuación original, como las líneas de visión, las microexpresiones y el ritmo matizado en los personajes generados.[30][31] Act-Two, una versión ampliada, permite a los usuarios animar personajes usando videos de base, brindando control sobre los gestos y el movimiento corporal al usar imágenes de los personajes y agregando automáticamente movimiento ambiental.[32]

Game Worlds

En 2025, Runway lanzó Game Worlds, descrito como «un primer vistazo a la próxima frontera de las experiencias narrativas no lineales».[6] La herramienta permite a los usuarios jugar o crear aventuras basadas en texto acompañadas de imágenes.[33] Runway describe a Game Worlds como «un primer paso hacia la próxima era de los videojuegos» y afirma que «representa la próxima frontera» del entretenimiento interactivo y la educación.[34]

Remove ads

Cine con IA

Resumir
Contexto

Festival de Cine de IA

Runway ha organizado un Festival de Cine de IA (AIFF) anual desde 2023 para exhibir películas creadas con inteligencia artificial.[35] El festival ha experimentado un crecimiento espectacular, pasando de 300 presentaciones y proyecciones en pequeños cines de la ciudad de Nueva York en su año inaugural a más de 6000 presentaciones para 2025.[36] El festival de 2025 culminó con una proyección con entradas agotadas en el Lincoln Center de Nueva York, atrayendo a cineastas y público de todo el mundo.[37]

Gen:48

Runway organiza la competencia de cortometrajes Gen:48, un desafío cinematográfico donde los participantes tienen 48 horas y créditos gratuitos de generación de IA para crear cortometrajes de entre 1 y 4 minutos de duración.[38] El formato de la competencia está diseñado para alentar la experimentación con herramientas de IA bajo restricciones de tiempo, fomentando la innovación en la realización cinematográfica asistida por IA.[39] La primera edición se lanzó en octubre de 2023, seguida de una segunda edición en febrero de 2024, y las competencias posteriores continuaron hasta 2025.[40] Los participantes reciben créditos de Runway y acceso ilimitado temporal a sus herramientas de IA durante un período de 48 horas.[40] Los ganadores reciben premios que incluyen dinero en efectivo, créditos de Runway y la oportunidad de proyectar sus películas en el Festival de Cine de IA.[39]

Remove ads

Referencias

Enalces externos

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads