La compañía OpenAI, creadora de ChatGPT, presentó su nueva herramienta de inteligencia artificial llamada Sora con la se puede crear video de alta calidad y nivel de detalle a partir de un simple texto.
Esta nueva IA ha sorprendido al mundo por el tipo de videos completamente realistas que puede generar en un corto tiempo.
Sora fue creado a partir de la experiencia de otras IA generativas como DALL-E y ChatGPT y todavía continúa en una fase de pruebas.
«El programa puede generar videos de un minuto de duración con calidad visual y respetando la demanda del usuario», indicó OpenAI en su sitio web.
Lo cierto es que OpenAi, se ha convertido en uno de los grandes referentes de los avances de la intelitencia artificial en el mundo hasta el punto de que Microsoft se convirtió en su aliada.
Además, Sora también tiene la capacidad para «generar escenas complejas con varios personajes, movimientos específicos y detalles precisos», indicó la empresa.
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
Ver más: La IA está cambiando nuestra relación con los muertos al ‘revivirlos’ virtualmente
También permite crear un video a partir de una imagen fija, asegura el gigante de la inteligencia artificial (IA). Asimismo, puede alargar videos ya existentes.
¿Cómo funciona Sora AI?
Sam Altman, director ejecutivo de OpenAI, dijo en la red social X que su empresa ofrecería «a un número limitado de creadores el acceso» a esta nueva herramienta, en el marco de una etapa experimental.
También invitó a los usuarios a hacer propuestas para generar videos a través de esta red social y empezó a compartir ejemplos de sus resultados.
De esta forma, para que esta herramienta funcione simplemente hay que darle una instrucción (prompt) que contenga lo que queremos obtener en video.
Con este texto, la IA empezará a analizar cada palabra para empezar a elaborar el video y entregarle al usuario una versión. El proceso es el mismo que se hace con ChatGPT y DALL-E para generar texto e imágenes fijas.
Una de las grandes diferencias es que Sora fue entrenada con una enorme biblioteca de videos y para reconocer movimientos y descripciones de la forma más sencilla.
De esta forma, se pueden generar escenas complejas en donde aparecen personas, animales, personajes ficticios y todo tipo de objetos haciendo movimientos. Además, la herramienta puede identificar el entorno para construir todo un ambiente.
«Una mujer elegante camina por una calle de Tokio llena de cálidos neones brillantes y animada señalización urbana. Lleva una chaqueta de cuero negra, un vestido largo rojo, botas negras y un bolso negro. Lleva gafas de sol y pintalabios rojo. Camina con seguridad y despreocupación. La calle está húmeda y es reflectante, lo que crea un efecto espejo de las luces de colores. Muchos peatones pasean», fue uno de los prompts de prueba.
Entre estos videos, pueden verse imágenes de dos perros subiendo por la nieve en una montaña. Otro video muestra cómo un animal imaginario comienza a volar ante un magnífico atardecer.
Sora es una base para «programas capaces de comprender y simular el mundo real», explica la start-up.
Sin embargo, la compañía reconoció que espera que esta sea una «etapa importante para la AGI (Inteligencia Artificial General) que es un sistema autónomo que superaría a los humanos en la mayoría de las tareas rentables.
OPEN AI SORA
El vídeo de abajo ha sido creado al 100% por Sora con Inteligencia Artificial de texto a video y aún lo estoy procesando 🤯🤖👇🏼 Escribo mis sensaciones en este hilo 📝 Lo más importante a partir de ahora es ser único. 💥
Sigo en shock con lo que hemos visto con SORA.… pic.twitter.com/dBGbsTDyPt— Jesus Plaza (@JesusPlazaX) February 16, 2024
OpenAI advierte que el «actual modelo» de la plataforma presenta «defectos», como una confusión entre izquierda y derecha o la imposibilidad de mantener una continuidad visual durante toda la extensión del video.
«Por ejemplo, una persona puede comer una galleta, pero luego, la galleta puede no exhibir una mordedura», dijo la compañía.
Otro de los puntos que se vienen definiendo es la seguridad, por lo que se espera realizar simulaciones con usuarios para tratar de provocar errores o crear contenido inapropiado y empezar a definir mejor los límites de la plataforma.
«Involucraremos a tomadores de decisiones políticas, educadores y artistas en el mundo para comprender sus preocupaciones e identificar los casos positivos de uso de esta nueva tecnología», aseguró OpenAI.
Esta herramienta llega en un momento en que Meta, Google y Runway AI también ha presentado sus avances con sus IA de «text-to-video», es decir que permiten pasar una idea escrita a video.
Te puede interesar: