El experimento de Sora no fracasa por falta de tecnología, sino por el tipo de uso que proponía. La aplicación intentaba replicar el formato de TikTok, pero sustituyendo la creatividad humana por generación automática de vídeo y audio. En teoría, democratizaba la producción de contenido; en la práctica, introducía un entorno donde la identidad y la autenticidad quedaban diluidas.
El interés inicial fue alto. La aplicación alcanzó más de tres millones de descargas en su pico, una señal clara de curiosidad del mercado. La caída posterior, hasta poco más de un millón, indica otra cosa: el uso no se consolidó. Esa diferencia entre probar una tecnología y adoptarla de forma sostenida revela un rechazo más profundo que una simple pérdida de novedad.
La función central de Sora eran los deepfakes accesibles al público. Los usuarios podían escanear rostros y generar vídeos realistas con su propia imagen o la de otros. Este tipo de contenido no es solo una herramienta creativa, también es un sistema que altera la relación entre imagen y realidad. Cuando cualquiera puede aparecer en cualquier contexto, la verificación pierde valor.
Los problemas no tardaron en aparecer. Las restricciones que debían impedir el uso de figuras públicas sin consentimiento resultaron fáciles de eludir. Como hecho confirmado, circularon vídeos falsos de personas reales, incluidos personajes fallecidos, lo que provocó reacciones públicas de sus familias. El sistema de control no estaba preparado para contener el uso real que hacían los usuarios.
A esto se sumaron conflictos legales. La creación de contenido con personajes protegidos por derechos de autor generó tensiones con la industria cultural. Aunque existió un acuerdo potencial para licenciar personajes, su efecto quedó en nada tras el cierre. No hay evidencia de que ese modelo fuera viable en un entorno abierto.
El contraste entre el potencial tecnológico y el resultado del producto es evidente. Sora 2, el modelo que generaba los vídeos, sigue siendo avanzado. El problema no estaba en la capacidad técnica, sino en el entorno social donde se desplegaba. Una herramienta potente no garantiza que el formato en el que se integra funcione.
El cierre no elimina el problema que Sora puso en evidencia. El modelo de generación de vídeo sigue disponible en otros productos, lo que significa que la capacidad de crear deepfakes a gran escala no desaparece. Solo cambia de contexto. El riesgo no estaba en la aplicación concreta, sino en la facilidad con la que estas herramientas pueden integrarse en entornos masivos.