OpenAI acaba de presentar Sora 2, su nuevo y revolucionario sistema para generar vídeos con inteligencia artificial hiperrealista. Pero no lo ha hecho con una simple demo técnica, sino de una forma mucho más directa y explosiva: con una app que imita el diseño de TikTok, pero llena de vídeos que nunca existieron. ¿El resultado? Ha tardado muy poco en irse de sus manos.
La aplicación de OpenAI, en menos de 24 horas, ha provocado fascinación, miedo y risa al mismo tiempo. No es solo una red social al estilo TikTok. Es, en palabras de sus primeros usuarios, un “generador de slop”: contenido generado por IA visualmente impecable, pero de nula utilidad o, peor aún, activamente dañino. Una máquina capaz de producir vídeos en los que personajes públicos, franquicias protegidas y usuarios comunes son mezclados en escenarios absurdos, ilegales o directamente ofensivos.
Sora 2, la fábrica de ‘deepfakes’ más sofisticada del mundo
OpenAI presentó Sora 2 como una plataforma para desatar la “creatividad audiovisual”. Lo que no especificó es que esa creatividad se basaría en convertir a cualquier persona en protagonista involuntaria de una sátira digital de proporciones virales. Desde el primer día, la aplicación ha sido colonizada por vídeos en los que Sam Altman, CEO de OpenAI, aparece en situaciones tan ridículas como inquietantes: repartiendo GPUs en comedores sociales, pidiendo perdón tras robar en un supermercado o bromeando sobre derechos de autor mientras ríe a carcajadas.
La mecánica es sencilla: los usuarios crean un “cameo” subiendo sus datos biométricos –movimientos de cabeza y lectura de frases– y permiten que otros generen vídeos con su rostro. Altman, en un giro irónico, hizo público su propio cameo, desatando una oleada de contenido protagonizado por su avatar IA. El resultado es una mezcla explosiva de humor, crítica social y una sistemática violación de derechos de imagen. El caos no se detiene ahí; ya circulan escenas subidas de tono con Pikachu y vídeos de Bob Esponja en una concentración nazi.
Propiedad intelectual: una línea cada vez más borrosa
Uno de los aspectos más polémicos de Sora 2 es el uso masivo de personajes y franquicias protegidas como Pokémon, Mario, Naruto o Los Simpson. En lugar de solicitar permiso, OpenAI ha adoptado una lógica inversa y permite su uso por defecto, a no ser que el titular del copyright pida explícitamente ser excluido. Una estrategia legalmente dudosa que recuerda más a la de las plataformas piratas que a una empresa valorada en 500.000 millones de dólares.
Lo más llamativo no es solo la permisividad de OpenAI, sino la aparente pasividad de gigantes como Nintendo o Disney. Empresas que hace años emprendían acciones legales por simples dibujos de fans, hoy parecen indiferentes ante una avalancha de vídeos donde sus personajes protagonizan escenas de violencia, consumo de drogas o discursos de odio.
El valor de la verdad en la era del ‘slop’
Más allá de los memes y el caos viral, Sora 2plantea un riesgo mucho más profundo: la disolución de la frontera entre lo real y lo falso. Cuando una IA puede generar vídeos perfectamente creíbles de JFK firmando autógrafos en la Comic-Con o de Super Mario hablando sobre salud mental en ruso, ¿qué queda del concepto de verdad?
La verosimilitud ya no es garantía de autenticidad. Y aunque muchos de los vídeos actuales son paródicos, la capacidad técnica de la app avanza a una velocidad vertiginosa. El verdadero peligro llegará cuando estos deepfakes se utilicen para manipular elecciones, arruinar reputaciones o fabricar pruebas falsas en un juicio. El precedente ya existe, pero Sora 2 democratiza la herramienta, la hace accesible y borra aún más las líneas rojas.
Privacidad personal: el precio de un cameo viral
Otra dimensión crítica es la privacidad. Crear un cameo en Sora 2 significa entregar a OpenAI tu rostro, tus gestos y tu voz. Aunque la app permite limitar quién puede usar tu cameo, el simple hecho de almacenar esa información ya plantea serios interrogantes. ¿Qué ocurre si los servidores son hackeados? ¿Cómo se garantiza que esos datos no se usarán con fines comerciales o para entrenar futuros modelos de IA?
Los primeros usuarios, como la periodista Amanda Silberling, ya han advertido de lo fácil que es cruzar la línea del consentimiento. Ella misma descubrió que el sistema rechazó su primer intento de registro por “mostrar demasiado hombro”, una restricción que, si bien busca evitar contenido inapropiado, demuestra el control minucioso que la app ejerce sobre la imagen del usuario.