OpenAI acaba de apresentar Sora 2, seu novo e revolucionário sistema para gerar vídeos com inteligência artificial hiperrealista. Mas não o fez com uma simples demo técnica, sina de uma forma bem mais direta e explosiva: com uma app que imita o desenho de TikTok, mas cheia de vídeos que nunca existiram. O resultado? Tem demorado muito pouco em ir de suas mãos.
O aplicativo de OpenAI, em menos de 24 horas, tem provocado fascinación, medo e riso ao mesmo tempo. Não é só uma rede social ao estilo TikTok. É, em palavras de seus primeiros utentes, um "gerador de slop": conteúdo gerado por IA visualmente impecable mas de nula utilidade ou, pior ainda, activamente daninho. Uma máquina capaz de produzir vídeos nos que personagens públicas, franquias protegidas e utentes comuns são misturados em palcos absurdos, ilegais ou directamente ofensivos.
Sora, a fábrica de 'deepfakes' mais sofisticada do mundo
OpenAI apresentou Sora como uma plataforma para desatar a "criatividade audiovisual". O que não especificou é que essa criatividade basear-se-ia em converter a qualquer pessoa em protagonista involuntario de uma sátira digital de proporções virales. Desde o primeiro dia, o aplicativo tem sido colonizada por vídeos nos que Sam Altman, CEO de OpenAI, aparece em situações tão ridículas como inquietantes: repartindo GPUs em comedores sociais, pedindo perdão depois de roubar num supermercado ou caçoando sobre direitos de autor enquanto ri a gargalhadas.
A mecânica é singela: os utentes criam um "cameo" subindo seus dados biométricos –movimentos de cabeça e leitura de frases– e permitem que outros gerem vídeos com seu rosto. Altman, num giro irónico, fez público seu próprio cameo, desatando uma onda de conteúdo protagonizado por seu avatar IA. O resultado é uma mistura explosiva de humor, crítica social e uma sistémica violação de direitos de imagem. O caos não se detém aí; já circulam cenas subidas de tom com Pikachu e vídeos de Bob Esponja numa concentração nazista.
Propriedade intelectual: uma linha a cada vez mais borrosa
Um dos aspectos mais polémicos de Sora é o uso em massa de personagens e franquias protegidas como Pokémon, Mario, Naruto ou Os Simpson. Em lugar de solicitar permissão, OpenAI tem adoptado uma lógica inversa e permite seu uso por defeito, a não ser que o titular do copyright peça explicitamente ser excluído. Uma estratégia legalmente duvidosa que recorda mais à das plataformas piratas que a uma empresa valorizada em 500.000 milhões de dólares.
O mais llamativo não é só a permisividad de OpenAI, sina a aparente passividade de gigantes como Nintendo ou Disney. Empresas que faz anos empreendiam acções legais por simples desenhos de fãs hoje parecem indiferentes ante uma avalanche de vídeos onde suas personagens protagonizam cenas de violência, consumo de drogas ou discursos de ódio.
O valor da verdade em era-a do 'slop'
Para além dos memes e o caos viral, Sora propõe um risco bem mais profundo: a dissolução da fronteira entre o real e o falso. Quando uma IA pode gerar vídeos perfeitamente creíbles de JFK assinando autógrafos na Comic-Com ou de Super Mario falando sobre saúde mental em russo, que fica do conceito para valer?
A verosimilitud já não é garantia de autenticidad. E ainda que muitos dos vídeos atuais são paródicos, a capacidade técnica da app avança a uma velocidade vertiginosa. O verdadeiro perigo chegará quando estes deepfakes se utilizem para manipular eleições, arruinar reputações ou fabricar provas falsas num julgamento. O precedente já existe, mas Sora democratiza a ferramenta, a faz acessível e apaga ainda mais as linhas vermelhas.
Privacidade pessoal: o preço de um cameo viral
Outra dimensão crítica é a privacidade. Criar um cameo em Sora significa entregar a OpenAI teu rosto, teus gestos e tua voz. Ainda que a app permite limitar quem pode usar tua cameo, o simples facto de alojar essa informação já propõe sérios interrogantes. Que ocorre se os servidores são hackeados? Como se garante que esses dados não usar-se-ão com fins comerciais ou para treinar futuros modelos de IA?
Os primeiros utentes, como a jornalista Amanda Silberling, já têm advertido do fácil que é cruzar a linha do consentimento. Ela mesma descobriu que o sistema recusou sua primeira tentativa de registro por "mostrar demasiado ombro", uma restrição que, conquanto procura evitar conteúdo inapropiado, demonstra o controle minucioso que a app exerce sobre a imagem do utente.