• Home

  • Resucitar a Lola Flores y Franco: el 'deepfake' es un riesgo futuro para los consumidores

Resucitar a Lola Flores y Franco: el 'deepfake' es un riesgo futuro para los consumidores

Los expertos advierten del peligro potencial de la evolución de esta tecnología y alertan de un posible aumento de los fraudes

Lola Flores en el anuncio de Cruzcampo en el que se usan técnicas de 'deepfake' / CRUZCAMPO
Lola Flores en el anuncio de Cruzcampo en el que se usan técnicas de 'deepfake' / CRUZCAMPO

El deepfake es una técnica basada en la inteligencia artificial y en el aprendizaje automatizado de las máquinas --machine learning-- que abarca desde la falsificación de caras hasta la clonación de la voz, entre otras funciones. Los expertos advierten de que su potencial para suplantar la identidad digital de cualquier persona todavía no está al máximo nivel, aunque subrayan que ya se consiguen resultados muy creíbles. De hecho, auguran que, en los próximos años, se sofisticarán sus prestaciones, lo que aumentará el riesgo de que los cibercriminales utilicen esta tecnología para cometer fraudes de todo tipo.

Su uso en campañas de desprestigio político o de famosos en redes sociales es la vertiente más conocida del deepfake, aunque su utilización publicitaria también ha cobrado vida --nunca mejor dicho-- con anuncios televisivos como el de Cruzcampo, en el que la fallecida Lola Flores reivindica las raíces y el poderío. En este caso, la inteligencia artificial ha logrado conjugar, con grandes resultados, la imagen de la histórica folclórica y la voz de su hija, Lolita Flores. Pese a todo, pymes y grandes empresas ya han sido víctimas de estas técnicas y en un futuro no muy lejano los ciudadanos también se verán expuestos, por ejemplo, al contratar servicios financieros o de otro tipo a través del reconocimiento facial o de una llamada telefónica.

Aún no es un peligro real

Sin embargo, a día de hoy el deepfake todavía no es un peligro real para los usuarios de a pie, recalca Eusebio Nieva, el director técnico en España y Portugal de la empresa de ciberseguridad Check Point. Se trata de una tecnología que ha surgido “hace relativamente poco”, pero que ha evolucionado muy rápido. “No dudo de que en el futuro, con unos algoritmos refinados o con la potencia de cálculo adecuada, pueda ser utilizada para más cosas”, asegura sobre el peligro de estas técnicas para suplantar la identidad de un cliente al contratar un producto.

Para Raúl Orduna, director de Seguridad Digital de Vicomtech, un centro tecnológico vasco especializado en inteligencia artificial, la evolución de estas técnicas implicará que las empresas tengan que implementar nuevas medidas de seguridad. En ese sentido, los sistemas actuales en los que se avisa al usuario de que la llamada va a ser grabada al realizar una transacción vía telefónica necesitarán mejorarse. “Se requerirá de un nivel de sofisticación tecnológica mucho más alto para demostrar que una voz ha sido generada sintéticamente por un sistema informático”, añade Orduna.

Obtención de datos

El aprendizaje de las máquinas para poder clonar la voz de alguien o sustituir su cara por la de otra persona en un vídeo en tiempo real requiere de una gran cantidad de datos. De hecho, Vicomtech participó en el proyecto del podcast XRey, en el que se sintetizó la voz de Francisco Franco para que, por ejemplo, cantase La Macarena. Para ello, recurrieron a 20 horas de audio de entrenamiento con la dificultad de encontrar sonido en buen estado procedente, en su mayoría, de los discursos navideños del dictador.

Al trasladar esta cuestión al nivel del usuario medio, la experta en ciberseguridad y CEO de OptimumTIC, Rosa Ortuño, hace mención a las múltiples posibilidades que tienen los criminales para recabar este tipo de información. Así, la costumbre cada vez más extendida de mandar audios a través de WhatsApp, por ejemplo, pueden ser bancos de pesca para los malos. En la misma línea, Ortuño alerta de la gestión de los datos que hacen algunas aplicaciones móviles sospechosas, ya que sus términos de uso esconden cláusulas abusivas en las que la gente no suele reparar. Una de ellas es la app rusa FaceApp, que se hizo viral por su función de envejecer el rostro de los usuarios. “Su letra pequeña ocupaba más de 30 páginas, en las que se decía, claramente, que se guardarían las fotos, que se usarían algoritmos para saber la evolución de tu madurez en diferentes edades y que todo lo tendrían en Rusia guardado por si alguna vez ibas al país”, alerta esta experta.

Los malos están cada vez mejor preparados

Los ataques de los ciberdelincuentes son cada vez más sofisticados y, en algunos casos, han conseguido dinero haciéndose pasar por el CEO de una compañía. “Imagínate que recibes una videollamada. La voz es la del gerente, la cara es la del gerente, el vídeo es el del gerente. Seguramente te saltes todas las medidas de seguridad y hagas el pago sin hacer otra comprobación”, indica Orduna, de Vicomtech.

“Los malos trabajan con las últimas tecnologías. Disponen de más presupuesto que las empresas que tienen que protegerse y usan un machine learning mucho más avanzado que la mayor parte de ellas”, agrega el experto. A pesar de ello, las compañías reciben asesoramiento en esta materia y, aunque sus métodos no son los más punteros debido a las dificultades que implica, sí que hacen grandes esfuerzos para proteger a sus clientes.

Entrenamiento

Un ejemplo de ello es el entrenamiento que reciben los empleados del Banco Santander. Según fuentes de la entidad, para detectar posibles casos de phishing a veces reciben correos por parte de la empresa que simulan este tipo de delitos y monitorizan cómo han gestionado la situación.

En ese sentido, un informe de la multinacional estadounidense Trend Micro sobre sus predicciones de seguridad para 2020 concluye que, si bien las estafas deepfake están en una etapa inicial, los empleados, al final, estarán obligados a aprender cómo identificar determinados signos reveladores, “como una entonación diferente o el aspecto de la piel artificial en los vídeos”.

Has leído este contenido de Consumidor Global elaborado por nuestro equipo de redacción y expertos. Si deseas acceder de forma libre a todos los contenidos que producimos te recomendamos suscribirte. Además, podrás recibir asesoramiento legal gratuito por formar parte de nuestra comunidad.
Comentarios

Desbloquear para comentar

Suscríbase

Tenemos
el mejor plan
para el consumidor exigente

Suscríbase
Acceda

Acceso completo

Libere los accesos a todas las secciones bajo suscripción

Contenido exclusivo

Contenido exclusivo

Los mejores artículos, productos, contenido exclusivo y asesoría legal

Suscríbase
Sea el mejor consumidor únase a nuestro club.