Loading...

Confirmado: la pregunta clave para evitar estafas con voces generadas por inteligencia artificial

El Instituto Nacional de Ciberseguridad (Incibe) recuerda la importancia de utilizar el sentido común y de sospechar de cualquier tipo de contacto por canales no habituales

Juan Manuel Del Olmo

Una persona realiza una llamada telefónica fiándose de la IA de Google / PEXELS

El Instituto Nacional de Ciberseguridad (Incibe) alertó hace unos meses del potencial de la inteligencia artificial para generar deepvoices, audios falsos que pueden ser utilizados para difundir declaraciones o discursos que nunca fueron pronunciados por la persona en cuestión, engañando así a quienes los escuchan.

Además, recogía el caso real de unos ciberdelincuentes que habían utilizado IA “para clonar la voz de un familiar cercano de la víctima”. Los timadores utilizaron esta voz clonada en una llamada telefónica en la que el falso familiar solicitaba dinero de manera urgente debido a una emergencia. “La víctima, al reconocer la voz y creer en la autenticidad de la llamada, accedió a transferir una suma de dinero considerable”, expuso el Incibe.

Pregunta de seguridad

Ahora, los expertos han recomendado realizar una pregunta de seguridad sobre un tema que solo una persona de confianza pueda responder. Y es que la voz, por sí sola, ya no es una forma de autenticación completamente fiable.

Una persona recibe una llamada / PEXELS

La pregunta de seguridad obliga al interlocutor a demostrar que conoce detalles que solo la persona real y su círculo cercano deberían saber, lo que añade una capa de autenticación. Esta pregunta puede ser ‘¿En qué ciudad nos conocimos?’, ‘¿Qué regalo te hice por tu cumpleaños?’ o '¿Cuál es el último viaje que hicimos juntos?’. La idea es que la respuesta sea breve y muy específica.

Sentido común

Ante la popularidad de estos fraudes, el Incibe recuerda la importancia de utilizar el sentido común, sospechar de cualquier tipo de contacto por canales no habituales o peticiones extrañas y mantener una actitud crítica.

En caso de duda, lo más conveniente es colgar la llamada y ponerse en contacto directamente con la persona para contrastar la información a través de canales seguros. Asimismo, las empresas deben formar y concienciar al personal para detectar suplantaciones, sobre todo a aquellas personas que trabajan en puestos relacionados con pagos o que gestionan servicios claves para la compañía.

Pistas que invitan a sospechar

En la misma línea, si el audio no tiene coherencia gramatical y el tono o el ritmo son extraños, podría tratarse de un fraude. “Analiza si el tono de voz y el ritmo del habla son consistentes. Las clonaciones de voz pueden presentar variaciones inusuales”, aconseja el Incibe.

Una persona habla por teléfono / PEXELS

Además, la falta de ruido de fondo o la presencia de sonidos extraños también pueden indicar manipulación.

Casos reales

Estos son algunos de los casos reales de estafas a través de deepvoice recogidos por el Incibe:

  • En 2023, Jennifer DeStefano recibió una llamada de alguien que, utilizando tecnología de clonación de voz, imitó la voz de su hija y le dijo que había sido secuestrada. Un hombre en la llamada exigió un rescate de 50.000 dólares. Aterrorizada, Jennifer intentó ganar tiempo y buscar ayuda, solo para descubrir después que su hija estaba a salvo y nunca había sido secuestrada. 
  • Una mujer canadiense de 73 años recibió una llamada de alguien que sonaba como su nieto, diciéndole que estaba detenido y necesitaba dinero para pagar la fianza. Preocupada, ella y su marido retiraron 3.000 dólares canadienses del banco. Sin embargo, antes de entregar el dinero, se dieron cuenta de que habían sido víctimas de una estafa. 
  • En 2019, una empresa de energía en el Reino Unido fue estafada por 220.000 euros cuando atacantes utilizaron software de inteligencia artificial para clonar la voz del CEO de la empresa matriz. Con esta voz clonada, los estafadores hicieron una llamada telefónica al director de una subsidiaria, solicitando una transferencia urgente de fondos a una cuenta en Hungría. La voz era tan convincente que el director, confiando en la autenticidad de la solicitud, ordenó la transferencia sin dudar. El fraude se descubrió demasiado tarde para recuperar el dinero.