• Home

  • Noticias

  • Servicios

  • La nueva estafa que alarma a los expertos: imitan la voz de un familiar con inteligencia artificial

La nueva estafa que alarma a los expertos: imitan la voz de un familiar con inteligencia artificial

Varios 'softwares' son capaces de clonar el tono de una persona, lo que permite suplantar su identidad

Un dispositivo para grabar voz, que después se puede imitar / PEXELS
Un dispositivo para grabar voz, que después se puede imitar / PEXELS

A la par que la tecnología avanza, los ciberdelincuentes perfeccionan sus métodos para llevar a cabo nuevas estafas. Si los deepfakes de vídeo permitían crear imágenes en movimiento irreales, pero asombrosamente creíbles, ahora las autoridades están preocupadas por que ocurra algo similar con sistemas de generación de voz.

Muchas compañías, como Microsoft, están trabajando en el desarrollo de sistemas que imitan la voz humana con una veracidad sorprendente. Ciertas herramientas de inteligencia artificial, las más sofisticadas, solo necesitan escuchar unos segundos la voz real de una persona (tomada de algún contenido publicado en la red, por ejemplo, un vídeo en alguna red social) para clonarla.

Suplantación de identidad

Hace unas semanas, The Washington Post contó una historia que disparó las alarmas: una señora de 73 años había recibido una llamada de un estafador que se hacía pasar por su nieto y le pedía 3.000 dólares para pagar una fianza, ya que fingía estar en una situación de urgencia. Se trataba de un deepfake de audio: los delincuentes habían conseguido generar, a través de la inteligencia artificial, una voz muy similar a la del joven para engañar a sus abuelos.

Una mujer graba una nota de voz / PEXELS
Una mujer graba una nota de voz / PEXELS

Por eso, las autoridades recomiendan dudar cuando un familiar o un conocido pida dinero (ya sea a través del chat de WhatsApp, por correo o por teléfono), así como intentar contactarle personalmente para saber si está en apuros u otra persona está suplantando su identidad.

Riesgos potenciales

Las propias empresas que están desarrollando las tecnologías de clonación de voz son conscientes de sus riesgos potenciales, como ElevenLabs. El pasado 31 de enero, esta compañía puntera admitió que algunas personas estaban utilizando su tecnología con objetivos “maliciosos”.

Esta herramienta es capaz de imitar la voz deseada con precisión, incluyendo timbre y tono.

Has leído este contenido de Consumidor Global elaborado por nuestro equipo de redacción y expertos. Si deseas acceder de forma libre a todos los contenidos que producimos te recomendamos suscribirte. Además, podrás recibir asesoramiento legal gratuito por formar parte de nuestra comunidad.
Comentarios

Desbloquear para comentar

Suscríbase

Tenemos
el mejor plan
para el consumidor exigente

Suscríbase
Acceda

Acceso completo

Libere los accesos a todas las secciones bajo suscripción

Contenido exclusivo

Contenido exclusivo

Los mejores artículos, productos, contenido exclusivo y asesoría legal

Suscríbase
Sea el mejor consumidor únase a nuestro club.