• Home

  • Los 7 pecados capitales de ChatGPT

Los 7 pecados capitales de ChatGPT

Los ciberdelincuentes aprovechan la inteligencia artificial para crear unos ataques más efectivos y frecuentes tirando de técnicas como el conocido 'phishing'

La aplicación de ChatGPT en un móvil / UNSPLASH
La aplicación de ChatGPT en un móvil / UNSPLASH

Si de algo se ha hablado este 2023 es de ChatGPT. La inteligencia artificial ha conseguido su popularidad gracias a su capacidad para traducir textos a otros idiomas en cuestión de segundos, por ejemplo. 

Sin embargo, no siempre hay un buen fin detrás de esta tecnología. Ya existen numerosos ejemplos de cómo los ciberdelincuentes usan ChatGPT para mejorar sus estafas y resto de delitos en internet. Así lo afirman desde Check Point® Software Technologies. 

Los siete pecados capitales de ChatGPT

La compañía experta en ciberseguridad ha enumerado los siete principales peligros y malos usos de la IA: 

  • Distribución de malware: al aprovecharse del objetivo principal de estas herramientas, que buscan ayudar a los usuarios, los ciberdelincuentes generan elementos como virus o troyanos. Unos códigos maliciosos depurados que incrustan en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas.
  • Phishing: con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que hacen que la tarea de distinguir los verdaderos correos legítimos se convierta en un verdadero reto. Y es que el objetivo de estos no es otro que engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito.
  • Ingeniería social: diseñadas para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas, engañar a un usuario para que proporcione información de su cuenta.
Una persona usando el ChatGPT / EUROPA PRESS
Una persona usando el ChatGPT / EUROPA PRESS
  • Filtración y robo de datos: la IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezcan legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles.
  • Desinformación y propaganda: ChatGPT puede ser utilizado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas. Esto puede ser usado para dañar reputaciones, sembrar discordia, e incluso incitar a la violencia.
  • Difamación y suplantación: con herramientas como estas, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible, capaces de crear fotografías, vídeos e incluso audios falsos.
  • Amenazas internas: la inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrónicos falsos que parezcan provenir de usuarios autorizados, lo que puede ser utilizado para obtener acceso a datos o sistemas sensibles.

Educación de los usuarios 

Para contrarrestar los peligros que la inteligencia artificial plantea en el ámbito de la ciberseguridad, se requiere un enfoque holístico que combine la tecnología avanzada, la educación de los usuarios, la regulación efectiva y la colaboración continua entre expertos. Si bien la IA todavía cuenta con un gran potencial de desarrollo, es importante que la colaboración entre expertos en ciberseguridad y desarrolladores de estas herramientas se convierta en uno de los cimientos esenciales para anticipar y abordar los posibles riesgos emergentes.

Un ciberdelincuente / PIXABAY
Un ciberdelincuente / PIXABAY

"Para mitigar los riesgos de la inteligencia artificial en ciberseguridad, es esencial implementar medidas de detección avanzadas que identifiquen la actividad maliciosa antes de que ocurran los ataques", explica Eusebio Nieva, director técnico de Check Point Software para España y Portugal. "Es necesario que se establezcan unas regulaciones y estándares para garantizar un uso ético de la IA, promoviendo la transparencia y responsabilidad en su desarrollo y aplicación", concluye.

Has leído este contenido de Consumidor Global elaborado por nuestro equipo de redacción y expertos. Si deseas acceder de forma libre a todos los contenidos que producimos te recomendamos suscribirte. Además, podrás recibir asesoramiento legal gratuito por formar parte de nuestra comunidad.
Comentarios

Desbloquear para comentar

Suscríbase

Tenemos
el mejor plan
para el consumidor exigente

Suscríbase
Acceda

Acceso completo

Libere los accesos a todas las secciones bajo suscripción

Contenido exclusivo

Contenido exclusivo

Los mejores artículos, productos, contenido exclusivo y asesoría legal

Suscríbase
Sea el mejor consumidor únase a nuestro club.