¡Pilas! Estos son los métodos con inteligencia artificial que están utilizando los ciberladrones
En un mundo cada vez más digital, los ciberdelincuentes en Latinoamérica están utilizando la inteligencia artificial para ejecutar estafas sofisticadas.
Noticias RCN
02:52 p. m.
La inteligencia artificial (IA) ha encontrado un nuevo y oscuro camino en manos de los ciberdelincuentes, quienes están utilizando esta tecnología para ejecutar fraudes de manera cada vez más sofisticada.
En América Latina y otras regiones del mundo, estas organizaciones criminales están aprovechando las herramientas de IA, que son accesibles y requieren poco conocimiento técnico, para expandir su alcance y efectividad en el robo de información personal.
¿Cómo están empleando la inteligencia artificial para estafar a las víctimas?
De acuerdo con Interpol, la IA permite a los estafadores analizar grandes volúmenes de datos extraídos de redes sociales, facilitando la creación de estafas altamente personalizadas.
Esta tecnología les permite diseñar mensajes automáticos que parecen venir de fuentes confiables, incrementando la posibilidad de que las víctimas caigan en la trampa. Los delincuentes pueden acceder a los seguidores de cuentas específicas y, con base en esa información, enviar mensajes que establecen un vínculo de confianza.
Las estafas tradicionales, como el phishing o las estafas románticas, han evolucionado gracias a la IA, alcanzando un nivel de sofisticación que las hace más difíciles de detectar.
Además, herramientas de IA que permiten crear imágenes y redactar textos en múltiples idiomas son cada vez más comunes y muchas veces son gratuitas, facilitando el envío masivo de correos fraudulentos.
¿Qué grupos criminales están detrás de estas estafas utilizando la inteligencia artificial?
Grupos delictivos en América Latina, como el Cártel Jalisco Nueva Generación (CJNG) y el Primer Comando Capital (PCC), han comenzado a integrar estas tecnologías en sus operaciones.
Estos grupos no solo utilizan la IA para ejecutar fraudes, sino que también crean contenido hiperrealista que puede ser difícil de diferenciar de la realidad.
Las imágenes y videos generados, conocidos como deepfakes, son herramientas poderosas que los ciberdelincuentes emplean para extorsionar o manipular a sus víctimas.
Por ejemplo, se ha reportado que estos delincuentes pueden clonar la voz de una persona con solo escucharla durante unos segundos, lo que les permite realizar llamadas engañosas que pueden resultar en el despojo de bienes o dinero. “Ya no es necesario secuestrar a alguien para exigir un rescate. Una llamada puede liberar los fondos directamente”, afirmó Etay Maor, experto en seguridad.
Además, en la zona fronteriza entre México y Estados Unidos, se han identificado estafas dirigidas a familias de migrantes desaparecidos.
Grupos criminales han creado sitios web falsos que simulan ser organizaciones de búsqueda, solicitando fotos de los desaparecidos bajo el pretexto de ayudar en su identificación. Posteriormente, utilizan esas imágenes para generar contenido falso que alegue que la persona fue secuestrada, exigiendo rescates exorbitantes.
La inteligencia artificial, que podría ser una herramienta para el bien, está siendo utilizada por criminales para manipular y robar, lo que nos invita a estar más alerta y proteger nuestra información personal en el mundo digital.