Proofpoint ha advertido que los ciberdelincuentes están utilizando la inteligencia artificial (IA) para crear estafas más sofisticadas y difíciles de detectar. La IA generativa, capaz de producir contenido muy realista, facilita la suplantación de identidad y la manipulación, representando un riesgo significativo para usuarios y empresas.
Las herramientas de IA generativa permiten la creación de imágenes, textos, audios y videos convincentes, así como la automatización de ciertas técnicas, aumentando las probabilidades de éxito de los ataques. Según los análisis de Proofpoint, la IA generativa se está empleando en áreas clave de la ingeniería social como estafas conversacionales, deepfakes, ataques BEC (Business Email Compromise) y perfiles automatizados en redes.
Los delincuentes recopilan grandes cantidades de texto de redes sociales, aplicaciones de mensajería y otras fuentes para entrenar modelos de Procesamiento del Lenguaje Natural (NLP). Estos modelos imitan patrones de lenguaje humano, permitiendo generar mensajes de texto auténticos que pueden usarse para suplantar identidades, manipular víctimas y realizar estafas personalizadas en plataformas como Instagram, WhatsApp y Tinder.
La IA permite crear deepfakes, videos e imágenes falsos muy realistas que suplantan la identidad de una persona. Los ciberdelincuentes utilizan fotografías, grabaciones y audios de la persona objetivo para crear contenido verosímil. Los deepfakes pueden usarse para suplantar la identidad en timos telefónicos o para manipular la opinión pública mediante campañas de difamación con imágenes de personajes públicos.
El informe "State of the Phish 2024" de Proofpoint indica que la IA generativa facilita los ataques BEC en países como Japón, Corea o los Emiratos Árabes Unidos, superando barreras lingüísticas y culturales. Los ciberdelincuentes pueden ahora escribir en cualquier idioma, mejorar la calidad de los mensajes y actuar rápidamente. Estas estafas suelen implicar la suplantación de identidad de personas de confianza para engañar a empleados y obtener transferencias de dinero o información confidencial.
La IA se utiliza para crear identidades falsas y generar contenido en redes sociales y plataformas de noticias. Puede imitar el estilo de fuentes de noticias fiables, crear nuevos artículos, traducir texto y realizar tareas repetitivas como responder mensajes. Los estafadores pueden crear perfiles en Facebook, Instagram, foros y aplicaciones de citas para establecer relaciones con objetivos y aprovecharse de su confianza.
En todos estos escenarios, los ciberdelincuentes usan IA generativa para fingir ser alguien que no son de forma realista y convincente. Manipulan la psicología humana con técnicas de ingeniería social, induciendo a las víctimas a realizar acciones inseguras como hacer clic en enlaces maliciosos, divulgar información personal o transferir dinero.
“La concienciación y la educación en ciberseguridad son esenciales para combatir estas nuevas amenazas. Es fundamental que los usuarios estén al día de las nuevas amenazas emergentes, que sean conscientes del potencial de la IA para manipular y aprendan a identificar contenido online falso o sospechoso”, informaron desde Proofpoint.