Un año después del lanzamiento de ChatGPT se puede observar cómo muchos servicios de ciberdelincuencia ya utilizan de manera habitual la IA generativa, especialmente en el ámbito de la suplantación y la ingeniería social, y están eludiendo las restricciones de ChatGPT para usarlo sin límites y aumentar así la eficacia de sus ataques.
Algunas de sus formas más comunes son: creación de cuentas falsas de redes sociales, suplantación de identidad con deep fake, creación automática de textos de spam y generación de documentación falsa para acceder a los servicios de verificación KYC.
Check Point Software Technologies, empresa especializada en soluciones de ciberseguridad a nivel mundial, estudió cuatro ejemplos diferentes de cómo se ha empleado la IA generativa para potenciar los ciberataques:
1.Plataforma Black-Hat impulsada con IA para suplantar las redes sociales
Las cuentas falsas en redes sociales representan una amenaza significativa para la ciberseguridad debido a su potencial para llevar a cabo actividades maliciosas, como la suplantación de marcas o la difusión de fake news. Se ha detectado una nueva plataforma en la que se emplea la Inteligencia Artificial para generar contenido en redes sociales y automatizar el mantenimiento de las cuentas falsas. La plataforma puede crear contenido simultáneamente para más de 200 cuentas y hacerlo de manera diaria. Además, promocionan los perfiles y les dan sensación de autenticidad uniéndose a grupos relevantes, dando “me gusta” a cuentas similares, por ejemplo, para poder conseguir más seguidores y usar este tráfico de cuentas para sus fines maliciosos.
2. Servicio de deep fakes impulsado por IA
Se ha identificado un nuevo servicio de suplantación que se centra en proporcionar servicios de deepfake de tres formas diferentes:
- Sincronización de labios.
- Sincronización de labios y reemplazo de rostro.
- Doblaje de voz.
El uso de estos servicios se suele emplear para crear perfiles falsos en redes sociales y así promover agendas políticas o productos o también para suplantar identidades de personalidades relevantes para provocar graves daños en su reputación.
3. Herramientas y servicios de spam impulsados por IA
Una de las formas más comunes en las que se emplea la IA es en la generación de spam con diversos objetivos como el phishing, obtención de credenciales, distribución de malware, estafas, etc. Los ciberdelincuentes pueden crear textos únicos para cada correo, con lo que consiguen eludir los controles antispam y antiphishing de los servicios de correo electrónico con una tasa de éxito del 70%.
4. Servicios de verificación KYC
Los servicios de KYC (Know Your Client) son una práctica cada vez más común en las empresas financieras en las que recopilan información detallada de sus clientes para garantizar la seguridad de sus transacciones, mitigar los riesgos y cumplir con las regulaciones. También se emplea para que los clientes puedan recuperar el acceso a sus cuentas como una forma de restablecer la contraseña. Con el fin de acceder a estos sistemas de forma ilícita, se han creado servicios clandestinos que generan documentación falsa con ayuda de la IA y consiguen unos resultados muy fieles rápidamente.
Gery Coronel, Country Manager de Check Point para Chile, Argentina y Perú enfatiza que:
“...los ciberdelincuentes están empleando la IA para pulir sus técnicas y ahora son capaces de encontrar vulnerabilidades en la red más rápido, suplantar identidades de forma más precisa o automatizar los ataques phishing. Tenemos que seguir sus pasos de cerca y poner la IA al servicio de la ciberseguridad para detectar los malware a tiempo y responder ante sus ataques de forma más efectiva”.