iProov y el impacto de la IA Generativa en la seguridad de verificación de identidad
Photo by Meg Jenson / Unsplash

iProov y el impacto de la IA Generativa en la seguridad de verificación de identidad

En el último informe de iProov se revela un preocupante aumento del 704% en los ataques de intercambio de rostros a través de deepfakes, marcando un punto de inflexión en la seguridad de verificación de identidad. Este documento expone detalladamente cómo la accesibilidad de la inteligencia artificial generativa está alimentando una nueva ola de fraudes de identidad, subrayando la importancia de implementar medidas de seguridad avanzadas en el ámbito corporativo.

iProov: El impacto de los deepfakes en la verificación de identidad
Los deepfakes desafían la seguridad en línea y las innovaciones en biometría y detección de vida como soluciones eficaces.
McAfee revela Project Mockingbird en #CES2024, una vanguardia en la detección de deepfakes de audio
La última solución de McAfee para identificar contenido falso, mostrada en #CES2024, marca un hito en la seguridad digital.

El aumento alarmante de los ataques deepfake

El informe destaca un incremento del 704% en ataques de intercambio de rostros en la segunda mitad de 2023, evidenciando la sofisticación creciente de los deepfakes. La manipulación de metadatos, combinada con estos intercambios faciales, vio un aumento paralelo del 672%, lo que plantea serias preocupaciones sobre la seguridad de las plataformas digitales.

Se registró un alza del 353% en el uso de emuladores para ejecutar ataques de inyección de video, junto con un incremento del 255% en los ataques contra plataformas web móviles. Estas técnicas sofisticadas señalan una evolución rápida en las estrategias de los actores de amenazas.

Crecen las amenazas por Deepfakes a las organizaciones
Existen tres tipos de Deepfakes más utilizados para atacar a empresas mediante extorsión, chantaje y espionaje industrial.

El informe revela no solo un aumento en la sofisticación y la frecuencia de los ataques, sino también una colaboración más estrecha entre los malos actores. Casi la mitad de los grupos de intercambio de información sobre amenazas se formaron en 2023, indicando una red creciente y organizada detrás de estos ataques.

El análisis de iProov no solo se enfoca en los tipos de ataques, sino también en las tendencias emergentes y las herramientas de IA empaquetadas que facilitan la ejecución de estos fraudes. La combinación de ataques de presentación e inyección digital, junto con la manipulación de metadatos, representa un desafío significativo para las defensas de seguridad existentes.

Andrew Newell, director científico de iProov | Créditos IProov

Andrew Newell, director científico de iProov, enfatiza la importancia de anticiparse a estas amenazas:

La IA generativa ha proporcionado un gran impulso a los niveles de productividad de los actores de amenazas: estas herramientas tienen un costo relativamente bajo, son de fácil acceso y se pueden usar para crear medios sintetizados altamente convincentes, como intercambios faciales u otras formas de deepfakes que pueden engañar fácilmente al ojo humano, así como soluciones biométricas menos avanzadas. Esto solo sirve para aumentar la necesidad de una verificación de identidad remota altamente segura.

El Reporte de Inteligencia de Amenazas de iProov 2024 arroja luz sobre un aspecto crucial de la seguridad digital contemporánea, destacando la urgencia de desarrollar y aplicar soluciones de verificación de identidad más seguras y avanzadas. A medida que los ecosistemas digitales siguen expandiéndose, la batalla contra los ataques de identidad se vuelve cada vez más compleja, subrayando la necesidad de una vigilancia y una innovación constantes en el ámbito de la ciberseguridad.

¿Cómo crees que las empresas pueden adaptarse mejor a las crecientes amenazas de seguridad en la verificación de identidad impulsadas por la IA generativa?

Eset: Impacto y desafíos de la inteligencia artificial: prevención del uso inadecuado de deepfakes
Explorando el desafío de los deepfakes: prevención y concienciación en la era de la Inteligencia Artificial.