IA vs IA generativa: ¿Cuál es el real impacto en la industria de la ciberseguridad?
Por Héctor Kaschel, Cybersecurity Horizontal Head en Coasin Logicalis.| Fotografía - Créditos: Coasin Logicalis

IA vs IA generativa: ¿Cuál es el real impacto en la industria de la ciberseguridad?

La inteligencia artificial (IA) ha transformado el panorama de la ciberseguridad, proporcionando opciones avanzadas para identificar y mitigar amenazas, responder a incidentes y optimizar sistemas de defensa. Sin embargo, la evolución hacia la inteligencia artificial generativa ha añadido una dimensión nueva y compleja. 

Ley de Protección de Datos y agentes autónomos: El desafío para las empresas chilenas en 2025
Desde la Inteligencia Artificial hasta la digitalización del back-office, las compañías chilenas enfrentan un cambio estructural en la forma de operar y relacionarse con sus clientes, con la eficiencia y la confianza como ejes centrales.

Mientras que la IA tradicional se ha enfocado en el análisis de patrones y reconocimiento de anomalías, la IA generativa habilita capacidades avanzadas de creación de contenido y simulación, las cuales plantean tanto oportunidades, como desafíos para el ámbito de la ciberseguridad.

A diferencia de la IA tradicional, que se limita a detectar patrones y automatizar tareas repetitivas, la IA generativa permite crear contenido adaptativo, simular escenarios complejos y responder de forma personalizada y en tiempo real, mejorando así la capacidad de las organizaciones para anticiparse y reaccionar frente a amenazas dinámicas. 

Los agentes de inteligencia artificial generativa y su impacto en la transformación de la banca
En los próximos años, los bancos deberán centrar sus esfuerzos en desplegar ecosistemas de agentes de IA generativa que interactuarán entre sí, destaca el vocero.

Los modelos Large Language Models (LLM), combinados con técnicas como Retrieval Augmented Generation (RAG) y Fine-Tuning,  permiten adaptar las soluciones de seguridad a contextos específicos, mientras que los Agents y Prompt Engineering facilitan la autonomía y precisión en las respuestas, marcando una diferencia clave en la defensa avanzada.

El desarrollo o evolución de modelos LLM que se centran en comprender y analizar texto, complementados con la técnica de inteligencia artificial RAG que mejora la calidad de los modelos de lenguaje de gran tamaño, y el ajuste fino (Fine-Tuning), permite tomar un modelo entrenado para adaptar respuestas a necesidades concretas, facilitar la autonomía y precisión junto a los agentes autónomos (Agents) y los Prompt Engineering, lo que marca una diferencia clave en la defensa avanzada.

Ley de Interoperabilidad: ¿Qué viene después de su promulgación?
Sin embargo, todavía es necesario definir ciertos aspectos técnicos y logísticos respecto a implementación de la interoperabilidad, las medidas preventivas ante ataques de ciberseguridad .

Un espacio para crear, pero también riesgoso

La IA generativa tiene el potencial de mejorar significativamente las capacidades defensivas al crear nuevos métodos de prueba y simulación, aunque también puede complicar los esfuerzos de seguridad si es empleada para desarrollar ataques avanzados difíciles de detectar. 

Por esta razón, se espera una regulación más estricta de la inteligencia artificial dentro del marco del desarrollo de políticas y leyes del sector público y la implementación de prácticas de IA responsable para prevenir el uso indebido de esta tecnología. 

¿Estamos preparados para la siguiente etapa de la IA Generativa?
El éxito y desarrollo de la inteligencia artificial dependerá tanto de las personas como de la tecnología como un solo equipo, expluca el vocero.

El impacto es evidente, los ataques son cada vez más frecuentes y sofisticados, lo que plantea un reto urgente para la ciberseguridad global. Actualmente, la proliferación de herramientas de IA generativa maliciosa como WormGPT, FraudGPT, DarkBART, WolfGPT y DarkLLAMA eleva el nivel de amenaza dogital, al permitir que ciberdelincuentes creen contenido malicioso y ejecuten ataques de manera automatizada y sin restricciones éticas. 

Algunas de estas tecnologías que utilizan IA, disponibles en la dark web mediante suscripciones, facilitan la generación de correos de phishing, malware y otras tácticas maliciosas, democratizan el acceso a capacidades avanzadas de ciberataque y reducen las barreras de entrada para atacantes menos experimentados. 

Un nuevo espacio de defensa o de ofensiva

En este contexto surge el concepto de Adversarial Machine Learning (AML), un campo que estudia cómo los modelos de machine learning pueden ser engañados o atacados mediante manipulaciones sutiles en los datos de entrada. En ciberseguridad, AML se convierte en una herramienta tanto defensiva como ofensiva: permitiendo identificar vulnerabilidades en los modelos de IA, pero también es aprovechado por atacantes para evadir sistemas de detección de amenazas.

Cómo aumentar la eficiencia energética de los data centers
Esto se suma al impacto en la huella de carbono, que en el caso de IFX, estos resultados equivalen al retiro de cien taxis de las calles, por ejemplo, dice el vocero.

Las herramientas de IA generativa maliciosa pueden combinarse con técnicas de AML para hacer que los ataques sean aún más efectivos, lo cual lo convierte en una amenaza crítica en ciberseguridad, especialmente cuando los ciberdelincuentes integran IA generativa para diseñar ataques cada vez más sofisticados.

La combinación de AML y de IA generativa maliciosa plantea un desafío urgente para la ciberseguridad, que requiere un enfoque de defensa multifacético. Para contrarrestar esta tendencia, es esencial implementar entrenamientos robustos de modelos,  monitoreo continuo a las organizaciones y colaboradores. Estos esfuerzos permitirán anticiparse a los ataques, mejorar la precisión en la detección de patrones anómalos y protegernos de los responsables de la creación y distribución de estas herramientas maliciosas, garantizando así una mayor protección y seguridad en los sistemas digitales.

Kingston: ¿Qué computador necesita mi empresa para la adopción de la IA?
Las nuevas tecnologías anticipan el advenimiento de nuevos equipos y con ello aparece el workstation dedicado a alojar modelos de IA en forma local, donde puedan montarse el propio ChatGPT personal

Los desafíos son claros. Hay una urgencia en atender la necesidad de protección ante ataques cada vez más sofisticados, así como reducir la brecha entre las capacidades de los atacantes y las defensas de seguridad, junto con la adopción de prácticas de IA responsable y el fomento de una concienciación profunda en todos los niveles de la industria. Implementar estas prácticas ayudarán a proteger mejor los sistemas digitales, creando un entorno más seguro y resiliente ante las amenazas de última generación.

Columnas al director

El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor y no refleja necesariamente la posición de Tabulado y su equipo editorial