Sábado, 13 de Septiembre de 2025
Diario de Economía de la Región de Murcia
ACTUALIDADLa IA, villana y heroína en los ciberataques
  • Buscar

ESTUDIO CAPGEMINI

La IA, villana y heroína en los ciberataques

Introduce nuevos riesgos para los sistemas empresariales e individuales, pero también es la más idónea para evitarlos

Nuevo Digital Sábado, 23 de Noviembre de 2024

 

Están surgiendo nuevos riesgos para la ciberseguridad debido a la proliferación de la Inteligencia Artificial (IA), pero estas tecnologías también suponen un cambio transformador a la hora de reforzar las estrategias de ciberdefensa a largo plazo para predecir, detectar y responder a las amenazas. Dos tercios de las organizaciones están dando prioridad a la IA en sus operaciones de seguridad.

 

Aunque las organizaciones consideran la IA como una tecnología clave para reforzar sus estrategias de seguridad, la creciente adopción de la misma en diversos sectores  conlleva una mayor vulnerabilidad, según el nuevo informe del Instituto de Investigación de Capgemini.

 

La IA generativa introduce tres grandes áreas de riesgo para las organizaciones: ataques más sofisticados con más adversarios, la expansión de la superficie de ciberataques y un aumento de las vulnerabilidades en todo el ciclo de vida de las soluciones Gen IA personalizadas. Estos riesgos también se ven agravados por el uso indebido de la IA y la Gen IA por parte de los empleados, lo que puede aumentar significativamente el riesgo de filtración de datos.

 

Casi todas las organizaciones encuestadas (97%) reconocen haber sufrido infracciones o problemas de seguridad relacionados con el uso de IA en el último año. La IA también conlleva riesgos adicionales, como por ejemplo la creación de alucinaciones, la generación de contenidos sesgados, dañinos o inapropiados, etc.

 

Dos de cada tres organizaciones (67%) están preocupadas por la intoxicación de datos y la posible filtración de datos confidenciales a través de los conjuntos de datos de entrenamiento utilizados para entrenar los modelos de Gen IA.

 

Además, la capacidad de la IA generativa para generar contenidos falsos de gran realismo está planteando riesgos adicionales: más de dos de cada cinco organizaciones encuestadas (43%) afirmaron haber sufrido pérdidas económicas derivadas del uso de ‘deepfakes’.

 

Casi seis de cada diez empresas creen que necesitan aumentar su presupuesto de ciberseguridad para reforzar sus sistemas de defensa en consecuencia.

 

No obstante, según el informe, en el que se encuestó a 1.000 organizaciones, la mayoría confía en la IA para reforzar la seguridad de sus datos y aplicaciones, debido a la capacidad de la tecnología para analizar rápidamente grandes cantidades de datos, identificar patrones y predecir posibles infracciones.

 

Más del 60% de ellos informó de una reducción de al menos el 5% en el tiempo de detección, y casi el 40% señaló que su tiempo de corrección se redujo en un 5% o más tras implantar la IA en sus centros de operaciones de seguridad.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.