Alerta importante: Google y Yahoo exigirán DMARC a partir de abril de 2024.
PowerDMARC

Riesgos de ciberseguridad de la IA generativa

Riesgos de ciberseguridad de la IA generativa
Tiempo de lectura: 6 min

A medida que emerge el nuevo poder de la tecnología de IA generativa, también lo hacen los riesgos de ciberseguridad de la IA generativa. La IA generativa representa la frontera tecnológica de vanguardia, ya que combina las capacidades del aprendizaje automático (ML) y la inteligencia artificial (IA).

Estamos a las puertas de un renacimiento tecnológico en el que las tecnologías de IA avanzarán exponencialmente. Sin embargo, no se pueden pasar por alto los riesgos asociados a la ciberseguridad de la IA generativa. Exploremos este ángulo para entender cómo se pueden prevenir los retos de ciberseguridad derivados del uso y abuso de la IA Generativa.

¿Qué es la IA Generativa?

La IA generativa, abreviatura de Generative Artificial Intelligence (Inteligencia Artificial Generativa), se refiere a una clase de técnicas de inteligencia artificial que se centran en crear nuevos datos que se parezcan o sean similares a los datos existentes. En lugar de estar explícitamente programados para una tarea específica, los modelos de IA generativa aprenden patrones y estructuras a partir de los datos con los que se entrenan y luego generan nuevos contenidos basados en ese conocimiento aprendido.

El objetivo principal de la IA generativa es generar datos que no se distingan de los reales, haciendo que parezcan creados por un humano o procedentes de la misma distribución que los datos originales. Esta capacidad tiene numerosas aplicaciones en diversos ámbitos, como la generación de lenguaje natural, la síntesis de imágenes, la composición musical, la conversión de texto a voz e incluso la generación de vídeo.

¿Por qué la IA generativa es la próxima gran amenaza para la ciberseguridad?

GPT-3, GPT-4 y otras herramientas de IA generativa no son inmunes a los riesgos de ciberseguridad y las ciberamenazas de la IA generativa. Las empresas deben aplicar políticas para evitar importantes ciberriesgos asociados a la IA generativa.

Como destaca Terence Jacksonasesor jefe de seguridad de Microsoft, en un artículo para Forbes, la política de privacidad de plataformas como ChatGPT indica la recopilación de datos cruciales del usuario, como la dirección IP, la información del navegador y las actividades de navegación, que pueden compartirse con terceros.

Jackson también advierte sobre las amenazas a la ciberseguridad que plantea la IA generativa, ampliando la superficie de ataque y proporcionando nuevas oportunidades que los hackers pueden explotar.

Además, un artículo de Wired de abril reveló las vulnerabilidades de estas herramientas, haciendo hincapié en los riesgos cibernéticos de la IA generativa.

En apenas unas horas, un investigador de seguridad burló los sistemas de seguridad de OpenAI y manipuló la GPT-4, lo que pone de manifiesto las posibles ciberamenazas de la IA generativa y la necesidad de adoptar medidas de ciberseguridad sólidas.

Desvelar los 7 principales riesgos de ciberseguridad de la IA generativa

La IA generativa es una poderosa herramienta para resolver problemas, pero plantea algunos riesgos. El riesgo más evidente es que pueda utilizarse con fines malintencionados, como el robo de propiedad intelectual o el fraude.

Creación de correos electrónicos de phishing

El mayor riesgo de ciberseguridad de la IA generativa es la creación de phishing.

La amenaza del phishing es real y no va a desaparecer.

A medida que más empresas utilizan el correo electrónico y otras formas de comunicación digital para comercializar sus productos o servicios, los delincuentes se vuelven más sofisticados en sus esfuerzos por engañar a la gente para que facilite información personal.

Las estafas más comunes se denominan "phishing" porque suelen consistir en un correo electrónico falso enviado desde una fuente de confianza (como su banco) que contiene un archivo adjunto o un enlace que parece legítimo, pero que en realidad conduce a un sitio web falso en el que usted introduce sus credenciales para acceder a su cuenta.

Manipulación e intoxicación de modelos

Uno de los principales riesgos de ciberseguridad de la IA generativa es la manipulación y el envenenamiento de modelos. Este tipo de ataque consiste en manipular o cambiar un modelo existente para que produzca resultados falsos.

Por ejemplo, un atacante podría cambiar una imagen para que pareciera otra imagen de su base de datos en lugar de lo que es. El atacante podría entonces utilizar estas imágenes manipuladas como parte de su estrategia de ataque contra su red u organización.

Ataques adversarios

Los ataques adversarios contra algoritmos de aprendizaje automático son cada vez más comunes, ya que los piratas informáticos buscan explotar los puntos débiles de estos sistemas.

El uso de ejemplos adversos -un ataque que hace que un algoritmo cometa un error o clasifique mal los datos- ha existido desde los primeros días de la investigación en IA.

Sin embargo, a medida que los ataques adversarios se vuelven más sofisticados y potentes, amenazan a todo tipo de sistemas de aprendizaje automático, incluidos los modelos generativos o los chatbots.

Protección de datos

Una preocupación común con los modelos generativos es que puedan revelar inadvertidamente datos sensibles sobre individuos u organizaciones.

Por ejemplo, una organización puede crear una imagen utilizando modelos generativos que revelen accidentalmente información confidencial sobre sus clientes o empleados.

Si esto ocurre, puede dar lugar a violaciones de la privacidad y demandas por daños y perjuicios.

Deepfakes y medios sintéticos

Los modelos generativos también pueden utilizarse con fines nefastos generando vídeos y grabaciones de audio falsos que pueden utilizarse en deepfakes (vídeos falsos) o medios sintéticos (noticias falsas).

La tecnología que hay detrás de estos ataques es relativamente sencilla: alguien necesita acceder al conjunto de datos adecuado y a algunas herramientas básicas de software para empezar a crear contenidos maliciosos.

Robo de propiedad intelectual

El robo de propiedad intelectual es una de las mayores preocupaciones de la industria tecnológica actual y no hará sino aumentar a medida que la inteligencia artificial avance.

La IA generativa puede generar datos falsos que parezcan auténticos y pasables para los humanos.

Este tipo de datos podría utilizarse en diversos sectores, como la sanidad, las finanzas, la defensa y la administración pública. Incluso podría crear cuentas falsas en redes sociales o suplantar la identidad de una persona en Internet.

Uso malintencionado de contenidos generados

La IA generativa también puede manipular contenidos cambiando el significado o el contexto de palabras o frases dentro del texto o las imágenes de una página web o una plataforma de redes sociales.

Por ejemplo, si utilizara una aplicación que generara automáticamente pies de foto sin intervención humana. Eso permitiría cambiar el pie de foto de "un perro blanco" a "un gato negro" sin cambiar nada de la foto en sí (sólo editando el pie).

Cómo reforzar sus defensas contra los riesgos de ciberseguridad de la IA generativa

En respuesta a esta creciente preocupación, las organizaciones deben reforzar sus defensas contra estos riesgos.

He aquí algunos consejos para hacerlo:

Cambiar a DMARC

DMARC es un protocolo de autenticación de correo electrónico que ayuda a evitar los ataques de suplantación de identidad y phishing que suplantan su propio dominio.

Mediante la implementación de un analizador DMARClas organizaciones pueden garantizar en la medida de lo posible que sólo los remitentes autorizados pueden utilizar su dominio para las comunicaciones por correo electrónico, minimizando así los riesgos asociados a los correos electrónicos de phishing generados por IA.

DMARC proporciona capas adicionales de protección al permitir a los propietarios de dominios recibir informes sobre la entrega de correo electrónico y tomar las medidas necesarias para reforzar la seguridad del correo electrónico, actuando así como un escudo contra los riesgos generativos de ciberseguridad de la IA.

Debe aplicar SPF o DKIM o ambos (recomendado) como requisito previo para la implementación de DMARC.

Realizar auditorías de seguridad

Otra forma de evitar que los piratas informáticos accedan a su sistema es realizar auditorías de ciberseguridad.

Estas auditorías le ayudarán a identificar los posibles puntos débiles de su sistema y le sugerirán cómo solucionarlos antes de que se conviertan en problemas graves (por ejemplo malware malware).

Formación adversarial

El entrenamiento adversarial es una forma de simular el ataque adversarial y fortalecer el modelo. Utiliza un adversario (o atacante) que intenta engañar al sistema dándole respuestas erróneas. El objetivo es averiguar cómo reaccionará el modelo y cuáles son sus limitaciones para poder diseñar modelos más robustos.

Extracción robusta de características

Otra solución es la extracción robusta de características (RFE). RFE utiliza el aprendizaje profundo para extraer características relevantes de imágenes sin procesar. La técnica es escalable y puede utilizarse en grandes conjuntos de datos. También puede combinarse con otras técnicas, como la verificación mediante muestreo (VTS) y la detección de valores atípicos (OD), para mejorar la precisión de la extracción de características.

Modelo de arquitectura segura

La arquitectura de modelo seguro (SMA) utiliza una arquitectura de modelo segura para evitar ataques que explotan vulnerabilidades en el código de software, los archivos de datos u otros componentes de un sistema de IA. La idea detrás de SMA es que un atacante tendría que encontrar una vulnerabilidad en el código en lugar de simplemente explotar una debilidad en el sistema en sí. El empleo de servicios integrales de auditoría de código de software es crucial para identificar y mitigar las vulnerabilidades dentro de los sistemas de IA, garantizando la integridad y la seguridad de las tecnologías de IA generativa contra las amenazas cibernéticas sofisticadas.

Auditoría periódica de modelos

La auditoría de modelos es desde hace años un elemento esencial de la ciberseguridad. Consiste en examinar los modelos utilizados en un sistema para asegurarse de que son sólidos y están actualizados. La auditoría de modelos también puede utilizarse para detectar vulnerabilidades en los modelos, así como para identificar modelos que podrían haber sido corrompidos o alterados por piratas informáticos.

Validación y filtrado de entradas

La validación de la entrada es uno de los pasos más importantes que un desarrollador de modelos puede dar antes de desplegar su modelo en entornos de producción. La validación de la entrada garantiza que los datos que se introducen en un modelo no son inexactos ni han sido alterados malintencionadamente por piratas informáticos que podrían intentar explotar las vulnerabilidades del sistema. El filtrado de entrada permite a los desarrolladores especificar qué tipos de datos deben permitirse a través de sus modelos, evitando al mismo tiempo que cualquier otro tipo de datos pueda pasar.

Palabras finales

Aunque la tecnología ofrece numerosas ventajas y avances, también abre la puerta a posibles vulnerabilidades y amenazas.

La capacidad de la IA generativa para crear imágenes, vídeos y textos falsos y convincentes suscita preocupación por la usurpación de identidad, las campañas de desinformación y el fraude.

Además, el uso malintencionado de la IA generativa puede amplificar las ciberamenazas existentes, como los ataques de phishing y la ingeniería social.

A medida que esta tecnología sigue evolucionando, las organizaciones y las personas deben priorizar las medidas de ciberseguridad, incluida la autenticación robusta, el monitoreo continuo y las evaluaciones periódicas de vulnerabilidad, para mitigar los riesgos asociados con la IA generativa.

De este modo, podemos aprovechar el potencial de esta tecnología y, al mismo tiempo, protegernos de los problemas de ciberseguridad que conlleva.

Salir de la versión móvil