La adopción de la Inteligencia Artificial por parte de las empresas se ha duplicado en los últimos cinco años, y los CEO afirman hoy que se enfrentan a una presión significativa por parte de inversores, proveedores de fondos y entidades crediticias para acelerar la adopción de la IA generativa. Esto se debe en gran medida a la comprensión de que hemos cruzado un nuevo umbral con respecto a la madurez de la IA, introduciendo un nuevo y más amplio espectro de posibilidades, resultados y beneficios de costes para la sociedad en su conjunto.
Muchas empresas se han reservado la posibilidad de apostar por la IA, ya que ciertas incógnitas de la tecnología erosionan la confianza inherente. Y la seguridad suele ser una de esas incógnitas. ¿Cómo se protegen los modelos de IA? ¿Cómo garantizar la protección de esta tecnología transformadora frente a ciberataques, ya sea en forma de robo, manipulación y filtración de datos o de ataques de evasión, envenenamiento, extracción e inferencia?
La carrera mundial para establecer un liderazgo en IA —ya sea entre gobiernos, mercados o sectores empresariales— ha espoleado la presión y la urgencia por responder a esta pregunta. El reto de proteger los modelos de IA no sólo se deriva de la naturaleza dinámica y el volumen de los datos subyacentes, sino también de la «superficie de ataque» ampliada que introducen los modelos de IA: una superficie de ataque que es nueva para todos. En pocas palabras, para manipular un modelo de IA o sus resultados con objetivos maliciosos, existen muchos puntos de entrada potenciales que los atacantes pueden intentar comprometer, muchos de los cuales aún estamos descubriendo.
Pero este reto no carece de solución. De hecho, estamos experimentando el mayor movimiento de crowdsourcing para asegurar la IA que cualquier tecnología haya instigado jamás. La Administración Biden-Harris, la ley CISA del Departamento de Seguridad Nacional estadounidense y la Ley de Inteligencia Artificial de la Unión Europea han movilizado a la comunidad de investigadores, desarrolladores y expertos en seguridad para que trabajen de forma colectiva en el impulso de la seguridad, la privacidad y el cumplimiento de las normativas en materia de inteligencia artificial.
Seguridad de la IA para los negocios
Es importante comprender que la seguridad de la IA es algo más que asegurar la propia IA. En otras palabras, para proteger la IA, no nos limitamos únicamente a los modelos y los datos. También debemos considerar el stack de aplicaciones empresariales en que se integra una IA como un mecanismo defensivo, ampliando las protecciones para la IA en su seno. Del mismo modo, dado que la infraestructura de una organización puede actuar como un vector de amenaza capaz de proporcionar a los adversarios acceso a sus modelos de IA, debemos asegurarnos de que el entorno más amplio está protegido.
Para valorar los distintos mecanismos por los que debemos proteger la IA —los datos, los modelos, las aplicaciones y el proceso completo— debemos tener claro no sólo cómo funciona la IA, sino exactamente cómo se despliega en los distintos entornos.
El papel de la higiene de un stack de aplicaciones empresariales
La infraestructura de una organización es la primera capa de defensa contra las amenazas a los modelos de IA. Garantizar que los controles de seguridad y privacidad adecuados estén integrados en la infraestructura de IT más amplia que rodea a la IA es clave. Esta es un área en la que la industria ya tiene una ventaja significativa: tenemos la experiencia y los conocimientos necesarios para establecer normas óptimas de seguridad, privacidad y cumplimiento en los entornos complejos y distribuidos de hoy en día. Es importante que también reconozcamos esta misión diaria como un elemento facilitador de la IA segura.
Por ejemplo, es primordial permitir un acceso seguro a los usuarios, los modelos y los datos. Debemos utilizar los controles existentes y ampliar esta práctica para asegurar las vías de acceso a los modelos de IA. Del mismo modo, la IA aporta una nueva dimensión de visibilidad a las aplicaciones empresariales, lo que garantiza que las capacidades de detección de amenazas y respuesta se extiendan a las aplicaciones de IA.
Las normas de seguridad de la plataforma —como el empleo de métodos de transmisión seguros en toda la cadena de suministro, el establecimiento de estrictos controles de acceso y protecciones de la infraestructura, así como el refuerzo de la higiene y los controles de las máquinas virtuales y los contenedores— son fundamentales para evitar su vulnerabilidad. Al examinar nuestra estrategia general de seguridad empresarial, deberíamos reflejar esos mismos protocolos, políticas, higiene y normas en el perfil de IA de la organización.
Uso y datos de entrenamiento subyacentes
Aunque los requisitos de gestión del ciclo de vida de la IA todavía no están claros, las organizaciones pueden aprovechar las protecciones existentes para ayudar a asegurar el desarrollo de la IA. Por ejemplo, la transparencia y la explicabilidad son esenciales para evitar los sesgos, la alucinación y la intoxicación, por lo que quienes adoptan la IA deben establecer protocolos para auditar los flujos de trabajo, los datos de entrenamiento y los resultados para comprobar la precisión y el rendimiento de los modelos. Además, el origen de los datos y el proceso de preparación deben documentarse en aras de la confianza y la transparencia. Este contexto y claridad pueden ayudar a detectar mejor las anomalías y anormalidades que puedan presentarse en los datos en una fase temprana.
La seguridad debe estar presente en todas las fases de desarrollo y despliegue de la IA, lo que incluye la aplicación de protecciones de la privacidad y medidas de seguridad en las fases de entrenamiento y testeo de los datos. Dado que los modelos de IA aprenden continuamente de sus datos subyacentes, es importante tener en cuenta ese dinamismo y reconocer los riesgos potenciales en la precisión de los datos, así como incorporar medidas de verificación y validación en todo el ciclo de vida de los datos. Las técnicas de prevención de pérdida de datos también son esenciales aquí para detectar y prevenir SPI, PII y la fuga de datos regulados a través de prompts y API.
Gobernanza a lo largo del ciclo de vida de la IA
Para garantizar la seguridad de la IA es necesario un enfoque integrado de la creación, el despliegue y la gestión de los proyectos de IA. Esto implica la creación de IA con gobernanza, transparencia y ética que respalden las exigencias normativas. A medida que las organizaciones exploran la adopción de la IA, deben evaluar las políticas y prácticas de los proveedores de código abierto en relación con sus modelos de IA y conjuntos de datos de entrenamiento, así como el estado de madurez de las plataformas de IA. Esto también debería tener en cuenta el uso y la retención de datos: saber exactamente cómo, dónde y cuándo se utilizarán los datos, y limitar la vida útil del almacenamiento de datos para reducir los problemas de privacidad y los riesgos de seguridad. Además, los equipos de adquisiciones deben participar para garantizar la alineación con las actuales políticas y directrices de privacidad, seguridad y cumplimiento de las empresas, que deben servir de base para cualquier política de IA que se formule.
Asegurar el ciclo de vida de la IA incluye mejorar los procesos actuales de DevSecOps para incluir el ML, adoptando los procesos mientras se crean integraciones y se despliegan modelos y aplicaciones de IA. Debe prestarse especial atención a la gestión de los modelos de IA y sus datos de formación: la formación de la IA antes de su despliegue y la gestión de las versiones de forma continua es clave para gestionar la integridad del sistema, al igual que la formación continua. También es importante supervisar los prompts y las personas que acceden a los modelos de IA.
No se trata en absoluto de una guía exhaustiva sobre la seguridad de la IA, pero la intención es corregir los conceptos erróneos sobre la seguridad de la IA. La realidad es que ya disponemos de importantes herramientas, protocolos y estrategias para desplegar la IA de forma segura.
Mejores prácticas para proteger la IA
A medida que aumente la adopción de la IA y evolucionen las innovaciones, también madurarán las directrices de seguridad, como ocurre con todas las tecnologías que se han integrado en el tejido de una empresa a lo largo de los años. A continuación compartimos algunas de las mejores prácticas de IBM para ayudar a las organizaciones a prepararse para un despliegue seguro de la IA en sus entornos:
- Aproveche la IA de confianza evaluando las políticas y prácticas de los proveedores.
- Habilitar controles para el acceso seguro a usuarios, modelos y datos.
- Proteger los modelos de IA, los datos y la infraestructura de ataques maliciosos.
- Implantar la protección de la privacidad de los datos en las fases de formación, pruebas y operaciones.
- Llevar a cabo prácticas de modelado de amenazas y codificación segura en el ciclo de vida de desarrollo de la IA.
- Detectar y responder a las amenazas para las aplicaciones y la infraestructura de IA.
- Evalúe y decida la madurez de la IA mediante el marco de IBM AI.
En este artículo hemos hablado de mejores prácticas para proteger la IA de tal manera que posibiliten su uso en entornos empresariales, pero existe otra dimensión que merece un artículo independiente: el uso que la IA en ciberseguridad. Esto contempla tanto conocer el uso que los atacantes están haciendo de la IA para perpetrar ciberdelitos, como del uso que las organizaciones pueden hacer de la IA para incrementar sus capacidades de ciberdefensa, así como mejorar la eficiencia y la productividad del activo más preciado y escaso hoy en día: los profesionales en ciberseguridad.