Por Virginia Ghiara, directora sénior de Investigación, Fujitsu Research Europe.
Cuando la IA generativa se generalizó en noviembre de 2022, supuso un avance significativo en el desarrollo de la inteligencia artificial. La accesibilidad y los resultados de una nueva generación de transformadores generativos preentrenados (GPT) abrieron la IA a una gama más amplia de sectores, lo que permitió nuevas capacidades que han mejorado enormemente su potencial.
La IA permite automatizar tareas repetitivas, mejora la productividad y personaliza los servicios de atención al cliente. Por lo tanto, no es de extrañar que los líderes empresariales estén impulsando iniciativas para ponerla en práctica.
A medida que más organizaciones adoptan e integran la IA en sus productos, servicios, procesos y toma de decisiones, surgirán tanto el valor como los riesgos. Esto se pone de manifiesto en la creciente lista de daños y cuasi accidentes reales asociados a los sistemas de IA, que se actualiza periódicamente en la base de datos de incidentes de IA y en el Monitor de incidentes de IA de la OCDE.
En respuesta a estos riesgos, se están elaborando leyes y marcos normativos destinados a salvaguardar el desarrollo y el uso responsable y ético de los sistemas de IA.
Para las organizaciones, la implementación de una gobernanza sólida de la IA no es solo una obligación de cumplimiento, sino un imperativo estratégico. Recomendamos el desarrollo y la implementación de la IA en consonancia con principios sólidos de gobernanza de la IA como un paso fundamental para mejorar los rendimientos ajustados al riesgo y posicionar a las empresas para el éxito a largo plazo.
Debido a la rápida evolución del panorama normativo, recomendamos que las organizaciones implementen una gobernanza sólida de la IA para mantener el cumplimiento, reducir los riesgos y preservar la confianza pública.
Regulación de la IA: factores clave para los responsables políticos
A medida que las tecnologías de IA crecen en escala, alcance y capacidades, la gestión de los riesgos asociados a la IA se ha convertido en una prioridad para los responsables políticos de todo el mundo.
Los legisladores están tratando de evitar consecuencias no deseadas para las personas o la sociedad en cuestiones como los sesgos, las violaciones de la privacidad, la desinformación, los contenidos nocivos y la falta de transparencia. En este sentido, la Unión Europea tomó la iniciativa y puso en marcha la Ley de Inteligencia Artificial (IA) de la UE en 2024. Se trata del primer marco jurídico del mundo para la IA y se espera que influya en legislaciones similares en otras regiones. Establece disposiciones estrictas en materia de gobernanza y gestión de riesgos, diseñadas para maximizar los beneficios de la IA y minimizar los riesgos asociados.
De hecho, en una encuesta mundial realizada por MIT Sloan Management Review, el 70 % de los líderes empresariales encuestados afirmaron que «ya estaban obteniendo beneficios comerciales gracias a la
mejora de los productos y servicios como resultado de los esfuerzos de su organización en materia de RAI».
Además, el informe de valoración de la reputación en el Reino Unido de Echo para 2024 destaca la reputación corporativa como un factor clave para la capitalización bursátil y la confianza de los accionistas. La reputación representa el 30 % de la capitalización bursátil de las empresas del FTSE 350, lo que equivale a 719 000 millones de libras esterlinas, un 3,8 % más que en 2023.
La Ley de IA de la UE: componentes clave y consideraciones de cumplimiento
Uno de los fundamentos de la Ley de IA de la UE es garantizar que los sistemas de IA sean seguros y respeten los derechos y valores fundamentales de las personas. También fomenta la inversión y la innovación en IA, mejora la gobernanza y la aplicación de la ley, y apoya un mercado unificado de IA.
La Ley de IA de la UE define regulaciones basadas en el riesgo y casos de uso específicos para desarrolladores, proveedores, distribuidores e implementadores de IA. Clasifica los sistemas de IA según sus niveles de riesgo potencial y prohíbe los sistemas o aplicaciones que se consideran que plantean riesgos inaceptables, como la identificación biométrica en tiempo real en zonas públicas y los sistemas de puntuación social. La Ley también incluye disposiciones que regulan el desarrollo y la utilización de modelos de IA de uso general, como los grandes modelos lingüísticos, que requieren medidas específicas de ciberseguridad, transparencia y rendición de cuentas.
Si bien los sistemas con un riesgo mínimo siguen sin estar regulados, los de alto riesgo requieren una supervisión significativa y las empresas deben cumplir diversos requisitos. Entre ellos se incluyen:
· Gestión de riesgos y supervisión a lo largo del ciclo de vida de los sistemas de IA.
· Gobernanza exhaustiva de los datos para los modelos de IA y aprendizaje automático.
· Una evaluación del impacto sobre los derechos fundamentales antes del uso inicial de un sistema de IA.
· Documentación exhaustiva del diseño, las capacidades, las limitaciones y el cumplimiento normativo del sistema.
· Requisitos de transparencia, incluido el etiquetado claro de determinados contenidos generados por IA, como los deepfakes.
La Ley de IA de la UE hace hincapié en la transparencia, la rendición de cuentas y la gestión eficaz de los riesgos a la hora de definir las obligaciones y responsabilidades en materia de gobernanza empresarial. Forma parte de la estrategia global de la UE para regular el panorama digital, garantizando la seguridad, la equidad y la innovación en la economía digital. Otros marcos normativos importantes son la Ley de Datos de la UE, que establece normas para el acceso y el uso justos de los datos necesarios para las aplicaciones de IA; el Reglamento General de Protección de Datos (RGPD); la Ley de Servicios Digitales (DSA), cuyo objetivo es prevenir las actividades ilegales y perjudiciales en línea y la difusión de desinformación; y la Ley de Ciberresiliencia, que introduce requisitos de ciberseguridad para los productos con elementos digitales comercializados en la UE.
Para las organizaciones que desean implementar la IA de forma responsable, el mensaje es claro: establecer de forma proactiva una gobernanza de la IA que garantice el cumplimiento de un panorama normativo en constante evolución es una prioridad máxima que no debe ignorarse.
Gobernanza de la IA: es hora de actuar
Aunque la Ley de IA de la UE es la primera de su tipo, no será la última. Recomiendo a las empresas que deseen mantenerse a la vanguardia que desarrollen planes de mitigación de riesgos, implementen controles técnicos y establezcan directrices éticas para la creación y el uso de sistemas de IA, y que no
esperen a que los reguladores actúen. También es importante considerar si se han establecido estructuras adecuadas de supervisión, rendición de cuentas y gobernanza.
A corto y medio plazo, preveo que los reguladores se centrarán en varias áreas clave:
· Solidez técnica: Las organizaciones deben garantizar que los sistemas de IA sean estables y resistentes a la manipulación por parte de terceros. Para ello, es necesario establecer mecanismos para mejorar la concienciación de los empleados sobre el uso responsable de la IA, incluidos sus riesgos y responsabilidades.
· Supervisión humana: un principio fundamental de la IA es que los sistemas deben respetar la dignidad humana y la autonomía personal, al tiempo que son gestionados de forma eficaz por seres humanos.
· Transparencia: los reguladores esperarán trazabilidad y claridad en los resultados de la IA.
· Impacto medioambiental: la IA ofrece enormes posibilidades para abordar los retos medioambientales, desde la optimización del uso de la energía hasta la protección de los ecosistemas, pero su creciente huella exige una gobernanza urgente para alinear su desarrollo con los límites del planeta. Es esencial equilibrar la innovación con la sostenibilidad para garantizar que la IA contribuya a los objetivos climáticos, en lugar de comprometerlos.
· Seguridad de los agentes de IA: A medida que los agentes de IA se vuelven más autónomos y se integran en sistemas críticos, es esencial garantizar su seguridad para evitar el uso indebido, la manipulación o el comportamiento no deseado. Los marcos de gobernanza robustos deben abordar las vulnerabilidades en todas las etapas, desde los datos de entrenamiento hasta la implementación, para proteger contra las amenazas a la seguridad pública y la confianza.
Para mantenerse alineadas con los estándares globales de IA, las organizaciones deben establecer un equipo dedicado a la gobernanza de la IA, documentar todos los riesgos relacionados con la IA e implementar procesos de diligencia debida para cerrar las brechas de seguridad y abordar los puntos ciegos éticos.
Fomentar la confianza y la transparencia: por qué es importante la gobernanza de la IA
Para los líderes empresariales, establecer un programa integral de gobernanza de la IA y cumplimiento que abarque todo el ciclo de vida de un proyecto de IA será cada vez más crucial para generar confianza entre los usuarios, los clientes y los reguladores. Dicha gobernanza debe comenzar con la recopilación inicial de datos y el desarrollo de modelos, y continuar durante la implementación y el funcionamiento. Una investigacióndel Gobierno del Reino Unido muestra reciente que la percepción pública de la IA está dominada principalmente por la preocupación. Por consiguiente, como primer paso crucial, las organizaciones deben dar prioridad al desarrollo de políticas corporativas sólidas y garantizar que sus sistemas de IA se adhieran a las normas éticas.
Fujitsu se dedica a ayudar a las organizaciones a afrontar el reto que supone la gobernanza de la IA corporativa. Siempre hemos hecho hincapié en la importancia de beneficiar a todas las partes interesadas: es decir, los usuarios, las organizaciones y la sociedad. Con ello, pretendemos garantizar que las tecnologías de IA puedan ayudar a todo el mundo sin causar daños ni reforzar los prejuicios.
Virginia Ghiara es directora sénior de Investigación, Fujitsu Research Europe.
Es especialista en el avance de iniciativas en materia de confianza, seguridad y gobernanza de la IA.
Asimismo, es relatora del Grupo de Trabajo del Instituto AI4People y contribuye a la elaboración de normas mundiales sobre IA como miembro del Comité de Inteligencia Artificial ART/1 de la British Standards Institution, del Grupo de Trabajo sobre el Futuro de la IA del Consejo de la Industria de la Tecnología de la Información y de la Asociación de Especialistas en Ética de la IA.
Con una distinguida trayectoria en ética de la IA, elaboración de políticas basadas en datos empíricos e investigación académica, Virginia trabaja en la intersección entre los negocios, la tecnología, la investigación y la ética.