Por John Swanson, responsable de la cartera de seguridad global, Uvance, en Fujitsu
A medida que el entusiasmo en torno a la inteligencia artificial empiece a moderarse en 2025, espero que el sector de la ciberseguridad pase de los debates especulativos a casos de uso más tangibles. Las organizaciones dejarán de tratar la IA como una solución universal o una amenaza existencial. En su lugar, se centrarán en los riesgos y beneficios específicos que introduce. Este cambio impulsará la aparición de herramientas diseñadas para identificar y mitigar las vulnerabilidades de seguridad relacionadas con la IA.
Se espera un aumento de la importancia de plataformas como Cranium, que ofrecen información sobre cómo funcionan los modelos de IA dentro de una organización. Estas herramientas ayudarán a las organizaciones a auditar los sistemas de IA en busca de debilidades potenciales, como envenenamiento de datos, ataques de adversarios o sesgos no intencionados que los actores maliciosos pueden explotar. Además, los marcos de ciberseguridad evolucionarán para abordar los riesgos asociados a la integración de la IA en los procesos empresariales básicos, garantizando que estas tecnologías sigan siendo seguras, conformes y éticas.
El énfasis también se desplazará hacia el aprovechamiento de la IA con fines defensivos, como la detección de amenazas en tiempo real y los sistemas de respuesta automatizada. Se espera un crecimiento masivo en el aprovechamiento de la IA privada para explotar la riqueza de los datos internos almacenados en las organizaciones, como procesos, instrucciones de trabajo e información de usuario. Los empleados pueden esperar consultar su base de conocimientos interna, de forma similar a como Microsoft Copilot permite integrar fuentes de datos personalizadas seleccionadas, como los datos de perfil de usuario.
También se beneficiarán de una mejor orientación para responder o protegerse de los ciberataques a medida que esta capacidad se integre en el software de seguridad, ofreciendo funciones como la consulta de instrucciones de trabajo internas o bases de datos de gestión de la configuración (CMDB). Sin embargo, las organizaciones deben asegurarse de que estas soluciones sean transparentes, explicables y resistentes a la manipulación. Al centrarse en casos de uso realistas y abordar los riesgos asociados, 2025 marcará un punto de inflexión en el despliegue responsable de la IA en la ciberseguridad.
Gemelos digitales: La nueva frontera de los ataques de suplantación de identidad
La tecnología deepfake está a punto de convertirse en uno de los retos de ciberseguridad más importantes de 2025. A medida que las herramientas de síntesis de voz y manipulación de vídeo sean más accesibles y convincentes, los ciberdelincuentes utilizarán cada vez más estas innovaciones para crear gemelos digitales maliciosos. Estas falsificaciones hiperrealistas de las voces, caras y comportamientos de las personas empiezan a difuminar la línea entre la realidad y la fabricación, lo que permite un aumento de los ataques basados en la suplantación de identidad.
Estos ataques pueden dirigirse a organizaciones a través de solicitudes fraudulentas que parecen proceder de ejecutivos o colegas de confianza, eludiendo las medidas de seguridad tradicionales. A mayor escala, los gemelos digitales podrían utilizarse para difundir desinformación, alterar la confianza pública o manipular los mercados monetarios. El potencial de daño se extiende más allá de las víctimas individuales, afectando a industrias enteras y erosionando la confianza en las comunicaciones digitales.
Para combatir esta amenaza, las organizaciones deben adoptar medidas proactivas. Estas pueden empezar con cambios sencillos, como volver a un saludo de voz genérico que no revele datos personales, ya que esto ayuda a detener la clonación de voz basada en IA. Salvaguardar la confianza exigirá vigilancia, innovación y acción colectiva en este panorama en evolución. Veremos un mayor uso de herramientas basadas en IA para detectar falsificaciones, protocolos de autenticación sólidos, como la verificación multifactor, y campañas de concienciación para educar a los empleados y al público. También veremos un aumento en 2025 de bots GenAI diseñados para atrapar y ralentizar a los estafadores, atándolos en bucles de conversación que les impidan llegar a un humano.
Seguridad centrada en el ser humano: Potenciar el eslabón más débil
A medida que las ciberamenazas se vuelven más sofisticadas, las organizaciones reconocen una verdad vital: la tecnología por sí sola no puede protegerlas. Es un enigma que la intuición humana sea a menudo la primera línea de defensa en ciberseguridad. Sin embargo, los seres humanos son los principales objetivos de ataques como el phishing, la ingeniería social y las amenazas internas. En 2025, la atención se desplazará drásticamente hacia la seguridad centrada en el ser humano. Las empresas invertirán cada vez más en programas de formación sólidos que vayan más allá de los cursos anuales de cumplimiento, haciendo hincapié en una educación continua, interactiva y específica para cada función.
Estas iniciativas tendrán como objetivo cultivar una cultura de concienciación sobre la seguridad en la que cada persona, desde los ejecutivos a los contratistas, desempeñará un papel activo en la defensa contra las amenazas. Herramientas avanzadas como las campañas de phishing simulado y el coaching de comportamiento en tiempo real ya se han convertido en prácticas habituales; en 2025, espere ver más de lo que se denomina «gestión de la superficie humana», lo que subraya que es esencial proporcionar formación específica y pertinente por grupos individuales y de usuarios para complementar los controles técnicos. Esto también fomentará una colaboración aún más estrecha entre las personas y la tecnología.
Además, las organizaciones adoptarán métricas para medir la eficacia de estos programas vinculando las mejoras del comportamiento humano a la reducción general de riesgos. Al dotar a los empleados de los conocimientos y habilidades necesarios para identificar y mitigar los riesgos, las estrategias de seguridad centradas en el ser humano transformarán la mano de obra de una vulnerabilidad en una línea crítica de defensa.
John Swanson ha desempeñado numerosas funciones de liderazgo en materia de seguridad de la información en los sectores público y privado, incluido el liderazgo de programas y capacidades de seguridad, consultoría (asesoramiento y prestación), centros de operaciones de seguridad y funciones de preventa de seguridad. Es responsable del desarrollo de las atractivas propuestas de mercado de Fujitsu en materia de ciberseguridad, que también sustentan las propuestas más amplias de Fujitsu en materia de aplicaciones, TI híbrida, lugar de trabajo digital y sector industrial. John se centra en los aspectos empresariales de la seguridad de la información y en cómo Fujitsu puede ayudar a los clientes a mejorar la madurez estratégica y operativa de las capacidades de seguridad de la información dentro de sus organizaciones.