En un giro preocupante pero esperado, los gigantes tecnológicos Microsoft y OpenAI han destapado la caja de Pandora de la ciberseguridad al revelar cómo modelos de lenguaje avanzados, como ChatGPT, están siendo utilizados por hackers para refinar y mejorar sus ciberataques. Esta colaboración entre humanos y máquinas inteligentes marca un nuevo capítulo en la evolución del ciberdelito, donde la sofisticación y el alcance de los ataques se ven potencialmente amplificados por la capacidad de aprendizaje y adaptación de estas herramientas de inteligencia artificial.

Grupos respaldados por gobiernos de Rusia, Corea del Norte, Irán y China están al frente de esta nueva ola de ciberofensiva, empleando herramientas como ChatGPT para investigar sobre sus objetivos, perfeccionar scripts y desarrollar técnicas de ingeniería social. Según Microsoft, estas actividades abarcan desde la comprensión de protocolos de comunicaciones satelitales y tecnologías de imagen por radar hasta la generación de correos electrónicos de phishing y códigos destinados a evadir la detección de software antivirus.

La utilización de modelos de lenguaje grande (LLM) por parte de grupos de ciberdelincuentes y actores estatales amenaza no solo con aumentar la eficacia de los ataques existentes sino también con innovar en la creación de nuevos vectores de amenaza. La posibilidad de que estos modelos ayuden a automatizar o optimizar operaciones técnicas plantea un desafío sin precedentes para la ciberseguridad global.

A pesar de que Microsoft y OpenAI no han detectado aún «ataques significativos» que empleen estas tecnologías, la vigilancia y la respuesta proactiva se han intensificado, cerrando cuentas y activos asociados con estos grupos de hackers. Además, la previsión de futuros casos de uso, como la suplantación de voz, subraya la urgencia de desarrollar contramedidas efectivas.

Frente a esta creciente amenaza, Microsoft propone una solución que también se basa en la inteligencia artificial: el desarrollo de un Copiloto de Seguridad y la implementación de IA para proteger, detectar y responder a ataques. Este enfoque no solo refleja la carrera armamentística en el ámbito digital sino también la creciente dependencia de soluciones tecnológicas avanzadas para salvaguardar la integridad de la información y la seguridad de los usuarios en la era digital.

La irrupción de la IA en el campo de la ciberseguridad es un recordatorio poderoso de la dualidad de la tecnología: tan capaz de impulsar la innovación como de facilitar la destrucción. A medida que navegamos por esta nueva realidad, la colaboración entre expertos en seguridad, desarrolladores de IA y entidades reguladoras será crucial para garantizar que el poder de la inteligencia artificial se emplee como un escudo, no como un arma.