Microsoft y OpenAI frenan la actividad de cinco actores de amenazas que usaban IA para mejorar sus ciberataques

Inteligencia de amenazas de Microsoft.
Inteligencia de amenazas de Microsoft. - MICROSOFT
Actualizado: jueves, 15 febrero 2024 13:11

   MADRID, 15 Feb. (Portaltic/EP) -

   Microsoft y OpenAI han frenado la actividad de cinco actores de amenazas afiliados a Estados como China, Irán, Corea del Norte y Rusia, cerrando sus cuentas asociadas a herramientas de inteligencia artificial (IA) como ChatGPT, tecnología que utilizaban para mejorar sus técnicas de ciberataques.

   Ambas compañías tecnológicas han advertido que, durante el último año, "la velocidad, la escala y la sofisticación" de los ciberataques han aumentado a la par que el desarrollo y la adopción de la IA. Esto se debe a que los actores de amenazas han hecho un mal uso de la IA para llevar a cabo sus ataques maliciosos.

   En este sentido, Microsoft ha llevado a cabo un estudio junto con OpenAI, en el que han señalado las principales amenazas emergentes actualmente "en la era de la IA", con ciberataques que incluyen el uso de indebido de modelos de lenguaje grandes (LLM) y el fraude. Así, el estudio se enfoca en la actividad que han identificado recientemente asociada a actores de amenazas ya conocidos.

   En concreto, tal y como ha detallado OpenAI en un comunicado en su blog, han identificado cinco ciberdelincuentes que pertenecen a grupos afiliados a un Estado, los cuales pueden plantear "riesgos únicos para el ecosistema digital y bienestar humano", ya que tienen acceso a tecnología avanzada, grandes recursos financieros y personal capacitado.

   A raíz de la investigación, ambas compañías han cancelado las cuentas relacionadas con dos actores afiliados a China, conocidos como Charcoal Typhoon y Salmon Typhoon; el actor de amenazas Crimson Sandstorm, asociado a Irán; el actor afiliado a Corea del Norte, Emerald Sleet; y el ciberdelincuente relacionado con Rusia conocido como Forest Blizzard.

   Así, según ha detallado OpenAI, estos actores utilizaban los servicios de la compañía, como ChatGPT, para consultar información de código abierto, traducir, encontrar errores de codificación y ejecutar tareas básicas de codificación.

   Por ejemplo, el actor de amenazas Charcoal Typhoon afiliado al Estado chino que, según Microsoft, dispone de "un amplio alcance operativo", ha utilizado los LLM para respaldar el desarrollo de herramientas para comprender diversas funciones de ciberseguridad o, incluso, para generar contenido que podía usarse para llevar a cabo ingeniería social -técnicas de manipulación que aprovechan los errores humanos para obtener acceso a servicios o información- frente a sus enemigos.

   Este actor de amenazas, también conocido como Aquatic Panda, ControlX o RedHotel, ha dirigido sus ciberataques principalmente contra entidades dentro de Taiwán, Tailandia, Mongolia, Malasia, Francia y Nepal. Sus objetivos son instituciones e individuos a nivel global "que se oponen a las políticas de China".

   Otro de los actores identificados, relacionado con el Estado chino, es Salmon Typhoon, que ha utilizado los LLM de OpenAI para obtener información sobre temas "potencialmente sensibles", datos de personas de alto perfil a nivel geopolítica e influencia de Estados Unidos.

   Según OpenAI, utilizó sus servicios para traducir documentos técnicos, recuperar información disponible públicamente sobre múltiples agencias de inteligencia y actores de amenaza regionales e, incluso, investigar formas comunes para ocultar procesos en un sistema. Salmon Typhoon, se ha reconocido anteriormente en ciberataques a agencias gubernamentales y entidades de Estados Unidos, con tecnología criptográfica.

   En cuanto a Crimson Sandstorm, el actor de amenazas identificado con el Cuerpo de la Guardia Revolucionaria Islámica (IRGC), utilizó los servicios de OpenAI para obtener soporte para código relacionado con el desarrollo web y de aplicaciones. De hecho, según ha determinado la compañía de IA, se utilizó para generar contenido enfocado en campañas de 'phishing' e investigar formas comunes de evadir la detección de este tipo de ataques.

   En este caso, Microsoft ha detallado que los ataques de este actor malicioso, también identificado como Imperial Kitten y Yellow Liderc, han ido habitualmente dirigidos a sectores de defensa, transporte, atención médica y tecnología, a través de métodos de ingeniería social.

   Por su parte, Emerald Sleet se aprovechó de las tecnologías de Open AI para identificar expertos y organizaciones centradas en cuestiones de defensa en la región de Asia y el Pacífico. Igualmente, ha hecho uso de los LLM para comprender las vulnerabilidades que existen actualmente y redactar contenido que utilizar en campañas de 'phishing'.

   Relacionado con Corea del Norte y conocido por otros investigadores como Kimsuky o Velvet Chollima, este actor malicioso se conoce por lanzar ataques haciéndose pasar por instituciones académicas y ONG de renombre, de cara a atraer a víctimas para obtener información y comentarios de expertos sobre las políticas exteriores de Corea del Norte.

   Finalmente, Forest Blizzard, utilizó los servicios de la compañía dirigida por Sam Altman para la investigación de código abierto sobre protocolos de comunicación satélite, así como soporte para tareas scripting. En concreto, se trata de un actor de inteligencia militar ruso que, sobre todo, centra sus ataques en víctimas de interés para el Gobierno ruso.

ENFOQUE PARA GARANTIZAR SEGURIDAD EN EL USO DE LA IA

   Teniendo todo esto en cuenta, tanto Microsoft como OpenAI han compartido su enfoque para asegurar un uso adecuado de la IA y detectar y bloquear posibles actores de amenazas como los mencionados anteriormente.

   En este marco, desde OpenAI abogan por el uso de IA para frenar el mal uso de esta tecnología. Tal y como ha manifestado, aunque las capacidades de sus modelos actuales para las tareas de ciberseguridad maliciosas "son limitadas", consideran que es relevante "adelantarse a las amenazas importantes en evolución".

   Para ello, la compañía de IA ha anunciado que invertirá en tecnología y equipos para identificar e interrumpir este tipo de actividades por parte de ciberdelincuentes. Además, ha recordado que, actualmente, sus equipos de Inteligencia e Investigaciones, Seguridad e Integridad utilizan sus modelos para buscar pistas, analizar como los actores maliciosos interactúan con la plataforma y evaluar sus intenciones. Tras la identificación de este tipo de actividades, toma las "medidas adecuadas" para interrumpir sus actividades.

   Por su parte Microsoft, ha indicado que, en caso de detectar un mal uso de la IA por parte de un actor de amenazas, lo notifica de forma inmediata al proveedor de servicios en cuestión y comparte los datos relevantes relacionados.

   De la misma forma, OpenAI también colabora con socios del sector y partes interesadas para intercambiar información sobre casos identificados de uso indebido de IA por parte de ciberdelincuentes. Siguiendo este hilo, la compañía de IA ha señalado que aprenden de "cada uso y mal uso" para crear sistemas de IA "cada vez más seguros con el tiempo".

   Con todo ello, ambas compañías han señalado la importancia de la transparencia. De cara a promover un uso responsable de la IA, continuarán informando a los usuarios y a las partes interesadas sobre el alcance del uso de la IA en manos de actores maliciosos.