Cyber Signals comparte información sobre cómo los actores de amenazas usan la IA para refinar sus ataques
El mundo de la ciberseguridad experimenta una transformación masiva. La IA está a la vanguardia de este cambio y tiene el potencial de capacitar a las organizaciones para derrotar los ciberataques a la velocidad de las máquinas, abordar la escasez de talento cibernético e impulsar la innovación y la eficiencia en ciberseguridad. Sin embargo, los adversarios pueden usar la IA como parte de sus actividades, y nunca ha sido más importante para nosotros proteger nuestro mundo a través de la utilización de la IA y asegurar la IA para nuestro mundo.
Hoy publicamos la sexta edición de Cyber Signals, en la que destacamos cómo protegemos las plataformas de IA de las amenazas emergentes relacionadas con los actores de ciberamenazas de los estados-nación.
En colaboración con OpenAI, compartimos información sobre los actores de amenazas afiliados al estado rastreados por Microsoft, como Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon y Salmon Typhoon, que han buscado usar grandes modelos de lenguaje (LLM, por sus siglas en inglés) para aumentar sus operaciones de ciberataques en curso. Esta importante investigación expone los primeros movimientos incrementales que observamos que estos conocidos actores de amenazas toman alrededor de la IA y señala cómo bloqueamos su actividad para proteger las plataformas y los usuarios de IA.
También anunciamos los principios de Microsoft que guían nuestras acciones para mitigar los riesgos de las amenazas persistentes avanzadas de los estados-nación, los manipuladores persistentes avanzados y los sindicatos de ciberdelincuentes que utilizan plataformas y API de inteligencia artificial. Estos principios incluyen la identificación y la acción contra el uso de amenazas maliciosas, la notificación a otros proveedores de servicios de IA, la colaboración con otras partes interesadas y la transparencia.
Además, Microsoft ayuda a la comunidad de seguridad en general a comprender y detectar las perspectivas emergentes de los LLM en la actividad de ataque.
Continuamos el trabajo con MITRE para integrar estas tácticas, técnicas y procedimientos (TTP, por sus siglas en inglés) con temática de LLM en el marco MITRE ATT&CK® o en la base de conocimientos MITRE ATLAS™ (Panorama de amenazas adversarial para sistemas de inteligencia artificial). Esta expansión estratégica refleja el compromiso no solo de rastrear y neutralizar las amenazas, sino también de ser pioneros en el desarrollo de contramedidas en el panorama cambiante de las operaciones cibernéticas impulsadas por IA.
Esta edición de Cyber Signals comparte información sobre cómo los actores de amenazas usan la IA para refinar sus ataques y también cómo usamos la IA para proteger a Microsoft.
Los ciberdelincuentes y los actores patrocinados por el Estado recurren a la IA, incluidos los LLM, para mejorar su productividad y aprovechar las plataformas que pueden promover sus objetivos y técnicas de ataque. Aunque los motivos y la sofisticación de los actores de amenazas varían, comparten tareas comunes a la hora de desplegar ataques. Estos incluyen el reconocimiento, como la investigación de las industrias, ubicaciones y relaciones de las posibles víctimas; codificación, incluida la mejora de los scripts de software y el desarrollo de malware; y asistencia en el aprendizaje y uso de lenguajes humanos y de máquinas. Nuestra investigación con OpenAI no ha identificado ataques significativos que empleen los LLM que monitoreamos de cerca.
Microsoft utiliza varios métodos para protegerse de este tipo de ciberamenazas, incluida la detección de amenazas habilitada por IA para detectar cambios en la forma en que se usan los recursos o el tráfico en la red; análisis de comportamiento para detectar inicios de sesión de riesgo y comportamientos anómalos; modelos de aprendizaje automático para detectar inicios de sesión de riesgo y malware; Zero Trust, donde cada solicitud de acceso debe estar autenticada, autorizada y cifrada por completo; y el estado del dispositivo que se debe verificar antes de que un dispositivo pueda conectarse a la red corporativa.
Además, la IA generativa tiene un potencial increíble para ayudar a todos los defensores a proteger sus organizaciones a la velocidad de las máquinas. El papel de la IA en la ciberseguridad es multifacético e impulsa la innovación y la eficiencia en varios ámbitos. Desde la mejora de la detección de amenazas hasta la optimización de la respuesta a incidentes, las capacidades de la IA remodelan la ciberseguridad. El uso de LLM en ciberseguridad es un testimonio del potencial de la IA. Estos modelos pueden analizar grandes cantidades de datos para descubrir patrones y tendencias en las amenazas cibernéticas, lo que agrega un contexto valioso a la inteligencia de amenazas. Ayudan en tareas técnicas como la ingeniería inversa y el análisis de malware, lo que proporciona una nueva capa de defensa contra los ciberataques. Por ejemplo, los usuarios de Microsoft Copilot for Security han mostrado un aumento del 44% en la precisión en todas las tareas y una tasa de finalización un 26% más rápida. Estas cifras ponen de manifiesto los beneficios tangibles de integrar la IA en las prácticas de ciberseguridad.1
A medida que aseguramos el futuro de la IA, debemos reconocer la naturaleza dual de la tecnología: aporta nuevas capacidades y nuevos riesgos. La IA no es solo una herramienta, sino un cambio de paradigma en la ciberseguridad. Nos permite defendernos de las ciberamenazas sofisticadas y adaptarnos al panorama dinámico de amenazas. Al adoptar la IA, podemos ayudar a garantizar un futuro seguro para todos.
(*)Vasu Jakkal, vicepresidenta corporativa de seguridad, cumplimiento, identidad y gestión
FUENTE:microsoft.com