Getty Images/iStockphoto
Cómo los hackers usan la IA y el aprendizaje automático para apuntar a empresas
La IA beneficia tanto a los equipos de seguridad como a los ciberdelincuentes. Descubra cómo los hackers utilizan la IA y el aprendizaje automático para atacar a las empresas y obtenga consejos para prevenir los ciberataques centrados en la IA.
La ciberseguridad se ha beneficiado de los avances en el aprendizaje automático y la IA. Hoy en día, los equipos de seguridad están inundados de datos sobre posibles actividades sospechosas, pero a menudo se quedan buscando agujas en pajares. La IA ayuda a los defensores a encontrar las verdaderas amenazas dentro de estos datos mediante el reconocimiento de patrones en el tráfico de la red, los indicadores de malware y las tendencias de comportamiento de los usuarios.
Desgraciadamente, los atacantes han encontrado sus propias formas de utilizar estos beneficiosos avances en inteligencia artificial y aprendizaje automático contra nosotros. El fácil acceso a los entornos en la nube hace que sea sencillo empezar con la IA y construir modelos de aprendizaje potentes y capaces.
Veamos cómo los hackers utilizan la IA y el aprendizaje automático para atacar a las empresas, así como las formas de prevenir los ciberataques centrados en la IA.
Tres formas en que los atacantes utilizan la IA contra los defensores
1. Probar el éxito de su malware contra herramientas basadas en IA
Los atacantes pueden utilizar el aprendizaje automático de varias maneras. La primera, y la más sencilla, es crear sus propios entornos de aprendizaje automático y modelar su propio malware y prácticas de ataque para determinar los tipos de eventos y comportamientos que buscan los defensores.
Un malware sofisticado, por ejemplo, puede modificar las bibliotecas y componentes del sistema local, ejecutar procesos en la memoria y comunicarse con uno o más dominios pertenecientes a la infraestructura de control del atacante. Todas estas actividades combinadas crean un perfil conocido como tácticas, técnicas y procedimientos (TTP). Los modelos de aprendizaje automático pueden observar las TTP y utilizarlas para crear capacidades de detección.
Al observar y predecir cómo los equipos de seguridad detectan las TTP, los adversarios pueden modificar sutilmente y con frecuencia los indicadores y comportamientos para adelantarse a los defensores que confían en las herramientas basadas en la IA para detectar los ataques.
2. Envenenar la IA con datos inexactos
Los atacantes también utilizan el aprendizaje automático y la IA para comprometer los entornos envenenando los modelos de IA con datos inexactos. Los modelos de aprendizaje automático e IA se basan en muestras de datos correctamente etiquetados para construir perfiles de detección precisos y repetibles. Mediante la introducción de archivos benignos que se parecen al malware o la creación de patrones de comportamiento que resultan ser falsos positivos, los atacantes pueden engañar a los modelos de IA para que crean que los comportamientos de ataque no son maliciosos. Los atacantes también pueden envenenar los modelos de IA introduciendo archivos maliciosos que los entrenamientos de IA han etiquetado como seguros.
3. Mapear los modelos de IA existentes
Los atacantes buscan activamente mapear los modelos de IA existentes y en desarrollo utilizados por los proveedores de ciberseguridad y los equipos de operaciones. Al aprender cómo funcionan los modelos de IA y lo que hacen, los adversarios pueden interrumpir las operaciones y los modelos de aprendizaje automático activamente durante sus ciclos. Esto puede permitir a los hackers influir en el modelo engañando al sistema para que favorezca a los atacantes y sus tácticas. También puede permitir a los hackers eludir por completo los modelos conocidos modificando sutilmente los datos para evitar la detección basada en patrones reconocidos.
Cómo defenderse de los ataques centrados en la IA
La defensa contra los ataques centrados en IA es extremadamente difícil. Los defensores deben asegurarse de que las etiquetas asociadas a los datos utilizados en el aprendizaje de modelos y el desarrollo de patrones sean precisas. Al garantizar que los datos tengan identificadores de etiquetas precisos, es probable que los conjuntos de datos utilizados para entrenar los modelos sean más pequeños, lo que no ayuda a la eficiencia de la IA.
Para aquellos que construyen modelos de detección de seguridad de IA, la introducción de técnicas y tácticas adversas durante el modelado puede ayudar a alinear el reconocimiento de patrones con las tácticas vistas en la naturaleza. Los investigadores de la Universidad Johns Hopkins desarrollaron el marco de software TrojAI para ayudar a generar modelos de IA para troyanos y otros patrones de malware. Los investigadores del MIT publicaron TextFooler, una herramienta que hace lo mismo con los patrones del lenguaje natural, lo que podría ser útil para construir modelos de IA más resistentes que detecten problemas como el fraude bancario.
A medida que la IA adquiere mayor importancia, los atacantes tratarán de superar los esfuerzos de los defensores con sus propias investigaciones. Es crucial que los equipos de seguridad se mantengan al día de las tácticas de los atacantes para defenderse de ellas.