Ha sido una evolución rápida, incluso para la industria de la tecnología de la información. En la edición de Black Hat de 2022, los CISOs decían que no querían escuchar las letras "IA"; en RSAC 2023, prácticamente todos estaban hablando de la IA generativa y especulando sobre los grandes cambios que marcaría para la industria de la seguridad; en Black Hat USA 2023, todavía se hablaba de IA generativa, pero con conversaciones centradas en la gestión de la tecnología como ayuda para los operadores humanos y trabajando dentro de los límites de los motores de IA. En general, muestra un cambio muy rápido desde la exagerada publicidad hasta un realismo más útil.
El realismo es bienvenido porque la IA generativa definitivamente será una característica de los productos, servicios y operaciones de ciberseguridad en los próximos años. Una de las razones por las que esto es cierto es la realidad de que la falta de profesionales en ciberseguridad también será una característica de la industria en los próximos años. Con el uso de la IA generativa enfocado en amplificar la eficacia de los profesionales en ciberseguridad, en lugar de reemplazar a los FTEs (equivalentes a tiempo completo o empleados a tiempo completo), no escuché a nadie discutiendo la posibilidad de aliviar la escasez de talento reemplazando a los humanos con IA generativa. Lo que escuché mucho fue el uso de la IA generativa para hacer que cada profesional en ciberseguridad sea más efectivo, especialmente en el caso de los analistas de Nivel 1 para que sean tan efectivos como los analistas de "Nivel 1.5", ya que estos analistas menos experimentados pueden proporcionar más contexto, más certeza y más opciones prescriptivas a los analistas de niveles superiores a medida que escalan las alertas.
Hay que conocer las limitaciones
Parte de la conversación sobre cómo se usará la IA generativa fue un reconocimiento de las limitaciones de la tecnología. Estas no fueron discusiones sobre el futuro mostrado en The Matrix, sino conversaciones sinceras sobre las capacidades y usos que son metas legítimas para las empresas que implementan la tecnología.Dos de las limitaciones que escuché hablar merecen ser mencionadas aquí. Una tiene que ver con cómo se entrenan los modelos, mientras que la otra se enfoca en cómo los humanos responden a la tecnología. En cuanto al primer problema, hubo un gran acuerdo en que ninguna implementación de IA puede ser mejor que los datos en los que se ha entrenado. Junto a eso está el reconocimiento de que la búsqueda de conjuntos de datos más grandes puede chocar con preocupaciones sobre la privacidad, la seguridad de los datos y la protección de la propiedad intelectual. Escucho a cada vez más empresas hablar de "experiencia de dominio" en conjunto con la IA generativa: limitar el alcance de una instancia de IA a un solo tema o área de interés y asegurarse de que esté óptimamente entrenada para estímulos sobre ese tema. Esperen escuchar mucho más sobre esto en los próximos meses.
La segunda limitación se llama "limitación de la caja negra". En pocas palabras, las personas tienden a no confiar en la magia, y los motores de IA son el tipo más profundo de magia para la mayoría de los ejecutivos y empleados. Para fomentar la confianza en los resultados de la IA, tanto los departamentos de seguridad como los de tecnología de la información deberán aumentar la transparencia en torno a cómo se entrenan, generan y utilizan los modelos. Recuerden que la IA generativa se usará principalmente como una ayuda para los trabajadores humanos. Si esos trabajadores no confían en las respuestas que obtienen de los estímulos, esa ayuda será increíblemente limitada.
Definir los términos
Hubo un punto en el que aún se evidenciaba confusión en ambas conferencias: ¿qué quería decir alguien cuando decía "IA"? En la mayoría de los casos, la gente hablaba de IA generativa (o modelos de lenguaje grandes, también conocidos como LLM) al discutir las posibilidades de la tecnología, incluso si simplemente decían "IA". Otros, al escuchar las dos letras simples, señalaban que la IA había sido parte de su producto o servicio durante años. Esta desconexión destacó el hecho de que será crucial definir los términos o ser muy específicos al hablar de IA durante algún tiempo.Por ejemplo, la IA que se ha utilizado en productos de seguridad durante años utiliza modelos mucho más pequeños que la IA generativa, tiende a generar respuestas mucho más rápido y es bastante útil para la automatización. Dicho de otra manera, es útil para encontrar rápidamente la respuesta a una pregunta muy específica que se formula una y otra vez. Por otro lado, la IA generativa puede responder a un conjunto más amplio de preguntas utilizando un modelo construido a partir de enormes conjuntos de datos. Sin embargo, no tiende a generar la respuesta de manera constante lo suficientemente rápido como para convertirse en una herramienta excelente para la automatización.
Hubo muchas más conversaciones y habrá muchos más artículos, pero la IA LLM está aquí para quedarse como tema en ciberseguridad. Prepárate para las conversaciones que vendrán.