Herramientas de aprendizaje automático han sido parte de los flujos de trabajo estándar de negocios y tecnología de la información durante años, pero la revolución emergente de la IA generativa está impulsando un aumento rápido tanto en la adopción como en la conciencia de estas herramientas. Si bien la IA ofrece beneficios en términos de eficiencia en diversas industrias, estas potentes herramientas emergentes requieren consideraciones especiales de seguridad.
¿En qué se diferencia la seguridad de la IA?
La revolución actual de la IA puede ser nueva, pero los equipos de seguridad en Google y en otros lugares han estado trabajando en la seguridad de la IA durante muchos años, si no décadas. En muchos aspectos, los principios fundamentales para asegurar herramientas de IA son los mismos que las mejores prácticas generales de ciberseguridad. La necesidad de gestionar el acceso y proteger los datos a través de técnicas fundamentales como el cifrado y la identidad sólida no cambia solo porque esté involucrada la IA.Una área en la que la seguridad de la IA es diferente es en los aspectos de seguridad de los datos. Las herramientas de IA son alimentadas, y en última instancia programadas, por datos, lo que las hace vulnerables a nuevos ataques, como el envenenamiento de datos de entrenamiento. Actores maliciosos que pueden proporcionar datos defectuosos a la herramienta de IA (o corromper datos de entrenamiento legítimos) pueden dañarla o incluso romperla de una manera más compleja que lo que se ve en los sistemas tradicionales. Y si la herramienta está "aprendiendo" activamente y cambiando su salida basada en la entrada a lo largo del tiempo, las organizaciones deben asegurarse de protegerla contra una desviación de su función originalmente prevista.
Con un sistema empresarial grande y tradicional (no de IA), lo que obtienes de él es lo que le pones. No verás una salida maliciosa sin una entrada maliciosa. Pero como afirmó Phil Venables, CISO de Google, en un podcast reciente, "Para implementar un sistema de IA, debes pensar en la gestión de entrada y salida". La complejidad de los sistemas de IA y su naturaleza dinámica los hace más difíciles de asegurar que los sistemas tradicionales. Se deben tomar precauciones tanto en la etapa de entrada, para monitorear qué ingresa al sistema de IA, como en la etapa de salida, para asegurar que las salidas sean correctas y confiables.
Implementando un marco de IA seguro
Proteger los sistemas de IA y anticipar nuevas amenazas son prioridades principales para garantizar que los sistemas de IA se comporten según lo previsto. El Marco de IA seguro de Google (SAIF) y su informe Asegurando la IA: ¿Similar o diferente? son buenos puntos de partida, ya que proporcionan una visión general de cómo pensar en y abordar los desafíos de seguridad particulares y las nuevas vulnerabilidades relacionadas con el desarrollo de la IA.SAIF comienza estableciendo una comprensión clara de qué herramientas de IA usará su organización y qué problema comercial específico abordarán. Definir esto de antemano es crucial, ya que le permitirá comprender quiénes estarán involucrados en su organización y qué datos necesitará acceder la herramienta (lo que ayudará con las estrictas prácticas de gobierno de datos y seguridad de contenido necesarias para asegurar la IA). También es una buena idea comunicar casos de uso apropiados y limitaciones de la IA en toda su organización; esta política puede ayudar a protegerse contra el uso no oficial de "TI en la sombra" de las herramientas de IA.
Después de identificar claramente los tipos de herramientas y el caso de uso, su organización debe formar un equipo para gestionar y monitorear la herramienta de IA.
Ese equipo debería incluir a tu equipo de TI y seguridad, pero también involucrar a tu equipo de gestión de riesgos y departamento legal, así como tener en cuenta las preocupaciones de privacidad y ética.
Una vez que hayas identificado al equipo, es hora de comenzar el entrenamiento. Para asegurar adecuadamente la IA en tu organización, debes comenzar con una introducción que ayude a todos a comprender qué es esta herramienta, qué puede hacer y dónde pueden surgir problemas. Cuando una herramienta llega a manos de empleados que no han sido capacitados en las capacidades y limitaciones de la IA, aumenta significativamente el riesgo de incidentes problemáticos.
Después de tomar estos pasos preliminares, has sentado las bases para asegurar la IA en tu organización. Hay seis elementos fundamentales del SAIF (Secure AI Framework) de Google que deberías implementar, comenzando con fundamentos seguros por defecto y avanzando hacia la creación de ciclos de corrección y retroalimentación efectivos utilizando red teaming.
Otro elemento esencial para asegurar la IA es mantener a los humanos en el proceso tanto como sea posible, al mismo tiempo que se reconoce que la revisión manual de las herramientas de IA podría mejorarse. El entrenamiento es vital a medida que avanzas en el uso de la IA en tu organización, pero no se trata de entrenar y reentrenar las herramientas en sí, sino a tus equipos. Cuando la IA va más allá de lo que los seres humanos reales de tu organización entienden y pueden verificar, el riesgo de problemas aumenta rápidamente.
La seguridad de la IA está evolucionando rápidamente y es vital que aquellos que trabajan en el campo permanezcan vigilantes. Es crucial identificar posibles amenazas novedosas y desarrollar contramedidas para prevenirlas o mitigarlas, de modo que la IA pueda seguir ayudando a empresas e individuos de todo el mundo.
Lee más Perspectivas de socios de Google Cloud.