Las letras de IA (Inteligencia Artificial) están colocadas en la placa base de una computadora en esta ilustración tomada el 23 de junio de 2023. REUTERS/Dado Ruvic/Illustración/Foto de archivo Adquirir derechos de licencia

30 de agosto (Reuters) - Los funcionarios británicos están advirtiendo a las organizaciones sobre la integración de chatbots impulsados por inteligencia artificial en sus negocios, diciendo que la investigación ha demostrado cada vez más que pueden ser engañados para realizar tareas dañinas.
En un par de publicaciones de blog publicadas el miércoles, el Centro Nacional de Seguridad Cibernética (NCSC) de Gran Bretaña dijo que los expertos aún no habían logrado comprender los problemas de seguridad potenciales relacionados con los algoritmos que pueden generar interacciones que suenan humanas - conocidas como modelos de lenguaje grandes, o LLM en inglés.
Las herramientas impulsadas por IA se están utilizando tempranamente como chatbots que algunos imaginan que reemplazarán no solo las búsquedas en Internet, sino también el trabajo de servicio al cliente y las llamadas de ventas.
El NCSC dijo que esto podría conllevar riesgos, especialmente si dichos modelos se conectaran a otros elementos de los procesos comerciales de la organización. Académicos e investigadores han encontrado repetidamente formas de subvertir los chatbots alimentándolos con comandos fraudulentos o engañándolos para que eviten sus propias protecciones incorporadas.
Por ejemplo, un chatbot impulsado por IA implementado por un banco podría ser engañado para realizar una transacción no autorizada si un pirata informático estructurara su consulta de la manera correcta.
"Las organizaciones que construyen servicios que utilizan LLM deben tener cuidado, de la misma manera en que serían si estuvieran utilizando un producto o una biblioteca de código que estuviera en fase beta", dijo el NCSC en uno de sus blogs, refiriéndose a las versiones experimentales del software.
"No permitirían que ese producto participe en la realización de transacciones en nombre del cliente y, con suerte, no confiarían plenamente en él. La misma precaución debería aplicarse a los LLM".
Las autoridades de todo el mundo están lidiando con el auge de los LLM, como ChatGPT de OpenAI, que las empresas están incorporando en una amplia gama de servicios, incluyendo ventas y atención al cliente. Las implicaciones de seguridad de la IA también están tomando forma, con autoridades en Estados Unidos y Canadá que dicen que han visto hackers adoptar la tecnología.
Una encuesta reciente de Reuters/Ipsos encontró que muchos empleados corporativos estaban utilizando herramientas como ChatGPT para ayudar con tareas básicas, como redactar correos electrónicos, resumir documentos e investigar preliminarmente.
El 10% de los encuestados dijo que sus jefes prohibieron explícitamente el uso de herramientas de IA externas, mientras que una cuarta parte no sabía si su empresa permitía el uso de esta tecnología.
Oseloka Obiora, director de tecnología de la firma de ciberseguridad RiverSafe, dijo que la carrera por integrar la IA en las prácticas comerciales tendría "consecuencias desastrosas" si los líderes empresariales no introducen los controles necesarios.
En lugar de sumergirse en las últimas tendencias de AI, los altos ejecutivos deberían reconsiderar", dijo. "Evaluar los beneficios y riesgos, así como implementar la protección cibernética necesaria para asegurar que la organización esté a salvo de daños".
Información de Raphael Satter; Edición por Alex Richardson
Nuestros Estándares: Los Principios de Confianza de Thomson Reuters.
Periodista especializado en ciberseguridad, vigilancia y desinformación para Reuters. Su trabajo ha incluido investigaciones sobre espionaje patrocinado por el estado, propaganda impulsada por deepfakes y piratería mercenaria.