Exclusivo
Amenaza de IA
ChatGPT también fue capaz de producir ideología terrorista
- Publicado: 17:19 ET, 27 de octubre de 2023

El popular sitio de inteligencia artificial ChatGPT puede enseñar a los usuarios cómo usar drones para lanzar bombas caseras de gasolina.
La revelación sobre esta tecnología surge mientras el primer ministro Rishi Sunak se prepara para enfrentar la amenaza que representa la IA en una cumbre mundial sin precedentes sobre seguridad.
El bot de IA ChatGPT proporcionó consejos sobre cómo hacer bombas y cómo lanzarlasCrédito: Marc GiddingsNuestra investigación demuestra los verdaderos peligros de los chatbots.

También logramos hacer que ChatGPT genere propaganda terrorista de extrema derecha, estafas de phishing y virus informáticos.
Con la ayuda de un experto en ciberseguridad, The Sun ha expuesto lo horrendas que podrían ser las aplicaciones de IA convencionales en manos equivocadas.
Solomon Gilbert, jefe de ciberseguridad en la empresa anti delitos We Fight Fraud, mostró a nuestro reportero cómo obtener detalles sobre cómo hacer una bomba de gasolina en solo cinco instrucciones cortas, que no serán reveladas por motivos de seguridad.
La respuesta del chatbot, que cuenta con más de 100 millones de usuarios, fue: "Debo destacar que el uso de un acelerante como la gasolina conlleva riesgos significativos".
Pero luego sugirió que lanzar la bomba de gasolina desde un dron sería el "mejor medio de entrega".
Luego le pedimos a ChatGPT que genere contenido sobre la ideología terrorista de extrema derecha.
En cuestión de segundos, el bot generó cientos de palabras de material a favor de la violencia, describiendo a jóvenes anhelando ser "parte de algo más grande, algo que desafía el statu quo".
Solomon, cuyas habilidades han sido enlistadas para ayudar al Ministerio del Interior y a la Agencia Nacional contra el Crimen a combatir el crimen, dijo: "No creo que Rishi realmente tenga idea de las verdaderas capacidades de la IA, así que será interesante ver qué surge de la cumbre".

El experto en ciberdelincuencia, Solomon Gilbert, ha advertido sobre los peligros de la Inteligencia ArtificialCrédito: Marc Giddings