Un año y medio antes de las elecciones presidenciales de 2024, el Comité Nacional Republicano comenzó a emitir anuncios de ataque contra el presidente de los Estados Unidos, Joe Biden. Sin embargo, en esta ocasión, el comité hizo algo diferente.

Utilizó una inteligencia artificial generativa para crear un anuncio político lleno de imágenes que representan una realidad alternativa con una inclinación partidista, es decir, lo que quiere que creamos que será el país si Biden es reelegido. El anuncio muestra imágenes de migrantes cruzando las fronteras de los Estados Unidos en grandes cantidades, una guerra mundial inminente y soldados patrullando las calles de ciudades estadounidenses desoladas. Y en la esquina superior izquierda del video, hay una pequeña y tenue advertencia, fácil de pasar por alto, que dice "Creado totalmente con imágenes de inteligencia artificial".

No está claro qué provocó al RNC a generar este video. El comité no respondió a las solicitudes de más información. Pero parece ser que se basó en ideas como "devastación", "colapso gubernamental" y "fracaso económico".

Los anuncios políticos no son el único lugar donde vemos la aparición de desinformación mediante imágenes y escritos generados por IA. Y no siempre llevarán una etiqueta de advertencia. Imágenes falsas del Papa Francisco vistiendo una elegante chaqueta hinchada, por ejemplo, se volvieron virales en marzo, insinuando incorrectamente que el líder religioso estaba modelando un atuendo de la lujosa marca de moda Balenciaga. Un video de TikTok de las calles de París llenas de basura obtuvo más de 400,000 vistas este mes, y todas las imágenes eran completamente falsas.

Herramientas de IA generativa como ChatGPT de OpenAI y Google Bard han sido la tecnología más comentada de 2023 y no muestran signos de disminuir, en prácticamente todos los campos, desde la programación informática hasta el periodismo y la educación. La tecnología se utiliza para publicaciones en redes sociales, grandes programas de televisión y escritura de libros. Empresas como Microsoft están invirtiendo miles de millones en IA.

Las herramientas de IA generativa, construidas utilizando grandes cantidades de datos, a menudo recopilados de Internet y a veces de fuentes propietarias, están programadas para responder a una consulta o responder a un estímulo generando texto, imágenes, audio u otras formas de medios. Tareas como tomar fotos, escribir código y crear música se pueden hacer fácilmente con herramientas de IA; simplemente ajusta tu estímulo hasta obtener lo que quieres. Esto ha estimulado la creatividad para algunos, mientras que otros están preocupados por las posibles amenazas que pueden surgir de estos sistemas de IA.

Los problemas surgen cuando no podemos distinguir entre la IA y la realidad. O cuando el contenido generado por IA se crea intencionalmente para engañar a las personas, no solo desinformación (información incorrecta o engañosa) sino también desinformación (falsedades diseñadas para engañar o causar daño). Aquellos que buscan difundir desinformación pueden utilizar la IA generativa para crear contenido falso a bajo costo, y los expertos afirman que los resultados pueden engañar al público mejor que el contenido creado por humanos.

El daño potencial de la desinformación generada por IA podría ser grave: podría afectar votos o sacudir el mercado de valores. La IA generativa también podría erosionar la confianza y nuestra sensación compartida de realidad, según el experto en IA Wasim Khaled.

"A medida que la IA borra la línea entre los hechos y la ficción, estamos viendo un aumento en campañas de desinformación y deepfakes que pueden manipular la opinión pública y alterar los procesos democráticos", dijo Wasim Khaled, CEO y cofundador de Blackbird.AI, una empresa que proporciona inteligencia artificial en la narrativa y riesgos para los negocios. "Esta distorsión de la realidad amenaza con socavar la confianza pública y plantea desafíos significativos en términos sociales y éticos".

La IA ya se está utilizando con fines desinformativos, aunque los gigantes tecnológicos que crearon la tecnología están tratando de minimizar los riesgos. Si bien los expertos no están seguros de si tenemos las herramientas para detener el mal uso de la IA, sí tienen algunos consejos sobre cómo puedes detectarlo y frenar su propagación.

¿Qué es la desinformación de IA y por qué es efectiva?

La tecnología siempre ha sido una herramienta para la desinformación. Ya sea un correo electrónico lleno de teorías de conspiración que se reenvía de un pariente, publicaciones de Facebook sobre COVID-19 o llamadas robóticas que difunden afirmaciones falsas sobre la votación por correo, aquellos que quieren engañar al público utilizarán la tecnología para lograr sus objetivos. Se ha convertido en un problema tan grave en los últimos años, gracias en parte a las redes sociales que proporcionan una herramienta de distribución acelerada para los vendedores de desinformación, que el cirujano general de EE. UU., Dr. Vivek Murthy, lo calificó como una "amenaza urgente" en 2021, diciendo que la desinformación sobre COVID ponía en peligro vidas.

La tecnología de IA generativa está lejos de ser perfecta; los chatbots de IA pueden proporcionar respuestas incorrectas desde el punto de vista factual y las imágenes creadas por IA pueden tener un aspecto perturbador. Sin embargo, es fácil de usar. Precisamente esta facilidad de uso hace que las herramientas de IA generativa sean propensas a un uso indebido.

La desinformación creada por la IA adopta diferentes formas. En mayo, el medio de noticias controlado por el estado ruso RT.com tuiteó una imagen falsa de una explosión cerca del Pentágono en Washington, DC. Expertos citados por NBC afirman que es probable que la imagen fuera creada por IA, y se volvió viral en las redes sociales, causando una caída en el mercado de valores.

NewsGuard, una organización que evalúa la confiabilidad de los sitios de noticias, encontró más de 300 sitios a los que se refiere como "sitios web de noticias e información generadas por IA no confiables". Estos sitios tienen nombres genéricos que suenan legítimos, pero el contenido producido ha incluido algunas afirmaciones falsas, como falsos rumores de muerte de famosos y otros eventos ficticios.

Estos ejemplos pueden parecer obviamente falsos para usuarios más experimentados en línea, pero el tipo de contenido creado por IA está mejorando y es más difícil de detectar. También se está volviendo más convincente, lo que resulta útil para actores maliciosos que intentan promover una agenda a través de la propaganda.

"La desinformación generada por IA tiende a tener un mayor atractivo emocional", dijo Munmun de Choudhury, profesor asociado en la Escuela de Computación Interactiva de Georgia Tech y coautor de un estudio publicado en abril que examina la desinformación generada por IA.

"Puedes usar estas herramientas de IA generativa para generar información muy convincente y precisa, y utilizarla para avanzar cualquier propaganda o interés político que estén buscando avanzar", dijo de Choudhury. "Ese tipo de mal uso es una de las mayores amenazas que veo en el futuro".

Los actores malintencionados que utilizan IA generativa pueden mejorar la calidad de su desinformación al crear un mayor atractivo emocional, pero existen casos en los que la IA no necesita que le indiquen que cree información falsa. Lo hace por sí misma, y luego se propaga involuntariamente.

La desinformación no siempre es intencional. La IA puede generar su propia información falsa, llamada alucinación, según afirmó Javin West, profesor asociado en la Escuela de Información de la Universidad de Washington y cofundador del Centro para un Público Informado, en su presentación de "Mini MisinfoDay" en mayo.

Cuando se le asigna una tarea a la IA, se supone que debe generar una respuesta basada en datos del mundo real. Sin embargo, en algunos casos, la IA falsificará fuentes, es decir, "alucinará". Esto puede incluir referencias a libros que no existen o noticias que pretenden ser de sitios web conocidos como The Guardian.

El Bard de Google ha causado revuelo entre los empleados de la compañía que probaron la inteligencia artificial antes de que estuviera disponible al público en marzo. Aquellos que lo utilizaron afirmaron que la tecnología fue apresurada y que Bard era un 'mentiroso patológico'. También daba malos consejos, e incluso peligrosos, sobre cómo aterrizar un avión o bucear.

Esta doble amenaza de contenido creado por inteligencia artificial que resulta plausible y convincente es lo suficientemente malo. Sin embargo, es la necesidad de algunas personas de creer que este contenido falso es verdadero lo que hace que se vuelva viral.

¿Qué hacer respecto a la desinformación generada por la IA?

Cuando se trata de combatir la desinformación generada por la inteligencia artificial, y los peligros de la IA en general, los desarrolladores de estas herramientas aseguran que están trabajando para reducir cualquier daño que esta tecnología pueda causar, pero también han tomado medidas que parecen contradecir sus intenciones.

Microsoft, que invirtió miles de millones de dólares en el creador de ChatGPT, OpenAI, despidió a 10,000 empleados en marzo, incluyendo al equipo encargado de asegurar la implementación de principios éticos al usar IA en los productos de Microsoft.

Cuando se le preguntó sobre los despidos en un episodio del podcast Freakonomics Radio en junio, Satya Nadella, CEO de Microsoft, dijo que la seguridad de la IA es una parte fundamental del desarrollo de productos.

"El trabajo que están realizando los equipos de seguridad de IA ahora se está volviendo más común", dijo Nadella. "De hecho, estamos intensificando nuestros esfuerzos en ese sentido... Para mí, la seguridad de la IA es tan importante como hablar de 'rendimiento' o 'calidad' en cualquier proyecto de software".

Las compañías que desarrollaron la tecnología afirman que están trabajando en la reducción de los riesgos de la IA. Google, Microsoft, OpenAI y Anthropic, una empresa de investigación y seguridad de la IA, crearon el Foro del Modelo Frontera el 26 de julio. El objetivo de este grupo es promover la investigación en seguridad de la IA, identificar las mejores prácticas y colaborar con legisladores, académicos y otras compañías.

Sin embargo, los funcionarios gubernamentales también buscan abordar el problema de la seguridad de la IA. La vicepresidenta de Estados Unidos, Kamala Harris, se reunió en mayo con líderes de Google, Microsoft y OpenAI para discutir los posibles peligros de la IA. Dos meses después, esos líderes hicieron un "compromiso voluntario" con la administración Biden para reducir los riesgos de la IA.

La Unión Europea anunció en junio que quiere que las empresas tecnológicas comiencen a etiquetar el contenido creado por IA antes de promulgar legislación al respecto.

Qué puedes hacer para evitar la desinformación generada por IA

Existen herramientas de IA disponibles para detectar contenido de desinformación creado por IA, pero aún no están a la altura. De acuerdo con el estudio de De Choudhury, estas herramientas de detección de desinformación necesitaban un aprendizaje continuo más exhaustivo para manejar la desinformación generada por IA.

En julio, la propia herramienta de Open AI para detectar texto escrito por IA fue retirada por la compañía debido a su baja precisión.

Khaled afirma que lo que ayuda a determinar si un contenido está generado por IA es ser un poco escéptico y prestar atención a los detalles.

"El contenido generado por IA, aunque avanzado, a menudo tiene peculiaridades o contradicciones sutiles", dijo. "Estos signos no siempre están presentes o son evidentes, pero a veces pueden revelar contenido generado por IA".

Cuatro cosas a considerar al tratar de determinar si algo fue generado por IA o no:

Busca características propias de la IA: Fórmulas inusuales, digresiones irrelevantes o frases que no encajan del todo en la narrativa general son indicios de un texto escrito por IA. Con imágenes y videos, cambios en la iluminación, movimientos faciales extraños o una mezcla extraña del fondo pueden indicar que se hizo con IA.

Considera la fuente: ¿Es esta una fuente confiable como Associated Press, BBC o New York Times, o proviene de un sitio del que nunca has oído hablar?

Investiga por ti mismo: Si una publicación que ves en línea parece demasiado loca para ser verdad, investiga primero. Busca en Google lo que viste en la publicación y averigua si es real o simplemente más contenido de IA que se volvió viral.

Obtén una confirmación de la realidad: Tómate un descanso y habla con personas en las que confíes sobre las cosas que estás viendo. Puede ser perjudicial mantenerse en una burbuja en línea donde cada vez es más difícil distinguir qué es real y qué es falso.

Lo que sigue funcionando mejor cuando se combate cualquier tipo de desinformación, ya sea generada por humanos o por IA, es no compartirla.

"Lo número uno que podemos hacer es pensar más y compartir menos", dijo West.

Lo que los gigantes en línea hacen para combatir la desinformación generada por IA

Para combatir la desinformación generada por IA antes de las elecciones presidenciales de Estados Unidos de 2024, Google requerirá, a partir de mediados de noviembre, que los anuncios políticos que utilizan IA incluyan una divulgación.

"Todos los anunciantes electorales verificados en regiones donde se requiere verificación deben divulgar de manera prominente cuando sus anuncios contengan contenido sintético que representa de manera inauténtica a personas o eventos reales o que parecen reales", dice la política actualizada de Google, que también se aplica al contenido en YouTube. "Esta divulgación debe ser clara y conspicua, y debe ubicarse en un lugar donde es probable que los usuarios la noten. Esta política se aplicará al contenido de imágenes, videos y audio".

Meta implementará el mismo requisito para los anuncios políticos en Instagram y Facebook a partir de enero.

Los anunciantes deberán revelar siempre que un anuncio sobre un tema social, electoral o político contenga una imagen o video fotorrealista, o audio realista que haya sido creado o alterado digitalmente", afirma la nueva política de Meta.

Nota de los editores: CNET está utilizando un motor de inteligencia artificial para ayudar a crear algunas historias. Para obtener más información, consulta esta publicación.