Ir al contenido principal

WASHINGTON — Donald Trump nunca abrazó y besó al Dr. Anthony Fauci en público. Los aviones de combate no rugieron sobre el Gobernador de Florida Ron DeSantis durante un discurso de campaña el año pasado. Y la Senadora de Massachusetts Elizabeth Warren nunca dijo a MSNBC que los republicanos deberían ser excluidos de votar.

Pero existen imágenes convincentes de esos eventos ficticios, cortesía del nuevo y valiente mundo de la inteligencia artificial. Y los expertos advierten que habrá más deepfakes de inteligencia artificial en la campaña de 2024, a medida que la tecnología en rápida evolución facilita la producción de fotos, audios y videos adulterados que cada vez parecen más realistas.

Esto podría llevar a formas mucho más maliciosas de desinformación, como videos falsos de un candidato cometiendo un delito o el gobierno anunciando a última hora que se ha pospuesto el día de las elecciones, situaciones que los expertos temen que las campañas y los reguladores no estén abordando lo suficientemente rápido.

Las campañas y los estrategas políticos han comenzado a enfrentarse al peligro potencial de la inteligencia artificial, llevando a cabo reuniones en Zoom, estableciendo grupos de trabajo y simulando escenarios de lo que podría suceder. Con un Congreso que históricamente es lento para reaccionar ante el avance tecnológico, no existen reglas nacionales que rijan la inteligencia artificial en las campañas y es poco probable que las haya próximamente.

Complicando el panorama está el hecho de que la inteligencia artificial podría potenciar la calidad y la cantidad de desinformación, al tiempo que ofrece la oportunidad de avances positivos, como automatizar tareas mundanas de la campaña. En una ironía tecnológica, incluso se podría emplear la inteligencia artificial para identificar el contenido falso que ayuda a crear.

"El manual de instrucciones para esto se está reescribiendo cada semana", dijo Mike Schneider, socio de Bully Pulpit Interactive, una agencia de marketing y comunicación que trabaja con los demócratas. "Será esta fascinante carrera armamentista de producción y detección, y será una temporada de campaña muy diferente a las anteriores".

El Comité Nacional Republicano ya empleó la inteligencia artificial esta primavera el día en que el presidente Biden lanzó oficialmente su candidatura a la reelección. Le dio la bienvenida a su anuncio con un anuncio en línea de 30 segundos que incluía imágenes distópicas —todas generadas por computadora— de China invadiendo Taiwán y soldados armados cerrando San Francisco debido a la delincuencia y el fentanilo.

El RNC lo promocionó como "una mirada generada por inteligencia artificial al posible futuro del país si Joe Biden es reelegido", y los expertos dijeron que esta divulgación pública es una salvaguardia clave para evitar que la tecnología alimente la desinformación. Sin embargo, la transparencia similar, que no es obligatoria, ha sido rara.

La campaña presidencial de DeSantis no reveló el uso de la inteligencia artificial en su anuncio que presentaba las imágenes falsas de Trump abrazando y besando a Fauci. Tampoco lo hizo el super PAC pro-DeSantis "Don't Back Down" cuando añadió los aviones de combate a un anuncio en su apoyo. Un portavoz de DeSantis no respondió a una solicitud de comentario. Un portavoz de Don't Back Down no negó el uso de la inteligencia artificial, pero se negó a hacer comentarios al respecto.

Y los actores nefarios, incluyendo países como Rusia y entidades domésticas, ciertamente no revelarán que están utilizando inteligencia artificial para deepfakes como el video de Warren, que aparentemente se originó en TikTok.

Trump y su familia también han compartido contenido generado por inteligencia artificial sin etiquetarlo. Donald Trump Jr. esta primavera compartió un video deepfake en Twitter que sustituía el rostro y la voz de DeSantis por las de Steve Carell en un episodio de "The Office" que se burlaba del personaje de Carell por vestir un traje de mujer. El expresidente compartió un video en su página de Instagram del problemático lanzamiento de la campaña de Twitter Spaces de DeSantis en mayo que incluía audio generado por inteligencia artificial de Adolf Hitler y el diablo.

Esas fueron claramente parodias, por lo que se podría argumentar que no necesitaban una declaración. Pero mostraron los problemas potenciales de la llamada IA generativa, que permite al público no capacitado aprovechar los algoritmos informáticos para crear contenido y podría abrir la puerta a escenarios de pesadilla.

Desde la cuenta de Instagram de Donald Trump: un video falso de espacios de Twitter (incluye audio falso de DeSantis) con DeSantis, Elon, George Soros, Hitler, el FBI, Dick Cheney, el Diablo y otros.

pic.twitter.com/PlF0RvO7wq

- Alex Thompson (@AlexThomp) 25 de mayo de 2023

"La IA, y esto es válido para toda tecnología, es maleable. Depende de lo que hagamos con ella y de lo que permitamos que la gente haga con ella", dijo Simon Johnson, profesor del MIT que recientemente coescribió un libro titulado "Power and Progress: Our 1000-Year Struggle Over Technology & Prosperity" (Poder y Progreso: Nuestra lucha de 1000 años por la Tecnología y la Prosperidad). "Podrías imaginar que la IA se convierta en una herramienta para eliminar la desinformación... o se podría utilizar como una forma de llevar la desinformación al siguiente nivel. Creo que depende de las reglas establecidas".

En este momento hay muy pocas reglas y es probable que no se implementen muchas, si acaso. Los demócratas en el Congreso han presentado legislación que exige la divulgación de la IA en los anuncios políticos, pero ningún republicano se ha sumado.

"Hemos avanzado tanto en el uso de la tecnología que para mí quedó muy claro que si no establecíamos algunas restricciones... estábamos poniendo en peligro al pueblo estadounidense", dijo la representante Yvette Clarke, demócrata de Nueva York, quien está patrocinando un proyecto de ley en la Cámara de Representantes. "Espero que no sea necesario que ocurra algo catastrófico para que actuemos".

Un puñado de estados, incluyendo California y Texas, han prohibido el uso de deepfakes en las semanas previas a una elección, y otros están considerando legislaciones similares, pero sería un conjunto de regulaciones dispersas.

El 22 de junio, la Comisión Federal de Elecciones quedó en un punto muerto a lo largo de las líneas partidistas con respecto a una petición del grupo de defensa del consumidor Public Citizen para considerar reglas que prohíban los anuncios de campaña de deepfakes de IA. Los tres republicanos se opusieron al movimiento, y el comisionado del GOP, Allen Dickerson, dijo que la agencia carecía de autoridad.

Eso deja en manos de las campañas mismas la tarea de descubrir cómo aprovechar la nueva tecnología y evitar que siga erosionando aún más la fe de los estadounidenses en lo que ven y escuchan en línea.

"Es realmente importante que estemos hablando de esto, y para las personas en todos los niveles de la operación de campañas, esto es una prioridad", dijo Betsy Hoover, fundadora de Higher Ground Labs, un acelerador político tecnológico progresista.

Esta primavera, la junta directiva de la Asociación Americana de Consultores Políticos condenó públicamente el uso de contenido generativo de IA engañoso en campañas políticas, calificándolo como "una amenaza drásticamente diferente y peligrosa para la democracia". Hoover participó recientemente en una llamada de Zoom sobre IA con estrategas demócratas y dijo que ha habido foros similares en las últimas semanas, así como la formación de un par de grupos de trabajo para determinar cómo establecer estándares.

"Necesitamos transparencia en cuanto al momento y lugar en que se utiliza la IA y lo que eso significa, y necesitamos un sistema de vigilancia para señalar a las personas que abusan y malutilizan el contenido", dijo Hoover.

Pero los demócratas y los medios de comunicación están mucho más preocupados por el mal uso de la IA que los republicanos, según Eric Wilson, estratega digital republicano.

"Quiero aplacar el pánico moral porque esto es algo que ocurre con cualquier nueva tecnología. Volvamos a los debates televisivos y la preocupación que generaban en los votantes", dijo. "Estamos hablando de ello, pero nadie se está sentando y teniendo sesiones de lucha sobre la inteligencia artificial en nuestro lado".

Wilson dijo que la mayoría de las campañas utilizarán la IA de manera mundana, como ayudar a autocompletar correos electrónicos y generar borradores iniciales de comunicados de prensa.

"Es poco probable que veamos campañas profesionales utilizando IA generativa con fines de desinformación. Esto no quiere decir que actores malignos como los estados nacionales no lo vayan a intentar", dijo Wilson. Sin embargo, no considera que sea necesario regularlo en este momento, y la respuesta de la campaña a los deepfakes de IA será la misma que con cualquier otra desinformación: denunciarlo rápidamente y contraatacar con información positiva sobre las posiciones de un candidato.

Schneider, el estratega digital que trabaja con los demócratas, reconoció que la amenaza de la desinformación no es nueva. Pero dijo que la IA la hace potencialmente más importante y peligrosa.

"La probabilidad de que las cosas se propaguen es mayor... y puede parecer real de una manera que no era posible en ciclos de campaña anteriores", dijo. "Ya estamos en una era sin precedentes de escepticismo de los votantes. Esto realmente eleva las apuestas".

Jim Puzzanghera puede ser contactado en [email protected]. Síguelo en Twitter: @JimPuzzanghera.