"Con visible frustración, ella dijo que tiene que lidiar a diario con este tipo de solicitudes, cada vez con mayor frecuencia", agregó Tausche.

La oficina de prensa de la Casa Blanca se encuentra en una de las muchas líneas de frente de las batallas de inteligencia artificial. Los ayudantes allí, que manejan colectivamente cientos de solicitudes de los medios de comunicación al día, ya han sido informados por expertos sobre los posibles riesgos de seguridad nacional que plantean las imágenes y los videos que han sido alterados con IA, según un funcionario de la administración.

Fuera de la oficina de prensa, la Casa Blanca ha intensificado sus esfuerzos para evaluar y gestionar los riesgos de la IA, impresionando a las compañías de IA durante reuniones en el campus de que es su responsabilidad garantizar que sus productos sean seguros. Actualizó el plan estratégico para la investigación y el desarrollo de la IA por primera vez en cuatro años y la semana pasada inició un proceso para trabajar en el desarrollo de una carta de derechos de la IA.

"Todos están tratando muy duro de ser sensibles, de emitir estas advertencias, pero sin predecir lo que podría suceder, y eso se debe a que no lo saben", dijo Kara Swisher, una destacada periodista centrada en la tecnología. "La mayoría de las personas, si son honestas, te dirían que no saben lo que va a suceder".

El derribo por parte de la administración de los informes del bombardeo del Pentágono, respaldado por un tweet de Arlington, Va., los primeros en responder, fue parte de un rápido desmentido que ayudó al mercado a recuperarse después de que el S&P cayera un 0,3 por ciento, una pérdida momentánea de unos $500 mil millones de dólares.

Pero días después, apareció otra deepfake generada por AI en forma de un video que mostraba una supuesta llamada de Microsoft Teams entre el activista anti-Rusia Bill Browder y el ex presidente de Ucrania, Petro Poroshenko, argumentando a favor de la flexibilización de las sanciones contra los oligarcas rusos. Ambos engaños fueron suficientemente fáciles de detectar para aquellos familiarizados con la IA. Pero a medida que la tecnología se desarrolla y mejora, el texto, el audio y el video generados por IA podrían convertirse rápidamente en indistinguibles del producido por seres humanos.

El martes, destacados funcionarios de la industria, incluido el CEO de OpenAI Sam Altman, emitieron una declaración sucinta pero alarmante con el objetivo de atraer la atención de los líderes mundiales: "Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear", dijo la declaración.

Cuando se le preguntó acerca de la declaración, la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, no dijo si el presidente comparte la creencia de que la IA, si se administra mal, podría conducir a la extinción. Sólo reconoció que la IA es "una de las tecnologías más poderosas que vemos actualmente en nuestro tiempo" y que la administración toma en serio la mitigación de riesgos.

Hay varias propuestas flotando para regular la IA, y la tecnología Big Tech en términos más amplios, en Capitol Hill, incluida la legislación presentada a principios de este mes por el senador Michael Bennet (demócrata de Colorado) para crear una nueva agencia federal que supervise la tecnología.

"Seguimos preocupados por el aumento de los videos deepfake y las imágenes manipuladas que se propagan en las plataformas de redes sociales", dijo Robyn Patterson, asistente de prensa de la Casa Blanca. "A medida que la tecnología para crear videos e imágenes falsas mejora, es importante que los medios de comunicación y el público estén al tanto de esta tendencia, que esperamos que crezca, si no exponencialmente".

Si bien hay enormes beneficios potenciales con la IA que ya están desencadenando una carrera armamentista mundial para aprovechar y capitalizar la tecnología, los obstáculos imprevistos podrían ser graves, especialmente en medio de las próximas elecciones presidenciales.

"No es que una sola pieza de contenido vaya a ser devastadora; es el enfoque colectivo y escalado de la inautenticidad lo que es el problema. La gente puede hacer esto a gran escala ahora", dijo Sarah Kreps, profesora del Instituto de Política Tecnológica de la Escuela Brooks de la Universidad de Cornell y una de las tres investigadoras de IA invitadas a hablar con el nuevo grupo de trabajo de Biden sobre el tema dentro del Consejo Presidencial de Asesores en Ciencia y Tecnología. "Puede parecer que un gran número de ciudadanos están apoyando un tema en particular cuando no lo están".

En un país donde el sectarismo partidista ya ha dado lugar a la desinformación y la difusión de teorías conspirativas, la IA podría profundizar aún más la creciente desconfianza del público en los hechos. "Simplemente crea este ecosistema de desconfianza en una democracia donde la confianza es un pilar fundamental", dijo Kreps.