AYESHA RASCOE, ANFITRIONA:
Un anuncio de campaña notable se emitió en Iowa a principios de este mes. Es de un grupo que apoya al gobernador republicano de Florida, Ron DeSantis, en la carrera presidencial de 2024, y ataca al ex presidente Trump. A simple vista, parece un típico anuncio de campaña, pero algo sucede que lo hace muy diferente. El anuncio presenta una muestra de audio que suena como la voz del ex presidente Trump.
(EXTRACTO DE GRABACIÓN ARCHIVADA)
VOZ GENERADA POR IA: (Como Donald Trump) Abrí la posición de gobernador para Kim Reynolds, y cuando ella se quedó rezagada, la respaldé.
RASCOE: Pero Trump nunca dijo esas palabras. Se alega que la voz en el anuncio fue creada utilizando inteligencia artificial para leer algo que Trump escribió en las redes sociales. Hany Farid es profesor en la Universidad de California, Berkeley, y experto en forenses digitales, y se une a nosotros ahora. Bienvenido.
HANY FARID: Es un placer estar contigo, Ayesha.
RASCOE: La IA puede hacer mucho en este ámbito. ¿Cuáles son los riesgos específicos de usar voces de IA y usar la voz de un candidato contra el que compites con IA?
FARID: Creo que aquí hay dos riesgos que debemos tener en cuenta. Uno es la capacidad de crear una grabación de audio de tu oponente diciendo cosas que nunca dijo. Pero la otra preocupación que deberíamos tener es que cuando el candidato realmente sea capturado diciendo algo, ¿cómo vamos a determinar si es real o no? Y piensa en el 2016, cuando Donald Trump fue captado en la grabación de Access Hollywood. Se disculpó en ese momento porque no había escape. Pero ahora es falso. Así que creo que debemos preocuparnos por dos cosas: el contenido falso, pero también cómo vamos a validar el contenido verdaderamente real que va a surgir en los próximos años.
RASCOE: Las personas que han escuchado mucho a Trump podrían notar que es falso. Pero, ¿qué tan cercana está esta tecnología de crear una copia casi perfecta que incluso alguien que ha escuchado mucho a Trump o a la persona hablar podría no detectar?
FARID: Todavía existen pequeños artefactos y, si escuchas varias veces, probablemente los descubras. Pero la tecnología está avanzando extremadamente rápido. Y sabes lo que va a suceder porque todo en el ámbito de la tecnología funciona exactamente de la misma manera, es decir, cada año aproximadamente la tecnología mejora mucho, muchísimo. Se vuelve más barata y más ubicua. También debes recordar que la forma en que se distribuye este contenido a través de las redes sociales implica que las personas no están dedicando mucho tiempo a analizar esto como tú o tal vez yo lo haríamos. Y así, incluso si hay pequeñas peculiaridades en ello, si las cosas se ajustan a nuestras ideas preconcebidas, las vamos a asimilar y pasaremos al siguiente tuit o publicación de Facebook o lo que sea, porque nos movemos tan rápido en línea.
RASCOE: En este momento, ¿dónde crees que se está usando esta tecnología más frecuentemente en el ámbito político? ¿Se está utilizando en las campañas presidenciales de 2024 aparte de este anuncio en Iowa, o está sucediendo más en las carreras estatales y locales donde hay mucha menos atención mediática?
FARID: Lo estamos viendo en todos los frentes. Y curiosamente, en su mayoría lo que estamos viendo a nivel nacional son las propias campañas: sus comités de acción política, sus seguidores son quienes lo están creando. No son necesariamente personas externas. También lo estamos viendo absolutamente a nivel estatal y local. Esas instancias no suelen recibir tanta atención nacional. Pero lo cierto es que esta tecnología es muy fácil de usar. Puedes ir a un sitio web comercial y por $5 al mes puedes clonar la voz de cualquier persona. Luego escribes y puedes hacer que digan lo que quieras. Así que es muy probable que esto siga ocurriendo.
RASCOE: Existen algunas leyes estatales que regulan el uso de la IA o deepfakes en ciertos casos. ¿Puedes hablar sobre qué barreras existen?
FARID: Sí. Lo complicado aquí es que no es ilegal mentir en un anuncio político. La mayoría de las leyes que existen son o insignificantes, es decir, son extremadamente difíciles de hacer cumplir, o no son lo suficientemente amplias como para cubrir los casos más extremos. Hubo una ley, por ejemplo, aquí en California, que intentó prohibir los deepfakes políticos y finalmente fue derogada porque fue tan ineficaz. Pero la razón por la que fue ineficaz es, en primer lugar, requería intención. Tenías que demostrar que la persona que lo creaba tenía la intención de ser engañosa. Y probar esa intención es casi imposible. También decía que estaban prohibidos solo dentro de los 90 días previos a una elección. ¿Qué haces 91 días antes de la elección? Además, es sin fronteras. Entonces, si la persona que lo crea y la persona afectada no están en el estado de California, la ley no tiene impacto. Y así que creo que las barreras no vendrán de un régimen regulatorio. Creo que las barreras tienen que venir de dos lugares. Uno son las campañas. Las campañas tienen que decidir que no está bien usar la IA para distorsionar los antecedentes de nuestros oponentes. Me gustaría ver que lo hagan, pero tampoco soy ingenuo. Pero el otro lugar donde esto se puede hacer es en los servicios que se utilizan para crear el contenido falso. Pueden empezar a decir que creen que clonar la voz de Trump y DeSantis y Biden y Harris puede que no sea la mejor idea, y simplemente no te dejarán hacerlo. Pero aquí está la otra cosa que pueden hacer. Pueden marcar y etiquetar digitalmente cada pieza de contenido que produzcan. Pueden decir: vamos a insertar marcas de agua digitales. Vamos a extraer huellas digitales que nos permitirán rastrear este contenido con el tiempo, de modo que si terminan circulando, tengamos la capacidad razonable de intentar detectarlos y determinar qué es real y qué no lo es.
RASCOE: Entonces, en este punto, ¿tenemos la capacidad de determinar qué es real y qué no lo es? ¿Podemos averiguarlo?
FARID: La respuesta es sí y no. La tecnología para hacer marcas de agua e identificación única está disponible. Las empresas que, por cierto, acordaron principios voluntarios con la Casa Blanca para controlar y asegurarse de que la IA generativa no se use de manera maliciosa, ahora deben comenzar a implementarla. Ahora, por otro lado, habrá actores malintencionados en este espacio. Habrá personas que no utilicen esta tecnología. Y ahí es cuando entra en juego el trabajo que yo y mis estudiantes hacemos aquí en UC Berkeley, donde analizamos una imagen, un audio o un video para determinar si es real o no. El problema con ese enfoque, por supuesto, es que la vida útil de una publicación en redes sociales se mide en minutos. Para cuando terminamos de analizarlo y verificarlo, es genial para los periodistas, pero no tanto para los millones de personas que ya lo han visto en línea. Pero creo que necesitamos todas estas tecnologías. Y, por supuesto, todavía necesitamos que el gobierno intervenga de la manera más delicada posible porque debemos tener cuidado de no infringir en el derecho de los candidatos a decir lo que quieran, pero también establecer algunos controles regulatorios aquí también.
RASCOE: Ese es Hany Farid, profesor en la Universidad de California, Berkeley, y es un experto en forense digital. Muchas gracias por acompañarnos.
FARID: Es un placer estar contigo, Ayesha. Transcripción proporcionada por NPR, Derechos de autor NPR.
Las transcripciones de NPR son creadas bajo un plazo apresurado por un contratista de NPR. Este texto puede no estar en su forma final y puede ser actualizado o revisado en el futuro. La precisión y disponibilidad pueden variar. El registro autoritario de la programación de NPR es el registro de audio.