Hay una regla antigua en el marketing: cuanto más repitas algo, independientemente de si es cierto o no, más gente lo creerá. La mayoría de las veces lo vemos en cosas relativamente inofensivas, como la idea de que necesitas tomar un multivitamínico diario, el desayuno es la comida más importante del día, o que nuestros sándwiches tienen un pie de largo.
Sin embargo, también pueden presentarse en forma de mentiras más peligrosas, como que se robó nuestra elección, beber lejía puede tener beneficios para la salud, o que hay una camarilla secreta de pedófilos adoradores de Satanás que opera en un restaurante de pizza. En la era de las redes sociales, estas teorías conspirativas se propagan a gran velocidad. Una vez que estas cosas se repiten lo suficiente, les otorga legitimidad, independientemente de si son verdaderas o no.
Desde su lanzamiento el año pasado, el ChatGPT de OpenAI ha provocado una ola de preocupación en torno a esta idea. Aunque el Modelo de Lenguaje Grande (LLM, por sus siglas en inglés) actúa esencialmente como una versión más avanzada del depredador de texto de tu teléfono, puede hablar convincentemente como un humano. Como tal, una herramienta como esta podría ser utilizada como arma y contribuir al torbellino de desinformación. Esto puede ser especialmente perjudicial ahora, ya que la comunidad médica continúa luchando contra una guerra de mentiras y mitos en torno a la pandemia de COVID-19.
"Circular ideas falsas en las redes sociales o en círculos sociales cercanos sin verificarlas previamente contribuye a crear un ambiente muy tóxico y violento en la sociedad", dijo Antonio Salas, profesor de bioética en la Universidad de Santiago de España, a The Daily Beast. "Por lo tanto, los mitos deben ser verificados antes de contribuir a su difusión utilizando fuentes apropiadas".
A pesar de esto, Salas cree que los chatbots impulsados por IA podrían ayudar en la lucha contra la desinformación en lugar de obstaculizarla. Es el autor principal de un estudio publicado el domingo en la revista Human Vaccines & Immunotherapeutics que encontró que el ChatGPT podría usarse para desacreditar mitos relacionados con las vacunas y el COVID-19, e incluso podría ayudar a aumentar las tasas de vacunación.
Sin embargo, el uso de un chatbot que se ha sabido que alucina hechos y muestra un comportamiento francamente sesgado para refutar conspiraciones peligrosas preocupa a los expertos sobre su eficacia y si podría terminar haciendo más daño que bien.
Salas y su equipo le pidieron a ChatGPT las 50 preguntas más frecuentes sobre la vacuna contra el COVID-19 del Centro Colaborador de Seguridad de Vacunas de la Organización Mundial de la Salud (OMS). Esto incluía mitos sobre una supuesta "lesión por vacuna" y noticias falsas sobre la inyección que causa Long Covid. Luego, un panel de expertos de la OMS evaluó las respuestas en una escala del 1 al 10 (siendo 10 la respuesta más precisa).
Los investigadores descubrieron que el chatbot obtuvo un promedio de 9 sobre 10 en precisión al responder las preguntas. Las demás respuestas también fueron correctas, pero presentaban pequeñas brechas en la información.
"Hemos podido confirmar que ChatGPT es una herramienta que proporciona respuestas rápidas y tiene excelentes capacidades de interacción con el usuario, y la versión actual ofrece respuestas que se alinean con la evidencia científica", explicó Salas.
Sin embargo, los autores admiten que hay varias limitaciones importantes en lo que respecta al chatbot. Por un lado, podría ser diseñado para ofrecer información inexacta. Además, cuando se le hizo la misma pregunta varias veces en un corto período de tiempo, a menudo daba respuestas diferentes y ocasionalmente incorrectas.
"Bueno, todas las herramientas tecnológicas podrían ser utilizadas de manera inapropiada", dijo Salas. "Uno podría 'torturar' a ChatGPT para que las respuestas confirmen una idea falsa, o incluso podrían aparecer otros chatbots entrenados para promover ciertos mitos". Sin embargo, agregó que la herramienta de IA "está aquí para quedarse" y animó a las personas a "aprender a convivir con ella, aprovecharla al máximo y aprender a usarla correctamente".
Aunque Salas está entusiasmado con el chatbot, otros expertos no están tan convencidos.
"Por ahora, ChatGPT y otros LLM no son generalmente una fuente confiable de información, ya que a menudo simplemente inventan cosas en sus respuestas", dijo Vincent Conitzer, eticista de IA en la Universidad Carnegie Mellon, a The Daily Beast. "Eso no significa que no puedan ser útiles para aprender sobre las vacunas COVID u otro tema, pero usarlos de manera responsable requiere ser escéptico ante las respuestas".
Es precisamente ese escepticismo lo que podría hacer que el uso de ChatGPT para desacreditar mitos sea irrelevante desde un principio. Este es un chatbot que se puede manipular para afirmar que el tiroteo de Parkland fue un montaje con actores de crisis, crear noticias falsas de grandes publicaciones o incluso generar documentos legales falsos con casos inventados. ¿Cómo podemos confiar en algo para desacreditar mitos si no confiamos en él desde el principio?
"Existe una gran necesidad de información precisa sobre las vacunas, pero también existe una gran necesidad de información precisa sobre los chatbots", dijo Irina Raicu, directora del Programa de Ética en Internet del Centro de Ética Aplicada Markkula de la Universidad de Santa Clara, a The Daily Beast.
Señaló que el trabajo de desacreditar mitos sobre vacunas también se podría lograr fácilmente mediante un conjunto de respuestas en una página de preguntas frecuentes (FAQ). Esto permitiría una actualización sencilla cuando sea necesario, algo que no se puede hacer tan fácilmente con un LLM complejo.
Después de todo, ChatGPT fue entrenado con datos hasta el año 2021. Ahora le faltan dos años de información científica actualizada.
"No es probable que los chatbots se mantengan al día con el último consenso, que en algunas áreas relacionadas con la salud pública a menudo reflejan aprendizajes en curso", agregó Raicu.
Si Salas tiene razón en algo, es en el hecho de que estas tecnologías no desaparecerán. Se volverán cada vez más poderosas y omnipresentes, especialmente a medida que las grandes compañías de tecnología y los gobiernos del mundo comiencen a tomar nota e inviertan miles de millones de dólares en su desarrollo.
Sin embargo, a medida que esto sucede, sería inteligente que recuerden el antiguo dicho de marketing: cuanto más se repite algo, independientemente de si es verdad o no, más personas lo creerán. Solo tienen que asegurarse de no empezar a creer en sus propias mentiras.
© 2023 The Daily Beast Company LLC