ChatGPT, a pesar de sus grandes y numerosas utilidades, no está exento de grandes fallos en sus respuestas que, en este caso, se basan en desinformación y en la difusión de noticias falsas.
Tras su exitoso lanzamiento a finales del año pasado, ChatGPT, fundado por OpenAI y respaldado por Microsoft, ha causado una auténtica revolución elogiando sus respuestas humanas y la velocidad con la que puede presentar todo tipo de información. Además, ha llevado a grandes compañías tecnológicas como Google a entrar en pánico y apresurarse a lanzar sus propias versiones.
ChatGPT es obviamente una poderosa nueva herramienta que tiene el potencial de hacer mucho bien en casi todas las industrias, pero también tiene sus desventajas. Entre ellas, las herramientas de inteligencia artificial, como ChatGPT, podrán producir, casi ilimitadamente, todo tipo de opiniones sobre cualquier tema que se les pregunte.
El problema subyacente es que esta información, que a menudo se ha demostrado que es incorrecta, también puede tener graves consecuencias para la difusión de noticias falsas o información engañosa en línea.
Por supuesto, esto no es solo un texto con información falsa y la desinformación puede tener consecuencias muy graves, como influir en la opinión pública. Con la capacidad de generar grandes cantidades de texto rápidamente y de manera muy convincente, herramientas de inteligencia artificial generativas como ChatGPT pueden ser utilizadas para propagar noticias falsas a gran escala.
ChatGPT y su potencial para difundir noticias falsas
Este es un problema destacado por NewsGuard, una compañía de periodismo y tecnología que evalúa la credibilidad de los sitios web de noticias y rastrea la desinformación en línea, en un nuevo informe.
NewsGuard llevó a cabo una investigación utilizando una muestra de 100 narrativas falsas de su base de datos exclusiva de 1,131 narrativas de desinformación para resaltar cómo ChatGPT podría ayudar a propagar información tóxica. "a una escala sin precedentes", como ellos lo describen.

Los resultados confirman los temores sobre cómo esta herramienta podría ser un arma de gran calibre en manos equivocadas. ChatGPT generó textos falsos, incluyendo artículos de noticias, ensayos y guiones de televisión, para 80 de las 100 narrativas falsas previamente identificadas.
Por qué ChatGPT proporciona información incorrecta
En pocas palabras, ChatGPT se basa en un modelo que responde en función de probabilidades. Por ejemplo, si preguntas qué día de la semana es, una respuesta que incluya de lunes a viernes es más probable que un día del mes, aunque esto no significa que responderá correctamente el día en que te encuentras.

Teniendo esto en cuenta, al explicar un concepto que solicites a este chatbot, construirá una respuesta, palabra por palabra, con probabilidades y, por lo tanto, esto puede ser confuso.
Este es su gran punto a mejorar, pero aunque es cierto que puede dar información falsa debido al contenido incorrecto con el que ha sido entrenado, sus respuestas incorrectas no se deben únicamente a este aspecto.
Funciona bien cuando se trata de encajar el lenguaje, lo cual es un logro bastante importante, pero no tiene un contexto de lo que es la realidad o los hechos, y por eso cuando le preguntas algo, existe una mínima posibilidad de error. La base es que estos modelos no están desarrollados para proporcionar datos, sino para generar lenguaje.

Vale la pena señalar que OpenAI ha afirmado que su próxima versión de la herramienta, GPT-4, tendrá más conocimientos y será más preciso en sus respuestas con una probabilidad de error más baja.
Como se discutió en otro artículo de Computer Hoy, GPT-4, según explicó Sam Altman, CEO de OpenAI, probablemente no será mucho más grande que GPT-3, pero requerirá mucha más potencia de cálculo. Los avances deberían venir principalmente de datos de mayor calidad, mejores algoritmos y un ajuste más preciso.
Según Altman, OpenAI está mejorando actualmente la eficiencia de sistemas de IA más pequeños, por lo que tal vez no haya necesidad de modelos de IA de proporciones aún más gigantescas. "En el futuro, muchas personas se sorprenderán de lo poderosa que puede llegar a ser la IA sin aumentar los parámetros", afirma.
¿El aprendizaje por refuerzo humano (RLHF) como solución a este problema?

El aprendizaje por refuerzo a partir de retroalimentación humana (RLHF) es un subcampo del aprendizaje por refuerzo que se centra en cómo los agentes de IA como ChatGPT pueden aprender a partir de la retroalimentación humana.
En el caso de este chatbot, OpenAI inicialmente contrató a un grupo de escritores humanos y les pidió que escribieran respuestas a una serie de indicaciones. Utilizaron el conjunto de datos de preguntas y respuestas para ajustar el modelo ChatGPT.
En la segunda fase, crearon su modelo de recompensa basado en un procedimiento estándar, generando varias respuestas a indicaciones y pidiendo a los humanos que las clasificaran de la mejor a la peor respuesta.
Aunque es una técnica muy eficiente, RLHF también tiene varias limitaciones. El trabajo humano siempre se convierte en un cuello de botella. Es un proceso lento y costoso que funciona bien para ciertos datos. Sin embargo, si se agregan nuevas características a las preguntas de los usuarios, vuelve al punto de partida y nuevamente puede fallar.
Por otro lado, RLHF tampoco es una solución perfecta. La retroalimentación humana puede evitar que los modelos produzcan resultados perjudiciales o erróneos, pero las preferencias humanas no están bien definidas y nunca se puede crear un modelo que se ajuste a las preferencias y normas de todas las sociedades. Sin embargo, es un primer gran paso para mejorar modelos como ChatGPT.

Con todo esto, la difusión de información falsa o incluso noticias falsas no es un asunto trivial y desafortunadamente ChatGPT es bastante maleable. Muchos países como España se están enfocando en la desinformación, ya que todos saben que se puede utilizar para infundir miedo y odio, movilizar grupos e incluso destruir la democracia.
Por supuesto, ChatGPT y su uso por parte de millones de personas son motivo de preocupación, ya que se sabe que este problema será visto como una oportunidad por algunos países y grupos políticos para promover su propia agenda y destruir al resto.