ChatGPT ha sido promocionado como una herramienta que va a revolucionar el trabajo y el hogar. Sistemas de IA como este tienen el potencial de mejorar la productividad, pero también podrían desplazar empleos. El sitio web de ChatGPT recibió 1.5 mil millones de visitas el mes pasado.
Aunque no existen estadísticas completas, es probable que estos usuarios sean relativamente educados, con acceso a teléfonos inteligentes o computadoras. Entonces, ¿puede el chatbot de IA beneficiar también a las personas que no tienen todas estas ventajas?
Estamos asociados con Friend in Need India Trust (FIN), una organización no gubernamental (ONG) con sede en una aldea pesquera aislada llamada Kameswaram en el estado de Tamil Nadu. FIN libra una batalla diaria contra la falta de empoderamiento de las mujeres, la contaminación y la falta de saneamiento funcional.
Estos problemas y otros actúan como obstáculos clave para el desarrollo económico local. Recientemente, un colega de FIN, el Dr. Raja Venkataramani, regresó de Estados Unidos con ganas de hablar sobre ChatGPT. Se preguntaba si el chatbot de IA podría ayudar a crear conciencia, motivación y participación comunitaria hacia nuestros objetivos de sostenibilidad en Kameswaram.
Para un experimento, trabajamos con mujeres locales que son miembros del personal de FIN pero que no tenían un alto nivel de educación. Las mujeres empleadas en FIN son habitantes locales que lidian con actitudes patriarcales en sus hogares, y les resulta difícil construir argumentos persuasivos para motivar a las personas locales, especialmente a los niños y hombres, a conservar agua, usar baños y no ensuciar lugares públicos.
Les presentamos ChatGPT como una herramienta que les ayudaría en sus vidas y trabajo. Después de instalarlo en sus teléfonos, lo encontraron muy útil. ChatGPT actuaba como un compañero y recordaba lo que se había discutido anteriormente.
El personal de FIN lleva su campaña contra la contaminación oceánica a la zona local. Un miembro del personal quería usarlo para debatir política con su esposo de cara a las elecciones estatales. Le preguntó a ChatGPT qué era bueno y malo acerca de su candidato preferido y solicitó que respaldara esto con datos.

Luego repitió esto para el oponente de ese político. Encontró que las respuestas para ambos candidatos eran igualmente convincentes. El miembro del personal no tuvo la paciencia para verificar la veracidad de los argumentos y terminó aún más confundido. Esto la hizo reacia a usar ChatGPT nuevamente.
Sam Altman, el creador de ChatGPT, junto con otros líderes tecnológicos en Estados Unidos, están pidiendo regulaciones para contener los riesgos de las alucinaciones de la IA, que es cuando la tecnología genera información falsa que podría desencadenar tensiones sociales. Le pedimos a ChatGPT que produjera un discurso para calmar a una multitud decidida a llevar a cabo asesinatos por honor.
Incluso en la actualidad, India todavía se ve plagada de violencia comunitaria, como los "asesinatos por honor" contra parejas que se casan fuera de su casta o mujeres jóvenes que buscan empleo fuera del pueblo. ChatGPT resultó ser un redactor de discursos muy efectivo, produciendo argumentos convincentes en contra de estos actos.
Sin embargo, aquellos a favor de mantener el statu quo también podrían utilizar el chatbot para justificar su comportamiento violento ante la comunidad. Esto podría ocurrir si buscan mantener su estatus dentro del pueblo, contrarrestando cualquier esfuerzo por parte de la comunidad para poner fin a estas prácticas. Descubrimos que el sistema de inteligencia artificial también era igualmente hábil al producir argumentos a favor de los "asesinatos por honor".
En otro experimento, buscamos ver cómo el chatbot podría ayudar a las ONG a promover el empoderamiento de las mujeres, una misión central de FIN, de una manera que beneficiara a la comunidad. Le pedimos a ChatGPT que creara un discurso explicando la relevancia del Día Internacional de la Mujer para los habitantes del pueblo.
El discurso fue muy impresionante, pero contenía errores factuales sobre las proporciones de género, el aborto de fetos fuera de los límites legales y la participación de las mujeres en la fuerza laboral. Cuando se le pidió a ChatGPT que justificara los errores, respondió: "Lamento cualquier confusión. Proporcioné una estadística hipotética para ilustrar el punto".
Los miembros del personal de FIN discuten una campaña para el empoderamiento de las mujeres. Shyama V Ramani, Autor proporcionado.

Problema de contaminación
En otro experimento, queríamos abordar el problema de la contaminación causada por festivales tradicionales en India. Estos a menudo incluyen fuegos artificiales y fiestas, lo que aumenta los niveles de contaminación del aire y del agua.Aunque históricamente se ha utilizado con éxito el teatro callejero para motivar el cambio de comportamiento, ni el personal de FIN ni sus mentores se sentían capaces de escribir un guion. Sin embargo, en tres minutos después de recibir la indicación correcta, ChatGPT propuso una escena que involucraba a jóvenes.
Incluyó personajes tanto masculinos como femeninos, utilizó nombres locales y tuvo en cuenta las sutilezas locales. El breve sketch teatral argumentaba que el impacto en nuestros océanos de las microfibras de la ropa sintética representa un problema ambiental significativo que puede perjudicar los medios de vida.
Preguntándole al AI
Le pedimos a ChatGPT su opinión sobre nuestros resultados. Afirmó que ChatGPT puede ser una herramienta valiosa tanto para personas económicamente desfavorecidas como para ONGs, ya que proporciona información valiosa, ofrece apoyo emocional y mejora la comunicación.Sin embargo, el chatbot evitó discutir sus claros inconvenientes, como basar sus argumentos en información falsa, incompleta o imperfecta. Así como puede ayudarnos, también puede actuar como un diestro redactor de discursos para aquellos que buscan dividir o aumentar las tensiones.
Por el momento, ChatGPT parece ser una herramienta útil para las ONGs bien intencionadas, pero no tanto para las personas corrientes a las que asisten. Sin que los usuarios tengan medios para monitorear la ética y veracidad de las sugerencias de ChatGPT, los sistemas de IA podrían convertirse en facilitadores peligrosos de la desinformación y la información errónea.