Por Taylor Daemon
Última actualización el 12 de octubre de 2023
El logotipo del chatbot generativo de IA ChatGPT, propiedad de la compañía respaldada por Microsoft, OpenAI.

CFOTO | Future Publishing via Getty Images
La inteligencia artificial podría estar generando preocupaciones sobre la seguridad laboral de las personas, pero se están creando nuevos empleos que se centran únicamente en revisar las entradas y salidas de los modelos de IA de próxima generación.
Desde noviembre de 2022, líderes empresariales, trabajadores y académicos de todo el mundo han estado preocupados por el hecho de que la aparición de la IA generativa alterará un gran número de empleos profesionales.
La IA generativa, que permite que los algoritmos de IA generen texto e imágenes realistas y parecidas a las de los humanos en respuesta a estímulos de texto, se entrena con una gran cantidad de datos.
Puede producir prosa sofisticada e incluso presentaciones de empresa de una calidad cercana a la de personas capacitadas académicamente.
Esto ha generado, comprensiblemente, el temor de que los empleos sean reemplazados por la IA.
Morgan Stanley estima que hasta 300 millones de empleos podrían ser asumidos por la IA, incluyendo puestos de apoyo administrativo y de oficina, trabajo legal, arquitectura e ingeniería, ciencias de la vida, ciencias físicas y sociales, y operaciones financieras y empresariales.
Sin embargo, a menudo es necesario guiar y revisar las entradas que los modelos de IA reciben y las salidas que generan, y esto está creando nuevas carreras remuneradas y trabajos de medio tiempo.
Ganar dinero revisando IA
Prolific, una empresa que ayuda a conectar a los desarrolladores de IA con participantes de investigación, ha participado directamente en proporcionar a las personas compensación por revisar material generado por IA.
La empresa paga sumas de dinero a sus candidatos por evaluar la calidad de las salidas generadas por IA. Prolific recomienda que los desarrolladores paguen a los participantes al menos $12 por hora, mientras que el salario mínimo se establece en por hora.
Los revisores humanos son guiados por los clientes de Prolific, que incluyen a Meta, Google, la Universidad de Oxford y University College London. Ayudan a los revisores a través del proceso, informándoles sobre el material potencialmente inexacto o perjudicial que puedan encontrar.
Deben dar su consentimiento para participar en la investigación.
Un participante en la investigación con el que CNBC habló dijo que ha utilizado Prolific en varias ocasiones para dar su veredicto sobre la calidad de los modelos de IA.
El participante en la investigación, que prefirió permanecer en el anonimato por motivos de privacidad, dijo que a menudo tuvo que intervenir para proporcionar comentarios sobre dónde se equivocaba el modelo de IA y necesitaba correcciones o enmiendas para asegurarse de que no produjera respuestas desagradables.
Se encontró con varias instancias en las que ciertos modelos de IA estaban produciendo cosas problemáticas. En una ocasión, incluso se encontró con un modelo de IA tratando de convencerlo de comprar drogas.
Se sorprendió cuando la IA se le acercó con este comentario, aunque el propósito del estudio era poner a prueba los límites de esta IA en particular y brindarle comentarios para garantizar que no cause daño en el futuro.
Los nuevos "trabajadores de IA"
Phelim Bradley, CEO de Prolific, dijo que existen muchos tipos nuevos de "trabajadores de IA" que desempeñan un papel clave en la recopilación de datos que se utilizan en modelos de IA como ChatGPT, y en los resultados que se obtienen.
Mientras los gobiernos evalúan cómo regular la IA, Bradley afirmó que es importante que se preste suficiente atención a temas como el trato justo y ético de los trabajadores de AI, como los anotadores de datos, la obtención y transparencia de los datos utilizados para construir modelos de IA, así como los peligros de la introducción de sesgos en estos sistemas debido a la forma en que se están entrenando.
"Si logramos abordar correctamente estos aspectos, sentaremos las bases más sólidas y éticas para las aplicaciones futuras habilitadas por la IA".
En julio, Prolific recaudó 32 millones de dólares en financiamiento de inversores como Partech y Oxford Science Enterprises.
Grandes empresas como Google, Microsoft y Meta han estado compitiendo por dominar en la IA generativa, un campo emergente de la IA que ha despertado gran interés comercial, principalmente debido a sus posibles ganancias de productividad.
Sin embargo, esto ha generado preocupación entre los reguladores y los éticos de la IA, quienes consideran que existe una falta de transparencia en cuanto a cómo estos modelos toman decisiones sobre el contenido que producen, y que se debe hacer más para garantizar que la IA sirva a los intereses humanos, y no al revés.
Hume, una empresa que utiliza IA para leer las emociones humanas a partir de expresiones verbales, faciales y vocales, utiliza Prolific para evaluar la calidad de sus modelos de IA. La compañía recluta personas a través de Prolific para participar en encuestas y determinar si una respuesta generada por IA es buena o mala.
"Cada vez más, los investigadores en estas grandes empresas y laboratorios están enfocándose en la alineación con las preferencias humanas y la seguridad", dijo Alan Cowen, cofundador y CEO de Hume, a CNBC.
"Existe una mayor énfasis en poder monitorear estas aplicaciones. Creo que apenas estamos viendo el comienzo de esta tecnología", agregó.
"Tiene sentido esperar que algunas de las cosas que se han buscado durante mucho tiempo en la IA, como tener tutores personalizados y asistentes digitales, y modelos que puedan leer documentos legales y revisarlos, finalmente se hagan realidad".

Otro papel que coloca a los humanos en el centro del desarrollo de la IA son los ingenieros de sugerencias. Estos son trabajadores que determinan qué sugerencias basadas en texto funcionan mejor para insertarlas en el modelo de IA generativa y obtener las respuestas más óptimas.
Según datos de LinkedIn publicados la semana pasada, ha habido un aumento significativo de puestos de trabajo que mencionan AI específicamente.
Las publicaciones de empleo en LinkedIn que mencionan IA o IA generativa se han más que duplicado a nivel mundial entre julio de 2021 y julio de 2023, según la plataforma de empleo y networking.
Aprendizaje por refuerzo
Mientras tanto, las empresas también utilizan IA para automatizar la revisión de documentación regulatoria y documentos legales, pero con supervisión humana.
Las empresas a menudo tienen que escanear grandes cantidades de documentación para evaluar posibles socios y determinar si pueden expandirse o no a ciertos territorios.
Revisar toda esta documentación puede ser un proceso tedioso que los trabajadores no necesariamente quieren asumir, por lo que la capacidad de transferirlo a un modelo de IA resulta atractiva. Sin embargo, según los investigadores, aún se necesita un toque humano.
Mesh AI, una consultora especializada en transformación digital, afirma que los comentarios de los humanos pueden ayudar a los modelos de IA a aprender de los errores que cometen a través de ensayo y error.
"Con este enfoque, las organizaciones pueden automatizar el análisis y seguimiento de sus compromisos regulatorios", dijo Michael Chalmers, CEO de Mesh AI, en un correo electrónico a CNBC.
Las pequeñas y medianas empresas "pueden cambiar su enfoque del análisis mundano de documentos a aprobar los resultados generados por los modelos de IA mencionados y mejorarlos aún más aplicando el aprendizaje por refuerzo desde los comentarios humanos".
VER: CEO de Adobe sobre nuevos modelos de IA, monetización de Firefly y nuevo crecimiento

Fuente: CNBC