A principios de este año, como parte de sus experimentos con la inteligencia artificial, Google lanzó una nueva función de búsqueda que proporciona un resumen de los resultados de búsqueda generado por IA. La idea es que los usuarios obtengan respuestas más rápidamente sin necesidad de abandonar la página de resultados de búsqueda. Google afirma que los resúmenes generados por IA utilizan puntos clave de artículos de noticias que no están detrás de un muro de pago. Sin embargo, los críticos dicen que estos resúmenes equivalen a un robo y podrían incentivar a las organizaciones mediáticas a poner más de su trabajo detrás de muros de pago.
En el ejemplo de una búsqueda sobre las mejores películas de 2022, un usuario de Twitter recientemente señaló que el resultado de búsqueda contenía lenguaje no atribuido que era notablemente similar a un análisis en el sitio de críticas de películas RogerEbert.com.
El artículo original sobre las mejores películas del año pasado resumía la película 'Everything Everywhere All At Once', que ganó el Premio de la Academia a la mejor película, como "un ejemplo de lo más raro de todos: una película en la que no sabes lo que sucederá de un plano al siguiente".
La respuesta de Google a una consulta de búsqueda sobre las "mejores películas de 2022" fue la siguiente, sin citar a RogerEbert.com: "Esta película es un raro ejemplo de una película en la que no sabes lo que sucederá de un plano al siguiente".

Quartz se ha puesto en contacto con Google para solicitar un comentario.
¿Qué está en juego para las empresas mediáticas?
Las sistemas de IA generativa se entrenan con grandes cantidades de datos de Internet, que incluyen artículos de noticias, con el objetivo de producir contenido que parezca lo suficientemente natural como para leerse como si lo hubiera creado un ser humano.
Las empresas mediáticas están preocupadas de que el uso de herramientas de IA generativa perjudique su credibilidad y les quite posibles ingresos. Como resultado, las organizaciones de noticias, incluida la Associated Press, ahora están buscando que las empresas de IA les paguen para entrenar modelos de lenguaje con su contenido.
Los modelos de IA generativa no son perfectos
Las empresas tecnológicas están comenzando a reconocer que necesitan colaborar con los editores en lo que implica tomar contenido de noticias. "Como siempre, utilizaremos este tiempo en Labs [para experiencias de búsqueda de Google en etapa temprana] para recopilar comentarios y aprender qué funciona mejor tanto para los editores como para los usuarios a medida que evolucionamos este experimento con el tiempo", escribió Google en una publicación de blog el 15 de agosto. Estas nuevas herramientas, que son propensas a errores llamados "alucinaciones", también necesitan comentarios de usuarios del mundo real para mejorar sus modelos de IA.