Hola y bienvenidos a Eye on A.I.
"Abraza la inteligencia artificial o quédate atrás" es el mensaje que se encuentra en todas partes desde que ChatGPT abrió las compuertas de la inteligencia artificial generativa. Ahora que OpenAI ha lanzado su nivel empresarial para la herramienta, la oportunidad -y la decisión- de subirse al tren se ha vuelto muy real rápidamente para las empresas. Según descubrió Eye on A.I. en conversaciones con varias compañías, la versión Enterprise ha brindado la tranquilidad necesaria para que algunas integren ChatGPT en sus negocios, pero aún existen suficientes preguntas pendientes sobre privacidad y seguridad que muchas empresas seguirán esperando.
Según Danny Wu, responsable de productos de inteligencia artificial de Canva, los empleados de la plataforma de diseño Canva han encontrado éxito utilizando ChatGPT Enterprise para aprender nuevas áreas del código, solucionar errores, escribir y corregir fórmulas complejas de hojas de cálculo, categorizar y analizar datos en formato libre y extraer temas de transcripciones y entrevistas de usuarios.
Canva, que ya había integrado la tecnología de OpenAI en funciones como Magic Write, fue una de las pocas empresas invitadas a probar la versión beta de ChatGPT Enterprise semanas antes de su lanzamiento público. "Definitivamente estamos impresionados por la calidad de las respuestas proporcionadas, con miembros del equipo informando que ahorra tiempo y brinda consejos prácticos en casi cada uso", dijo Wu.
Según el director de productos de Hi Marley, una compañía de seguros en la nube con sede en Boston que había estado deseando utilizar ChatGPT, finalmente tuvieron la oportunidad de utilizar la tecnología gracias a las mejoras en las características de seguridad del nivel empresarial.
Citó la capacidad de aislar los datos y que el ajuste fino de los modelos sería privado para su sistema, lo que sería "una gran ventaja para nuestra base de clientes y para nosotros".
"Actualmente, con ChatGPT, no podemos enviar datos sensibles a través de sus conexiones. Pero con ChatGPT Enterprise, no están utilizando los datos de las solicitudes de los clientes para entrenar modelos A.I. abiertos", dijo. "Esto es lo importante y lo que hemos estado esperando".
Esto es probablemente exactamente lo que OpenAI espera con el nivel empresarial (además de una forma de comenzar a generar ingresos significativos con ChatGPT). Pero un examen más detenido muestra que los dos niveles pueden no ser tan diferentes en cuanto a seguridad como parecen, según The Register. Por ejemplo, aunque OpenAI enfatizó en su anuncio del nivel empresarial que la empresa no entrenará su modelo con datos de los clientes, en realidad OpenAI dice que no utiliza los datos enviados a través de la API en ninguno de sus niveles para entrenar o mejorar ChatGPT. Incluso los usuarios sin API que jueguen con ChatGPT pueden optar por no permitir que sus interacciones se utilicen para el entrenamiento. Además, OpenAI dice que algunos de sus empleados pueden acceder a las conversaciones cifradas que se llevan a cabo dentro del nivel empresarial.
En todas las conversaciones sobre ChatGPT y su nueva oferta empresarial, la seguridad y la gobernanza de datos parecen ser las principales preocupaciones. Y para algunos, el estado actual de la seguridad y la gestión de datos de ChatGPT Enterprise sigue siendo insuficiente.
Los ejecutivos de la plataforma de capacitación Degreed, por ejemplo, dijeron que no tienen previsto utilizar ChatGPT Enterprise en un futuro cercano, en parte debido a preocupaciones sobre la seguridad y el cumplimiento normativo.
"Dadas las actuales regulaciones de inteligencia artificial y la investigación regulatoria a OpenAI, nuestros clientes tienen preocupaciones sobre licenciar OpenAI como proveedor que utiliza sus salidas directamente en la plataforma", dijo Fei Sha, vicepresidente de ciencia de datos e ingeniería en Degreed.
Esto es una preocupación particular para los clientes de la empresa con sede en la Unión Europea, ya que los sistemas de inteligencia artificial utilizados en la educación se clasifican como "de alto riesgo" en el reciente Acta de Inteligencia Artificial de la UE, lo que haría que Degreed esté sujeto a niveles más altos de regulación en cuanto a transparencia, gobernanza de datos y otras medidas de protección.
Además, ChatGPT Enterprise simplemente no superó el análisis de costo-beneficio de la empresa. Licenciar cualquier nuevo proveedor desencadenaría un proceso de evaluación intensivo en recursos en el cual todos los clientes de la empresa tendrían que dar permiso y firmar nuevos acuerdos. Y aunque Degreed reconoce los posibles beneficios que LLMs podrían brindar a sus clientes, Fei dijo que la empresa "mantiene sus opciones abiertas" para otros LLMs emergentes y que "las tecnologías de IA no deben implementarse por sí mismas".
Para que la empresa considere ChatGPT Enterprise, Janice Burns, directora de transformación de Degreed, dijo que tendrían que ver prácticas de privacidad y seguridad transparentes y medibles, ideas prácticas para combatir la desinformación y que se aborden los sesgos incorporados en el LLM, además de recomendaciones de calidad.
"La emoción por la innovación es innegable", dijo. "Pero herramientas como ChatGPT para empresas también requieren lineamientos y transparencia en torno a la privacidad y los datos de usuario para que la tecnología sea apta para su adopción empresarial".
Angara, una tienda de joyería en línea, es otra empresa que, aunque entusiasmada con las posibilidades de las herramientas de IA, no utilizará ChatGPT Enterprise.
Ankur Daga, cofundador y CEO, dijo que Angara ha estado utilizando herramientas de IA durante más de un año para ayudar a los clientes a encontrar el producto adecuado más rápidamente y ha visto cómo la tasa de conversión de su sitio web aumentó un 20% como resultado. La empresa también tiene muchos más planes para su producto de IA, como funciones próximas que mostrarán recomendaciones a los clientes basadas en descripciones de texto o imágenes cargadas.
Pero cuando la empresa realizó pruebas de ChatGPT, no quedaron satisfechos con los resultados. Si bien ChatGPT acertó el 80% de las veces, el otro 20% "puede hacer que perdamos la confianza de nuestros clientes, lo cual es catastrófico en el negocio de la joyería", dijo Daga.
Y con eso, aquí está el resto de las noticias de IA de esta semana.
Sage Lazzaro
sagelazzaro.com
A.I. EN LAS NOTICIAS
La Oficina de Derechos de Autor de EE. UU. solicita opiniones del público sobre la IA y cuestiones de derechos de autor. La agencia abrió un período de comentarios públicos y publicó un aviso que describe sus desafíos actuales con la IA y cuatro problemas principales que está explorando, incluido el uso de obras con derechos de autor para entrenar modelos y la posibilidad de copyright de materiales generados utilizando sistemas de IA. El período de comentarios públicos se extenderá hasta el 18 de octubre y es parte de un esfuerzo más amplio de la agencia para abordar cuestiones relacionadas con la propiedad, la infracción y el uso legítimo en un mundo que está siendo rápidamente trastocado por la IA.
Zoom lanza un asistente digital generativo de IA. Al igual que las herramientas de reuniones con IA que Google anunció la semana pasada, Zoom dice que su Asistente de IA puede crear resúmenes de reuniones, destacados de video e incluso conversar con los usuarios durante la reunión para ponerlos al día sobre lo que se perdieron, entre otras tareas. Zoom también anunció un conjunto de funciones relacionadas que llegarán el próximo primavera, incluida una función de preparación de reuniones, donde el Asistente de IA puede ofrecer contexto sobre lo que se discutirá en una próxima reunión al mostrar conocimiento de reuniones anteriores, chats, documentos, etc. La empresa dijo que utilizó sus propios LLMs, así como los de Meta, OpenAI y Anthropic para el Asistente de IA.
X actualiza su política de privacidad para permitir que la empresa entrene modelos de IA con los datos de los usuarios. Según informa StackDiary. El propietario de X, Elon Musk, ha criticado anteriormente a otras empresas por utilizar datos de Twitter para el entrenamiento de IA, al mismo tiempo que establece las bases para hacerlo él mismo, especialmente mientras busca ingresar al mercado de la IA con otra empresa a la que llama xAI. Comentó sobre los cambios en la política en una publicación, escribiendo "solo datos públicos, no DMs ni nada privado". Otros cambios destacados indican que la empresa ahora también recopilará datos biométricos, así como información laboral y educativa de los usuarios.
Amazon se está llenando de libros sobre búsqueda de setas generados por IA que, según expertos, podrían matar a alguien. 404media descubrió un tesoro de libros probablemente generados por ChatGPT sobre búsqueda de setas en Amazon, dirigidos principalmente a principiantes. Las listas no indican en ningún momento que los libros fueron escritos por IA e incluso parecen tener autores humanos falsos. No hace falta decir que una tecnología que a menudo mezcla cosas probablemente no sea adecuada para escribir guías que expliquen qué setas se pueden disfrutar en la pasta y cuáles pueden ser mortales.
EYE ON A.I. RESEARCH (Atentos a la investigación en IA)
Una prueba de Turing maloliente. Para la audición y la visión, desde hace mucho tiempo tenemos mapas que relacionan las propiedades físicas de estos sentidos (como la frecuencia y la longitud de onda, respectivamente) con las propiedades que realmente podemos percibir, como el tono y el color. Pero, ¿qué ocurre con nuestro sentido del olfato?
Un nuevo artículo publicado la semana pasada en Science detalla cómo los investigadores utilizaron el aprendizaje automático para descifrar el código del olor. Utilizando una red neuronal gráfica, los investigadores desarrollaron una herramienta para predecir el perfil de olor de una molécula basándose únicamente en su estructura. La herramienta superó al panelista humano promedio en el 53% de las moléculas probadas, incluso en situaciones difíciles, como distinguir entre moléculas que parecen muy similares pero en realidad tienen olores muy diferentes.
Si bien investigadores de varias universidades participaron en el artículo, gran parte del impulso provino de Osmo, una empresa que trabaja para llevar la tecnología a un punto en el que "las computadoras generen olores al igual que nosotros generamos imágenes y sonidos hoy en día". El equipo de Osmo comenzó originalmente este trabajo en Google Research antes de convertirse en una startup independiente en 2022, con Google Ventures como uno de los principales inversores.
Alex Witschko, quien fue pionero en el grupo de olfato digital en Google Brain antes de fundar Osmo, considera los resultados como una validación de esta línea de investigación a la que dice haber estado "obsesionado" durante la mayor parte de su vida y ha estado estudiando profesionalmente desde 2008.
"Un problema fundamental que nos impide digitalizar el olor es algo que los otros sentidos ya tienen: un mapa", escribió en una publicación de blog sobre el estudio.
“En resumen, el documento valida la idea de que ahora es posible aplicar el aprendizaje automático para cuantificar, digitalizar e ingeniar el olor", dijo.
FORTUNE SOBRE IA
EE.UU. debería utilizar los potentes chips de Nvidia como un 'punto de estrangulamiento' para forzar la adopción de las reglas de IA, dice Mustafa Suleyman, cofundador de DeepMind —Nicholas GordonEl CEO de Indeed quiere crear reclutadores 'cíborg' que aprovechen las fortalezas tanto de los humanos como de la IA —Orianna Rosa Royle
La IA y los grandes cambios en el mercado están volviendo a hacer interesantes las PC —David Meyer
BRAINFOOD
¿En Meta confiamos? Continuando con su racha de "código abierto", Meta reveló la semana pasada FACET, una nueva referencia de la IA para evaluar la equidad en los modelos. Compuesto por 32,000 imágenes que contienen 50,000 personas etiquetadas por anotadores humanos, se posiciona como una forma de evaluar los sesgos en los modelos en clasificación, detección, segmentación de instancias y tareas de anclaje visual que involucran personas.Los modelos de IA sin duda deben ser examinados ampliamente, regularmente y con un microscopio (después de haber sido diseñados con la máxima responsabilidad desde el principio). El problema es que el titular "Meta lanza un conjunto de datos para investigar los modelos de visión por computadora en busca de sesgos" seguramente provoca un gesto de desaprobación.
Meta, sin ser demasiado críticos, no tiene un buen historial cuando se trata de confianza o transparencia. La compañía ha pasado los últimos años hasta el literalmente borde del cuadro de búsqueda con problemas de confianza y seguridad relacionados con sus plataformas sociales, y su historial con la IA no es mucho mejor.
A fines del año pasado, Meta se vio obligada a retirar una demostración de IA después de que escribiera literatura científica racista e inexacta. Los informes han caracterizado al equipo de ética de IA de la empresa como en gran medida ineficaz y han calificado las herramientas contra el sesgo de IA lanzadas como 'completamente insuficientes'. Mientras tanto, los académicos han acusado a Meta de exacerbar las desigualdades socioeconómicas en sus algoritmos de servir anuncios y de mostrar un sesgo contra los usuarios negros en sus sistemas de moderación automatizada", resume TechCrunch, que también descubrió "orígenes potencialmente problemáticos" y problemas de datos con FACET.
Meta claramente tiene la tecnología para ser líder en IA: PyTorch fue realmente disruptivo en cuanto a marcos de aprendizaje automático, y LLama 2 se ha convertido rápidamente en un modelo imprescindible para la industria. Pero, como mostró nuestra historia principal en Eye on A.I. esta semana, la IA se trata tanto de confianza como de IA.