Los asistentes aprenden cómo la inteligencia artificial generativa está transformando organizaciones de todo tipo de industrias y aplicaciones.
En su discurso principal, Swami Sivasubramanian, vicepresidente de Bases de Datos, Análisis y Aprendizaje Automático en Amazon Web Services (AWS), dijo que espera que los servicios y capacidades de AWS democratizarán el uso de la inteligencia artificial generativa (IA generativa), ampliando el acceso para todo tipo de clientes, en todas las áreas de negocio, desde ingeniería hasta marketing, atención al cliente, finanzas y ventas. "La IA generativa ha cautivado nuestra imaginación", dijo Sivasubramanian. "Esta tecnología ha alcanzado su punto de inflexión". Swami Sivasubramanian, vicepresidente de Bases de Datos, Análisis y Aprendizaje Automático en Amazon Web Services
¿Qué es la IA generativa? Es un tipo de aprendizaje automático (ML) impulsado por modelos ultragrandes, incluidos modelos de lenguaje extensos (LLM). Estos modelos se preentrenan con una gran cantidad de datos y se conocen como "modelos fundamentales" (FMs). La IA generativa ayudará a mejorar las experiencias de los clientes al interactuar con asistentes virtuales, centros de contacto inteligentes y servicios de compra personalizados. Un empleado puede aumentar su productividad gracias a herramientas de búsqueda conversacional, resumen de texto o generación de código impulsadas por IA generativa. Las operaciones comerciales mejorarán con el procesamiento inteligente de documentos o los controles de calidad construidos con IA generativa. Y los clientes podrán utilizar la IA generativa para acelerar la producción de todo tipo de contenido creativo. Sivasubramanian destacó cómo todo este valor para la IA generativa se desbloqueará con AWS y cómo los clientes de AWS darán vida a estas experiencias impulsadas por IA.
En primer lugar, la elección del modelo será fundamental. Ningún modelo lo dominará todo. En cambio, las organizaciones deberán poder elegir el modelo adecuado para cada trabajo. Luego, los clientes deberán poder personalizar estos modelos de forma segura con sus propios datos. Por ejemplo, una empresa de publicidad puede ajustar un modelo mostrándole los anuncios más exitosos de la empresa, mientras que un minorista en línea puede darle al modelo acceso a los detalles de su inventario para que pueda proporcionar la información adecuada cuando un cliente lo solicite.
Las herramientas de fácil uso también son una parte clave de la democratización de la IA dentro de las organizaciones, junto con la capacidad de ofrecer respuestas de bajo costo y baja latencia, gracias a la infraestructura de ML diseñada específicamente. Gran parte de esta innovación se construirá con Amazon Bedrock, un servicio ofrecido por AWS que ayuda a organizaciones de cualquier tamaño y en todas las industrias alrededor del mundo a construir y escalar fácilmente sus propias aplicaciones de IA generativa. Lo hace brindando a los clientes un fácil acceso a una amplia gama de FMs a través de una API sencilla y facilitando la personalización mediante el uso de almacenamientos de datos existentes.
Amazon ha estado desarrollando tecnología de IA y ML durante más de 25 años, y las innovaciones recientes en ML han hecho posible las capacidades de IA generativa. Aquí se presentan siete actualizaciones de IA generativa anunciadas en la Cumbre de AWS en Nueva York.
1. AWS amplía Amazon Bedrock con nuevos proveedores de modelos y FMs adicionales
Dado que la elección del modelo es fundamental, Amazon Bedrock se está expandiendo para incluir la incorporación de Cohere como proveedor de FM y los últimos FMs de Anthropic y Stability AI. Cohere agregará su modelo de generación de texto principal, Command, así como su modelo de comprensión de texto multilingüe, Cohere Embed. Además, Anthropic ha presentado Claude 2, la última versión de su modelo de lenguaje, en Amazon Bedrock, y Stability AI anunció que lanzará la última versión de Stable Diffusion, SDXL 1.0, que produce detalles de imagen y composición mejorados, generando creaciones más realistas para películas, televisión, música y videos instructivos. Estos FMs se suman a las ofertas existentes de AWS en Amazon Bedrock, que incluyen modelos de AI21 Labs y Amazon, para ayudar a los clientes en su viaje de aprendizaje automático, con un amplio y profundo conjunto de recursos de IA y ML para constructores de todos los niveles de experiencia.
Los clientes ahora pueden crear agentes para Amazon Bedrock para habilitar la automatización de tareas complejas y brindar respuestas personalizadas y actualizadas para sus aplicaciones, basadas en sus datos propietarios.
Si bien los modelos de lenguaje fundamentales (FMs, por sus siglas en inglés) son increíblemente poderosos por sí solos para una amplia gama de tareas, como la sumarización, necesitan programación adicional para ejecutar solicitudes más complejas. Por ejemplo, no tienen acceso a los datos de la empresa, como la información más reciente del inventario, y no pueden acceder automáticamente a las API internas. Los desarrolladores pasan horas escribiendo código para superar estos desafíos. Con solo unos clics, los agentes para Amazon Bedrock automáticamente descompondrán las tareas y crearán un plan de orquestación, sin necesidad de programación manual, lo que facilita la tarea de programación de aplicaciones de IA generativa para los desarrolladores. Por ejemplo, para atender una solicitud de un cliente para devolver un par de zapatos: "Quiero cambiar estos zapatos negros por un par marrón en su lugar", el agente se conecta de manera segura a los datos de la empresa, los convierte automáticamente en un formato legible por máquina, brinda la información relevante al FM y luego llama al conjunto correcto de API para atender esta solicitud.
El soporte del motor de vectores para Amazon OpenSearch Serverless brinda a los clientes una forma más sencilla de aprovechar los vectores para la búsqueda.
Las incrustaciones vectoriales permiten a las máquinas comprender las relaciones entre el contenido de texto, imágenes, audio y video de una manera que es comprensible para el aprendizaje automático, lo que hace que desde las recomendaciones de productos en línea hasta los resultados de búsqueda más inteligentes funcionen. Ahora, con el soporte del motor de vectores para Amazon OpenSearch Serverless, los desarrolladores tendrán una solución simple, escalable y de alto rendimiento para construir experiencias de búsqueda mejoradas con IA y aplicaciones de IA generativa sin tener que administrar una infraestructura de base de datos de vectores.
La inteligencia empresarial (BI, por sus siglas en inglés) generativa en Amazon QuickSight produce inteligencia empresarial basada en preguntas en lenguaje natural, lo que facilita el acceso a percepciones.
Amazon QuickSight es un servicio unificado de inteligencia empresarial que ayuda a los empleados de las organizaciones a encontrar fácilmente respuestas a preguntas sobre sus datos. Ahora, QuickSight combina sus innovaciones existentes de aprendizaje automático con las nuevas capacidades de LLM disponibles a través de Amazon Bedrock para proporcionar capacidades de IA generativa, llamadas BI generativa. Estas capacidades ayudarán a romper los silos, facilitando aún más la colaboración en datos en toda una organización y acelerando la toma de decisiones basada en datos. Utilizando preguntas naturales en el lenguaje cotidiano, los analistas podrán crear o afinar paneles de control, y los usuarios comerciales podrán compartir percepciones con visualizaciones impactantes en cuestión de segundos.
Las nuevas instancias Amazon Elastic Compute Cloud (Amazon EC2) P5 aprovechan las unidades de procesamiento gráfico (GPUs) NVIDIA H100 para acelerar el entrenamiento y la inferencia de IA generativa.
Estas instancias Amazon EC2 P5, ahora disponibles de forma general, están impulsadas por las GPUs NVIDIA H100 Tensor Core, optimizadas para el entrenamiento de LLM y el desarrollo de aplicaciones de IA generativa. (Una "instancia" en la jerga de la nube es un acceso virtual a un recurso informático, en este caso, un cómputo impulsado por las GPUs H100). AWS es el primer proveedor líder de la nube en poner a disposición general las codiciadas GPUs H100 de NVIDIA en producción. Estas instancias son ideales para el entrenamiento y la ejecución de inferencia para los LLM cada vez más complejos y aplicaciones de IA generativa intensivas en cómputo, que incluyen la respuesta a preguntas, la generación de código, la generación de video e imágenes, el reconocimiento de voz y más. Con acceso a las GPUs H100, los clientes podrán crear sus propios LLM y FMs en AWS más rápido que nunca.
AWS ofrece siete cursos gratuitos y de bajo costo de capacitación en habilidades para ayudarte a utilizar la IA generativa.
Según el Foro Económico Mundial, más del 75% de las organizaciones planean adoptar el big data, la computación en la nube y la IA en los próximos cinco años. Para ayudar a las personas a capacitarse para los empleos futuros en IA y ML, AWS lanzó cursos de capacitación a pedido para apoyar a aquellos que desean comprender, implementar y comenzar a utilizar la IA generativa. Amazon ha diseñado cursos de capacitación específicamente para desarrolladores que desean utilizar Amazon CodeWhisperer, ingenieros y científicos de datos que desean aprovechar la IA generativa mediante el entrenamiento e implementación de FM, ejecutivos que buscan comprender cómo la IA generativa puede abordar los desafíos comerciales y socios de AWS que ayudan a sus clientes a aprovechar el potencial de la IA generativa.