Amazon Bedrock acelera la adopción de IA generativa con más de 100 nuevos modelos, como los de Luma AI y poolside

Amazon Bedrock
Amazon Bedrock - AMAZON BLOG
Europa Press PortalTIC
Publicado: jueves, 5 diciembre 2024 12:15

   MADRID, 5 Dic. (Portaltic/EP) -

   Amazon Web Services (AWS) ha actualizado su plataforma de modelos de Inteligencia Artificial (IA) Amazon Bedrock con más de cien nuevos modelos, entre los que se encuentran los desarrollados por Luma AI (Ray 2) y poolside (malibu y point) que ayudarán a acelerar la adopción de esta tecnología generativa.

AWS ha aunciado que Amazon Bedrock, la plataforma destinada a la creación de aplicación de IA generativa con modelos de base de alto rendimiento, pronto contará con el último modelo de Stability AI.

   La firma también ha apuntado que el soporte para datos estructurados de GraphRAG en las bases de conocimiento de Amazon Bedrock ampliará "aún más" el cómo los clientes pueden aprovechar sus datos para ofrecer experiencias de IA generativa personalizadas.

   En este sentido, ha recordado que la plataforma transforma automáticamente los datos no estructurados y multimodales en datos estructurados sin necesidad de codificación, ayudando a los clientes a utilizar más de sus datos para IA generativa y análisis.

   Conviene matizar que Amazon Bedrock brinda a los clientes los nuevos modelos de Amazon Nova y que ofrecerá más de cien modelos, que se pueden implementar en AWS, como Mistral NeMo Instruct 2407 de Mistral AI, Falcon RW 1B de Technology Innovation Institute y microservicios Nvidia NIM, entre otros.

Estas novedades se han dado a conocer en el marco de AWS re:Invent, el evento que la compañía ofrece anualmente y en el que también se ha avanzado la disponibilidad de los chips Trainium2 y el nuevo ecosistema de modelos fundacionales Nova.

    AWS también será el primer proveedor 'cloud' en ofrecer modelos de Luma AI (Ray 2) y poolside (malibu y point) y ha actualizado la memoria caché de indicaciones y el enrutamiento inteligente de indicaciones de Amazon Bedrock para ayudar a los clientes a escalar la inferencia de manera más fácil y rentable.

   Por otra parte, AWS está añadiendo dos nuevas capacidades para ayudar a los clientes a administrar los mensajes de Bedrock de forma más eficaz a escala. De esa manera, la plataforma ahora puede almacenar en caché de forma segura las indicaciones para reducir el procesamiento repetidom sin comprometer la precisión.

   También ha señalado que el enrutamiento inteligente de solicitudes ayuda a optimizar la calidad y el coste de las respuestas, y que Bedrock se puede configurar para que envíe solicitudes automáticamente a diferentes modelos de base dentro de una familia de modelos de IA.

   Como novedades en las bases de conocimiento de Amazon Bedrock, la empresa ha apuntado que la plataforma ahora tiene soporte nativo para la recuperación de datos estructurados, lo que acelera el desarrollo de aplicaciones de IA generativa.

   "Esta capacidad ayuda a romper los silos de datos en las diferentes fuentes de datos, acelerando el desarrollo de la IA generativa de más de un mes a solo unos días", ha indicado la compañía, recordando que los clientes pueden crear aplicaciones que empleen consultas en lenguaje natural para explorar datos estructurados almacenados en fuentes como Amazon SageMaker Lakehouse o Amazon Redshift.

   La otra nueva característica de las bases de conocimiento de su servicio en la nube es el soporte para GraphRAG, gracias al cual generará respuestas más relevantes y permitirá a los clientes generar gráficos automáticamente utilizando Amazon Neptune.

AMAZON SAGEMAKER AI

   Junto con las nuevas capacidades de Amazon Bedrock, AWS ha anunciado cuatro innovaciones para Amazon SageMaker AI, la plataforma de aprendizaje automático destinada a facilitar la creación, entrenamiento e implementación de modelos a gran escala.

   Estas novedades están destinadas a ayudar a los clientes a comenzar más rápido con modelos públicos, maximizar la eficiencia del entrenamiento, reducir costes y usar sus herramientas para acelerar el desarrollo de modelos de IA generativa.

   En primer lugar, ha recordado que con la llegada de la IA generativa, se ha convertido en algo más complejo el proceso de creación, entrenamiento e implementación de modelos, motivo por el que AWS creó SageMaker HyperPod. Esta capacidad permite desarrollar entonros de entrenamiento más flexibles al detectar, diagnosticar y recuperarse automáticamente de los errores.

   AWS ha reconocido que empleó este servicio para entrenar los nuevos modelos de Amazon Nova, "lo que redujo sus costes, mejoró el rendimiento de su infraestructura de entrenamiento y les ahorró meses de trabajo manual", según este comunicado.

   Para que a los clientes les resulte más fácil, rápido y rentable crear, entrenar e implementar sus modelos a escala, ha implementado nuevas guías que les ayudan a comenzar más rápido en el uso de modelos disponibles públicamente, como Llama 3.2 90B o Mistral 8X22B.

   Con ello, AWS está lanzando planes de capacitación flexibles para SageMaker HyperPod, que puede configurar clústeres y crear trabajos de capacitación de los modelos de IA para que las empresas dediquen menos tiempo en su entrenamiento.

   La compañía también ha apuntado a la gobernanza de tareas de SageMaker HyperPod, rgacias a la cual los clientes pueden masimizar el uso del acelerador para el entrenamiento, el ajuste y la inferencia de modelos, lo que reduce costes de desarrollo de modelos hasta en un 40 por ciento.

   De esta manera, "con unos pocos clics", los clientes podrán definir las prioridades para diferentes tareas y establecer límites para la cantidad de recursos de cómputo que cada equipo o proyecto puede usar. Por tanto, una vez que los clientes establezcan los límites entre los distintos equipos y proyectos de las organizaciones, SageMaker HyperPod asignará los recursos pertinentes y administrará automáticamente la cola de tareas para garantizar que se priorice ek trabajo más crítico.

Últimas noticias sobre estos temas

Contenido patrocinado