Desbloquea Inferencias de IA Rentables con Capacidades Serverless de Amazon Bedrock Usando un Modelo Entrenado en Amazon SageMaker

0
29
Unlock cost-effective AI inference using Amazon Bedrock serverless capabilities with an Amazon SageMaker trained model

Amazon ha anunciado el lanzamiento de una funcionalidad que permite integrar modelos personalizados entrenados o ajustados mediante Amazon SageMaker con su servicio Amazon Bedrock. Esta nueva característica, conocida como «Amazon Bedrock Custom Model Import», ofrece a los desarrolladores la oportunidad de aprovechar modelos de alta calidad de diversas empresas líderes en inteligencia artificial, incluyendo AI21 Labs, Anthropic y Stability AI, a través de una única API.

Tradicionalmente, los usuarios de Amazon Bedrock que deseaban utilizar modelos personalizados tenían que gestionar su propia infraestructura de inferencia en SageMaker o entrenar los modelos directamente en Amazon Bedrock, lo que implicaba un costo significativo debido al uso de capacidad provisionada. Con la introducción de esta función, los desarrolladores ahora pueden importar modelos previamente entrenados en SageMaker, lo que les permite acceder fácilmente a modelos ajustados según sus necesidades a través de la API de Amazon Bedrock.

Los modelos que se pueden importar incluyen arquitecturas como Mistral, Flan y las versiones más recientes de Meta Llama. El proceso comenzaría estableciendo un modelo en Amazon SageMaker JumpStart, donde los usuarios pueden elegir entre varios modelos disponibles, y luego proceder a afinarlo con sus propios datos. Una vez completado el entrenamiento, se puede importar el modelo a Amazon Bedrock, donde está disponible para su uso bajo demanda.

Para acceder a esta nueva funcionalidad, los usuarios necesitarán una cuenta de AWS con acceso a SageMaker Studio y Amazon Bedrock. La importación de modelos se realiza a través de la consola de Amazon Bedrock, donde se pueden seleccionar los modelos importados y configurar los roles de servicio necesarios para su funcionamiento.

Esta actualización no solo mejora la manera en que se pueden implementar modelos personalizados en el entorno de Amazon, sino que también proporciona a los desarrolladores la flexibilidad y escalabilidad necesarias para construir aplicaciones generativas de inteligencia artificial sin la carga de gestionar infraestructuras complejas. Con el continuo avance de los modelos de lenguaje y sus capacidades, la integración de modelos personalizados en aplicaciones se ha vuelto más crítica, y esta nueva característica de Amazon Bedrock promete facilitar ese proceso considerablemente.
vía: AWS machine learning blog