Mistral-Small-3.2-24B Ahora Disponible en Amazon Bedrock Marketplace y Amazon SageMaker JumpStart

0
21
Use IP-restricted presigned URLs to enhance security in Amazon SageMaker Ground Truth

Mistral AI ha lanzado su modelo de lenguaje Mistral-Small-3.2-24B-Instruct-2506, un avanzado sistema que cuenta con 24 mil millones de parámetros optimizados para mejorar el seguimiento de instrucciones y reducir errores de repetición. Este modelo está ahora disponible para clientes a través de Amazon SageMaker JumpStart y el Amazon Bedrock Marketplace.

Con la misma arquitectura de 24 mil millones de parámetros que su predecesor, Mistral-Small-3.2 introduce varias mejoras significativas. Según los benchmarks realizados por Mistral, el nuevo modelo sigue instrucciones con una precisión del 84.78%, un aumento respecto al 82.75% de la versión anterior. Además, ha logrado reducir las respuestas repetitivas a la mitad, pasando de un 2.11% a un 1.29% de genereaciones infinitas. Otra de las mejoras incluye una plantilla de llamadas a funciones más robusta para interacciones con APIs estructuradas, y la capacidad de procesar tanto textos como imágenes, permitiendo tareas como comprensión de documentos y generación de contenido visual.

Este modelo es particularmente pertinente para aplicaciones empresariales en AWS, donde la confianza y precisión son críticas. Con un contexto de 128,000 tokens, Mistral-Small-3.2 es capaz de manejar documentos extensos y mantener la coherencia a lo largo de conversaciones más largas.

SageMaker JumpStart, un servicio completamente gestionado, facilita el acceso a modelos de vanguardia para diversas aplicaciones, incluidos la redacción de contenido, generación de código y recuperación de información. Los usuarios ya pueden desplegar modelos de Mistral a través del entorno de Amazon SageMaker Studio o utilizando el SDK de Python.

Para acceder al modelo a través del Amazon Bedrock Marketplace, los usuarios solo deben seleccionar Mistral-Small-3.2-24B-Instruct-2506 en el catálogo de modelos dentro de la consola. A partir de ahí, se puede configurar el nombre del endpoint y seleccionar el tipo de instancia, siendo recomendable utilizar instancias basadas en GPU para un rendimiento óptimo.

Además de la implementación destacada, el modelo ha demostrado excelente rendimiento en tareas que involucran razonamiento de figuras complejas, como en el análisis de datos económicos, demostrando así su utilidad en un amplio rango de aplicaciones.

Con el lanzamiento de Mistral-Small-3.2-24B-Instruct-2506, Mistral AI reafirma su compromiso en proporcionar herramientas avanzadas para desarrolladores y empresas que buscan capitalizar el potencial de la inteligencia artificial en sus operaciones.
vía: AWS machine learning blog