Mistral AI ha anunciado la disponibilidad de su modelo de lenguaje de veinticuatro mil millones de parámetros, Mistral-Small-24B-Instruct-2501, optimizado para tareas de generación de texto de baja latencia, a través de Amazon SageMaker JumpStart y el nuevo Amazon Bedrock Marketplace. Esta plataforma permite a los desarrolladores descubrir, probar y utilizar más de 100 modelos, tanto populares como especializados, además de los modelos líderes en la industria que ya están disponibles en Amazon Bedrock.
Mistral Small 3 (2501) combina un alto rendimiento con eficiencia computacional, siendo capaz de gestionar una ventana de contexto de 32 000 tokens. La versión instruida del modelo, construida sobre los cimientos de versiones anteriores, ha sido diseñada para mejorar su capacidad de seguir instrucciones complejas y mantener conversaciones coherentes. Según Mistral, el modelo demuestra un rendimiento superior en áreas como código, matemáticas y conocimiento general, lo que lo hace ideal para tareas de inteligencia artificial generativa que requieren un rendimiento robusto y respuestas rápidas.
El modelo es especialmente eficaz en la asistencia conversacional, respondiendo en menos de 100 milisegundos, lo que lo convierte en una excelente opción para la automatización del servicio al cliente y la asistencia interactiva. Con una precisión que supera el 81% en pruebas de comprensión de lenguaje multitarea, Mistral-Small-24B-Instruct-2501 se presenta como uno de los modelos más eficientes en su categoría. En evaluaciones de terceros, ha demostrado competir con modelos más grandes, pero con un rendimiento más rápido.
Amazon SageMaker JumpStart permite a los usuarios acceder a una colección de modelos preentrenados para varios casos de uso, como escritura de contenido, generación de código y respuesta a preguntas. Los desarrolladores pueden utilizar el nuevo marketplace para encontrar modelos que se adapten a sus necesidades específicas, filtrando por proveedor y modalidad.
Para implementar Mistral-Small-24B-Instruct-2501, los usuarios deben acceder a la consola de Amazon Bedrock y buscar en el catálogo de modelos. Se les guiará a través de un proceso que incluye seleccionar la instancia adecuada, configurar opciones de seguridad y red, y finalmente desplegar el modelo. Una vez completado el despliegue, los usuarios pueden probar las capacidades del modelo directamente en un entorno interactivo.
La llegada del Mistral-Small-24B-Instruct-2501 subraya la creciente importancia de los modelos de lenguaje optimizados en la inteligencia artificial generativa, proporcionando herramientas accesibles tanto para desarrolladores como para empresas que buscan mejorar su capacidad de interacción automatizada y contextual de manera eficiente y efectiva.
vía: AWS machine learning blog