Amazon Web Services (AWS) ha anunciado la disponibilidad del modelo de ajuste fino Cohere Command R en Amazon SageMaker. Esta nueva incorporación a la suite de capacidades de aprendizaje automático (ML) de SageMaker permite a las empresas aprovechar el poder de los grandes modelos de lenguaje (LLM) y liberar todo su potencial para una amplia gama de aplicaciones.
Cohere Command R es un LLM de vanguardia, escalable y diseñado para manejar cargas de trabajo de nivel empresarial con facilidad. Está optimizado para la interacción conversacional y tareas de contexto largo. Se dirige a la categoría escalable de modelos que equilibran el alto rendimiento con la fuerte precisión, permitiendo a las empresas avanzar más allá de las pruebas de concepto e ingresar a la producción. El modelo se destaca por su alta precisión en tareas de Generación Aumentada por Recuperación (RAG) y uso de herramientas, baja latencia y alto rendimiento, un largo contexto de 128,000 tokens y fuertes capacidades en 10 idiomas clave.
El ajuste fino es una técnica eficaz para adaptar LLMs como Cohere Command R a dominios y tareas específicos, lo que resulta en mejoras significativas de rendimiento sobre el modelo base. Las evaluaciones del modelo Cohere Command R ajustado han demostrado mejoras de rendimiento de más del 20% en diversos casos de uso empresariales en industrias como servicios financieros, tecnología, retail, salud y legal. Debido a su menor tamaño, un modelo Cohere Command R ajustado puede ser servido de manera más eficiente en comparación con modelos mucho más grandes de su clase.
Se recomienda utilizar un conjunto de datos que contenga al menos 100 ejemplos. Cohere Command R emplea un enfoque RAG, recuperando el contexto relevante de una base de conocimiento externa para mejorar sus salidas. Sin embargo, el ajuste fino permite especializar el modelo aún más. Este proceso es crucial para lograr un rendimiento óptimo en varios escenarios:
- Adaptación específica de dominio: Los modelos RAG pueden no rendir de manera óptima en dominios altamente especializados como finanzas, derecho o medicina. El ajuste fino permite adaptar el modelo a las particularidades de estos dominios, mejorando la precisión.
- Aumentación de datos: El ajuste fino permite incorporar fuentes de datos adicionales o técnicas que aumentan la base de conocimiento del modelo, aumentando su robustez, especialmente con datos escasos.
- Control detallado: Aunque RAG ofrece capacidades generales impresionantes, el ajuste fino permite un control detallado sobre el comportamiento del modelo, adaptándolo precisamente a la tarea deseada para una precisión máxima.
El poder combinado de RAG y los LLM ajustados permite abordar desafíos diversos con una versatilidad y efectividad inigualables. Con la introducción del ajuste fino de Cohere Command R en SageMaker, las empresas pueden ahora personalizar y optimizar el rendimiento del modelo para sus requisitos únicos. Al ajustar finamente sobre datos específicos de dominio, las empresas pueden mejorar la precisión, relevancia y efectividad de Cohere Command R para sus casos de uso, como procesamiento de lenguaje natural, generación de texto y respuesta a preguntas.
El proceso de ajuste fino en SageMaker incluye preparar los datos, desplegar un modelo, prepararse para el ajuste fino, crear un endpoint para inferencia y realizar la inferencia. Para iniciar un trabajo de ajuste fino, se debe subir un conjunto de datos en formato jsonl que contenga mensajes de una conversación. Luego, en AWS Marketplace, se suscribe al modelo Cohere Command R y se sigue las instrucciones para crear un trabajo de entrenamiento.
Tras el ajuste fino y la creación del endpoint de inferencia, se puede utilizar dicho endpoint para realizar inferencias en tiempo real, mejorando así la precisión y el rendimiento de las aplicaciones empresariales. AWS y Cohere aseguran que los datos de los clientes, incluidos los prompts, completions, modelos personalizados y datos utilizados para ajuste fino o preentrenamiento continuo, permanecen privados en las cuentas de AWS de los clientes y nunca se comparten con terceros proveedores de modelos.
Finalmente, es crucial limpiar los recursos provisionados al finalizar para evitar cargos innecesarios, lo que se puede hacer eliminando los endpoints y cerrando las sesiones abiertas. Cohere Command R con ajuste fino permite personalizar los modelos para que sean eficientes para el negocio, dominio e industria, beneficiándose de su proficiencia en los idiomas empresariales más comunes y RAG con citas para información precisa y verificada.
vía: AWS machine learning blog