Los modelos de fundamentos abiertos (FMs) se han convertido en un pilar fundamental de la innovación en inteligencia artificial generativa, permitiendo a las organizaciones desarrollar y personalizar aplicaciones de IA mientras controlan sus costos y estrategias de implementación. Gracias a la disponibilidad de modelos de alta calidad y de acceso abierto, la comunidad de IA promueve una rápida iteración, el intercambio de conocimientos y soluciones rentables que benefician tanto a desarrolladores como a usuarios finales. DeepSeek AI, una empresa de investigación enfocada en el avance de la tecnología de IA, ha emergido como un contribuyente significativo en este ecosistema. Sus modelos DeepSeek-R1 representan una familia de grandes modelos de lenguaje (LLMs) diseñados para gestionar una amplia variedad de tareas, desde la generación de código hasta el razonamiento general, manteniendo un rendimiento y eficiencia competitivos.
Amazon Bedrock Custom Model Import permite importar y utilizar modelos personalizados junto con los FMs existentes a través de una única API unificada sin servidor. Esto ofrece acceso a modelos importados bajo demanda, evitando tener que gestionar la infraestructura subyacente. La integración de modelos personalizados admitidos con herramientas y características nativas de Bedrock, como bases de conocimiento, pautas y agentes, acelera el desarrollo de aplicaciones de IA generativa.
En este contexto, se destaca la posibilidad de implementar versiones destiladas de DeepSeek-R1 utilizando Amazon Bedrock Custom Model Import, facilitando su acceso a organizaciones que buscan utilizar capacidades avanzadas de IA dentro de la infraestructura segura y escalable de AWS a un costo efectivo.
DeepSeek AI ha desarrollado una serie de modelos destilados a partir de DeepSeek-R1, basados en las arquitecturas de Meta Llama y Qwen, que van desde 1.5 a 70 mil millones de parámetros. El proceso de destilación implica entrenar modelos más pequeños y eficientes para imitar el comportamiento y los patrones de razonamiento del modelo DeepSeek-R1 de 671 mil millones de parámetros, transfiriendo esencialmente los conocimientos y capacidades de este modelo a arquitecturas más compactas. Los modelos destilados resultantes, como DeepSeek-R1-Distill-Llama-8B y DeepSeek-R1-Distill-Llama-70B, ofrecen distintos compromisos entre rendimiento y requisitos de recursos. Aunque los modelos destilados pueden mostrar una reducción en las capacidades de razonamiento en comparación con el modelo original, mejoran significativamente la velocidad de inferencia y reducen los costos computacionales. Por ejemplo, el modelo destilado más pequeño puede procesar solicitudes más rápidamente y consumir menos recursos, haciéndolo más rentable para las implementaciones en producción.
Para llevar a cabo la importación y la implementación de modelos destilados, los usuarios deben familiarizarse con algunos pasos clave, que incluyen la preparación del paquete del modelo, la importación a través de la consola de Amazon Bedrock y la realización de pruebas. La gestión automática de la implementación y la escalabilidad por parte de Amazon Bedrock permite a las organizaciones concentrarse en el desarrollo de aplicaciones en lugar de en la gestión de la infraestructura.
Los usuarios también deben tener en cuenta los aspectos prácticos, como la facturación basada en el número de copias activas del modelo y la duración de la actividad, así como la posibilidad de escalar los recursos según el uso. Se ha observado que las versiones destiladas de DeepSeek presentan rendimientos comparativos atractivos en tareas específicas, mostrando mejoras sobre los modelos base de Llama.
En conclusión, Amazon Bedrock Custom Model Import permite a las organizaciones aprovechar modelos poderosos como las versiones destiladas de DeepSeek-R1, mientras se benefician de una infraestructura de nivel empresarial. La naturaleza sin servidor de Amazon Bedrock elimina la complejidad de gestionar implementaciones y operaciones de modelos, permitiendo que los equipos se enfoquen en construir aplicaciones en lugar de infraestructura. La combinación del enfoque innovador de destilación de DeepSeek y la infraestructura gestionada de Amazon Bedrock ofrece un equilibrio óptimo entre rendimiento, costo y eficiencia operativa, permitiendo que las organizaciones comiencen con modelos más pequeños y escalen según sea necesario, manteniendo el control total sobre sus implementaciones de modelos y beneficiándose de las capacidades de seguridad y cumplimiento de AWS.
vía: AWS machine learning blog