Los modelos de fundación abiertos (FMs) se han convertido en una pieza clave en la innovación de la inteligencia artificial generativa, permitiendo a las organizaciones desarrollar y personalizar aplicaciones de IA al mismo tiempo que controlan sus costos y estrategias de implementación. La comunidad de inteligencia artificial propicia un rápido intercambio de conocimientos y soluciones rentables gracias a la disponibilidad de modelos de alta calidad. En este contexto, DeepSeek AI, una empresa de investigación centrada en avanzar la tecnología de IA, ha surgido como un destacado contribuyente. Sus modelos DeepSeek-R1 constituyen una familia de modelos de lenguaje grande (LLMs) diseñados para abordar una amplia gama de tareas, desde la generación de código hasta razonamiento general, manteniendo un desempeño y eficiencia competitivos.
Una de las herramientas innovadoras en este ámbito es Amazon Bedrock Custom Model Import, que permite importar y utilizar modelos personalizados junto con FMs existentes a través de una única API unificada y sin servidores. Esta funcionalidad facilita el acceso a modelos personalizados bajo demanda, eliminando la necesidad de gestionar la infraestructura subyacente. La combinación de DeepSeek-R1 y Amazon Bedrock ofrece a las organizaciones la capacidad de aprovechar capacidades de IA de vanguardia dentro de una infraestructura segura y escalable.
DeepSeek AI ha desarrollado versiones destiladas de sus modelos DeepSeek-R1 basadas en las arquitecturas de Meta, Llama y Qwen, que van desde 1.5 a 70 mil millones de parámetros. El proceso de destilación implica entrenar modelos más pequeños y eficientes que imitan el comportamiento y los patrones de razonamiento del modelo más grande, alimentando su conocimiento en arquitecturas más compactas. Por ejemplo, los modelos destilados como DeepSeek-R1-Distill-Llama-8B y DeepSeek-R1-Distill-Llama-70B, ofrecen un equilibrio entre rendimiento y necesidades de recursos, permitiendo un procesamiento más rápido y una reducción significativa en los costos computacionales.
La implementación de estos modelos destilados a través de Amazon Bedrock Custom Model Import es directa. Los usuarios pueden importar los modelos desde Amazon Simple Storage Service (S3) o un repositorio de modelos de Amazon SageMaker y desplegarlos en un entorno totalmente administrado. Este enfoque sin servidores elimina la necesidad de gestionar la infraestructura, mientras se ofrece escalabilidad y seguridad de nivel empresarial.
No obstante, para llevar a cabo esta implementación, es necesario preparar adecuadamente el paquete de modelo, lo que incluye descargar los artefactos de modelo y subirlos a un bucket S3 en la región de AWS donde se utilizará Amazon Bedrock. Luego, se sigue un proceso sencillo para importar el modelo a través de la consola de Amazon Bedrock.
La capacidad de probar los modelos una vez importados se facilita a través de Amazon Bedrock Playground, donde los usuarios pueden ajustar los parámetros de inferencia y realizar pruebas. Además, el costo de la implementación de modelos personalizados no implica tarifas por importación, sino que la facturación se basa en el número de copias de modelo activas y su duración de actividad.
DeepSeek ha publicado benchmarks que comparan sus modelos destilados con el modelo original DeepSeek-R1 y modelos base de Llama, mostrando que sus versiones destiladas mantienen un 80-90 % de las capacidades de razonamiento del modelo original. Sin embargo, es vital que las organizaciones evalúen cuidadosamente los requisitos de sus casos de uso, ya que los modelos más grandes ofrecen mejor rendimiento, mientras que los de menor tamaño pueden ser suficientes para muchas aplicaciones a un costo más bajo.
Por último, Amazon Bedrock Custom Model Import permite a las organizaciones optar por modelos abiertos y personalizados, ofreciendo una flexibilidad crucial para personalizar y optimizar las implementaciones de IA, adaptándose a sus necesidades específicas en un entorno en constante evolución.
vía: AWS machine learning blog