OpenAI ha lanzado nuevos modelos de peso abierto, GPT OSS, específicamente el gpt-oss-120b y el gpt-oss-20b, disponibles a través de Amazon SageMaker JumpStart. Esta innovación permite a los desarrolladores y empresas implementarlos para construir y escalar ideas de inteligencia artificial generativa de manera responsable en la plataforma de Amazon Web Services (AWS).
Los modelos GPT OSS son especialmente eficaces en tareas de programación, análisis científico y razonamiento matemático. Cuentan con una ventana de contexto de 128K y niveles de razonamiento ajustables, permitiendo a los usuarios personalizar su rendimiento según sus necesidades. Además, integran herramientas externas y pueden ser utilizados en flujos de trabajo de inteligencia artificial mediante frameworks como Strands Agents. La capacidad de salida en cadena de pensamientos ofrece una visión detallada del proceso de razonamiento del modelo.
SageMaker JumpStart ofrece un servicio completamente gestionado con modelos de fundación de vanguardia para varias aplicaciones, como redacción de contenido, generación de código y clasificación. Proporciona acceso a un amplio catálogo de modelos preentrenados que pueden ser desplegados fácilmente, acelerando el desarrollo de aplicaciones de aprendizaje automático.
Los usuarios pueden descubrir y desplegar modelos de OpenAI desde Amazon SageMaker Studio o a través del SDK de Python de SageMaker. Además, las funciones de Amazon SageMaker, como Pipelines y Debugger, permiten maximizar el rendimiento del modelo y optimizar el control de operaciones de aprendizaje automático en un entorno seguro de AWS.
Los modelos están disponibles en varias regiones de AWS, incluyendo US East (Ohio, N. Virginia) y Asia Pacífico (Mumbai, Tokio). Para acceder a estos modelos, los usuarios deben contar con una cuenta de AWS, un rol de IAM para la gestión de SageMaker, y acceso a SageMaker Studio o a un entorno de desarrollo interactivo.
Para desplegar el modelo gpt-oss-120b, es necesario seguir varios pasos en SageMaker Studio o mediante el SDK de Python. Estos incluyen definir el nombre del endpoint, especificar el número de instancias y seleccionar el tipo de instancia con GPU recomendada para un rendimiento óptimo.
OpenAI también ha integrado un nuevo sistema de búsqueda en la web a través de EXA, una API de búsqueda basada en significados, que permite enriquecer las respuestas de los modelos con información actualizada. Los usuarios pueden acceder a este servicio obteniendo una clave API de EXA y configurándola en su entorno de despliegue.
Para finalizar, se recomienda a los usuarios eliminar los recursos creados tras utilizar el modelo para evitar cargos adicionales. Con esta nueva oferta, OpenAI refuerza su compromiso con la accesibilidad y la potencia de la inteligencia artificial en entornos empresariales, fomentando la innovación en múltiples sectores.
vía: AWS machine learning blog