Amazon Web Services (AWS) ha anunciado la disponibilidad general de una nueva funcionalidad que permite el intercambio de modelos de aprendizaje automático (ML) entre diferentes cuentas de AWS, utilizando el Amazon SageMaker Model Registry y el AWS Resource Access Manager (AWS RAM). Esta innovación responde a las dificultades encontradas por los clientes al compartir modelos ML entre cuentas debido a la necesidad de configurar políticas complejas de AWS Identity and Access Management (IAM) y de crear integraciones personalizadas. Ahora, los usuarios pueden compartir y acceder a modelos ML registrados en el SageMaker Model Registry de manera más sencilla y segura entre diferentes cuentas de AWS.
La nueva funcionalidad se puede manejar a través de la interfaz de usuario de SageMaker Studio o mediante APIs, permitiendo especificar qué modelos del registrador de modelos SageMaker se compartirán y con qué cuentas. Los usuarios autorizados podrán acceder rápidamente a estos modelos compartidos en sus respectivas cuentas de AWS, facilitando así los flujos de trabajo de ML, mejorando la visibilidad y la gobernanza, y acelerando la adopción de modelos ML a lo largo de toda la organización.
Este desarrollo es especialmente significativo dentro del marco de la gobernanza de modelos, que es esencial para asegurar que los sistemas de IA se desarrollen y usen de manera que respeten los valores, derechos y regulaciones. El papel de la gobernanza se destaca en el contexto del Acta de Inteligencia Artificial de la UE, que subraya la necesidad de la supervisión y gestión de sistemas AI basados en su contexto de uso.
El proceso de gobernanza de modelos ML no solo asegura el cumplimiento con regulaciones y estándares éticos, sino que también sirve para prevenir sesgos, gestionar riesgos, proteger contra el mal uso y mantener la transparencia. Esto es crucial para establecer confianza, cumplir con los requisitos regulatorios y asegurar el uso ético de las tecnologías de IA.
A través de una arquitectura de intercambio multi-cuenta, se logra mejorar la seguridad, escalabilidad y confiabilidad de los sistemas, permitiendo una mejor aprobación, despliegue y auditoría de modelos ML. Este avance ofrece a las organizaciones la capacidad de implementar un enfoque centralizado en la gobernanza del ciclo de vida de los modelos, incrementando así la efectividad, cumplimiento y adopción responsable de la inteligencia artificial.
vía: AWS machine learning blog