Meta ha anunciado la disponibilidad pública de su modelo de segmentación de visión, Segment Anything Model (SAM) 2.1, a través de Amazon SageMaker JumpStart. Este innovador modelo destaca por sus capacidades ultra avanzadas de segmentación de imágenes y videos, ideales para una amplia gama de industrias como la salud, la monitorización ambiental y los sistemas autónomos.
El SAM 2.1 ha sido diseñado para permitir el procesamiento de contextos largos, manejar escenarios de segmentación complejos y realizar análisis detallados. Esto lo hace particularmente útil en aplicaciones de imágenes médicas, donde la precisión es crítica. Además, puede llevar a cabo la segmentación de objetos en tiempo real mediante simples indicaciones, como coordenadas de puntos y cuadros delimitadores.
Este nuevo modelo fue predominantemente entrenado en la infraestructura de AWS, que es el primer proveedor en ofrecerlo a sus clientes. El SAM 2.1 mejora notablemente la precisión de segmentación, la generalización y la escalabilidad para aplicaciones a nivel de producción. Está disponible en varias variantes, que incluyen especificaciones de tamaño y rendimiento para satisfacer diversas necesidades de aplicación.
Además, SageMaker JumpStart proporciona acceso a una amplia gama de modelos de fundación preentrenados, permitiendo a los desarrolladores y científicos de datos personalizar los modelos para casos específicos sin necesidad de construir desde cero. Esto facilita el despliegue seguro de modelos optimizados en un entorno controlado, garantizando la seguridad de los datos y el cumplimiento normativo.
Para comenzar a utilizar SAM 2.1, los usuarios solo necesitan disponer de una cuenta de AWS, un rol de IAM para acceder a SageMaker AI, y un entorno adecuado como Amazon SageMaker Studio o una instancia de notebook SageMaker. SageMaker JumpStart permite descubrir y desplegar modelos a través de su interfaz web, así como mediante el SageMaker Python SDK, ofreciendo opciones flexibles para integrar estos avanzados modelos en flujos de trabajo existentes.
Tras el despliegue, el SAM 2.1 puede ser utilizado para diversas tareas, como la generación automática de máscaras para objetos en imágenes o el seguimiento de objetos en videos. La API de SageMaker facilita la interacción con el modelo a través de secuencias de comandos, proporcionando un enfoque accesible para investigadores y desarrolladores en la minería de datos y la inteligencia artificial.
Por último, los expertos recomiendan que, para evitar costos innecesarios, se eliminen los puntos finales de SageMaker AI una vez que se haya terminado el trabajo con los modelos.
vía: AWS machine learning blog