Amazon Bedrock Agents ha sido lanzado recientemente, proporcionando a las empresas la posibilidad de desarrollar rápidamente aplicaciones de IA generativa para realizar tareas complejas en múltiples sistemas y fuentes de datos. Sin embargo, en ciertas geografías y sectores regulados, las normativas de protección de datos han impulsado la necesidad de integrar los servicios de IA generativa en la nube con datos que permanecen en las instalaciones. Para abordar estas preocupaciones, AWS ha ampliado la funcionalidad de Amazon Bedrock Agents para incluir servicios híbridos y de borde, como AWS Outposts y AWS Local Zones, facilitando así la creación de aplicaciones de generación aumentada por recuperación (RAG) que utilizan datos locales.
Organizaciones a las que se les exige procesar o almacenar información sensible, como datos personales identificables (PII), han expresado la necesidad de que la infraestructura de AWS cumpla con las normativas locales y permita almacenar y procesar datos de manera conforme. La combinación de servicios híbridos y de borde proporciona a las empresas la escalabilidad y flexibilidad de la nube de AWS, manteniendo al mismo tiempo la capacidad de procesamiento local y de baja latencia que permite un mejor cumplimiento normativo.
La arquitectura para implementar estas soluciones se divide en dos patrones principales: RAG completamente local y RAG híbrido. El primero implica el uso de una instancia local en un rack de Outposts donde se aloja el modelo de lenguaje grande (LLM) y las bases de datos de conocimiento, asegurando que los datos sensibles no abandonen las instalaciones. Por su parte, el enfoque híbrido permite operar modelos de IA en distintas ubicaciones, incluyendo la nube y entornos locales, lo que asegura que los datos regulados permanezcan dentro de ciertos límites estatales.
El uso de Amazon Bedrock Agents permite construir y configurar agentes autónomos que facilitan la interacción con modelos, fuentes de datos y aplicaciones de software. Esto incluye la capacidad de invocar funciones de AWS Lambda para el funcionamiento de modelos autogestionados en el borde. Un ejemplo de esta capacidad se puede ver en un chatbot de servicio al cliente de un minorista de calzado que utiliza una base de conocimiento local para responder consultas específicas sobre la fabricación de zapatos, mientras que las preguntas más generales son tratadas a través de la infraestructura en la nube.
AWS continúa comprometido en ayudar a las organizaciones a implementar soluciones de IA generativa cumpliendo con regulaciones de privacidad y seguridad, lo que les permite beneficiarse de la innovación mientras protegen sus datos sensibles. Con la capacidad de ejecutar modelos cerca de los dispositivos y los usuarios finales, las empresas pueden mejorar la latencia y la privacidad, impulsando su eficiencia operativa y el cumplimiento normativo.
vía: AWS machine learning blog