En los últimos años, el auge de los modelos de lenguaje de gran tamaño (LLMs) ha impulsado la adopción de la inteligencia artificial en diversas industrias. Sin embargo, para incrementar aún más las capacidades de los LLMs y aprovechar información actualizada y conocimientos específicos del dominio, es esencial la integración con fuentes de datos externas. En este contexto, la Generación Aumentada por Recuperación (RAG) ha cobrado relevancia como un enfoque eficaz para abordar este reto.
La técnica RAG busca información relevante de bases de datos o documentos existentes en función de la entrada del usuario e incorpora esta información en la solicitud del LLM, generando respuestas más precisas y contextualizadas. Este enfoque se está implementando en una amplia gama de aplicaciones, desde el uso de documentación técnica en el desarrollo de productos hasta la respuesta de preguntas frecuentes en atención al cliente y el apoyo a sistemas de toma de decisiones basados en los datos más recientes.
La implementación de RAG aporta un valor significativo tanto a los proveedores de software como servicio (SaaS) como a sus usuarios. Los proveedores pueden beneficiarse de una arquitectura multi-tenant que proporciona servicios a múltiples inquilinos desde una única base de código. A medida que los inquilinos utilizan el servicio, sus datos se acumulan y están protegidos por controles de acceso apropiados y aislamiento de datos. Al implementar capacidades de IA mediante LLMs en estos entornos, RAG permite utilizar los datos específicos de cada inquilino para ofrecer servicios de IA personalizados.
Por ejemplo, en un centro de atención telefónica SaaS, los registros históricos de consultas, preguntas frecuentes y manuales de productos de cada inquilino se acumulan como bases de conocimiento específicas. Al implementar un sistema RAG, el LLM puede generar respuestas adecuadas a partir de estas fuentes de datos específicas, lo que permite interacciones altamente precisas que incorporan conocimientos comerciales específicos. Esta personalización no sería posible con asistentes de IA genéricos. RAG se convierte, así, en un componente crucial para ofrecer experiencias de IA personalizadas en entornos SaaS, contribuyendo a la diferenciación del servicio y la mejora del valor.
Sin embargo, el uso de datos específicos de inquilinos mediante RAG plantea desafíos técnicos desde la perspectiva de la seguridad y la privacidad. La principal preocupación es implementar una arquitectura segura que mantenga el aislamiento de datos entre inquilinos y evite la filtración inadvertida de datos o el acceso cruzado. En entornos multi-tenant, la implementación de la seguridad de datos impacta críticamente en la confiabilidad y la ventaja competitiva de los proveedores de SaaS.
Para simplificar la implementación de RAG, Amazon Bedrock Knowledge Bases proporciona una solución. Al utilizar OpenSearch como base de datos vectorial, existen dos opciones: Amazon OpenSearch Service o Amazon OpenSearch Serverless, cada uno con características diferentes y modelos de permisos para construir entornos multi-tenant. La combinación de JSON Web Token (JWT) y Control de Acceso Basado en Atributos (FGAC) se presenta como una solución para implementar patrones de aislamiento de inquilinos, permitiendo una gestión efectiva de acceso y aislamiento de datos.
La solución utiliza impuestos de base de datos y autenticación con JWT para garantizar el aislamiento de datos y la seguridad en OpenSearch Service, estableciendo una separación de permisos de acceso. Con la implementación de RAG, se permite la búsqueda de información relevante a partir de consultas generadas por el usuario. Esto se traduce en un proceso donde la información recuperada se añade como contexto al LLM, mejorando así la calidad y la relevancia de las respuestas generadas.
A medida que el uso de RAG se hace más prevalente en el sector SaaS, los desafíos técnicos asociados al manejo de datos multi-tenant continúan requiriendo soluciones innovadoras y seguras que no solo protejan la información sensible, sino que también maximicen la utilidad de los sistemas de IA. Esto marca un paso importante en la evolución del software y la oferta de servicios en la nube, donde la personalización y la seguridad son más críticas que nunca.
vía: AWS machine learning blog