En un esfuerzo por enfrentar los desafíos asociados con el uso de modelos de inteligencia artificial generativa, Amazon Web Services (AWS) ha anunciado la disponibilidad general de Amazon Bedrock Guardrails. Este nuevo servicio proporciona mecanismos de protección personalizados para ayudar a las empresas a aplicar salvaguardias en sus aplicaciones de inteligencia artificial generativa, alineándose con sus políticas de inteligencia artificial responsable.
Los modelos de inteligencia artificial generativa han demostrado ser capaces de generar información sobre una amplia gama de temas. Sin embargo, su aplicación trae consigo desafíos como mantener la relevancia del contenido, evitar contenidos dañinos, proteger información sensible, y mitigar lo que se conoce como «alucinaciones», es decir, la generación de información incorrecta o engañosa. A pesar de que Amazon Bedrock ofrece protecciones integradas, estas suelen ser específicas de los modelos y pueden no ajustarse completamente a las necesidades particulares de cada organización.
En este contexto, los desarrolladores a menudo deben implementar controles adicionales para garantizar la seguridad y privacidad de sus aplicaciones. Esta necesidad se vuelve más evidente cuando las organizaciones utilizan múltiples modelos de fundación para diferentes casos de uso, ya que asegurar salvaguardias consistentes es crucial para acelerar los ciclos de desarrollo y adoptar un enfoque uniforme hacia una inteligencia artificial responsable.
Para abordar estos desafíos, a partir de abril de 2024, AWS ha introducido Amazon Bedrock Guardrails, una herramienta que permite a los desarrolladores implementar salvaguardias personalizadas en aplicaciones de IA generativa. Estas salvaguardias pueden configurarse para ajustarse a diferentes casos de uso y aplicarse a través de múltiples modelos de fundación, lo que mejora la experiencia del usuario y estandariza los controles de seguridad.
Una de las características destacadas de Amazon Bedrock Guardrails es la integración del API ApplyGuardrail, que permite evaluar las entradas del usuario y las respuestas del modelo en modelos personalizados y de terceros, incluso aquellos fuera del entorno de Amazon Bedrock. Este API se puede utilizar en arquitecturas de inteligencia artificial generativa como modelos de lenguaje autoalojados o en una arquitectura de Recuperación de Generación Aumentada.
Con el objetivo de ilustrar el uso práctico de esta herramienta, AWS ha proporcionado una demostración sobre cómo implementar un guardrail que impide que un modelo ofrezca asesoramiento fiduciario. Este ejemplo incluye políticas de filtrado que abordan temas prohibidos y verifican la coherencia contextual de las respuestas del modelo, garantizando que estén fundamentadas en información de origen y sean relevantes para la consulta del usuario.
El anuncio de Amazon Bedrock Guardrails representa un avance significativo en la implementación de medidas de seguridad en aplicaciones de IA generativa, permitiendo que las empresas integren salvaguardias estandarizadas y profundamente probadas en sus flujos de trabajo de aplicación, independientemente de los modelos utilizados.
vía: AWS machine learning blog