El despliegue seguro de agentes de inteligencia artificial en industrias reguladas representa un desafío significativo. Sin las limitaciones adecuadas, los agentes que acceden a datos sensibles o ejecutan transacciones pueden generar riesgos de seguridad considerables. A diferencia del software tradicional, un agente de IA toma decisiones para lograr un objetivo utilizando herramientas, accediendo a datos y adaptando su razonamiento a medida que interactúa con su entorno y los usuarios. Esta autonomía es precisamente lo que otorga poder a los agentes, y lo que convierte a la seguridad en una preocupación ineludible.
Una forma útil de concebir la seguridad de los agentes es imaginar paredes que delimitan sus capacidades. Tales muros definen lo que el agente puede acceder, con qué puede interactuar y qué efectos puede tener en el mundo exterior. Sin una delimitación clara, un agente que puede enviar correos electrónicos, consultar bases de datos, ejecutar código o desencadenar transacciones financieras se vuelve riesgoso. Esto puede dar lugar a tendencias indeseadas como la exfiltración de datos o ataques de inyección.
Para un enfoque más seguro, Amazon ha introducido una política que permite aplicar límites a los agentes de forma escalable, sin frenar la innovación. A través de Amazon Bedrock AgentCore, se implementa una capa de seguridad que intercepta todo el tráfico y aplica reglas deterministas. Este enfoque ha sido probado en un agente de programación de citas en el ámbito de la salud, que surge como un escenario natural para explorar cómo la política puede cumplir un papel fundamental al administrar datos sensibles de pacientes y cumplir con normas de acceso estrictas.
La necesidad de una ejecución de política externa se vuelve evidente, ya que asegurar a los agentes de IA es más complicado que proteger el software tradicional. Las capacidades que hacen poderosos a los agentes, como el razonamiento abierto y el uso flexible de herramientas, generan comportamientos impredecibles. Esto puede dar lugar a vulnerabilidades, como los ataques de inyección de mensajes. Gestionar estos riesgos a menudo implica restricciones implementadas en el propio código del agente, lo que puede ser ineficaz si dicho código no es completamente correcto o seguro.
El lenguaje Cedar, utilizado por Amazon Bedrock AgentCore, permite la creación de políticas de autorización que son máquina-eficientes y auditables. Cada política especifica un principal (quién), una acción (qué) y un recurso (dónde), además de las condiciones que determinan el cuándo. Este lenguaje facilita la distinción clara entre las capacidades del agente y las políticas de seguridad, permitiendo un desarrollo más ágil y seguro.
Al aplicar estas políticas en un agente de programación de citas en el sector salud, se establece un entorno seguro donde los pacientes solo pueden actuar sobre sus propios registros. Por ejemplo, políticas específicas aseguran que los pacientes solo puedan acceder a sus datos, bloqueando cualquier intento de acceso no autorizado a la información de otros pacientes. Asimismo, se implementan controles de riesgo que evitan realizar operaciones fuera de horarios permitidos, reforzando aún más la seguridad del sistema.
Amazon Bedrock AgentCore no solo facilita la implementación de políticas, sino que también permite validar cómo éstas se aplican antes de que afecten el tráfico de producción. Este enfoque asegura que las decisiones de acceso se realicen de forma coherente y predecible, independientemente del razonamiento del agente, consolidando así un sistema robusto y seguro para el despliegue de agentes en entornos regulados. La dedicación a la seguridad y la capacidad de establecer límites claros son fundamentales para garantizar la confianza en estos sistemas de inteligencia artificial.
vía: AWS machine learning blog