Inicio Blog

Desarrollo de un Asistente Conversacional RAG en Modo Automático de Amazon EKS y NVIDIA NIMs

0
Building a RAG chat-based assistant on Amazon EKS Auto Mode and NVIDIA NIMs

Los asistentes basados en chat, impulsados por la Generación Aumentada por Recuperación (RAG), están revolucionando el soporte al cliente, los mostradores de ayuda internos y la búsqueda empresarial. Esta tecnología proporciona respuestas rápidas y precisas utilizando datos propios, lo que resulta clave para mejorar la experiencia del usuario. Con RAG, es posible emplear un modelo base listo para usar y enriquecerlo con datos específicos de la empresa, logrando que las respuestas sean relevantes y contextualizadas, todo ello sin necesidad de ajustes o reentrenamientos complicados.

El uso del Amazon Elastic Kubernetes Service (EKS) para operar estos asistentes ofrece flexibilidad y un control total sobre los datos y la infraestructura. EKS se adapta a las cargas de trabajo y es una opción costo-efectiva tanto para demandas constantes como fluctuantes. Su compatibilidad con aplicaciones existentes en entornos Kubernetes, ya sean locales o en la nube pública, facilita su integración en diferentes plataformas.

Además, los microservicios NVIDIA NIM simplifican el despliegue de modelos de IA al integrarse con servicios de AWS como Amazon EC2, EKS y SageMaker. Estos microservicios, que se distribuyen como contenedores Docker, eliminan la complejidad del manejo de modelos de inteligencia artificial, automatizando configuraciones técnicas que de otro modo requerirían tiempo y experiencia en ingeniería.

El operador NVIDIA NIM facilita la gestión de componentes y servicios en Kubernetes, permitiendo una operación eficiente de varios tipos de modelos. Su arquitectura permite la gestión coordinada de recursos, lo que ayuda a reducir la latencia de inferencia y mejora las capacidades de escalabilidad automática.

En el contexto de una solución práctica, un asistente basado en chat RAG se desarrolla utilizando NVIDIA NIM para la inferencia de modelos de lenguaje, en combinación con Amazon OpenSearch Serverless para almacenar y consultar vectores de alta dimensión. Esta infraestructura subyacente en Kubernetes, habilitada por EKS, permite un despliegue eficiente de cargas de trabajo de computación heterogéneas.

Para crear esta solución, se sigue un proceso que abarca desde la configuración del clúster EKS y de OpenSearch Serverless, hasta el establecimiento de un sistema de archivos EFS y la creación de grupos de nodos GPU con Karpenter. Cada uno de estos pasos está diseñado para optimizar el rendimiento y la eficiencia de costos, integrando herramientas que permiten la fácil gestión de modelos y asegurando que las respuestas sean rápidas y precisas.

Finalmente, la implementación de un cliente de asistente basado en chat utiliza bibliotecas como Gradio y LangChain para ofrecer una interfaz intuitiva. Este sistema permite al asistente recuperar información relevante y generar respuestas en contexto, mostrando cómo Amazon EKS puede ser una solución efectiva para desplegar aplicaciones de inteligencia artificial, garantizando así la fiabilidad y escalabilidad necesario para enfrentar el reto de las demandas actuales en el ámbito empresarial.
vía: AWS machine learning blog

Descubriendo Amazon Bedrock AgentCore Gateway: Transformando el Desarrollo de Herramientas de Agentes de IA Empresarial

0
Introducing Amazon Bedrock AgentCore Gateway: Transforming enterprise AI agent tool development

Los avances en la inteligencia artificial continúan transformando el panorama empresarial, especialmente en la forma en que las organizaciones manejan la integración de herramientas y agentes de IA. Los agentes de IA requieren el acceso a diversas capacidades, lo que ha generado un desafío creciente para las empresas que intentan conectar eficientemente a sus agentes con múltiples herramientas. Este problema de integración M×N ha dado lugar a una complejidad que ralentiza el desarrollo de implementaciones de IA.

Aunque se han desarrollado protocolos como el Modelo Contextual (MCP) y el Agent2Agent (A2A) para abordar la interoperabilidad, su implementación requiere un considerable esfuerzo de ingeniería. Las empresas deben construir servidores MCP, convertir API existentes, gestionar infraestructuras y establecer controles de seguridad, todo esto mientras se adaptan a la rápida evolución de los protocolos. Ante la proliferación de implementaciones que incluyen cientos de agentes y miles de herramientas, surgen nuevas necesidades para soluciones más escalables y manejables.

Para resolver estos problemas, Amazon ha presentado el Amazon Bedrock AgentCore Gateway, un servicio totalmente gestionado que promete revolucionar la forma en que las empresas conectan agentes de IA con herramientas y servicios. Este gateway actúa como un servidor centralizado de herramientas, proporcionando una interfaz unificada en la que los agentes pueden descubrir, acceder e invocar herramientas.

El AgentCore Gateway está diseñado para facilitar la comunicación entre agentes y herramientas, eliminando muchas de las complejidades de seguridad, infraestructura y nivel de protocolo. Ofrece funcionalidades que permiten la creación sin código de herramientas basadas en API y funciones de AWS Lambda, así como un descubrimiento inteligente de herramientas, autorizaciones integradas y una infraestructura sin servidores para servidores MCP.

Entre las capacidades clave del Amazon Bedrock AgentCore Gateway se incluyen una gestión de autorizaciones basada en OAuth, que asegura que solo los usuarios y agentes válidos puedan acceder a herramientas y recursos. Además, facilita la traducción de solicitudes de agentes a solicitudes de API, permitiendo evitar la gestión de integraciones de protocolo. También combina múltiples APIs y funciones en un solo punto de acceso del MCP, lo que simplifica el acceso para los agentes de IA.

El modelo de seguridad de Gateway es flexible y se adapta según el tipo de objetivo. Por ejemplo, para objetivos de AWS Lambda y modelos Smithy, utiliza la autorización basada en AWS Identity and Access Management (IAM). Para APIs REST, permite la autenticación mediante claves de API o tokens de OAuth, garantizando que las comunicaciones sean seguras y controladas.

La implementación del Amazon Bedrock AgentCore Gateway no solo busca simplificar las integraciones, sino también mejorar el descubrimiento de herramientas a medida que las organizaciones escalan. A medida que aumentan las herramientas disponibles, el Gateway introduce un mecanismo que evita la saturación de opciones para los agentes, utilizando un sistema de búsqueda semántica que les ayuda a encontrar las herramientas más relevantes.

Con la capacidad de realizar un monitoreo detallado gracias a la integración con Amazon CloudWatch y AWS CloudTrail, las organizaciones pueden aprovechar las métricas y registros necesarios para garantizar una operativa eficiente y segura.

La experiencia de empresas como Innovaccer refuerza la efectividad de este nuevo sistema, que les ha permitido desarrollar su propio protocolo de contexto en salud sobre esta plataforma, acelerando la innovación en inteligencia artificial con un enfoque de confianza y cumplimiento en el manejo de datos.

Con esto, Amazon Bedrock AgentCore Gateway se posiciona como un avance significativo en el desarrollo de agentes de IA, ofreciendo una solución completamente gestionada y segura para la integración de herramientas, mientras que las organizaciones pueden concentrarse en escalar sus iniciativas de inteligencia artificial sin las cargas administrativas de infraestructura.
vía: AWS machine learning blog

Anuncio de la Vista Previa de Windows 11 Insider Build 26120.5751 (Canal Beta)

0
Announcing Windows 11 Insider Preview Build 26120.5751 (Beta Channel)

Windows ha lanzado una nueva actualización para los usuarios de Windows Insider en el canal Beta, específicamente la versión 11 Insider Preview Build 26120.5751 (KB5064071). Esta actualización forma parte del ciclo de desarrollo de Windows 11 versión 24H2 y trae consigo una serie de nuevas características y mejoras que serán desplegadas de manera gradual.

Uno de los aspectos más destacados de esta actualización es la introducción de nuevos modos de selección en la herramienta Click to Do. Los usuarios podrán acceder a modos como la Selección Libre, la Selección Rectangular y la opción de Ctrl + Clic, permitiendo una interacción más fluida y efectiva con diferentes tipos de entidades en la aplicación.

En términos de mejoras, se ha actualizado el menú de contexto del Explorador de Archivos, eliminando el fondo de color acentuado detrás de los iconos de aplicaciones empaquetadas, lo cual hace que sean más visibles. Asimismo, las animaciones en la barra de tareas han sido revisadas, mejorando la experiencia de usuario al interactuar con los grupos de aplicaciones.

Entre las correcciones implementadas destaca la solución de diversos problemas en el menú de inicio y en el Explorador de Archivos. Estos incluyen arreglos para problemas de duplicación en las opciones de fecha y hora, así como errores en la visualización de menús que podrían causar confusiones.

A pesar de las mejoras y correcciones, Microsoft ha advertido sobre algunos problemas conocidos, como un posible retroceso al intentar instalar la actualización, que podría afectar a ciertos usuarios de Windows Insider. La compañía está trabajando activamente para resolver estos inconvenientes y sugiere que los afectados utilicen opciones de recuperación en la configuración del sistema.

Los usuarios que deseen acceder a las nuevas características deben habilitar el toggle en la configuración para recibir las actualizaciones disponibles. Microsoft continúa utilizando esta plataforma para recoger feedback y mejorar la experiencia del usuario antes del lanzamiento final de estos cambios.
vía: Microsoft Windows blog

Optimización de los Puntos de Final de Modelo de Salesforce con Componentes de Inferencia AI de Amazon SageMaker

0
Salesforce SageMaker Endpoint After Inference Component Deployment

Salesforce y Amazon Web Services (AWS) han anunciado una colaboración enfocada en la optimización de la implementación de modelos de inteligencia artificial, en particular, los modelos de lenguaje de gran tamaño (LLMs). El equipo de Model Serving de la plataforma de inteligencia artificial de Salesforce se centra en desarrollar y gestionar servicios para estos modelos, proporcionando una infraestructura robusta que facilite la integración de algoritmos de aprendizaje automático en aplicaciones críticas.

Una de las principales dificultades que enfrenta el equipo es el despliegue eficiente de modelos, garantizando al mismo tiempo un rendimiento óptimo y una gestión de costos efectiva. Esto se vuelve aún más complejo dado el nivel de diversidad en los tamaños y requisitos de rendimiento de los modelos, que van desde unos pocos gigabytes hasta 30 GB.

El equipo ha identificado dos retos diferentes. Por un lado, los modelos más grandes tienden a ser menos utilizados en términos de recursos, lo que provoca un uso subóptimo de las instancias de múltiples GPUs. En contraste, los modelos de tamaño intermedio requieren un procesamiento de bajo tiempo de respuesta, lo que conlleva un mayor costo debido a la sobreasignación de recursos.

Para enfrentar estos retos, Salesforce ha implementado componentes de inferencia de Amazon SageMaker, que facilitan la implementación de múltiples modelos de base en un único endpoint de SageMaker. Esto permite un control granular sobre el número de aceleradores y la memoria asignada a cada modelo, mejorando drásticamente la utilización de recursos y reduciendo los costos asociados con la implementación de modelos.

La estrategia de implementar componentes de inferencia proporciona una serie de beneficios, incluyendo la optimización del uso de GPUs y la capacidad de escalar los modelos de forma independiente según las necesidades específicas de cada aplicación. Esta dinámica no solo soluciona problemas inmediatos de implementación, sino que también establece una base flexible capaz de acompañar la evolución de las iniciativas de inteligencia artificial de Salesforce.

Con la implementación de estas soluciones, Salesforce puede reducir significativamente los costos de infraestructura y mejorar la eficiencia operativa, logrando ahorros de hasta un 80% en costos de despliegue. Además, esta optimización permite que los modelos más pequeños también se beneficien de GPUs de alto rendimiento, ofreciendo un rendimiento elevado y bajo tiempo de latencia sin incurrir en gastos excesivos.

De cara al futuro, Salesforce planea aprovechar la capacidad de actualizaciones continuas de los componentes de inferencia, lo que les permitirá mantener sus modelos actualizados de forma más eficiente, minimizando así la carga operativa y potenciando la integración de innovaciones futuras en su plataforma de inteligencia artificial. Esto posicionará a la compañía para seguir creciendo y expandiendo sus ofertas de inteligencia artificial mientras mantiene altos estándares de eficiencia y efectividad en costos.
vía: AWS machine learning blog

Anuncio de la Vista Previa de Windows 11 Insider Build 26200.5751 (Canal Dev)

0
Announcing Windows 11 Insider Preview Build 26200.5751 (Dev Channel)

Microsoft ha lanzado recientemente la nueva versión de Windows 11 Insider Preview Build 26200.5751 (KB5064071) dirigida a los usuarios del Dev Channel. Esta actualización incluye diversas mejoras y nuevas características que se están implementando de manera gradual para los Insiders que han activado la opción para recibir las últimas actualizaciones desde Configuración > Windows Update.

Una de las novedades más destacadas es la introducción de modos de selección en Click to Do, que permiten a los usuarios escoger objetos de forma más eficiente. Con el nuevo modo de selección libre, los usuarios pueden trazar libremente alrededor de los elementos que desean seleccionar utilizando un lápiz o su dedo, lo que resulta especialmente intuitivo en dispositivos táctiles. Además, se ha añadido el modo de selección rectangular y la opción de seleccionar múltiples elementos manteniendo presionada la tecla Ctrl, lo que optimiza la experiencia de uso.

En cuanto a las mejoras generales, los administradores de TI podrán ahora eliminar aplicaciones preinstaladas de la Microsoft Store en dispositivos empresariales mediante políticas de grupo. Por otro lado, se ha actualizado la sección «Abrir con» del menú contextual en el Explorador de archivos, eliminando los iconos de fondo de color acentuado, lo que facilita su visualización.

Otras actualizaciones incluyen nuevas animaciones al pasar el ratón sobre grupos de aplicaciones en la barra de tareas y mejoras en la confiabilidad de la pantalla de bloqueo. También se han solucionado varios problemas, como el de una duplicación de la tooltip de fecha y hora cuando se utilizan relojes adicionales, así como diferentes incidencias en el menú de inicio y en el Explorador de archivos.

El Snipping Tool también ha recibido una actualización, que ahora incluye la funcionalidad de grabación de pantalla en modo de ventana, permitiendo a los usuarios capturar fácil y precisamente la actividad dentro de una aplicación específica.

Microsoft ha advertido que algunos Insiders podrían experimentar un retroceso al intentar instalar esta actualización debido a un error en Windows Update, para lo cual se está trabajando en una solución. Además, se están investigando informes sobre Visual Studio que puede presentar fallas en PCs Arm64 tras la actualización.

Esta actualización representa un paso más en el compromiso continuo de Microsoft de ofrecer nuevas funcionalidades y mejorar la experiencia general del usuario con Windows 11, mientras monitorizan el feedback de los Insiders para seguir evolucionando el sistema operativo.
vía: Microsoft Windows blog

Documentos Revelan que el Primer DOJ de Trump Colaboró con el Congreso para Modificar la Sección 230

0
New Documents Show First Trump DOJ Worked With Congress to Amend Section 230

En el contexto de la intensificación del debate sobre la regulación de las plataformas en línea, los documentos revelados en una demanda de la Electronic Frontier Foundation (EFF) han sacado a la luz la actividad del Departamento de Justicia (DOJ) durante la administración Trump respecto a la Sección 230, un pilar de la protección legal para la libertad de expresión en Internet. Durante el verano de 2020, el DOJ mostró un interés activo en revisar y debilitar esta ley, que protege a las plataformas de responsabilidad legal por las palabras de sus usuarios.

Los documentos indican que el DOJ colaboró con legisladores para apoyar proyectos de ley que podrían limitar la expresión en línea y la privacidad. Estos esfuerzos incluyeron conversaciones con asistentes del Senado sobre iniciativas como el EARN IT Act y el PACT Act, que, aunque finalmente no se convirtieron en ley, revelan una tendencia preocupante hacia la censura y el control de las dinámicas de comunicación en línea.

La Sección 230 permite que los usuarios se expresen sin temor a ser responsables legalmente por el contenido publicado por otros. Sin embargo, los funcionarios del DOJ exploraron la posibilidad de condicionar estas protecciones a la implementación de sistemas de verificación de edad en los sitios que albergaban contenido sexual, lo cual podría haber afectado enormemente la libertad de expresión en la red.

El proceso de debilitamiento de la Sección 230 comenzó antes de que el ex presidente Trump emitiera una orden ejecutiva que apuntaba a las redes sociales. En este contexto, los documentos también revelan que el DOJ era crítico con ciertas enmiendas propuestas a las leyes en cuestión, argumentando que socavaban su posición y la lógica detrás de la protección de los denominados «Bad Samaritans» en línea, aquellos sitios considerados irresponsables en la moderación del contenido.

Adicionalmente, el DOJ revisó y sugirió modificaciones a una petición de regulación presentada ante la Comisión Federal de Comunicaciones (FCC) que intentaba reinterpretar la Sección 230. Esta iniciativa nunca prosperó, dado que la FCC carecía de la autoridad legal necesaria para realizar tal reinterpretación.

Estos documentos emergen como una parte integral de un patrón evidenciado en los últimos años, donde el DOJ hizo esfuerzos significativos para socavar una ley clave que ha protegido durante mucho tiempo la libertad de expresión en Internet, una cuestión que sigue siendo crucial en el discurso contemporáneo sobre la regulación de las plataformas digitales y la protección de los derechos de los usuarios en línea.
Fuente: EFF.org

El Papel Fundamental de la Observabilidad en la IA

0
The critical role of AI observability

En 2023, el panorama de la inteligencia artificial (IA) se transformó radicalmente con la llegada de ChatGPT 3.5, lo que provocó una adopción masiva en diversos sectores. Según un estudio de McKinsey, el porcentaje de organizaciones que utilizan algo de IA en sus operaciones ascendió al 72%. Este fenómeno ha desatado un potencial económico estimado en 4.4 billones de dólares a nivel global, con sectores como la banca y el comercio minorista proyectando impactos de 340 mil millones y 660 mil millones de dólares, respectivamente.

Sin embargo, esta aceleración en la adopción también conlleva riesgos significativos. Muchas empresas han apresurado su implementación sin una preparación adecuada, como lo evidencia el caso de Air Canada, donde un chatbot generó información incorrecta sobre políticas de reembolso, lo que dañó su reputación. La aparición de «alucinaciones» en los modelos, respuestas sesgadas y riesgos de seguridad han aumentado, advirtiendo que estos no son meras anomalías, sino problemas que pueden minar la confianza de los clientes casi de inmediato.

La confianza, de hecho, se ha convertido en una de las claves para el éxito de cualquier iniciativa de IA. Si los sistemas de IA no son percibidos como confiables, su adopción se detendrá. Elementos como la seguridad de los datos, la verificación de las respuestas, y la protección contra contenidos tóxicos son ahora imprescindibles para construir esa confianza. Las empresas que implementan políticas de «IA responsable» no solo actúan éticamente, sino que también pueden esperar mejores retornos de inversión (ROI).

La observabilidad en IA, que permite monitorizar y entender cómo funcionan estos sistemas, se presenta como un cimiento esencial para establecer esta confianza. En este sentido, Dan Brock, vicepresidente de éxito del cliente en Fiddler AI, enfatiza que la adopción de la inteligencia artificial debe ir acompañada de un compromiso con la transparencia y la seguridad, asegurando así una integración efectiva y beneficiosa en todos los niveles.
vía: AI Accelerator Institute

Desarrolla una Aplicación Web Escalable y Contenerizada en AWS Usando el Stack MERN con Amazon Q Developer – Parte 1

0
Build a scalable containerized web application on AWS using the MERN stack with Amazon Q Developer – Part 1

El stack MERN, compuesto por MongoDB, Express, React y Node.js, se ha consolidado como un marco de desarrollo web en JavaScript muy popular. Su combinación de tecnologías resulta ideal para la construcción de aplicaciones web modernas y escalables, especialmente aquellas que requieren actualizaciones en tiempo real y interfaces de usuario dinámicas. En este contexto, Amazon ha lanzado «Amazon Q Developer», un asistente impulsado por inteligencia artificial generativa que promete mejorar la eficiencia de los desarrolladores en las diferentes fases del ciclo de vida del desarrollo de software (SDLC).

En una serie de blogs en dos partes, se explora la experiencia de utilizar Amazon Q Developer como asistente para la codificación y la productividad que se puede alcanzar al construir una aplicación web utilizando el stack MERN en AWS. La solución presentada forma una base sólida para desarrollar aplicaciones web ricas en características. Este asistente permite, por ejemplo, la integración de videoconferencias en tiempo real, empleando el SDK de Amazon Chime, y un chatbot de inteligencia artificial, utilizando modelos de fundamentos de Amazon Bedrock.

Durante la fase de planificación del SDLC, a menudo se dedica tiempo a investigar enfoques y patrones de solución comunes que puedan satisfacer los requisitos de un proyecto. Con Amazon Q Developer, este proceso se agiliza al poder solicitar un enfoque para implementar una aplicación web escalable del stack MERN en AWS. El asistente, entrenado con más de 17 años de experiencia en AWS, proporciona respuestas basadas en patrones bien arquitectónicos y mejores prácticas.

En la fase de diseño, las respuestas de Amazon Q Developer se utilizan para crear un aviso detallado que generará el código necesario para la aplicación. Durante la fase de construcción, el código se amplía para implementar una solución funcional, generando pruebas unitarias y llevando a cabo una revisión de código automatizada.

En la segunda parte de la serie, se prevé la utilización de Amazon Q Developer para extender la aplicación base del stack MERN, incorporando una interfaz de usuario de chat mediante un flujo de trabajo agentivo, así como el despliegue de la solución en AWS utilizando infraestructura como código (IaC). También se prevé la solución de problemas y la generación de documentación para la solución.

Para llevar a cabo un recorrido detallado en esta implementación, se requiere firmarse a Amazon Q Developer e instalar la extensión correspondiente en el entorno de desarrollo integrado (IDE). Tras la autenticación, los desarrolladores pueden iniciar una conversación con el asistente, eligiendo opciones que permiten proporcionar contexto y definir las normas que guiarán las respuestas generadas.

En la fase de planificación, es posible solicitar un enfoque general para entender mejor los componentes que formarán parte de la aplicación web, y en la fase de diseño, se pueden emplear comandos que permiten construir una aplicación web escalable y modular. Las capacidades de Amazon Q Developer incluyen la generación de archivos, la ejecución de comandos y la actualización de componentes, lo que facilita el proceso de desarrollo. Además, ofrece la posibilidad de realizar pruebas unitarias para identificar defectos y mejorar la calidad del código.

Este enfoque innovador de aprovechar la inteligencia artificial en el desarrollo de software no solo promete optimizar el tiempo de desarrollo, sino que también introduce una nueva forma de interacción entre los ingenieros y las herramientas digitales. Como conclusión, Amazon Q Developer emerge como una alternativa poderosa para facilitar la construcción de aplicaciones web modernas, integrando capacidades de IA que pueden impactar de manera significativa en la productividad de los desarrolladores.
vía: AWS machine learning blog

Cumbre Virtual de AIOps: Julio de 2025

0
AIOps Virtual Summit, July 2025

El reciente AIOps Virtual Summit reunió a líderes de la industria y expertos en inteligencia artificial para debatir sobre las tendencias y prácticas que están transformando el mundo de la operación de TI. Este evento virtual, que se llevó a cabo de forma remota, contó con la participación de destacados exponentes de entidades como NBCUniversal, el Gobierno Federal de los Estados Unidos y Amazon, entre otros.

Durante el summit, se abordaron diversas temáticas relacionadas con AIOps, incluyendo la automatización de procesos, la gestión proactiva de incidentes y la mejora de la experiencia del usuario a través de la inteligencia artificial. Las sesiones ofrecieron a los participantes la oportunidad de conocer casos de éxito y estrategias innovadoras implementadas por algunas de las organizaciones más influyentes del sector.

Los asistentes pudieron beneficiarse de una serie de paneles interactivos y talleres prácticos donde se enfatizó la importancia de adoptar soluciones basadas en inteligencia artificial para optimizar la infraestructura tecnológica y reducir los tiempos de respuesta ante diversas incidencias. La colaboración entre empresas y gobiernos también fue un tema central, destacando cómo la combinación de recursos puede llevar a mejores resultados en la gestión de operaciones.

El AIOps Virtual Summit se consolidó como un espacio clave para el intercambio de conocimientos y la creación de redes profesionales, ofreciendo a los participantes herramientas y perspectivas que pueden ser aplicadas en sus propias organizaciones. La positiva respuesta del público sugiere que la temática de AIOps seguirá siendo relevante en el futuro cercano, marcando un camino hacia una transformación digital más eficiente y efectiva.
vía: AI Accelerator Institute

Presentamos Amazon Bedrock AgentCore Identity: Asegurando la IA agente a gran escala

0
Introducing Amazon Bedrock AgentCore Identity: Securing agentic AI at scale

Amazon ha lanzado un nuevo servicio llamado Amazon Bedrock AgentCore Identity, diseñado específicamente para gestionar la identidad y el acceso de agentes de inteligencia artificial. Este servicio permite a los desarrolladores y administradores de agentes acceder de manera segura a recursos de AWS y herramientas de terceros como GitHub, Salesforce o Slack. Con AgentCore Identity, las organizaciones pueden gestionar de manera robusta la identidad y el acceso para que los agentes accedan a recursos en nombre de los usuarios, siempre con el consentimiento previo de estos, lo que reduce la necesidad de desarrollar controles de acceso personalizados.

A medida que las organizaciones implementan agentes de IA en entornos de producción, se enfrentan al reto de gestionar la identidad y el acceso de forma segura y a escala. Los agentes necesitan autenticarse para invocar servicios y acceder a múltiples herramientas mientras se mantiene la conformidad con los requisitos organizativos. Esto se vuelve aún más complicado cuando los agentes deben operar en sistemas diversos y actuar en nombre de diferentes usuarios.

AgentCore Identity aborda estos desafíos de seguridad a través de un modelo de autenticación dual: la autenticación entrante, que verifica la identidad de los usuarios o aplicaciones que invocan a un agente, y la autenticación saliente, que determina a qué recursos puede acceder el agente. Entre sus características, destacan el directorio de identidades de agentes, el validador de autorización y la bóveda de tokens, que permite almacenar de manera segura tokens de acceso y credenciales API.

El servicio también se integra sin problemas con proveedores de identidad existentes y es compatible con los protocolos estándar de la industria como OAuth 2.0 y OpenID Connect. Además, asegura que cada acción del agente sea trazable, lo que resulta esencial para industrias reguladas. Este enfoque simplifica la implementación de sistemas de autenticación sin necesidad de construir soluciones personalizadas, permitiendo que los desarrolladores se centren en la lógica del negocio en lugar de en la seguridad.

La seguridad en la gestión de identidades es crucial, ya que minimiza el riesgo de violaciones de datos y sigue el principio de menor privilegio. Esto implica otorgar a los agentes solo las autorizaciones necesarias y realizar auditorías regulares de permisos. Amazon anticipa que, conforme la adopción de agentes de IA crezca, también lo hará la necesidad de soluciones robustas de gestión de identidad y acceso, posicionando a AgentCore Identity como la base para un futuro más seguro en la implementación de inteligencia artificial en las empresas.
vía: AWS machine learning blog