Inicio Blog

Luz Cálida: El Secreto para un Invierno Agradable y Acogedor en Casa

0
Luz cálida: el secreto para un invierno confortable y acogedor en casa

A medida que el invierno se instala, la búsqueda de un hogar cálido y acogedor se convierte en una prioridad para muchas personas. Uno de los elementos clave que puede transformar el ambiente de cualquier espacio es la iluminación. En este sentido, la luz cálida ha demostrado ser un aliado esencial para crear un entorno confortable durante los meses más fríos del año.

La luz cálida, generalmente en tonos amarillos y anaranjados, imita la luz natural que se experimenta en las horas del amanecer y el atardecer. Este tipo de iluminación no solo tiene un efecto estético, sino que también puede influir en nuestro estado de ánimo. Varios estudios han demostrado que la luz cálida contribuye a disminuir los niveles de estrés y a fomentar la sensación de bienestar, lo que la convierte en una opción ideal para los hogares en invierno.

Los expertos en diseño de interiores sugieren optar por bombillas LED de luz cálida, que no solo son más eficientes energéticamente, sino que también proporcionan un brillo suave y envolvente. Al reemplazar las bombillas frías por aquellas con tonos cálidos, se puede conseguir una atmósfera acogedora que invite a la relajación. Además, es recomendable mezclar diferentes fuentes de luz, como lámparas de mesa, apliques y luces indirectas, para crear un efecto envolvente y eliminar las sombras duras.

El mobiliario y la decoración también juegan un papel crucial en el confort del hogar durante el invierno. Incorporar textiles suaves y cálidos, como mantas de lana o alfombras gruesas, junto con colores cálidos en paredes y muebles, complementa perfectamente la iluminación y ayuda a crear un refugio agradable. Las velas, en particular, son un elemento adicional que no solo añade formalidad, sino que también emite una luz cálida que invita a pasar momentos de tranquilidad.

Más allá del estilo y la estética, la luz cálida puede servir como una herramienta práctica para regular el ritmo circadiano. Durante los meses de invierno, la reducción de luz natural puede afectar la calidad del sueño y el ánimo de las personas. Por lo tanto, adaptar la iluminación del hogar con tonos cálidos puede contribuir a mantener un equilibrio saludable en los ciclos de descanso y vigilia.

Con el frío acechando y las noches haciéndose más largas, la luz cálida se erige como el secreto para transformar nuestros hogares en espacios confortables y acogedores. Este simple ajuste en la iluminación puede marcar una gran diferencia en el bienestar diario, ofreciendo refugio y calidez durante la temporada invernal. Así, cada rincón se convierte en un lugar donde el frío exterior queda atrás, y el calor y la armonía se instalan en cada hogar.

Cómo CBRE Impulsa la Búsqueda Unificada de Gestión de Propiedades y el Asistente Digital Usando Amazon Bedrock

0
How CBRE powers unified property management search and digital assistant using Amazon Bedrock

CBRE, la compañía líder mundial en servicios de bienes raíces comerciales, ha logrado una transformación significativa en la forma en que los profesionales de la gestión de propiedades acceden a la información. En colaboración con Amazon Web Services (AWS), han desarrollado una experiencia de búsqueda y asistente digital de nueva generación que integra el acceso a diversos tipos de datos de propiedad a través de tecnologías avanzadas como Amazon Bedrock y Amazon OpenSearch Service.

Con la adopción de su sistema PULSE, CBRE ha logrado consolidar una amplia gama de datos esenciales relacionados con propiedades, que antes estaban dispersos en aproximadamente diez fuentes distintas y cuatro bases de datos separadas. Este fraccionamiento dificultaba la obtención de respuestas completas y exponía a los profesionales a pasar horas buscando detalles de mantenimiento y otros datos relevantes, afectando de manera considerable la productividad y la capacidad de obtener información crítica sobre las operaciones de las propiedades.

El nuevo sistema permite a los gestores de propiedades interactuar mediante una interfaz fácil de usar que soporta búsquedas por palabras clave y consultas en lenguaje natural. Utilizando técnicas de inteligencia artificial, la arquitectura busca proporcionar una experiencia de recuperación de información segura y eficiente, permitiendo a los usuarios acceder rápidamente a información crucial a partir de más de ocho millones de documentos.

Entre los logros destacados de esta colaboración se encuentra una reducción drástica en el tiempo de procesamiento de consultas, gracias a la implementación de capacidades de inteligencia artificial generativa a través de Amazon Bedrock. Por ejemplo, el tiempo de generación de consultas SQL se redujo en un 67%, pasando de 12 a 4 segundos. Además, el sistema ha sido diseñado para garantizar la seguridad de los datos, integrando controles de acceso estrictos que permiten a los usuarios acceder únicamente a la información autorizada.

Desde su implementación, CBRE ha experimentado mejoras significativas en la eficiencia operativa, lo que se traduce en beneficios tangibles, incluyendo ahorros de costos, optimización de recursos, y decisiones comerciales más acertadas. Con una precisión del 95% en la información que sustenta las decisiones de negocio, este nuevo enfoque minimiza el riesgo de errores y permite una mejor comprensión de las operaciones.

La tecnología combina algoritmos de búsqueda semántica con estrategias de búsqueda tradicional, lo que facilita tanto la búsqueda de documentos en formatos conocidos como PDFs y documentos de Microsoft, como la interacción con los datos a través de una función de asistente digital que permite a los usuarios hacer preguntas y recibir respuestas en tiempo real.

A través de la aplicación de metodologías de ingeniería de prompts, el sistema logra una gestión más eficaz de las consultas, lo que resulta en un proceso de búsqueda más intuitivo y centrado en el usuario. Las lecciones aprendidas durante esta innovación subrayan la importancia de la modularización y la correcta gestión de los ejemplos utilizados para las consultas, asegurando que las respuestas sean precisas y relevantes para las necesidades del usuario.

En conclusión, la colaboración entre CBRE y AWS ha establecido un nuevo estándar en la forma en que las compañías de bienes raíces comerciales gestionan y analizan datos, demostrando el impacto positivo que la inteligencia artificial y el aprendizaje automático pueden tener en la mejora de procesos comerciales y la creación de valor real.
vía: AWS machine learning blog

Transformación Rápida y Eficiente: Cómo Myriad Genetics Mejoró el Procesamiento Documental con la IA Generativa de AWS

0
How Myriad Genetics achieved fast, accurate, and cost-efficient document processing using the AWS open-source Generative AI Intelligent Document Processing Accelerator

Las organizaciones de atención médica enfrentan grandes desafíos relacionados con el procesamiento y la gestión de volúmenes crecientes de documentación médica compleja. Para poder mantener la calidad en la atención al paciente, es esencial que estas instituciones cuenten con soluciones efectivas para manejar estos documentos. En este contexto, Myriad Genetics, un proveedor de pruebas genéticas y soluciones de medicina de precisión, ha puesto en marcha un innovador proceso para mejorar la clasificación y extracción de información en la documentación sanitaria.

El Departamento de Ingeniería de Ingresos de Myriad se encarga de procesar miles de documentos de atención médica diariamente en áreas como la salud femenina, oncología y salud mental. Este departamento clasifica los documentos entrantes en diversas categorías, como formularios de solicitud de pruebas, resultados de laboratorio y notas clínicas, con el fin de automatizar los flujos de trabajo de autorización previa. Sin embargo, a medida que los volúmenes de documentos aumentaron, el sistema existente se volvió costoso y lento, lo que llevó a la empresa a buscar soluciones más eficientes.

Para enfrentar esta situación, Myriad Genetics se unió al Centro de Innovación en IA Generativa de AWS (GenAIIC) con el objetivo de transformar su flujo de procesamiento de documentos médicos mediante modelos de última generación, como Amazon Bedrock y Amazon Nova. Esta colaboración permitió implementar una solución que no solo mejoró la velocidad y redujo los costos, sino que también automatizó la extracción de información clave de documentos médicos, superando así las limitaciones del sistema anterior.

A través de un enfoque de procesamiento de documentos inteligente, se implementaron técnicas avanzadas de ingeniería de prompts y selección de modelos adecuados para lograr una alta precisión en la clasificación de documentos. A pesar de que el sistema agilizado logra una mejora significativa en la precisión de clasificación de documentos, pasando del 94% al 98%, también se redujeron drásticamente los costos operativos, permitiendo que el proceso de clasificación sea más eficiente y escalable.

Uno de los principales logros de esta nueva implementación es la automatización de la extracción de información crucial, un proceso que anteriormente requería una cantidad considerable de horas de trabajo humano. La solución ahora permite una precisión de extracción del 90%, manteniendo el mismo nivel que el proceso manual, pero con un costo de procesamiento significativamente menor.

Myriad planea llevar a cabo un despliegue gradual de esta solución, comenzando por la unidad de salud femenina y posteriormente extendiéndola a las divisiones de oncología y salud mental. Se estima que, con esta nueva tecnología, Myriad podrá ahorrar hasta 132,000 dólares anuales en costos de clasificación de documentos, además de mejorar considerablemente la eficiencia operativa en el manejo de autorizaciones previas.

Con el respaldo de tecnologías avanzadas de inteligencia artificial, Myriad Genetics busca sentar un precedente en la conversión de procesos en el sector salud, haciendo que la atención médica sea más rápida, precisa y accesible. Este avance pone de manifiesto el potencial transformador de las soluciones de inteligencia artificial en el ámbito sanitario, estableciendo un nuevo estándar para la gestión de la documentación médica.
vía: AWS machine learning blog

Cacheo Jerárquico Gestionado y Enrutamiento Inteligente para Amazon SageMaker HyperPod

0
Managed Tiered KV Cache and Intelligent Routing for Amazon SageMaker HyperPod

En el mundo actual, las aplicaciones de inteligencia artificial moderna exigen respuestas rápidas y rentables de los modelos de lenguaje grande (LLM), particularmente en el manejo de documentos extensos y conversaciones prolongadas. Sin embargo, el proceso de inferencia de LLM puede volverse cada vez más lento y costoso a medida que aumenta la longitud del contexto, ya que la latencia crece exponencialmente y los costos se incrementan con cada interacción.

Un desafío clave en la inferencia de LLM es la necesidad de recalcular los mecanismos de atención para los tokens previos al generar cada nuevo token. Este proceso introduce una considerable sobrecarga computacional y alta latencia, especialmente en secuencias largas. La solución al atasco de latencia en la inferencia de LLMs se conoce como almacenamiento en caché de clave-valor (KV en inglés), que permite almacenar y reutilizar vectores de atención de computaciones previas, reduciendo así la latencia de inferencia y el tiempo hasta el primer token. La implementación de un enrutamiento inteligente en LLMs ofrece la posibilidad de enviar solicitudes con indicaciones compartidas a la misma instancia de inferencia, maximizando la eficiencia del caché KV. Esto significa que una nueva solicitud se dirige a una instancia que ya ha procesado el mismo prefijo, permitiendo reutilizar los datos almacenados en caché para acelerar el procesamiento.

Hoy se ha anunciado que Amazon SageMaker HyperPod ahora soporta capacidades de Gestión de Caché de KV en Niveles y Enrutamiento Inteligente a través del Operador de Inferencia de HyperPod. Estas nuevas capacidades prometen mejoras significativas en el rendimiento para las cargas de trabajo de inferencia de LLM, reduciendo el tiempo hasta el primer token en hasta un 40%, aumentando el rendimiento y disminuyendo costos computacionales en hasta un 25% para contextos largos y conversaciones de múltiples turnos.

El sistema de cacheo eficiente combinado con un enrutamiento inteligente maximiza los aciertos del caché entre los trabajadores, alcanzando un mayor rendimiento y menores costos en las implementaciones de modelos. Estas características son especialmente beneficiosas en aplicaciones que procesan documentos largos donde se hace referencia al mismo contexto, así como en conversaciones de múltiples turnos que requieren mantener el contexto de intercambios anteriores de manera eficiente.

Por ejemplo, equipos legales que analizan contratos de 200 páginas ahora pueden recibir respuestas instantáneas a preguntas de seguimiento en lugar de esperar más de 5 segundos por consulta. Los chatbots de atención sanitaria pueden mantener un flujo de conversación natural en diálogos con más de 20 turnos, y los sistemas de atención al cliente pueden procesar millones de solicitudes diarias con un mejor rendimiento y menores costos de infraestructura. Estas optimizaciones hacen que el análisis de documentos, las conversaciones de múltiples turnos y las aplicaciones de inferencia de alto rendimiento sean viables económicamente a gran escala.

Las nuevas características incluyen la Gestión de Caché de KV en Niveles, que automatiza el manejo de los estados de atención a través de la memoria CPU (L1) y el almacenamiento tiered (L2), y el Enrutamiento Inteligente, que proporciona estrategias como el enrutamiento consciente del prefijo y el enrutamiento KV-consciente para maximizar los aciertos del caché. Además, incluye integración de observabilidad para realizar seguimiento de las métricas y los registros en Amazon Managed Grafana.

La implementación de estos avances implica crear un clúster de HyperPod con Amazon EKS como orquestador, para luego habilitar la Gestión de Caché y el Enrutamiento Inteligente en la configuración de los endpoints de inferencia. Con estos nuevos desarrollos, Amazon sigue posicionándose como un líder en la provisión de soluciones de inteligencia artificial escalables y accesibles para el negocio global.
vía: AWS machine learning blog

Guía de Integración de Telefonía con Nova: Creando Aplicaciones de Voz Impulsadas por IA en Amazon

0
Building AI-Powered Voice Applications: Amazon Nova Sonic Telephony Integration Guide

Las organizaciones están cada vez más interesadas en mejorar las experiencias de sus clientes a través de interacciones vocales naturales y receptivas en sus sistemas telefónicos. En este contexto, Amazon ha lanzado Nova Sonic, un modelo de inteligencia artificial generativa de voz a voz que proporciona conversaciones de voz en tiempo real con baja latencia y un intercambio natural. Este modelo no solo comprende el habla con diferentes acentos y estilos de conversación, sino que también responde con voces expresivas en múltiples idiomas y maneja interrupciones de manera efectiva. Integrable a través de la API de streaming bidireccional de Amazon Bedrock, Nova Sonic puede conectarse a los datos de una empresa y a herramientas externas, lo que permite su integración directa con sistemas telefónicos.

La modalidad de voz hace que Amazon Nova Sonic sea especialmente adecuado para aplicaciones telefónicas donde es crucial preservar las sutilezas de la conversación y minimizar la latencia. Este modelo es ideal para escenarios como centros de llamadas automatizados que requieren interacciones similares a las humanas, campañas proactivas de llamadas y recepcionistas virtuales.

Para integrar Amazon Nova Sonic en la arquitectura telefónica, es necesario contar con un servidor de aplicaciones que conecte y mantenga una conexión de streaming bidireccional persistente con Nova Sonic. Las implementaciones de ejemplos más comunes incluyen la integración con el Protocolo de Inicio de Sesión (SIP) y proveedores de telefonía como Vonage, Twilio y Genesys, así como marcos de código abierto para construir aplicaciones telefónicas, como Pipecat y LiveKit. Estos enfoques abarcan un espectro que va desde sistemas PBX heredados hasta comunicaciones modernas en la nube, brindando múltiples vías para conectar Nova Sonic con las redes telefónicas.

Las aplicaciones típicas de Amazon Nova Sonic incluyen operaciones de centros de llamadas, donde puede manejar consultas de servicio al cliente, soporte técnico y transacciones rutinarias a través de conversaciones naturales. Puede reemplazar sistemas IVR tradicionales, permitiendo que los clientes expresen sus necesidades sin tener que navegar por menús telefónicos. Además, en funciones de recepcionista y outreach, Nova Sonic puede conectarse a sistemas como CRM y calendarios, manejando la programación y aumentando la personalización de las interacciones en función del historial del cliente.

La integración de Nova Sonic con la infraestructura SIP requiere un servidor de aplicaciones que actúe como intermediario. Este servidor gestiona tanto la señalización SIP como los flujos de medios en tiempo real, manteniendo la conexión con la API de streaming bidireccional de Nova Sonic. Los servidores SIP se pueden ejecutar en instancias de Amazon Elastic Compute Cloud (EC2) o desplegarse en contenedores utilizando Amazon Elastic Container Service (ECS).

Los proveedores de telefonía en la nube como Vonage, Twilio y Genesys ofrecen servicios de voz gestionados que simplifican la complejidad de la infraestructura telefónica tradicional a través de APIs sencillas. Con la integración de Vonage, por ejemplo, las empresas pueden desplegar agentes de voz en tiempo real sin gestionar la complicada infraestructura telefónica, ya que Vonage maneja la ruta de las llamadas, el streaming de audio y la traducción de protocolos.

Asimismo, integrar Nova Sonic con marcos de código abierto como Pipecat y LiveKit puede acelerar el desarrollo de aplicaciones de IA conversacional. Estos marcos proporcionan componentes preconstruidos y interfaces estandarizadas que facilitan la creación de experiencias interactivas.

En conclusión, las capacidades de voz a voz de Amazon Nova Sonic abren nuevas posibilidades para construir aplicaciones vocales naturales y receptivas a través de diversas arquitecturas telefónicas. Ya sea utilizando integración directa con SIP, proveedores de telefonía en la nube o marcos de código abierto, hay múltiples caminos para aprovechar este innovador modelo de inteligencia artificial y crear experiencias de voz que realmente sean conversacionales.
vía: AWS machine learning blog

Control de Acceso Detallado con Interceptores de Bedrock AgentCore Gateway

0
Apply fine-grained access control with Bedrock AgentCore Gateway interceptors

Las empresas están adoptando rápidamente agentes de inteligencia artificial (IA) para automatizar flujos de trabajo y mejorar la productividad, aunque se enfrentan a un desafío crítico en su escalado: la gestión del acceso seguro a miles de herramientas en sus organizaciones. Las implementaciones modernas de IA ya no se limitan a unos pocos agentes que llaman a unas pocas API; ahora las empresas están construyendo plataformas unificadas de IA donde cientos de agentes, aplicaciones de IA de consumo y flujos de trabajo automatizados necesitan acceder a miles de herramientas del Protocolo de Contexto de Modelo (MCP) que abarcan diferentes equipos, organizaciones y unidades de negocio.

Este aumento en la escala genera un problema fundamental de seguridad y gobernanza: ¿cómo se asegura que cada principal que realiza una llamada —ya sea un agente de IA, un usuario o una aplicación— solo acceda a las herramientas para las que tiene autorización? ¿Cómo se filtra dinámicamente la disponibilidad de herramientas según la identidad del usuario, el contexto del agente y el canal a través del cual se solicita el acceso, todo esto sin sacrificar el rendimiento ni crear cuellos de botella operativos?

Para abordar estos desafíos, se ha lanzado una nueva característica: los interceptores de puerta de enlace para Amazon Bedrock AgentCore Gateway. Esta poderosa capacidad proporciona un control de acceso dinámico y granular, así como una gestión flexible de esquemas.

Los clientes empresariales están desplegando miles de herramientas MCP a través de una puerta de enlace unificada, utilizando este único punto de acceso para acceder a herramientas de diferentes equipos y aplicaciones de IA. El desafío consiste en asegurar el acceso a las herramientas MCP basándose en las permisos de acceso del principal que realiza la llamada y en responder contextualizadas a las solicitudes de herramientas.

Se requiere un filtrado de herramientas basado en múltiples factores dinámicos. Las organizaciones necesitan servidores MCP unificados que puedan filtrar herramientas en dos etapas y exigir que no haya almacenamiento en caché para listas de herramientas filtradas dinámicamente, dado que las autorizaciones pueden cambiar en cualquier momento.

Además, las organizaciones deben gestionar el contrato entre los agentes de IA y las API descendentes mientras mantienen la seguridad y la flexibilidad, siendo necesario mapear dinámicamente los esquemas de solicitud de MCP a los correspondientes de las API descendentes, lo que permite capacidades críticas de protección de datos.

Los clientes también requieren capacidades de traducción de esquemas para manejar cambios en los contratos de API mientras se mantiene el esquema de MCP intacto. Este desacoplamiento permite una evolución y versionado más suaves de la API sin romper los contratos de los agentes de IA y las herramientas.

Las organizaciones que ofrecen agentes o herramientas como servicio enfrentan complejas demandas de multi-tenencia. Deben desplegar sus servidores MCP para todos sus usuarios mientras mantienen un aislamiento adecuado entre inquilinos. Los servidores MCP multi-inquilinos requieren que las herramientas se mantengan completamente aisladas entre clientes, controlando estrictamente el acceso a las herramientas.

La gestión de la identidad y el contexto se convierte en un aspecto fundamental, ya que los agentes de IA son autónomos y no deterministas. Para ello, deben ejecutar flujos de trabajo en nombre de los usuarios finales y acceder a recursos basándose en el contexto de ejecución del usuario, evitando enviar tokens de autorización originales a servicios descendentes debido a vulnerabilidades significativas.

Los interceptores de puerta de enlace permiten una gestión efectiva de los contextos de identidad y proporcionan visibilidad en las decisiones de seguridad. La implementación de un enfoque de «actuar en nombre de» asegura que cada hop en el flujo de trabajo reciba un token específico para su objetivo descendente, permitiendo mantener el principio de menor privilegio.

El AgentCore Gateway transforma las APIs existentes y funciones de AWS Lambda en herramientas compatibles con agentes, permitiendo una integración segura a través de sistemas empresariales esenciales. La introducción de interceptores de puerta de enlace ayuda a las organizaciones a implementar un control de acceso detallado y gestión de credenciales a través de funciones Lambda personalizadas en puntos críticos de la solicitud y respuesta.

En conclusión, el AgentCore Gateway con interceptores proporciona una base flexible para implementar controles de seguridad de grado empresarial en arquitecturas de IA, abordando los desafíos críticos que enfrentan las organizaciones al desplegar sistemas de IA a gran escala, garantizando la seguridad, el cumplimiento y la visibilidad operativa en entornos complejos.
vía: AWS machine learning blog

EFF ante el Tribunal Federal de Arizona: Protección de los Estudiantes de Escuelas Públicas contra la Vigilancia y el Castigo por Expresión Fuera del Campus

0
3 students, one with a book, one with a laptop, one in a graduation hat, being watched by an eye.

La Electronic Frontier Foundation (EFF) ha presentado un documento de respaldo ante el Tribunal del Distrito de Arizona, en defensa de la libertad de expresión y la privacidad de los estudiantes de escuelas públicas. En este amicus brief, la organización sostiene que el uso de dispositivos y cuentas de correo electrónico proporcionados por las escuelas no debe ser considerado automáticamente como una indicación de que un estudiante está «en el campus». La EFF argumenta que los estudiantes requieren espacios digitales privados para comunicarse libremente, sin el temor a una vigilancia constante por parte de las autoridades escolares.

El caso en cuestión, Merrill v. Marana Unified School District, involucra a un estudiante de la escuela secundaria Marana que, mientras estaba en su casa antes del inicio de las clases, pidió ayuda a su madre sobre una mala nota en una tarea de inglés. En un intento de relajarse, el estudiante escribió en un borrador de correo electrónico una serie de chistes de mal gusto, incluyendo uno que decía: «GANG GANG GIMME A BETTER GRADE OR I SHOOT UP DA SKOOL HOMIE». A pesar de eliminar el borrador y no enviar el correo, la escuela se vio alertada por el software de vigilancia Gaggle, lo que llevó a la suspensión del estudiante.

La familia del estudiante impugnó la decisión de la escuela, alegando infracción de sus derechos de libre expresión y debido proceso. En este contexto, la EFF enfatiza que la Corte Suprema de Estados Unidos ha protegido repetidamente los derechos de los estudiantes a expresarse, incluso fuera del campus, y que la disciplina escolar debe ser medida y no basarse únicamente en el uso de tecnología escolar.

El uso de herramientas digitales proporcionadas por las escuelas, como Chromebooks y cuentas de Google, permite a los estudiantes acceder a valiosos recursos educativos, pero también los expone a una vigilancia constante. La EFF advierte que catalogar cualquier uso de estos dispositivos como «en el campus» podría restringir aún más la libertad de expresión de los estudiantes y aumentar la auto-censura. Esta regla podría afectar desproporcionadamente a los estudiantes de menor ingreso, quienes dependen más de la tecnología escolar debido a la falta de recursos personales.

Además, la EFF considera que una política de “en el campus” incentivaría a las escuelas a continuar erosionando la privacidad de los estudiantes, exponiéndolos a un monitoreo continuo que puede resultar en consecuencias negativas, como investigaciones innecesarias y la divulgación de información sensible. Por lo tanto, la organización insta al Tribunal del Distrito de Arizona a proteger la libertad de expresión y la privacidad de los estudiantes, reconociendo la necesidad de un espacio digital autónomo y libre de juicios y castigos, donde los jóvenes puedan expresarse y aprender de sus errores.
Fuente: EFF.org

Cómo Condé Nast Aceleró el Procesamiento de Contratos y el Análisis de Derechos con Amazon Bedrock

0
How Condé Nast accelerated contract processing and rights analysis with Amazon Bedrock

Condé Nast, la influyente compañía de medios, ha modernizado su flujo de trabajo de gestión de derechos mediante la implementación de un sistema automatizado de procesamiento de contratos. Con más de 100 años de trayectoria, la empresa, conocida por marcas emblemáticas como Vogue, The New Yorker y GQ, ha visto un aumento significativo en su audiencia, alcanzando 72 millones de lectores en papel y 394 millones de consumidores digitales.

A lo largo de los años, Condé Nast ha enfrentado desafíos en la gestión de una compleja red de contratos y acuerdos de licencia. Los procesos anteriores dependían en gran medida de revisiones manuales, lo que generaba cuellos de botella operativos y hacía que la compañía perdiera oportunidades de ingresos. Con la necesidad de una solución más eficiente, Condé Nast colaboró con Amazon Web Services (AWS) para desarrollar un sistema automatizado que utilizaría inteligencia artificial para acelerar el análisis de contratos.

La solución emplea varios servicios de AWS, incluyendo Amazon Simple Storage Service (S3) para almacenar contratos y plantillas, así como Amazon Bedrock, una plataforma que permite el uso de modelos de inteligencia artificial. Este último ha sido crucial en la conversión de contratos en archivos de texto digital y en la extracción de metadatos preespecificados, lo que ahorra tiempo y reduce el riesgo de errores humanos.

El flujo de trabajo integrado comienza con la carga de nuevos contratos en un bucket de S3, activando una serie de funciones automatizadas para procesar y analizar estos documentos. Con la intervención de modelos de lenguaje como Claude de Anthropic, el sistema identifica similitudes con plantillas existentes y extrae información clave. Los resultados se presentan a personal legal y comercial para su validación, lo que refuerza el ciclo de revisión humana en un sistema predominantemente automatizado.

Este enfoque ha permitido a Condé Nast reducir drásticamente el tiempo de procesamiento de contratos, pasando de semanas a horas. Además, ha facilitado una gestión más precisa de derechos, minimizando legalidades y mejorando la protección de activos de propiedad intelectual. La implementación no solo resuelve problemas operativos inmediatos, sino que también posiciona a la empresa para un crecimiento futuro mediante la construcción de una base para la gestión de contenido impulsada por inteligencia artificial.

Entre las lecciones aprendidas, Condé Nast ha destacado la importancia del preprocesamiento de datos y la supervisión humana, así como la necesidad de alinear tecnología y objetivos comerciales desde el inicio de cada proyecto. De este modo, la compañía no solo mejora sus operaciones, sino que también redefine su enfoque hacia la innovación tecnológica, adoptando un modelo más dinámico y centrado en el experto para el desarrollo de software.
vía: AWS machine learning blog

Optimización de REM™ de Mobileye con AWS Graviton: Enfoque en la inferencia de ML e integración con Triton

0
Optimizing Mobileye’s REM™ with AWS Graviton: A focus on ML inference and Triton integration

Mobileye, una empresa pionera en tecnología de movilidad, está llevando a cabo una evolución significativa en la conducción autónoma al integrar inteligencia artificial (IA) avanzada y experiencia práctica. En este contexto, la gestión de experiencias en carretera (REM™) se ha convertido en un componente vital del ecosistema de conducción autónoma de la compañía, creando y manteniendo mapas de alta definición de las redes viales a través de datos recopilados de millones de vehículos.

Uno de los aspectos más emocionantes de REM™ es el sistema de detección automática de cambios en la infraestructura vial, conocido como Change Detection. Este sistema utiliza un modelo de aprendizaje profundo llamado CDNet, que analiza cambios en las carreteras, como la construcción o modificación de carriles, y actualiza los mapas en tiempo real. La importancia de estos mapas no puede subestimarse, ya que son esenciales para la localización precisa de los vehículos y la navegación en tiempo real.

Recientemente, Mobileye compartió su recorrido para mejorar la detección de cambios, con un enfoque en la eficiencia y el rendimiento. Al principio, la compañía consideró utilizar unidades de procesamiento gráfico (GPU) para la inferencia del modelo, pero descubrió que ejecutar CDNet en la unidad central de procesamiento (CPU) era más rentable sin comprometer la velocidad total del sistema. Además, el uso de Amazon EC2 Spot Instances permitió una reducción significativa de costos, incrementando el número de tareas completadas por dólar.

Uno de los hitos en este proceso fue la centralización de la ejecución de inferencia utilizando el Triton Inference Server. Esto permitió disminuir la huella de memoria requerida por cada tarea y reducir el tiempo promedio de ejecución de las tareas de detección de cambios, de cuatro minutos a dos. Este avance permitió maximizar el uso de las capacidades de CPU, incrementando así la cantidad de tareas procesadas simultáneamente.

Otro aspecto importante fue la incorporación de instancias AWS Graviton, diseñadas para proporcionar un rendimiento óptimo en costos para cargas de trabajo en la nube. Esta adición no solo mejoró la eficiencia de costos del sistema de detección de cambios, sino que también aumentó la disponibilidad y la diversidad de las instancias en el grupo de recursos.

En conclusión, la optimización del sistema de detección de cambios de Mobileye a través de estas innovaciones está configurando el futuro de la movilidad autónoma. La compañía se enfrenta a la posibilidad de seguir ajustando y mejorando sus sistemas, con la expectativa de continuar sus esfuerzos de optimización en los próximos meses. Las mejoras en términos de rendimiento y experiencia del usuario son considerables, beneficiando tanto a los pasajeros como a los conductores.
vía: AWS machine learning blog

Evaluar Modelos con el Contenedor de Evaluación Nova de Amazon Usando Amazon SageMaker AI

0
Evaluate models with the Amazon Nova evaluation container using Amazon SageMaker AI

Amazon ha lanzado nuevas funciones de evaluación de modelos en Amazon SageMaker AI, diseñadas para mejorar la capacidad de los usuarios de evaluar sus modelos de aprendizaje automático de manera más efectiva. Esta actualización incluye el soporte para métricas personalizadas, pruebas de preferencia basadas en LLM, captura de probabilidades logarítmicas, análisis de metadatos y escalado en múltiples nodos para evaluaciones a gran escala.

Entre las características destacadas se encuentran las capacidades de métricas personalizadas que permiten a los desarrolladores definir criterios de evaluación específicos ajustados a sus requisitos. Por ejemplo, se pueden implementar métricas que evalúen la empatía en un modelo de servicio al cliente o la precisión clínica en un asistente médico. Este enfoque ofrece a los equipos la flexibilidad necesaria para adaptar las evaluaciones a sus dominios.

La función “LLM-as-a-Judge” permite realizar evaluaciones subjetivas mediante comparaciones entre pares y reportes sobre qué respuesta es preferida, junto con las razones de cada juicio. Esta metodología es particularmente útil para tareas con razonamientos complejos, donde las explicaciones son tan importantes como la clasificación en sí misma.

Además, la captura de probabilidades logarítmicas proporciona información sobre la confianza del modelo en cada token emitido, lo cual es fundamental para estudios de calibración y decisiones informadas sobre el enrutamiento de respuestas. Los equipos pueden analizar cómo estas probabilidades se correlacionan con el rendimiento real, lo que permite implementar umbrales de calidad y detectar problemas antes de impactar en los sistemas de producción.

Las mejoras en el análisis de metadatos permiten conservar campos adicionales para analizar resultados por segmentos de clientes, dominios, niveles de dificultad y prioridades, sin necesidad de procesamiento adicional. Esto facilita un análisis más rico y detallado de los resultados de las evaluaciones.

Para los equipos que requieren evaluar grandes volúmenes de datos, la nueva función de ejecución en múltiples nodos permite distribuir cargas de trabajo y escalar desde miles hasta millones de ejemplos, garantizando al mismo tiempo una agregación estable y resultados consistentes.

A través de Amazon SageMaker, los equipos pueden definir evaluaciones usando archivos JSONL almacenados en Amazon S3 y ejecutarlas como trabajos de entrenamiento de SageMaker, controlando los flujos de trabajo de pre y post-procesamiento y recibiendo resultados estructurados que se pueden integrar fácilmente en herramientas de análisis como Amazon Athena y AWS Glue. Esta integración establece un camino claro para que las empresas adopten tecnologías de inteligencia artificial generativa de manera más efectiva.
vía: AWS machine learning blog