Inicio Blog Página 95

Construyendo Agentes de Voz AI Inteligentes con Pipecat y Amazon Bedrock – Parte 2

0
Building intelligent AI voice agents with Pipecat and Amazon Bedrock – Part 2

La inteligencia artificial de voz está revolucionando la interacción con la tecnología, facilitando conversaciones más naturales e intuitivas. Con el desarrollo de agentes de IA avanzados, estos sistemas son ahora capaces de comprender preguntas complejas y actuar de forma autónoma en nuestro nombre.

En una reciente serie de publicaciones, se presentó cómo combinar Amazon Bedrock y Pipecat, un marco de trabajo de código abierto para agentes conversacionales de voz y multimodales, para construir aplicaciones con un AI conversacional que imita la interacción humana. La primera parte de esta serie expuso casos de uso comunes de agentes de voz y un enfoque de modelos en cascada, que permite orquestar varios componentes para desarrollar estos agentes.

En la segunda entrega, se analizó el modelo de fundación de voz a voz Amazon Nova Sonic, que ofrece conversaciones en tiempo real con una calidad de voz similar a la humana, destacando su capacidad para reducir la latencia al combinar varios sistemas, como el reconocimiento automático de voz, procesamiento del lenguaje natural y conversión de texto a voz en un único modelo.

Amazon Nova Sonic no solo permite una conversación más fluida al ajustarse dinámicamente a las características acústicas y el contexto conversacional, sino que también cuenta con la capacidad de utilizar herramientas y recuperar información a través de la base de conocimiento de Amazon Bedrock. Esta unificación de capacidades simplifica el desarrollo y mejora la respuesta en entornos conversacionales.

La colaboración entre AWS y el equipo de Pipecat ha sido crucial para integrar de manera eficiente las capacidades avanzadas de este modelo, facilitando que los desarrolladores implementen sistemas de voz más inteligentes. Kwindla Hultman Kramer, CEO de Daily.co y creador de Pipecat, elogió el progreso que representa Nova Sonic, caracterizándolo como un avance significativo para la IA de voz en tiempo real, que no solo entiende sino que también puede realizar acciones significativas, como programar citas.

Para aquellos interesados en comenzar con Amazon Nova Sonic y Pipecat, se ofrecen ejemplos de código y pasos de implementación. Los desarrolladores pueden personalizar sus agentes de voz ajustando la lógica de conversación y la selección de modelos según sus necesidades.

El uso de esta tecnología se ejemplificó en una demostración donde un asistente inteligente de salud podía interactuar en tiempo real, mostrando las posibilidades de la IA de voz en ámbitos prácticos.

En conclusión, la combinación de Pipecat y los modelos de fundación de Amazon Bedrock ha hecho que la creación de agentes de voz inteligentes sea más accesible. La serie de publicaciones ha abordado dos enfoques comunes para construir estos agentes, destacando cómo la simplificación de estos modelos puede llevar a mejoras significativas en la interacción y en la implementación de soluciones de IA. Con innovaciones en modelos multimodales y herramientas de avanzada, el futuro de la inteligencia artificial conversacional promete seguir expandiendo sus posibilidades en diversos sectores.
vía: AWS machine learning blog

Detección de Fraude Potenciada por Aprendizaje Federado con el Marco Flower en Amazon SageMaker AI

0
Fraud detection empowered by federated learning with the Flower framework on Amazon SageMaker AI

La detección de fraudes sigue siendo un reto importante en la industria financiera, lo que exige el uso de técnicas avanzadas de aprendizaje automático para identificar patrones fraudulentos sin comprometer la privacidad de los datos. Los modelos tradicionales de aprendizaje automático, que a menudo se basan en la agregación centralizada de datos, plantean preocupaciones sobre la seguridad de la información y las limitaciones regulativas.

En 2023, el costo del fraude para las empresas ascendió a más de 485.600 millones de dólares, lo que ha puesto bajo presión a las instituciones financieras para mantenerse al día frente a amenazas en constante evolución. Muchas de estas instituciones dependen de modelos aislados que pueden resultar en sobreajuste y un rendimiento deficiente en situaciones del mundo real. Además, las leyes de privacidad de datos, como el GDPR y el CCPA, limitan todavía más la colaboración entre entidades. Sin embargo, el aprendizaje federado, utilizando tecnologías como Amazon SageMaker AI, permite a las organizaciones entrenar modelos de forma conjunta sin necesidad de compartir datos en bruto, mejorando la precisión y cumpliendo con las normativas vigentes.

El aprendizaje federado es un enfoque en el que múltiples instituciones pueden entrenar un modelo compartido mientras mantienen sus datos descentralizados. Esto no solo mejora la precisión de la detección de fraudes al reducir el riesgo de sobreajuste, sino que también permite que las instituciones financieras colaboren sin comprometer la privacidad de la información. Un marco popular para implementar el aprendizaje federado es Flower, que es agnóstico en relación a las herramientas utilizadas, facilitando su integración con diversos frameworks como PyTorch y TensorFlow.

El uso de herramientas como el Synthetic Data Vault (SDV) permite a las organizaciones generar conjuntos de datos sintéticos que reflejan patrones del mundo real para fortalecer la detección de fraudes. Este enfoque permite simular diversos escenarios sin exponer información sensible, ayudando a los modelos de aprendizaje federado a generalizar mejor y reconocer tácticas de fraude en evolución. Además, el SDV aborda el problema del desequilibrio de datos aumentando las representaciones de casos de fraude menos comunes.

La evaluación justa de los modelos es un componente crítico del aprendizaje federado. Para ello, las organizaciones deben adoptar una estrategia de conjuntos de datos estructurada, utilizando combinaciones de diferentes conjuntos para asegurar que los modelos sean evaluados en una variedad de casos de fraude del mundo real. Esto ayuda a reducir el sesgo y a mejorar la justicia en la evaluación de su rendimiento.

La adopción de esta metodología ha mostrado resultados prometedores en términos de precisión en la detección de fraudes. Al entrenar con datasets diversos, los modelos han logrado captar un abanico más amplio de patrones fraudulentos, lo que ha llevado a una reducción de los falsos positivos y a una mejora en la efectividad del análisis de fraudes.

En conclusión, el uso del marco Flower para el aprendizaje federado sobre Amazon SageMaker AI ofrece un enfoque escalable y que respeta la privacidad en la detección de fraudes. Combinando entrenamiento descentralizado, generación de datos sintéticos y estrategias de evaluación justa, las instituciones financieras pueden mejorar la precisión de sus modelos al tiempo que cumplen con las normativas de privacidad.
vía: AWS machine learning blog

Flujos de Ejecución de Larga Duración Ahora Disponibles en Amazon Bedrock Flows en Vista Preliminar Pública

0
Long-running execution flows now supported in Amazon Bedrock Flows in public preview

Hoy se ha anunciado la vista previa pública del soporte para flujos de ejecución de larga duración (asíncronos) en Amazon Bedrock Flows. Esta nueva funcionalidad permitirá a los usuarios conectar modelos fundamentales, gestión de prompts, agentes, bases de conocimiento y otras herramientas de AWS para construir y escalar flujos de trabajo generativos de inteligencia artificial previamente definidos.

A medida que las empresas avanzan en la construcción de aplicaciones más sofisticadas, han surgido peticiones para procesar conjuntos de datos más extensos y ejecutar flujos de trabajo complejos que requieren más tiempo del permitido en los modelos actuales, que es de cinco minutos. Muchos clientes han expresado su deseo de transformar libros completos y procesar documentos masivos sin preocuparse por límites de tiempo, subrayando la necesidad de una solución que maneje tareas de fondo de larga duración. Con la introducción de los flujos de ejecución prolongada en Amazon Bedrock, el tiempo de ejecución de flujo se extiende de cinco minutos a un máximo de 24 horas en modo asíncrono.

Esta capacidad de Amazon Bedrock permitirá encadenar múltiples prompts, servicios de IA y componentes de Amazon Bedrock en flujos de trabajo complejos que pueden operar durante un día entero. Las mejoras también incluyen trazabilidad de ejecución integrada, accesible tanto desde la Consola de Administración de AWS como desde la API de Amazon Bedrock Flow, facilitando el desarrollo y la gestión de flujos de trabajo.

La separación del tiempo de ejecución del flujo de trabajo del tiempo de interacción del usuario brindará la posibilidad de manejar grandes volúmenes de datos, realizar tareas intensivas en recursos y aplicar múltiples reglas en la toma de decisiones, todo mientras los usuarios disfrutan de una experiencia fluida y responsive.

Este avance es particularmente relevante para organizaciones como Dentsu. La agencia necesita gestionar casos de uso complejos que requieren más tiempo de ejecución, como su aplicación «Easy Reading», que transforma libros en formatos accesibles para personas con discapacidades intelectuales. Gracias a los flujos de ejecución prolongada de Amazon Bedrock, Dentsu podrá procesar entradas más grandes y realizar tareas intensivas en recursos dentro de los flujos de trabajo, así como integrar múltiples sistemas externos.

Victoria Aiello, directora de innovación en Dentsu Creative Brasil, ha destacado la eficacia de Amazon Bedrock y cómo ha proporcionado visibilidad y precisión en el procesamiento de los proyectos de sus clientes. Gracias a los nuevos flujos de ejecución de larga duración, ahora pueden manejar libros completos en una sola operación, maximizando el uso del tiempo de 24 horas.

En resumen, la integración de flujos de ejecución de larga duración en Amazon Bedrock Flows representa un avance significativo en el desarrollo de inteligencia artificial generativa, proporcionando herramientas para automatizar operaciones prolongadas y afrontar los retos críticos en este campo en evolución. Estos nuevos recursos están actualmente disponibles en prueba pública en varias regiones de AWS, excluyendo algunas áreas como AWS GovCloud (EE.UU.), permitiendo a los usuarios comenzar a construir flujos con esta nueva capacidad.
vía: AWS machine learning blog

Control de Acceso a Nivel de Usuario en Plataformas ML Multi-Inquilino en Amazon SageMaker AI

0
Implement user-level access control for multi-tenant ML platforms on Amazon SageMaker AI

Gestionar el control de acceso en entornos de aprendizaje automático empresarial puede resultar complejo, sobre todo cuando varios equipos comparten recursos de Amazon SageMaker dentro de una única cuenta de Amazon Web Services (AWS). Aunque Amazon SageMaker Studio facilita la asignación de roles de ejecución a nivel de usuario, este enfoque se complica a medida que las organizaciones crecen y aumentan los tamaños de sus equipos. Para abordar esta problemática se destacan estrategias de gestión de permisos, centrándose en los patrones de control de acceso basado en atributos (ABAC) que permiten un control de acceso granular mientras minimizan la proliferación de roles de gestión de identidad y acceso de AWS (IAM).

En un entorno empresarial regulado, como el sector financiero o de salud, un equipo de plataforma de ML puede gestionar un conjunto integral de infraestructura que sirve a múltiples equipos de ciencia de datos. Esta estructura centralizada permite implementar políticas de gobernanza consistentes. No obstante, el desafío reside en mantener la aislamiento de carga de trabajo entre equipos y gestionar permisos entre usuarios del mismo equipo.

Para mantener la separación de recursos, los equipos de plataforma pueden crear dominios dedicados de Amazon SageMaker Studio para cada unidad de negocio. Sin embargo, hoy se presentan formas de implementar el control de acceso basado en atributos que utiliza variables de política IAM para implementar controles de acceso a nivel usuario, manteniendo roles de ejecución a nivel de dominio. Al hacerlo, se facilita la escalabilidad del IAM en SageMaker AI sin sacrificar la seguridad.

Entre los conceptos clave de esta solución se encuentran la identidad de origen y las claves de contexto. La identidad de origen es una cadena personalizada que los administradores pueden hacer pasar durante la asunción de un rol, lo que permite identificar al usuario o aplicación que realiza ciertas acciones. Esta identidad es registrada por AWS CloudTrail y persiste a través de la encadenación de roles.

Para garantizar un control de acceso efectivo en escenarios donde varios usuarios comparten un dominio SageMaker Studio, los administradores deben implementar controles de acceso a nivel de recurso, asegurando que los científicos de datos no puedan eliminar accidentalmente los recursos de otros miembros del equipo. Las claves de contexto, como sagemaker:DomainId y sagemaker:UserProfileName, proporcionan una forma poderosa para que los administradores creen políticas ABAC dinámicas.

Con la incorporación de las prácticas recomendadas en la gestión de acceso, las organizaciones pueden optimizar la utilización de recursos, mantener el cumplimiento en materia de seguridad y mejorar la eficiencia operativa de sus flujos de trabajo de ML. Así, se resalta la importancia de auditar el acceso de los usuarios a través de registros detallados, que ofrecen visibilidad sobre quién accedió a qué recursos y cuándo, mejorando la seguridad y el cumplimiento normativo.

En conclusión, se han presentado estrategias efectivas para implementar el control de acceso a nivel usuario en entornos de SageMaker Studio y otras plataformas de AWS. Al combinar recursos de SageMaker AI, claves de contexto y la propagación de identidades de origen, las organizaciones pueden desarrollar políticas dinámicas que autoescalan permisos basándose en la identidad del usuario, manteniendo a su vez roles de ejecución compartidos.

vía: AWS machine learning blog

Construyendo un Asistente Conversacional de Datos, Parte 1: Text-to-SQL con Agentes de Amazon Bedrock

0
Build a conversational data assistant, Part 1: Text-to-SQL with Amazon Bedrock Agents

Un nuevo avance en la transformación del análisis de datos se ha materializado con el desarrollo de la Asistencia de Datos de Devoluciones y ReCommerce (RRDA) en la organización de Devoluciones y ReCommerce de Amazon. Este sistema, impulsado por inteligencia artificial generativa, promete reemplazar horas de análisis de datos por interacciones simples a través de una conversación natural. En muchas empresas, la conexión entre preguntas comerciales y datos procesables sigue siendo un reto. Los equipos de negocio a menudo se ven atrapados en ciclos interminables, buscando las definiciones de métricas y las fuentes de datos correctas para elaborar consultas SQL manualmente.

Con más de 450,000 consultas SQL ejecutadas anualmente en sus almacenes de datos, Amazon se enfrentó a un importante cuello de botella en sus equipos de inteligencia empresarial y análisis. Por ello, era fundamental implementar una solución autoservicio que pudiera manejar la complejidad empresarial inherente. El RRDA ha capacitado a más de 4,000 usuarios no técnicos para identificar métricas correctas, construir consultas SQL validadas y generar visualizaciones complejas mediante un enfoque conversacional.

A través de una conexión WebSocket yAWS Lambda, el RRDA permite a los usuarios obtener respuestas rápidas, logrando una resolución de consultas hasta un 90% más rápida, reduciendo así el tiempo de espera de horas a minutos. Este sistema gestiona múltiples flujos de trabajo de información, desde la generación de SQL hasta la entrega de visualizaciones, optimizando así el acceso y la utilización de datos.

Además, la arquitectura del RRDA utiliza un agente de Amazon Bedrock, el cual organiza consultas y respuestas, asegurando que las soluciones sean precisas y relevantes por medio de un modelo híbrido que combina rapidez y potencia. Con la creación de un diccionario de métricas, el sistema proporciona definiciones claras y consultas SQL que se validan en tiempo real, lo cual refuerza la confiabilidad del sistema.

En conclusión, la Asistencia de Datos de Devoluciones y ReCommerce no solo respalda la agilización de procesos analíticos, sino que también democratiza el acceso a la información, permitiendo a usuarios sin conocimientos técnicos obtener respuestas rápidas y precisas, mejorando así la toma de decisiones basadas en datos dentro de la organización.
vía: AWS machine learning blog

Procesamiento Inteligente de Documentos a Gran Escala con IA Generativa y Automatización de Datos en Amazon Bedrock

0
Intelligent document processing at scale with generative AI and Amazon Bedrock Data Automation

En un entorno empresarial donde la extracción de información de documentos no estructurados se ha convertido en una tarea habitual, la compañía AWS ha lanzado una innovadora herramienta llamada Amazon Bedrock Data Automation. Esta nueva funcionalidad permite a las organizaciones automatizar la generación de insights valiosos a partir de contenido multimodal, como documentos, imágenes, vídeos y audio, mediante una API unificada. La inteligencia artificial generativa facilita este proceso sin la necesidad de costosas anotaciones de datos o entrenamiento de modelos, lo cual representa un avance significativo en la implementación de procesamiento inteligente de documentos (IDP).

Amazon Bedrock Data Automation destaca por su facilidad de uso, precisión y capacidad de servicio gestionado. Esta herramienta asume la complejidad del análisis de documentos y la gestión del contexto, permitiendo a los desarrolladores enfocarse en la lógica de negocio en lugar de en los detalles de implementación. Aunque satisface la mayoría de las necesidades de IDP, algunas organizaciones podrían requerir personalizaciones adicionales, como el uso de modelos fundacionales autohospedados debido a requisitos regulatorios o una infraestructura que no está cubierta por la disponibilidad actual del servicio.

La solución presentada por AWS facilita la creación de aplicaciones de IDP de extremo a extremo. A través de una infraestructura como código (IaC) implementada mediante el Kit de Desarrollo de la Nube de AWS, los usuarios pueden transformar documentos en tablas estructuradas a gran escala. Ello solo requiere que el usuario suba los documentos relevantes y especifique las características que desea extraer.

Un aspecto notable de esta solución es su capacidad para manejar flujos de trabajo complejos mediante el uso de AWS Step Functions. Esto permite la paralelización del procesamiento de múltiples documentos y la integración de funciones Lambda que llaman a Amazon Bedrock Data Automation o a Amazon Textract, dependiendo del modo de análisis seleccionado.

La llegada de Amazon Bedrock Data Automation representa un avance en la capacidad de las empresas para manejar información no estructurada, mejorando la eficiencia y precisión en el análisis de documentos variados. Además, la solución es adaptable a diferentes tipos de documentos, lo que la convierte en una herramienta muy útil para diversas aplicaciones comerciales.

La compañía ha puesto a disposición de los interesados una guía detallada y los pasos necesarios para implementar esta solución, asegurando que incluso aquellos sin experiencia técnica avanzada puedan beneficiarse de estas innovaciones. Esto marca un nuevo capítulo en la digitalización de procesos empresariales, donde la inteligencia artificial y el manejo eficaz de datos se entrelazan para proporcionar valor inmediato.
vía: AWS machine learning blog

Optimiza Flujos de Trabajo de Machine Learning con SkyPilot en Amazon SageMaker HyperPod

0
Streamline machine learning workflows with SkyPilot on Amazon SageMaker HyperPod

La rápida evolución de la inteligencia artificial generativa y los modelos de fundación ha incrementado significativamente los requisitos de recursos computacionales para las cargas de trabajo de aprendizaje automático. Los modernos pipelines de aprendizaje automático demandan sistemas eficientes que distribuyan las cargas a través de recursos de computación acelerada, asegurando, al mismo tiempo, que la productividad de los desarrolladores se mantenga alta. Las organizaciones requieren soluciones de infraestructura que no solo sean potentes, sino también flexibles, resilientes y fáciles de gestionar.

SkyPilot es un marco de código abierto que simplifica la ejecución de cargas de trabajo de aprendizaje automático al proporcionar una capa de abstracción unificada. Esto permite a los ingenieros de ML ejecutar sus trabajos en diferentes recursos de computación sin tener que lidiar con las complejidades de la infraestructura subyacente. Ofrece una interfaz sencilla y de alto nivel para aprovisionar recursos, programar trabajos y gestionar el entrenamiento distribuido a través de múltiples nodos.

En este contexto, Amazon SageMaker HyperPod se presenta como una infraestructura diseñada específicamente para el desarrollo y despliegue de modelos de gran escala. HyperPod no solo permite la flexibilidad de crear y utilizar su propio stack de software, sino que también proporciona un rendimiento óptimo al colocar instancias de manera eficiente y contar con resiliencia incorporada. La combinación de HyperPod y SkyPilot ofrece un marco robusto para escalar las cargas de trabajo de IA generativa.

A medida que las cargas de trabajo de aprendizaje automático se hacen más complejas, el uso de Kubernetes ha ganado popularidad gracias a su escalabilidad y su rico ecosistema de herramientas de código abierto. SageMaker HyperPod, orquestado en Amazon Elastic Kubernetes Service (EKS), fortalece la resiliencia mediante comprobaciones de salud profundas, recuperación automatizada de nodos y capacidades de reanudación de trabajos, lo que proporciona un entrenamiento ininterrumpido para trabajos a gran escala y de larga duración. Sin embargo, los ingenieros de ML que hacen la transición de entornos tradicionales enfrentan una curva de aprendizaje empinada, ya que la complejidad de los manifiestos de Kubernetes y la gestión de clústeres pueden ralentizar sus ciclos de desarrollo.

Para abordar estos desafíos, se han unido esforços entre SageMaker HyperPod y SkyPilot, combinando la gestión robusta de recursos de computación de SageMaker con una interfaz intuitiva para la gestión de trabajos. Esta colaboración permite que los ingenieros y equipos de infraestructura de IA se centren en la innovación en lugar de en la complejidad de la infraestructura.

SkyPilot ayuda a los equipos de IA a ejecutar sus cargas de trabajo en diferentes infraestructuras con una interfaz de alto nivel que gestiona de forma eficaz los recursos y trabajos. Un ingeniero de IA puede especificar los requisitos de recursos de su trabajo; SkyPilot programa inteligencia las cargas de trabajo en la mejor infraestructura disponible, provisionando la GPU y gestionando todo el ciclo de vida del trabajo.

Implementar esta solución es sencillo, ya sea que se trabaje con clústeres existentes de SageMaker HyperPod o se esté configurando una nueva implementación. Los pasos incluyen conectar utilizando comandos de AWS Command Line Interface (AWS CLI) y configurar las opciones de red de alto rendimiento como Elastic Fabric Adapter (EFA).

Además, con SkyPilot, se pueden lanzar clústeres para desarrollo interactivo y ejecutar tareas de entrenamiento distribuidas en SageMaker HyperPod, todo mientras se monitorean los recursos y se facilitan las conexiones necesarias para el trabajo en equipo. Dado que la complejidad de las cargas de trabajo de IA sigue creciendo, este enfoque integral permite a las organizaciones innovar y experimentar sin los obstáculos tradicionales.
vía: AWS machine learning blog

Métodos Avanzados de Ajuste Fino en Amazon SageMaker AI

0
Advanced fine-tuning methods on Amazon SageMaker AI

Amazon ha dado un paso significativo en el desarrollo de modelos de lenguaje de gran tamaño (LLM) mediante el uso de SageMaker AI, ofreciendo una guía tanto teórica como práctica para organizaciones que buscan optimizar sus proyectos de inteligencia artificial. Este entorno facilita la toma de decisiones alineadas con necesidades específicas, limitaciones de recursos y objetivos comerciales.

El artículo destaca tres aspectos fundamentales del desarrollo de LLM: las etapas del ciclo de vida del modelo, las metodologías de ajuste fino y las técnicas de alineación crítica que garantizan un despliegue responsable de la inteligencia artificial. Entre estas metodologías, se explora el Ajuste Eficiente de Parámetros (PEFT), con técnicas como LoRA y QLoRA que permiten a organizaciones de todos los tamaños adaptar modelos grandes a sus necesidades concretas. Además, se examinan enfoques de alineación como el Aprendizaje por Refuerzo desde Retroalimentación Humana (RLHF) y la Optimización de Preferencias Directas (DPO), los cuales aseguran que estos sistemas complejos se comporten de acuerdo con los valores humanos.

El proceso de pre-entrenamiento sienta las bases para el funcionamiento de los LLM, donde los modelos desarrollan una comprensión general del lenguaje a través de millones de datos textuales. Esta etapa es crucial y requiere altos recursos computacionales, incluyendo miles de GPUs. El pre-entrenamiento se complementa con el pre-entrenamiento continuado, que ajusta modelos a dominios específicos antes de su afinación final. Esto es especialmente útil en sectores como la medicina, donde se debe considerar la terminología especializada.

Las metodologías de alineación son esenciales para que los LLM se comporten de manera alineada con las preferencias humanas. Técnicas como el RLHF transforman la retroalimentación humana en señales de recompensa para guiar el comportamiento del modelo. Por otro lado, la DPO simplifica este proceso mediante la optimización directa del modelo sin la complejidad de ciclos de entrenamiento de RL.

La fase de ajuste fino es donde un modelo pre-entrenado se entrena específicamente para tareas concretas, equilibrando la preservación de su conocimiento general con la incorporación de nuevas habilidades. Se utilizan enfoques como el Ajuste Fino Supervisado, que actualiza los parámetros del modelo con conjuntos de datos curados, y el PEFT, que permite adaptaciones de modelos con requisitos computacionales reducidos.

Amazon también facilita optimizaciones en el desarrollo de LLM mediante técnicas como la cuantización, que reduce el tamaño de los modelos, y la destilación de conocimiento, que permite que modelos más pequeños aprendan de modelos más grandes, mejorando su rendimiento sin incrementar significativamente los requisitos de recursos. La formación con precisión mixta y la acumulación de gradientes son otras técnicas que permiten entrenar modelos complejos de manera más eficiente.

En conclusión, AWS ofrece una suite de herramientas robustas para el desarrollo y optimización de modelos de inteligencia artificial, destacando la flexibilidad para adaptarse a cualquier nivel de sofisticación. El viaje hacia la adaptación de modelos en la nube está apenas comenzando, y Amazon se comprometió a ofrecer soporte en cada paso del camino.
vía: AWS machine learning blog

Anuncio de la Vista Previa de Windows 11 Insider Build 27898 (Canal Canary)

0
Announcing Windows 11 Insider Preview Build 27898 (Canary Channel)

Microsoft ha lanzado una nueva versión de Windows 11, la Insider Preview Build 27898, destinada al canal Canary, donde los usuarios podrán experimentar mejoras y nuevas características.

Una de las principales innovaciones es el escalado de iconos en la barra de tareas. Esta función permite que los iconos se reduzcan automáticamente cuando la barra de tareas se llena de aplicaciones fijas o abiertas, facilitando así el acceso a más aplicaciones sin necesidad de utilizar un menú secundario. Los usuarios pueden personalizar esta opción para que se aplique cuando la barra esté llena, nunca o siempre.

Otra característica destacada es la recuperación rápida de máquinas, que detecta y resuelve problemas comunes en dispositivos con Windows 11. Cuando se activa, si un dispositivo enfrenta un problema de inicio, entra en el entorno de recuperación de Windows, se conecta a internet y Microsoft puede enviar una solución a través de Windows Update, lo que minimiza el tiempo de inactividad.

En cuanto a accesibilidad, se ha introducido la opción de agregar palabras personalizadas al diccionario de Voice Access, mejorando la precisión de la dictado. Esta función estará disponible en varios idiomas, incluidos español y chino.

La nueva función «Screen Curtain» en Narrador permite a los usuarios ocultar su pantalla, asegurando que solo ellos escuchen el contenido a través del lector de pantalla. Esta mejora es especialmente útil en espacios públicos o compartidos.

Además, la actualización incluye cambios en los diálogos de privacidad para permisos de aplicaciones, diseños actualizados y nuevas configuraciones para administrar energía de manera más eficiente, entre otros ajustes. También se han abordado varios problemas técnicos, aunque persisten algunas dificultades, como problemas de conexión y visualización en el Explorador de archivos y la Configuración.

Este lanzamiento refleja el compromiso de Microsoft con la retroalimentación de los usuarios y la mejora continua de su sistema operativo, a medida que exploran nuevas características para futuras versiones.
vía: Microsoft Windows blog

Construyendo un Asistente de Datos Conversacional, Parte 2: Incorporación de Inteligencia Empresarial Generativa con Amazon Q en QuickSight

0
Build a conversational data assistant, Part 2 – Embedding generative business intelligence with Amazon Q in QuickSight

Amazon continúa ampliando el acceso a los datos en su organización de Worldwide Returns & ReCommerce (WWRR) con la introducción de su asistente de datos, el Returns & ReCommerce Data Assist (RRDA). Esta herramienta basada en inteligencia artificial generativa transforma preguntas en lenguaje natural en consultas SQL validadas, facilitando a los usuarios técnicos el acceso a los datos que necesitan. Sin embargo, el tránsito hacia una democratización total de los datos no se limita solo a estas consultas, ya que una parte fundamental del trabajo de WWRR es permitir que los usuarios empresariales visualicen tendencias y patrones sin tener que adentrarse en los resultados de SQL.

La necesidad de obtener conocimientos rápidos y decisivos es primordial, sobre todo cuando se trata de realizar análisis a fondo sobre problemas específicos que no están cubiertos por los informes estándar. Para cerrar la brecha entre las consultas en lenguaje natural y las visualizaciones efectivas, el equipo ha integrado Amazon Q en QuickSight, lo que permite a los usuarios transformar preguntas como “Muéstrame cuántos artículos fueron devueltos en EE.UU. durante los últimos seis meses” en visualizaciones de datos significativas.

La arquitectura del RRDA incluye un sistema de clasificación de intenciones y dominios que permite al asistente determinar si una consulta se debe tratar como una solicitud de visualización o como una necesidad de generación de código SQL. Cuando se identifica una intención de «mostrar métricas», la consulta se dirige hacia una ruta de integración con Amazon Q en QuickSight. Además, se clasifica el dominio empresarial de la consulta, lo que ayuda a enfocar la búsqueda en aquellos contextos específicos que son relevantes para el usuario.

El proceso de recuperación y selección de temas Q es crucial, dado que permite a la herramienta presentar al usuario una lista de temas que pueden ilustrar mejor la información solicitada. Para ello, utiliza un método de búsqueda semántica mediante un modelo de aprendizaje automático que evalúa la capacidad de los temas para responder preguntas concretas. Este enfoque no solo mejora la precisión de las respuestas, sino que también optimiza la experiencia del usuario, que ya no necesita conocer cada uno de los más de 50 temas Q disponibles.

Otro reto que enfrenta el sistema es el de reestructurar las preguntas formuladas por los usuarios en un formato óptimo para su procesamiento por Amazon Q. Gracias a la implementación de la API Converse de Amazon Bedrock, el RRDA reconfigura las preguntas, asegurándose de que mantengan su esencia y contexto original, al mismo tiempo que son expresadas de una manera que QuickSight pueda procesar con eficacia.

Fallas en la formulación de preguntas complejas o imprecisas podrían llevar a visualizaciones subóptimas. La solución de RRDA y su integración en QuickSight permiten que las visualizaciones sean generadas directamente en el contexto de diálogo, lo que mejora la fluidez en el flujo de trabajo y reduce el tiempo necesario para llegar a conclusiones basadas en datos.

Con el respaldo de una base de datos automatizada que se actualiza a diario, el sistema asegura que la información sobre los temas Q esté siempre actualizada. Esto incluye la recolección de preguntas validadas por expertos que son incorporadas continuamente, enriqueciendo así la base de conocimientos y mejorando la calidad de las recomendaciones.

A medida que Amazon continúa mejorando RRDA y utilizando feedback de los usuarios, se espera que este sistema se convierta en una herramienta crucial en la toma de decisiones, permitiendo a los usuarios enfocarse en preguntas e insights, mientras la tecnología se encarga de elaborar las visualizaciones necesarias.
vía: AWS machine learning blog