Inicio Blog Página 2211

Mejora Del Rendimiento Usando Un Mecanismo De Segmentación Personalizado Con Amazon Bedrock

0
Accelerate performance using a custom chunking mechanism with Amazon Bedrock

En la actualidad, las organizaciones enfrentan el desafío de extraer información estructurada de documentos PDF no estructurados, los cuales pueden contener una variedad de elementos como imágenes, tablas, encabezados y texto en diversos formatos, lo que dificulta el análisis eficiente de los datos.

Además, el desempeño de los chatbots y otras aplicaciones de procesamiento de lenguaje natural (NLP) depende en gran medida de la estrategia de división de texto utilizada. Una división inapropiada puede llevar a la pérdida de contexto, resultando en respuestas imprecisas o incoherentes. La eficiencia de los modelos de lenguaje también se ve afectada por el tamaño de los fragmentos, ofreciendo información más detallada en fragmentos más pequeños, pero con dificultades para generalizar, mientras que fragmentos más grandes pueden omitir detalles importantes.

En este contexto, Accenture ha aprovechado las capacidades de personalización de Knowledge Bases para Amazon Bedrock, integrando un flujo de procesamiento de datos y lógica personalizada para crear un mecanismo de división de texto que mejora el desempeño de la Generación Aumentada por Recuperación (RAG) y libera el potencial de los datos en PDF.

El equipo de Accenture creó una base de conocimiento con los resultados financieros de la compañía para cada trimestre desde 2020 hasta 2024. Este documento incluía imágenes, tablas, texto en diferentes formatos y otros elementos ruidosos. El objetivo era extraer información detallada de las tablas y preservar las capacidades de generalización de los modelos de fundación para responder a preguntas generales sobre los resultados financieros.

Después de varias pruebas, se descubrió que el mecanismo de búsqueda no lograba recuperar correctamente la información para los años y trimestres especificados en las consultas. Un ejemplo mostró que, al buscar información del primer trimestre de 2023, el sistema devolvió datos del primer trimestre de 2020. Al identificar problemas en la selección de fragmentos correctos, Accenture decidió cambiar la estrategia de división de texto utilizando las nuevas características de Amazon Bedrock.

El flujo arquitectónico de la solución actualizada sigue los siguientes pasos: creación de una fuente de datos en Amazon S3, uso de Amazon Textract para extraer datos de PDFs, creación de fragmentos basados en los párrafos del resultado de Textract, incorporación de metadatos adicionales para preservar el contexto, y uso de Amazon OpenSearch Service para seleccionar los fragmentos más similares a la consulta del usuario.

El nuevo mecanismo de división de texto evita dividir oraciones o párrafos a la mitad y elimina elementos ruidosos para proporcionar más contexto útil. Entre los principales elementos de los PDFs se destacan las tablas, imágenes, números de página y encabezados de capítulos. Estos últimos ayudan a etiquetar los fragmentos usando metadatos, mejorando la precisión y velocidad de la extracción.

La división de texto personalizada ofrece varios beneficios, como la preservación del contexto, tamaños de fragmentos flexibles, mejora en el desempeño de la recuperación y una integración sin problemas con otros servicios de AWS. Además, la filtración de metadatos proporciona mejoras significativas en la precisión de las respuestas, aunque requiere conocimiento previo de los nombres de los filtros y sus valores correspondientes.

Finalmente, la mejora en la precisión de los resultados utilizando plantillas de sistema ajustadas y el análisis manual de las respuestas demostró que la estrategia de división de texto personalizada con filtración de metadatos ofrece ventajas significativas sobre métodos fijos.

Esta solución conjunta entre Accenture y AWS afianza su relación estratégica y emplea mecanismos probados para transformar los datos en información útil y precisa, maximizando el potencial de los documentos PDF no estructurados en aplicaciones empresariales.
vía: AWS machine learning blog

Fine-tune Meta Llama 3.1 Para Generar IA en Amazon SageMaker JumpStart

0
Fine-tune Meta Llama 3.1 models for generative AI inference using Amazon SageMaker JumpStart

Fine-tuning de los modelos Meta Llama 3.1 con Amazon SageMaker JumpStart permite a los desarrolladores personalizar estos modelos de fundación disponibles públicamente. La colección Meta Llama 3.1 representa un avance significativo en el campo de la inteligencia artificial generativa, ofreciendo una variedad de capacidades para crear aplicaciones innovadoras. Los modelos Meta Llama 3.1 están disponibles en varios tamaños, con 8 mil millones, 70 mil millones y 405 mil millones de parámetros, adaptándose a diversas necesidades de proyectos.

Estos modelos destacan por su capacidad para entender y generar texto con una coherencia y matices impresionantes. Con una longitud de contexto de hasta 128,000 tokens, los modelos Meta Llama 3.1 pueden mantener una profunda conciencia contextual que les permite manejar tareas de lenguaje complejas con facilidad. Además, los modelos están optimizados para una inferencia eficiente, incorporando técnicas como la atención de consulta agrupada (GQA) para ofrecer una respuesta rápida.

Una de las características notables de los modelos Meta Llama 3.1 es su destreza multilingüe. Las versiones instrucción-tuneladas solo de texto (8B, 70B, 405B) han sido diseñadas para el diálogo en lenguaje natural, y han demostrado superar a muchos modelos de chatbots disponibles públicamente en los benchmarks de la industria. Esto los hace adecuados para construir experiencias conversacionales multilingües atractivas que pueden salvar barreras lingüísticas y proporcionar a los usuarios interacciones inmersivas.

En el núcleo de los modelos Meta Llama 3.1, se encuentra una arquitectura de transformador autoregresivo cuidadosamente optimizada. Las versiones afinadas de los modelos también incorporan técnicas avanzadas de fine-tuning, como el fine-tuning supervisado (SFT) y el aprendizaje por refuerzo con retroalimentación humana (RLHF), para alinear las salidas del modelo con las preferencias humanas. Este nivel de refinamiento abre nuevas posibilidades para los desarrolladores, que ahora pueden adaptar estos poderosos modelos de lenguaje para satisfacer las necesidades únicas de sus aplicaciones.

El proceso de fine-tuning permite a los usuarios ajustar los pesos de los modelos preentrenados Meta Llama 3.1 utilizando nuevos datos, mejorando su desempeño en tareas específicas. Esto implica entrenar el modelo en un conjunto de datos adaptado a la tarea en cuestión y actualizar los pesos del modelo para ajustarse a los nuevos datos. El fine-tuning puede llevar a mejoras significativas en el rendimiento con un esfuerzo mínimo, permitiendo a los desarrolladores cumplir rápidamente con las necesidades de sus aplicaciones.

SageMaker JumpStart ahora soporta los modelos Meta Llama 3.1, permitiendo a los desarrolladores explorar el proceso de fine-tuning del modelo Meta Llama 3.1 405B usando la interfaz de usuario y el SDK de SageMaker JumpStart. Se muestra cómo personalizar estos modelos para casos de uso específicos, ya sea que se esté construyendo un chatbot multilingüe, un asistente generador de código, o cualquier otra aplicación de IA generativa. Se proporcionan ejemplos de fine-tuning sin código utilizando la interfaz de usuario de SageMaker JumpStart y fine-tuning utilizando el SDK para SageMaker JumpStart.

Con SageMaker JumpStart, los practicantes de aprendizaje automático pueden elegir entre una amplia selección de modelos de fundación disponibles públicamente. Puedes desplegar modelos a instancias dedicadas de Amazon SageMaker desde un entorno aislado en red y personalizar los modelos usando SageMaker para el entrenamiento y despliegue de modelos.

SageMaker JumpStart ofrece configuraciones predeterminadas para el fine-tuning de las variantes Meta LIama 3.1 405B, 70B y 8B utilizando la técnica QLoRA. La tabla resumen muestra los modelos y sus configuraciones correspondientes de entrenamiento, así como los tipos de entrenamiento auto-supervisado admitidos.

En conclusion, se discute cómo usar la interfaz de usuario de SageMaker JumpStart en SageMaker Studio o el SDK de Python de SageMaker para fine-tuning y desplegar estos modelos. También se proporcionan recomendaciones para el entrenamiento optimizado basado en varias pruebas realizadas. Los resultados muestran que el fine-tuning mejora la capacidad de resumen en comparación con los modelos no afinados. Como próximo paso, se puede intentar el fine-tuning de estos modelos utilizando el código proporcionado en el repositorio de GitHub para probar y evaluar los resultados para tus casos de uso.
vía: AWS machine learning blog

Predicciones del Horóscopo del Miércoles 21 de Agosto de 2024 para Todos los Signos del Zodiaco

0

El 21 de agosto de 2024 promete ser un día lleno de revelaciones y cambios para todos los signos del zodiaco. Como experta en tarot y astrología, he preparado un análisis detallado para cada signo, proporcionando una guía para cómo enfrentar los desafíos y aprovechar las oportunidades que este día tiene para ofrecer.

Aries (21 de marzo – 19 de abril)
Hoy será vital que encuentres un equilibrio entre tus deseos personales y las demandas profesionales. Podrías sentirte dividido, pero mantener la calma te ayudará a tomar la decisión correcta. Un consejo: escucha tu intuición.

Tauro (20 de abril – 20 de mayo)
Se avecinan cambios en el área de las relaciones. Es posible que recibas una noticia importante de alguien cercano. Mantén una comunicación abierta y honesta. En tu vida laboral, destaca tu capacidad para la innovación.

Géminis (21 de mayo – 20 de junio)
Hoy es un buen día para establecer nuevas conexiones sociales. Las conversaciones podrán abrirte puertas inesperadas. En el trabajo, es crucial que gestiones bien tu tiempo para cumplir con todas tus responsabilidades.

Cáncer (21 de junio – 22 de julio)
El día se presenta propicio para el autocuidado y la introspección. Dedica tiempo a reflexionar sobre tus metas y cómo alcanzarlas. En el ámbito laboral, podrías encontrarte con desafíos que pondrán a prueba tu paciencia.

Leo (23 de julio – 22 de agosto)
Tu energía y entusiasmo serán contagiosos hoy. Aprovecha este impulso para liderar proyectos o iniciar nuevas iniciativas. Es un excelente momento para dar pasos decisivos en tus relaciones personales.

Virgo (23 de agosto – 22 de septiembre)
Es un buen día para reorganizar y planificar. La claridad mental será tu aliada, permitiéndote ajustar los detalles que habías pasado por alto. En el entorno familiar, podrías ser mediador en alguna discordia.

Libra (23 de septiembre – 22 de octubre)
Tendrás la oportunidad de resolver asuntos pendientes, especialmente aquellos relacionados con contratos o acuerdos legales. Presta atención a los detalles. En lo sentimental, la armonía reinará si eliges palabras suaves y afectuosas.

Escorpio (23 de octubre – 21 de noviembre)
Es un día para explorar tus profundos sentimientos y emociones. La introspección te ayudará a encontrar respuestas necesarias. En cuestiones financieras, evita inversiones arriesgadas y opta por la prudencia.

Sagitario (22 de noviembre – 21 de diciembre)
La jornada se abre a nuevas oportunidades de viaje o aprendizaje. Mantén los ojos abiertos a las experiencias que se te presentan. En el trabajo, tu optimismo será una fuente de inspiración para otros.

Capricornio (22 de diciembre – 19 de enero)
Hoy podrías trabajar en asuntos financieros que requieran tu atención. Una revisión detallada de tus cuentas podría prevenir futuros problemas. En las relaciones personales, dedica tiempo a escuchar a los demás.

Acuario (20 de enero – 18 de febrero)
La creatividad estará en su punto más alto. Canaliza esa energía en proyectos artísticos o innovadores. En lo profesional, tu visión futurista te permitirá anticiparte a posibles desafíos y superarlos con facilidad.

Piscis (19 de febrero – 20 de marzo)
Dedica tiempo a la meditación y a la conexión espiritual. Estas prácticas te darán una perspectiva más clara ante cualquier dilema. En tu entorno social, tus amigos valorarán tu sensibilidad y comprensión.

Cada signo del zodiaco enfrenta desafíos y oportunidades únicos el 21 de agosto de 2024. Al estar atentos a los movimientos astrológicos y mantener una actitud reflexiva y proactiva, podremos navegar el día con mayor sabiduría y éxito.

Recuerda que estas predicciones son una guía general y que cada individuo puede experimentar estos fenómenos de manera diferente según su carta natal personal. ¡Que los astros te guíen!

Mejorar La Eficiencia De Un Centro De Llamadas Utilizando Inferencia Por Lotes Para La Resumenización De Transcripciones Con Amazon Bedrock

0
Enhance call center efficiency using batch inference for transcript summarization with Amazon Bedrock

Hoy se ha anunciado con entusiasmo la disponibilidad general de la inferencia por lotes para Amazon Bedrock. Esta nueva función permite a las organizaciones procesar grandes volúmenes de datos al interactuar con modelos de base (FMs), abordando una necesidad crítica en varias industrias, incluyendo las operaciones de centros de llamadas.

La resumideración de transcripciones de centros de llamadas se ha vuelto una tarea esencial para las empresas que buscan extraer valiosos insights de las interacciones con los clientes. A medida que el volumen de datos aumenta, los métodos tradicionales de análisis luchan por mantener el ritmo, creando una demanda por una solución escalable.

La inferencia por lotes se presenta como una herramienta convincente para enfrentar este desafío. Al procesar volúmenes sustanciales de transcripciones de texto en lotes, utilizando con frecuencia técnicas de procesamiento en paralelo, este método ofrece beneficios significativos en comparación con los enfoques de procesamiento en tiempo real o bajo demanda. Es particularmente adecuado para operaciones de centros de llamadas a gran escala donde los resultados instantáneos no siempre son un requisito.

En las siguientes secciones, se proporciona una guía detallada paso a paso para implementar estas nuevas capacidades, abarcando desde la preparación de los datos hasta la presentación de trabajos y el análisis de los resultados. También se exploran las mejores prácticas para optimizar los flujos de trabajo de inferencia por lotes en Amazon Bedrock, ayudando a maximizar el valor de sus datos en diferentes casos de uso e industrias.

La función de inferencia por lotes en Amazon Bedrock ofrece una solución escalable para procesar grandes volúmenes de datos en varios dominios. Esta función totalmente gestionada permite a las organizaciones enviar trabajos por lotes a través de una API CreateModelInvocationJob o en la consola de Amazon Bedrock, simplificando las tareas de procesamiento de datos a gran escala.

La implementación de la inferencia por lotes comienza con la preparación de datasets según el modelo elegido para un procesamiento óptimo. Los trabajos por lotes se pueden iniciar y gestionar a través de la consola de Amazon Bedrock o API, y los resultados procesados se integran en los flujos de trabajo o sistemas analíticos existentes.

A continuación, se detallan los pasos para iniciar un trabajo de inferencia por lotes utilizando la consola de Amazon Bedrock, desde configurar los datos de entrada y salida hasta monitorear la ejecución del trabajo. También se explica cómo hacerlo programáticamente usando el SDK de AWS, lo que facilita la integración con flujos de trabajo y tuberías de automatización existentes.

Al finalizar un trabajo de inferencia por lotes, Amazon Bedrock crea una carpeta dedicada en el bucket de S3 especificado, conteniendo un resumen del trabajo y los datos procesados en formato JSONL. Los usuarios pueden acceder a los archivos de salida a través de la consola de Amazon S3 o mediante el SDK de AWS, permitiendo una integración y análisis fluido de los datos procesados.

La inferencia por lotes para Amazon Bedrock proporciona una solución para procesar múltiples entradas de datos en una única llamada API, como se ilustra mediante el ejemplo de resumideración de transcripciones de centros de llamadas. Este servicio totalmente gestionado está diseñado para manejar datasets de diferentes tamaños, ofreciendo beneficios para diversas industrias y casos de uso.

Se anima a los usuarios a implementar la inferencia por lotes en sus proyectos y experimentar cómo puede optimizar sus interacciones con modelos de base a escala.

vía: AWS machine learning blog

Lidl Ofrece El Zapatero Perfecto Para Optimizar Tu Almacenaje En El Cambio De Armario

0
Lidl tiene el zapatero ideal para afrontar el cambio de armario y aumentar la capacidad de almacenaje de tu casa

En una continuación de sus esfuerzos por ofrecer soluciones prácticas y accesibles para el hogar, Lidl ha lanzado un nuevo producto que promete revolucionar el proceso de cambiar la ropa de temporada y optimizar el almacenamiento en las viviendas. Se trata de un zapatero multifuncional que no solo permite reorganizar el calzado de manera eficiente, sino que además, maximiza el espacio disponible en el hogar.

Este innovador zapatero, que ya está disponible en las tiendas de Lidl, ha sido diseñado pensando en la versatilidad y la funcionalidad. Con un tamaño compacto pero una capacidad sorprendente, el mueble puede almacenar hasta 20 pares de zapatos de diferentes tamaños y estilos. Gracias a sus estantes ajustables, es posible adaptar el espacio para acomodar botas altas, zapatillas deportivas y zapatos de tacón sin ningún problema.

El diseño del zapatero también destaca por su facilidad de montaje, lo cual es una ventaja significativa para aquellos que buscan soluciones rápidas y eficaces sin complicaciones. Además, su estructura robusta y materiales de alta calidad aseguran una durabilidad que permitirá su uso durante muchos años, convirtiéndolo en una inversión inteligente para cualquier hogar.

Una de las características más alabadas por los primeros usuarios es la posibilidad de utilizar el zapatero no solo para calzado, sino también para otros accesorios y elementos del vestuario. Por ejemplo, los estantes pueden servir para guardar bolsos, cajas de almacenamiento o incluso ropa doblada, otorgando una flexibilidad extra que se adapta a las necesidades cambiantes del hogar.

Los expertos en almacenamiento doméstico aplauden esta iniciativa de Lidl, resaltando la importancia de productos que ayuden a las familias a mantenerse organizadas y a sacar el máximo provecho a cada rincón de la casa. Especialmente en los meses de cambio de temporada, cuando el armario necesita una reorganización completa, contar con un zapatero eficiente puede hacer una diferencia considerable.

Además, Lidl ha mantenido su compromiso con la asequibilidad al poner a disposición este zapatero a un precio muy competitivo, lo que sin duda atraerá a una amplia gama de consumidores interesados en mejorar la funcionalidad de sus hogares sin realizar grandes gastos.

En resumen, Lidl ha dado un paso adelante con la introducción de este nuevo zapatero multifuncional, proporcionando una solución práctica y económica para afrontar el cambio de armario y optimizar el espacio de almacenamiento en el hogar. Con su diseño versátil y su capacidad para adaptarse a diferentes necesidades, se espera que este producto se convierta rápidamente en un favorito entre los consumidores.

Desbloquea el Poder de la Gobernanza de Datos y el Aprendizaje Automático sin Código con Amazon SageMaker Canvas y Amazon DataZone

0
Unlock the power of data governance and no-code machine learning with Amazon SageMaker Canvas and Amazon DataZone

Amazon Web Services (AWS) ha anunciado dos nuevas herramientas para el manejo y análisis de datos: Amazon DataZone y Amazon SageMaker Canvas. Estas soluciones están diseñadas para facilitar la gestión, descubrimiento, compartición y gobernanza de datos, así como para capacitar a los analistas de negocios y expertos en dominio para construir y desplegar modelos de aprendizaje automático (ML) sin necesidad de codificación.

Amazon DataZone permite la creación y gestión de «zonas de datos», que son lagos de datos virtuales diseñados para almacenar y procesar información sin necesidad de una infraestructura de gestión compleja o extensiva codificación. Esto facilita el acceso y colaboración en toda la organización, permitiendo a ingenieros, científicos de datos, gerentes de producto y usuarios de negocio extraer y colaborar en pro de obtener insights basados en datos.

Por otro lado, Amazon SageMaker Canvas es una herramienta de ML sin código que simplifica la ingestión de datos de fuentes populares como Amazon S3, Amazon Redshift, Amazon Athena, Snowflake, Salesforce y Databricks. Ofrece capacidades robustas de preparación de datos a través de Amazon SageMaker Data Wrangler, construcción automatizada de modelos mediante Amazon SageMaker Autopilot, y uso de modelos de ML pre-construidos, incluidos los modelos de fundamentos de Amazon Bedrock y Amazon SageMaker Jumpstart.

Las empresas pueden utilizar estas soluciones de ML sin código para optimizar operaciones y tomar decisiones informadas sin una sobrecarga administrativa significativa. Por ejemplo, las instituciones financieras pueden usar SageMaker Canvas para la detección de fraudes, permitiendo iteraciones rápidas de modelos que mejoren la eficiencia y precisión. La gobernanza de ML es crucial para asegurar que los datos usados en estos modelos sean precisos, seguros y confiables. La integración de Amazon DataZone y Amazon SageMaker facilita la configuración de infraestructura con controles de seguridad, colaboración en proyectos de ML y gobernanza del acceso a datos y activos de ML.

Con esta integración, los usuarios pueden publicar activos de datos en Amazon DataZone y permitir que otros miembros de la misma organización los descubran y consuman, mejorando así la colaboración y eficiencia en proyectos de ML. La gobernanza de datos y la capacidad de reutilización de los modelos impulsan a las organizaciones a reducir la duplicación de esfuerzos y fomentar el intercambio de conocimientos a lo largo del ciclo de vida del ML.

En resumen, la combinación de SageMaker Canvas y Amazon DataZone proporciona una potente solución para la gobernanza de datos, colaboración y reutilización en proyectos de ML. Las organizaciones pueden aprovechar estas herramientas para casos de uso de inteligencia artificial generativa, habilitando la capacitación y adaptación de grandes modelos de lenguaje u otros modelos fundamentales con políticas de gobernanza robustas, desbloqueando todo el potencial del ML y la inteligencia artificial generativa mientras mantienen control y supervisión sobre sus activos de datos. Se invita a las empresas a explorar esta nueva integración para optimizar sus procesos de preparación de datos, ingeniería de características y construcción de modelos ML, promoviendo la reutilización y el intercambio de modelos dentro de su organización.
vía: AWS machine learning blog

Cómo Prevenir la Aparición de Malas Hierbas Para Mantener Tus Caminos y Zonas de Estar Siempre Limpios

0
Cómo prevenir la aparición de malas hierbas para tener tus caminos y zonas de estar siempre limpias

Mantener caminos y zonas de estar libres de malas hierbas puede ser un desafío constante para los jardineros y propietarios de viviendas. La proliferación de estas plantas no deseadas no solo puede afectar la estética de un espacio, sino también dificultar el tránsito y afectar la salud de otras plantas. No obstante, existen diversas estrategias que pueden ayudar a prevenir su aparición y garantizar que estos espacios se mantengan limpios y atractivos.

Una de las técnicas más efectivas es la aplicación de una capa de mantillo orgánico o inorgánico en los caminos y áreas de estar. Este material actúa como una barrera física que inhibe el crecimiento de las malas hierbas al bloquear la luz solar que estas necesitan para germinar. Además, el mantillo orgánico, como la corteza de árbol o el compost, también mejora la calidad del suelo, aumentando la retención de humedad y aportando nutrientes.

El uso de bordes de jardín es otra práctica recomendada. Estos bordes, que pueden ser de piedra, madera u otros materiales, ayudan a delinear claramente los caminos y áreas de estar, evitando que las malas hierbas se extiendan desde los bordes hacia el interior. Al mismo tiempo, facilitan la labor de mantenimiento, ya que simplifican la identificación y extracción de estas plantas no deseadas.

La implementación de telas anti-malas hierbas es otra solución útil. Estas mallas geotextiles permiten el paso del agua pero impiden el crecimiento de las malas hierbas, ya que bloquean su acceso a la luz. Colocarlas debajo del mantillo o de una capa de grava en los caminos y zonas de estar puede ser muy eficaz para mantener el área libre de vegetación indeseada a largo plazo.

Además, la elección de pavimentos y materiales adecuados para los caminos y áreas de estar es crucial. Optar por superficies de grava compactada o adoquines, en lugar de tierra o césped, reduce significativamente la posibilidad de que las malas hierbas se establezcan. Los pavimentos bien instalados, con juntas adecuadamente selladas, minimizan los espacios donde las semillas de malas hierbas pueden alojarse y germinar.

El mantenimiento regular también juega un papel fundamental en la prevención de malas hierbas. Es esencial revisar periódicamente los caminos y áreas de estar, especialmente después de periodos de lluvia, para detectar y eliminar cualquier brote temprano. Arrancar las malas hierbas cuando aún son pequeñas es mucho más fácil y evita que se dispersen por el área.

La combinación de estas estrategias puede hacer una gran diferencia en la capacidad de mantener los caminos y zonas de estar libres de malas hierbas. Con un enfoque proactivo y el uso de técnicas adecuadas, es posible crear y mantener espacios limpios, ordenados y estéticamente agradables.

Mejora De La Interacción Y Documentación En Salud Con Amazon Bedrock Y Amazon Transcribe Usando El Asistente De Reuniones En Vivo

0
Solution architecture

Actualmente, los médicos pasan alrededor del 49% de su jornada laboral documentando visitas clínicas, lo cual impacta en la productividad y la atención al paciente. Por cada ocho horas programadas con pacientes, los médicos de oficina dedican más de cinco horas en registros electrónicos de salud (EHR). Esta carga documental ha generado un interés significativo en soluciones de inteligencia conversacional. Estas herramientas permiten que el diálogo entre el médico y el paciente sea transcrito automáticamente durante las consultas y posteriormente sintetizado en documentación clínica gracias a la tecnología de inteligencia artificial (IA), agilizando así los procesos.

Una de estas soluciones es el Asistente de Reunión en Vivo (LMA, por sus siglas en inglés) para el sector salud, que utiliza la potencia de la IA generativa y Amazon Transcribe para proporcionar asistencia en tiempo real y elaborar notas clínicas de manera automática durante las consultas virtuales. Esta herramienta, desarrollada inicialmente para la transcripción y toma de notas en reuniones virtuales, ha sido adaptada para generar notas clínicas durante las consultas doctor-paciente de manera más eficiente.

El LMA captura el audio del orador y los metadatos directamente desde aplicaciones de reuniones basadas en navegador (actualmente compatible con Zoom y Chime, con próximas integraciones de otras plataformas) y convierte el habla en texto con Amazon Transcribe. Luego, utilizando modelos básicos de Amazon Bedrock, genera notas clínicas personalizadas en tiempo real. Esto permite a los profesionales de la salud proporcionar recomendaciones personalizadas sin necesidad de dedicar horas adicionales a documentar encuentros con los pacientes. La automatización de la transcripción de conversaciones, combinada con modelos de lenguaje avanzados, facilita la generación de borradores de notas clínicas para EHRs u otros sistemas, reduciendo la carga documental y el riesgo de agotamiento de los clínicos.

Se invita a explorar una demostración que muestra el LMA para el sector salud en acción durante una interacción simulada con un paciente.

Diferencias entre AWS HealthScribe y LMA para el sector salud:

AWS HealthScribe es un servicio basado en API que genera notas clínicas preliminares fuera de línea después de la visita del paciente. Está dirigido a desarrolladores de aplicaciones y ha sido probado rigurosamente contra conjuntos de datos para minimizar errores y garantizar que cada oración en los resúmenes esté vinculada al transcripto original mediante un mapeo de evidencia.

LMA para el sector salud es una solución de aplicación completa y de código abierto que actúa como un asistente virtual para los especialistas, mejorando la productividad y aliviando las cargas administrativas, incluidas las de documentación clínica. Utiliza varios servicios de AWS para proporcionar una experiencia de transcripción en tiempo real y generativa de IA, y puede ser utilizado tal cual, personalizado según sea necesario y adaptado para crear características e integraciones específicas. En el futuro, se espera que LMA para el sector salud utilice la API de AWS HealthScribe además de otros servicios de AWS.

El despliegue de la solución es accesible a través de un repositorio en GitHub y puede implementarse en una cuenta de AWS siguiendo las instrucciones proporcionadas. Esta implementación cubre los pasos para descargar e instalar la extensión del navegador Chrome, iniciar el uso del LMA, el flujo del proceso, procedimientos de monitoreo y resolución de problemas, evaluación de costos y opciones de personalización.

El LMA para el sector salud ofrece diversas ventajas como la reducción del tiempo de documentación clínica, respuestas a preguntas basadas en conocimiento, mayor eficiencia en encuentros con pacientes, personalización y escalabilidad, mejora continua y ahorro de costos.

Para experimentar el impacto del Asistente de Reunión en Vivo para el sector salud, una solución flexible y personalizable dirigida a simplificar la generación de notas clínicas en tiempo real, los proveedores de salud pueden centrarse en lo que realmente importa: ofrecer una atención excepcional al paciente. La aplicación de muestra del LMA está disponible como código abierto, proporcionando una base sólida para proyectos propios, permitiendo mejoras y funcionalidad incrementada a través de solicitudes de mejoramiento en GitHub.

Se agradecen los comentarios y sugerencias a través del foro de problemas en el repositorio de LMA en GitHub.
vía: AWS machine learning blog

Landsat 9: Un Nuevo Horizonte para el Monitoreo de la Tierra

0
El Landsat 9 ya está en órbita para guiar con mejores fotos el futuro de la Tierra

Cualquiera que haya utilizado hasta ahora Google Earth ha visto imágenes de nuestro planeta que solo un satélite puede ofrecerle. Muchas de ellas provienen de la misión Landsat, cuyos satélites han monitoreado cómo ha ido cambiando la Tierra durante casi 50 años. Ahora la NASA y el Servicio Geológico de los Estados Unidos (USGS, por sus siglas en inglés) han lanzado esta semana el último satélite de la familia, Landsat 9, para continuar brindando imágenes que ayudan a los expertos a gestionar los incendios forestales y los recursos hídricos, así como a rastrear los impactos del cambio climático.

La importancia de este programa reside en ‘guiar’ las decisiones políticas y científicas, así como salvaguardar los recursos naturales a partir de las imágenes del planeta que ha capturado desde hace casi 50 años, según sus promotores. Landsat 9 orbitará la Tierra a una distancia de 705 kilómetros de altura, desde donde aportará diariamente unas 700 fotografías de la superficie de nuestro planeta. Junto a Landsat 8, registrarán el planeta completo cada 8 días. Según subrayó Deb Haaland, Secretaria de Estado de EEUU, el nuevo satélite aportará información muy valiosa, y ambos “nos ayudarán en gran medida a guiarnos”. Haaland explicó que la información que proveen los Landsat sirve para tomar decisiones en medio de una crisis climática donde sus impactos son cada vez más notables.

Fabricado por la empresa Northrop Grumman, este satélite de observación de la Tierra despegó el pasado lunes desde la base aérea de Vandenberg (California), a bordo de un cohete Atlas V. Las imágenes que tome se sumarán a un archivo de más de 9 millones de registros del Landsat, que han sido testigos del cambio de la Tierra como parte de un programa de la NASA en conjunto con el USGS. “La forma en que lo pienso es que es casi como una pintura. Nuestra investigación es la pintura. El Landsat sería el lienzo”, manifestó Thomas Zurbuchen, administrador asociado de ciencia de la NASA sobre el programa.

Tras el lanzamiento, el administrador de la NASA, Bill Nelson, señaló que la iniciativa Landsat es crucial para luchar contra el cambio climático. “Ayuda a los agricultores, a los científicos a comprender y gestionar los recursos de la tierra y todo lo que se necesita para sustentar la vida humana, como alimentos, agua y bosques”, enfatizó. Nelson resaltó que este programa, que comenzó en 1972, “establece un registro a largo plazo de nuestro planeta y nos permite rastrear los cambios y los impactos del cambio climático”, desarrollando «la capacidad para medir realmente lo que está sucediendo». Por su parte, Karen Germain, de la división de Ciencias de la Tierra de la NASA explica que este registro histórico “nos ayuda a comprender no solo que el cambio climático está ocurriendo, sino cómo de rápido y si está acelerando, y lo que ambas cosas significan para nosotros”.

Las condiciones meteorológicas del lunes permitieron el lanzamiento del nuevo satélite, con una tecnología y resolución mejoradas con respecto a su predecesor. Pese a la presencia de nubes, neblina e incluso humo de incendios forestales antes del despegue, «el lanzamiento se llevó a cabo sin incidentes», explicó la NASA durante la transmisión. La agencia detalló que la etapa superior del cohete “logró la órbita síncrona solar casi polar deseada para Landsat 9 tras poco más de 16 minutos de vuelo”, después de lo cual se disponía hacia el otro lado de la Tierra para liberar la nave espacial.

Las imágenes que proporciona la misión Landsat “permiten rastrear qué cultivos sembrar, la deforestación, el impacto de los incendios forestales, la disponibilidad de agua potable de lagos como el Erie, o inclusive la ‘magia’ de saber cuánta agua están utilizando los cultivos”, según la oceanógrafa de la NASA Laura Lorenzi. La investigadora resaltó que el nuevo satélite ahondará en el entendimiento de las zonas costeras y las superficies de los océanos, lagos y reservorios gracias a una banda adicional que permite ver en el espectro azul. La experta explicó que antes del Landsat 8, lanzado en 2013, las imágenes mostraban los cuerpos de agua como una mancha negra, que impedía analizar estas superficies, aunque sí proveían información sobre el deterioro de los arrecifes. Este nuevo observatorio cuenta con un Sensor de Infrarrojos Térmico 2 para calcular la humedad del suelo y detectar la salud de las plantas, y con el sensor Operational Land Imager 2, que proporciona datos en las porciones del espectro visible, infrarrojo cercano e infrarrojo de onda corta.
Fuente: Agencia Sinc

Receta Ideal para un Miércoles de Verano: Ensalada de Pasta con Pollo y Verduras Frescas

0

El verano es la estación perfecta para disfrutar de recetas frescas y ligeras que nos ayuden a combatir el calor sin renunciar al sabor. Si buscas una opción deliciosa y nutritiva para un miércoles de verano, la ensalada de pasta con pollo y verduras frescas es una excelente elección. Es fácil de preparar, rica en nutrientes y perfecta tanto para el almuerzo como para la cena. A continuación, te presento todos los detalles que necesitas para elaborar este plato.

Ingredientes:

  • 250 g de pasta (puedes usar penne, fusilli o cualquier otra de tu preferencia)
  • 200 g de pechuga de pollo
  • 1 pimiento rojo
  • 1 pimiento verde
  • 1 pepino
  • 100 g de tomates cherry
  • 1 zanahoria
  • 50 g de maíz dulce
  • 75 g de aceitunas negras sin hueso
  • 100 g de queso feta
  • 2 cucharadas de aceite de oliva
  • El zumo de medio limón
  • Sal y pimienta al gusto
  • 1 cucharadita de orégano

Preparación:

  1. Cocción de la pasta: Comienza hirviendo agua en una olla grande. Añade una pizca de sal y, cuando el agua esté hirviendo, incorpora la pasta. Cocina según las instrucciones del paquete hasta que esté al dente. Una vez cocida, escúrrela y enjuágala con agua fría para detener la cocción y enfriarla un poco.

  2. Preparación del pollo: Mientras la pasta se cocina, corta la pechuga de pollo en tiras delgadas o en cubitos, como prefieras. Calienta una sartén con un poco de aceite de oliva y cocina el pollo a fuego medio-alto hasta que esté dorado y completamente cocido por dentro. Sazona con sal y pimienta mientras se cocina. Una vez hecho, déjalo enfriar.

  3. Corte y preparación de las verduras: Lava bien todas las verduras. Corta los pimientos en tiras finas, el pepino en rodajas y los tomates cherry por la mitad. Pela la zanahoria y rállala fina. Si es necesario, escurre el maíz dulce.

  4. Mezcla de ingredientes: En un bol grande, mezcla la pasta ya enfriada con las verduras preparadas y el pollo cocido. Añade las aceitunas negras y el queso feta desmenuzado.

  5. Aderezo: En un recipiente pequeño, prepara el aderezo mezclando el aceite de oliva, el zumo de limón, el orégano, sal y pimienta al gusto. Bate bien hasta que todos los ingredientes estén bien integrados.

  6. Montaje final: Vierte el aderezo sobre la ensalada y mezcla suavemente hasta que todos los ingredientes estén bien cubiertos.

  7. Servir: Puedes servir la ensalada de pasta con pollo y verduras frescas inmediatamente o refrigerarla durante una hora para que esté bien fresca. Esta ensalada se conserva bien en el refrigerador durante un par de días, lo cual es ideal si deseas hacerla con antelación.

Esta ensalada de pasta es una combinación perfecta de carbohidratos saludables, proteínas y una variedad de verduras frescas que aportan vitaminas y minerales esenciales. Además, es muy versátil: puedes agregar tus ingredientes favoritos o aquellos que tengas en casa, como aguacate, espinacas frescas o incluso frutos secos para darle un toque crujiente.

Disfruta de esta receta refrescante y nutritiva en un miércoles de verano y deja que tus papilas gustativas se deleiten con cada bocado. ¡Buen provecho!