Inicio Blog Página 2016

Casos De Uso De Visión Con Modelos Llama 3.2 11B y 90B De Meta

0
Vision use cases with Llama 3.2 11B and 90B models from Meta

Hoy, Amazon ha anunciado la disponibilidad de los modelos Llama 3.2 en Amazon SageMaker JumpStart y Amazon Bedrock. Los modelos Llama 3.2 representan una colección de avanzados modelos de inteligencia artificial generativa, pre-entrenados y ajustados mediante instrucciones. Estos modelos están disponibles en diversas configuraciones, desde ligeros modelos de solo texto con 1.000 millones (1B) y 3.000 millones (3B) de parámetros, adecuados para dispositivos periféricos, hasta modelos más robustos de 11.000 millones (11B) y 90.000 millones (90B) de parámetros, capaces de realizar tareas de razonamiento sofisticado, incluyendo soporte multimodal para imágenes de alta resolución.

SageMaker JumpStart es una plataforma de aprendizaje automático que proporciona acceso a algoritmos, modelos y soluciones de ML para que los usuarios puedan comenzar rápidamente. Por su parte, Amazon Bedrock es un servicio totalmente gestionado que ofrece una selección de modelos fundacionales de alto rendimiento de compañías líderes en IA, como Meta, mediante una sola API, junto con un conjunto amplio de capacidades necesarias para construir aplicaciones de IA generativa con seguridad, privacidad y responsabilidad.

En un reciente comunicado, Amazon ha demostrado cómo utilizar los modelos Llama 3.2 11B y 90B para diversos casos de uso basados en visión. Esta es la primera vez que los modelos Llama de Meta se lanzan con capacidades de visión, ampliando así la aplicabilidad de estos modelos más allá de las aplicaciones tradicionales solo de texto. Los casos de uso basados en visión discutidos incluyen respuesta a preguntas visuales de documentos, extracción de información estructurada de imágenes y generación de subtítulos para imágenes.

Los modelos Llama 3.2 11B y 90B son multimodales, ya que admiten entrada y salida de texto, así como entrada de texto+imagen y salida de texto. Estos modelos son los primeros de la serie Llama en soportar tareas de visión, con una arquitectura de modelo nueva que integra representaciones del codificador de imágenes en el modelo de lenguaje. Están diseñados para ser más eficientes en cargas de trabajo de IA, con una latencia reducida y un rendimiento mejorado, lo que los hace adecuados para una amplia gama de aplicaciones. Además, todos los modelos Llama 3.2 admiten una longitud de contexto de 128.000 tokens, manteniendo la capacidad de tokens ampliada introducida en Llama 3.1, y ofrecen mejor soporte multilingüe para ocho idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Los modelos Llama 3.2 ya están disponibles para inferencias en SageMaker JumpStart y Amazon Bedrock. En SageMaker JumpStart, se puede acceder a estos modelos inicialmente en la región AWS US East (Ohio) y soportan los tipos de instancias requeridos. Los modelos Llama 3.2 90B y 11B de Meta también están disponibles en Amazon Bedrock en las regiones US West (Oregon) y US East (Ohio, N. Virginia) mediante inferencia entre regiones. Los modelos Llama 3.2 1B y 3B están disponibles en las regiones US West (Oregon) y Europa (Frankfurt), y en las regiones US East (Ohio, N. Virginia) y Europa (Irlanda, París) con disponibilidad regional ampliada planificada para el futuro.

Además de su integración en SageMaker y Bedrock, se han presentado diversos ejemplos de uso práctico de los modelos Llama 3.2 en tareas como respuesta a preguntas sobre documentos, extracción de entidades y generación de subtítulos, demostrando su amplio potencial y utilidad en industrias como el comercio electrónico, el marketing y más.
vía: AWS machine learning blog

El Momento Perfecto Para El Último Corte De Césped Antes Del Invierno

0
Yo tampoco sabía que este es el momento clave para hacer el último corte de césped justo antes del invierno

Con la llegada del otoño y la proximidad del invierno, muchos propietarios de jardines y aficionados a la jardinería descubren que este es el momento crucial para llevar a cabo el último corte de césped del año. Sin embargo, no todos están al tanto de la importancia de esta tarea en esta época específica.

El mantenimiento adecuado del césped en otoño es esencial para asegurar un jardín saludable y vibrante en la primavera siguiente. Durante los últimos días cálidos del otoño, el césped aún está en crecimiento, aunque de manera más ralentizada debido a las temperaturas en descenso. Realizar el último corte en estas semanas permite preparar el terreno para los meses fríos, minimizando el riesgo de enfermedades y asegurando que el césped tenga una buena estructura para soportar las heladas.

Especialistas en jardinería recomiendan ajustar la altura de corte a un nivel moderado, alrededor de 5 cm. Este equilibrio permite que las raíces del césped se mantengan fuertes y que haya suficiente longitud para protegerse del frío, pero no tanto como para que el césped se doble bajo la nieve, lo que podría generar condiciones propicias para hongos y plagas.

Además de cortar el césped, se aconseja limpiar todas las hojas y desechos del jardín. Esto previene la acumulación de humedad que puede llevar a enfermedades fúngicas. La aireación del suelo también es una práctica beneficiosa. Consiste en perforar pequeñas aberturas en el suelo para permitir que el aire, el agua y los nutrientes lleguen a las raíces de manera más efectiva.

Muchos propietarios subestiman la importancia de este último corte del césped y las prácticas complementarias de mantenimiento. Sin embargo, invertir tiempo en estas tareas puede resultar en un césped más denso y resistente en la primavera, evitando problemas que pueden requerir tratamientos más costosos y laboriosos.

En resumen, este periodo del otoño, justo antes de la llegada del invierno, es un momento estratégico para el cuidado del césped. Aquellos que aún no han hecho su último corte deberían considerar hacerlo ahora. Mantenerse informado y realizar estas tareas no solo contribuye a un jardín más estético, sino también más saludable y sostenible a largo plazo.

Elevate RAG para Análisis Numérico Utilizando Bases de Conocimiento de Amazon Bedrock

0
Elevate RAG for numerical analysis using Amazon Bedrock Knowledge Bases

En el ámbito de la inteligencia artificial generativa, la Técnica de Recuperación Aumentada de Generación (RAG) ha surgido como una herramienta poderosa que permite a los modelos de base utilizar fuentes de conocimiento externas para una generación de texto mejorada. Amazon Bedrock es un servicio completamente gestionado que ofrece la posibilidad de elegir entre modelos de alto rendimiento de empresas líderes en inteligencia artificial como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI y Amazon a través de una única API, junto con un amplio conjunto de capacidades para desarrollar aplicaciones de inteligencia artificial generativa con seguridad, privacidad e inteligencia artificial responsable.

La capacidad de Amazon Bedrock Knowledge Bases ayuda a implementar todo el flujo de trabajo de RAG, desde la ingestión hasta la recuperación y la ampliación de los prompts, sin necesidad de construir integraciones personalizadas a fuentes de datos y gestionar flujos de datos. Sin embargo, RAG ha enfrentado desafíos, especialmente al aplicarlo para el análisis numérico, como cuando la información está incrustada en tablas anidadas complejas. Las últimas innovaciones en Amazon Bedrock Knowledge Bases proporcionan una solución a este problema.

Con RAG, se introduce un componente de recuperación de información que utiliza la entrada del usuario para extraer primero información relevante de una fuente de datos. Tanto la consulta del usuario como la información relevante se proporcionan al modelo de lenguaje grande (LLM). El LLM utiliza el nuevo conocimiento y sus datos de entrenamiento para crear mejores respuestas.

Aunque este enfoque promete mucho para documentos textuales, la presencia de elementos no textuales, como tablas, plantea un desafío significativo. Una de las dificultades es que la estructura de la tabla puede ser difícil de interpretar cuando se consulta directamente contra documentos en PDF o Word. Esto se puede abordar transformando los datos en un formato como texto, markdown o HTML. Otro problema radica en la búsqueda, recuperación y división de documentos que contienen tablas. El primer paso en RAG es dividir un documento para transformar esa parte de datos en un vector para una representación significativa del texto. Sin embargo, al aplicar este método a una tabla, incluso si se convierte en texto, existe el riesgo de que la representación vectorial no capture todas las relaciones en la tabla. Como resultado, al intentar recuperar información, se pierde mucha información y el LLM no proporciona respuestas precisas a las preguntas.

Amazon Bedrock Knowledge Bases ofrece tres capacidades para resolver este problema:

  1. Búsqueda híbrida: Una búsqueda híbrida recupera información basada en el significado semántico a través de representaciones vectoriales, así como a través de palabras clave. Esto permite que la información sobre campos clave específicos que antes se perdía al utilizar únicamente la búsqueda semántica, sea recuperada, y el LLM pueda proporcionar respuestas correctas de manera precisa.
  2. Fragmentación de datos en tamaños fijos: Se puede especificar un tamaño fijo para los datos que finalmente se transforman en un vector. Tamaños pequeños implican menores cantidades de datos y viceversa.
  3. Recuperación de un gran número de fragmentos de los resultados de búsqueda: Estos son la cantidad de fragmentos recuperados como resultado de la búsqueda. Cuantos más resultados se recuperen, más contexto se proporciona al LLM para obtener una respuesta.

Usar una combinación de estas características puede mejorar el análisis numérico de información en varios documentos que contienen datos en tablas. A continuación, se demuestra este enfoque utilizando un conjunto de documentos de ganancias de Amazon.

Visión general de la solución

El diagrama a continuación ilustra la arquitectura a alto nivel de nuestra solución para analizar documentos numéricos.

(Imagen ilustrativa de la arquitectura del sistema)

El flujo de llamadas del usuario consiste en los siguientes pasos:

  1. El proceso comienza con la carga de uno o más documentos por parte del usuario, lo que inicia el flujo de trabajo.
  2. La aplicación Streamlit, diseñada para facilitar la interacción del usuario, toma estos documentos cargados y los almacena en un bucket de Amazon Simple Storage Service (Amazon S3).
  3. Después de que los documentos son copiados con éxito en el bucket de S3, el evento invoca automáticamente una función AWS Lambda.
  4. La función Lambda invoca la API de la base de conocimientos de Amazon Bedrock para extraer embeddings, representaciones de datos esenciales de los documentos cargados.
  5. Con los documentos procesados y almacenados, la interfaz gráfica de la aplicación se vuelve interactiva. Los usuarios pueden ahora interactuar con la aplicación haciendo preguntas en lenguaje natural.
  6. Cuando un usuario envía una pregunta, la aplicación convierte esta consulta en embeddings de consulta, encapsulando la esencia de la pregunta del usuario y ayudando a recuperar el contexto relevante de la base de conocimientos.
  7. Se puede usar la API Retrieve para consultar la base de conocimientos con información recuperada directamente de la misma. La API RetrieveAndGenerate utiliza los resultados recuperados para aumentar el prompt del modelo de fundamentos (FM) y devuelve la respuesta.
  8. Utilizando un método de búsqueda híbrida que combina técnicas basadas en palabras clave y técnicas basadas en semántica, la aplicación busca en su base de conocimientos información relevante relacionada con la consulta del usuario.
  9. Cuando se identifica el contexto relevante, la aplicación reenvía esta información, junto con la consulta del usuario y el contexto recuperado, al módulo LLM.
  10. El módulo LLM procesa la consulta y el contexto proporcionado para generar una respuesta.
  11. La aplicación entrega la respuesta generada al usuario a través de su GUI, completando así el ciclo de interacción.

En las siguientes secciones, detallamos los pasos para crear un bucket S3 y una base de conocimiento, desplegar la aplicación Streamlit con AWS CloudFormation y probar la solución.

vía: AWS machine learning blog

Transportes Licita Obras para Mitigar Ruido en A-7 y A-92 en El Ejido, La Mojonera, Vícar y Gádor

0

El Ministerio de Transportes y Movilidad Sostenible ha anunciado la licitación de las obras destinadas a reducir el ruido proveniente de las autovías A-7 y A-92, que atraviesan las localidades de El Ejido, La Mojonera, Vícar y Gádor, en la provincia de Almería. La inversión total de esta intervención asciende a 14,12 millones de euros, IVA incluido.

Con el objetivo de mejorar la calidad de vida de los habitantes afectados por el ruido de vehículos, se instalarán 3,3 kilómetros de pantallas acústicas, que podrán alcanzar hasta 6 metros de altura. Además, se extenderán 4,8 kilómetros de pavimento fonoabsorbente a lo largo de las autovías mencionadas. Estas medidas forman parte del Plan de Acción contra el Ruido y cuentan con financiación del Plan de Recuperación, Transformación y Resiliencia, enfocado en la sostenibilidad, eficiencia energética y la acción contra el ruido.

Esta actuación se publicará formalmente en el Boletín Oficial del Estado (BOE) y forma parte de los esfuerzos del gobierno para cumplir con los objetivos de desarrollo sostenible y mejora de la infraestructura nacional.
vía: Plan de Recuperación Gobierno de España

Transformé Mi Cocina En Media Hora Con Este Producto De Ikea Que Cuesta Menos De 40 Euros Y Es Ideal Para Pisos De Alquiler

0
Transformé mi cocina en media hora con este producto de Ikea que cuesta menos de 40 euros y sirve para pisos de alquiler

Madrid, 10 de octubre de 2023 – En tiempos donde cada minuto cuenta y el presupuesto es ajustado, renovar espacios del hogar puede parecer una tarea inalcanzable. Sin embargo, Ikea ha lanzado un producto revolucionario que promete transformar cocinas en cuestión de minutos, a un costo sorprendentemente accesible. Se trata del nuevo «Raskog Utility Cart», un carrito multiusos que ha conquistado a inquilinos de viviendas de alquiler y propietarios por igual.

María López, una joven profesional que vive en el centro de Madrid, comparte su experiencia con este producto. «Mi cocina es bastante pequeña y siempre había soñado con tener más espacio de almacenamiento. A pesar de mis limitaciones económicas, no quería resignarme a un espacio desordenado», comenta.

«Decidí darle una oportunidad al Raskog Utility Cart de Ikea, que cuesta menos de 40 euros, y no puedo estar más satisfecha. En apenas media hora, logré reordenar mi cocina de una manera que nunca imaginé posible», añade María mientras muestra con orgullo su ahora organizada y funcional cocina.

El carrito, que viene en varios colores y es fácil de montar, ofrece una solución versátil. Con tres estantes, permite almacenar desde especias y utensilios hasta frutas y verduras. Su diseño compacto facilita el movimiento en espacios reducidos, convirtiéndolo en el aliado perfecto para cocinas pequeñas.

«Lo mejor de todo es su flexibilidad y movilidad. Vivo de alquiler y no tengo la posibilidad de hacer grandes cambios en la estructura de la cocina, pero con este carrito he encontrado una solución que puedo llevar conmigo cuando me mude», explica María, quien también destaca la elegancia del diseño que se integra perfectamente con la estética moderna de su piso.

No es solo la funcionalidad lo que ha llamado la atención de los consumidores, sino también el precio. Por menos de 40 euros, el Raskog Utility Cart ofrece una alternativa asequible frente a costosas renovaciones y acometidas de diseño interior.

Expertos en decoración de interiores subrayan la importancia de soluciones prácticas y económicas en tiempos donde el costo de vida está en alza. «Productos como el Raskog de Ikea no solo son innovadores, sino también necesarios. Ofrecen una manera accesible de mejorar la calidad de vida de las personas sin necesidad de realizar grandes inversiones», señala la diseñadora de interiores Laura González.

Ikea, conocido por su enfoque en productos funcionales y asequibles, ha vuelto a demostrar por qué sigue siendo líder en el mercado del hogar. El éxito del Raskog Utility Cart es una prueba más de que la innovación y el buen diseño no tienen por qué estar reñidos con el presupuesto.

Así, en una época donde la practicidad y el ahorro son más valorados que nunca, Ikea vuelve a ofrecer una solución que parece nacer directamente de las necesidades cotidianas de sus clientes. Y para los inquilinos de pisos de alquiler como María López, el sueño de una cocina organizada y funcional ya no tiene que esperar.

Ventanas de Techo en Escandinavia: Un Dormitorio Nórdico que Inspira Innovación

0
delikatissen

En el corazón de Escandinavia, los hogares nórdicos están adoptando una tendencia arquitectónica que va en aumento: las ventanas de techo en los dormitorios. Esta característica, que inicialmente podría parecer un simple detalle estético, está redefiniendo la esencia misma de los espacios habitables en una región conocida por sus largos y oscuros inviernos.

Las ventanas de techo, también conocidas como tragaluces, están transformándose en un elemento indispensable en las viviendas de países como Noruega, Suecia y Dinamarca. Integradas en los diseños contemporáneos de los dormitorios, estas aberturas permiten aprovechar al máximo la escasa luz natural durante los meses invernales, brindando una solución eficaz y elegante para contrarrestar los efectos de las cortas horas de luz diurna.

El aumento en la popularidad de las ventanas de techo se debe, en parte, a los estudios que demuestran los beneficios de la luz natural sobre el bienestar y la salud mental. En una región donde la falta de luz solar puede causar un fenómeno conocido como ‘trastorno afectivo estacional’, estos tragaluces juegan un papel crucial en mejorar el ánimo y la productividad de los habitantes.

Los arquitectos y diseñadores nórdicos han sabido integrar este elemento de manera armoniosa en sus proyectos. Las viviendas con techos inclinados, típicas del paisaje escandinavo, son el escenario perfecto para estas instalaciones. Además, los marcos y materiales utilizados suelen ser de madera clara y metales suaves que complementan el estilo nórdico tradicional de líneas limpias y colores neutros.

Un ejemplo paradigmático de esta tendencia se puede ver en el diseño de la casa de campo en la región de Jutlandia, Dinamarca, donde la incorporación de ventanas de techo en los dormitorios no solo maximiza la entrada de luz natural, sino que también ofrece vistas espectaculares de los cielos nocturnos, permitiendo a los residentes disfrutar de la aurora boreal desde la comodidad de sus camas. Este enfoque no solo añade valor estético, sino que también otorga un toque emocional y experiencial distintivo a las viviendas.

Por otro lado, la tecnología juega un papel fundamental en la implementación de estas ventanas. Los vidrios inteligentes, capaces de regular la cantidad de luz que entra y con propiedades de aislamiento térmico óptimo, son cada vez más comunes, ofreciendo no solo belleza estética, sino también eficiencia energética.

El auge de las ventanas de techo en los dormitorios nórdicos refleja una búsqueda constante por un equilibrio entre funcionalidad y belleza, característica de la arquitectura escandinava. Si bien esta tendencia se ha popularizado principalmente en el norte de Europa, su impacto y atractivo podrían extenderse más allá de sus fronteras, inspirando a arquitectos y diseñadores en todo el mundo a reimaginar cómo la luz natural puede transformar un espacio interior.

En resumen, las ventanas de techo en los dormitorios se han convertido en un símbolo del diseño nórdico innovador y consciente, demostrando una vez más que la arquitectura en Escandinavia no solo sigue las tendencias, sino que las define.

El Nuevo Kit de Desarrollo de Software de Salud de Samsung Impulsa Avances en Innovación Sanitaria

0
Samsung’s New Health Software Development Kit Suite Powers Advancements in Healthcare Innovation – Samsung Global Newsroom

Samsung Electronics ha presentado hoy una nueva Suite de Kit de Desarrollo de Software (SDK) de Samsung Health. Diseñado para brindar una mejor asistencia a desarrolladores e investigadores en la creación de soluciones innovadoras en el ámbito de la salud, esta Suite de SDK se aprovecha de la avanzada tecnología de sensores de Samsung y de su completa plataforma de salud. El nuevo paquete completo de componentes de sensores, datos, accesorios y pila de investigación ya está disponible para una gama ampliada de socios, desarrolladores e investigadores.

El Sensor SDK proporciona a los desarrolladores el algoritmo BioActive Sensor de Samsung en el Galaxy Watch, permitiéndoles explorar nuevos sectores de servicios de salud y crear soluciones avanzadas. El BioActive Sensor mide una diversa gama de métricas de salud, incluyendo frecuencia cardíaca, temperatura de la piel, electrocardiograma (ECG) y Análisis de Impedancia Bioeléctrica (BIA). Una actualización notable presenta el acceso continuo a los datos del sensor de Fotopletismografía (PPG) Infrarrojo (IR) y del LED Rojo por primera vez. Este avance ayudará a mejorar los servicios relacionados con el nivel de oxígeno en sangre (SpO2), mejorando la calidad del sueño y más allá. La BIA mejorada ahora proporciona mediciones adicionales —magnitud y grado— ampliando los ocho indicadores existentes, como la masa muscular esquelética y la masa de grasa corporal, para presentar un análisis más preciso de la composición corporal y ofrecer una visión más profunda de la salud física general.

A partir de octubre, el nuevo Data SDK permitirá a los desarrolladores utilizar datos de salud integrados recopilados de diversos dispositivos como el Galaxy Watch, Galaxy Ring, smartphones e incluso dispositivos de terceros para crear soluciones de salud digital innovadoras. Data SDK proporciona acceso a métricas de salud en la aplicación Samsung Health —incluyendo sueño, ejercicio, presión arterial, ingesta de alimentos y niveles de glucosa en sangre— analizados por su avanzado algoritmo. Estos conocimientos elaborados por Samsung Health permiten a los desarrolladores mejorar su productividad al desarrollar servicios de atención médica.

Con Accessory SDK, los desarrolladores pueden integrar dispositivos de salud de terceros compatibles —como monitores de presión arterial, dispositivos de fitness como sensores de bicicleta, monitores de frecuencia cardíaca e incluso monitores de glucosa— a través de la aplicación Samsung Health. Esto facilita la visualización de información del estado de salud en un solo lugar sin necesidad de activar aplicaciones de terceros, promoviendo una experiencia fluida y simplificada y ampliando el ecosistema para la gestión integral de la salud.

Research Stack es un proyecto de código abierto que tiene como objetivo expandir el ecosistema de investigación en salud digital. Research Stack crea un entorno de investigación flexible y versátil, proporcionando no solo el SDK de aplicaciones móviles y wearables, sino también el portal web y los servicios de backend, para apoyar todas las etapas del proceso de investigación, desde el reclutamiento y encuestas hasta el seguimiento del progreso y la monitorización de resultados. La pila de investigación recientemente actualizada cuenta con un conjunto de herramientas integral desarrollado basándose en valiosa retroalimentación de instituciones de investigación y sus experiencias implementando estudios complejos y a gran escala. Además, la próxima versión 2.0 integrará directamente el Sensor SDK y el Data SDK de la Suite de SDK de Salud. Research Stack ya ha sido utilizado por instituciones líderes como parte de sus procesos de investigación y descubrimiento, destacando el apoyo activo de Samsung a la industria de la salud, brindando a los investigadores estudios más eficientes y resultados significativos.

Para obtener más información sobre la nueva Suite de SDK de Samsung Health, visite: https://developer.samsung.com/health.
vía: Sala de Prensa de Samsung.

Generador Multimodal De Contenido Para Redes Sociales Utilizando Amazon Bedrock

0
Build a multimodal social media content generator using Amazon Bedrock

En la actualidad, las redes sociales han revolucionado la forma en que las marcas interactúan con sus consumidores, creando una necesidad de contenido dinámico y atractivo que resuene con su audiencia objetivo. En este espacio, hay una creciente competencia por la atención del consumidor; los creadores de contenido y los influencers enfrentan desafíos constantes para producir contenido nuevo, atractivo y consistente con la marca. Estos desafíos provienen de tres factores clave: la necesidad de una producción rápida de contenido, el deseo de contenido personalizado que sea cautivador y visualmente atractivo, y que refleje los intereses únicos del consumidor, y la necesidad de contenido que sea consistente con la identidad, el mensaje, la estética y el tono de la marca.

Tradicionalmente, el proceso de creación de contenido ha sido una tarea que consume mucho tiempo e involucra múltiples pasos como la ideación, investigación, escritura, edición, diseño y revisión. Este ciclo lento de creación no se adapta al ritmo rápido de las redes sociales.

La IA generativa ofrece nuevas posibilidades para abordar estos desafíos y puede ser utilizada por equipos de contenido e influencers para mejorar su creatividad y engagement mientras mantienen la consistencia de la marca. Más específicamente, las capacidades multimodales de los grandes modelos de lenguaje (LLMs) nos permiten crear contenido rico y atractivo que abarca texto, imágenes, audio y video, formatos que son omnipresentes en la publicidad, el marketing y el contenido de redes sociales. Con los recientes avances en los LLMs vision, los creadores pueden usar entrada visual, como imágenes de referencia, para iniciar el proceso de creación de contenido. La búsqueda de similitud de imagen y búsqueda semántica de texto mejoran aún más el proceso al recuperar rápidamente contenido y contexto relevantes.

En este artículo, presentamos un proceso paso a paso para crear una aplicación generadora de contenido para redes sociales utilizando modelos de visión, lenguaje y embeddings (Claude 3 de Anthropic, el generador de imágenes Amazon Titan y las embeddings multimodales de Amazon Titan) a través de la API de Amazon Bedrock y Amazon OpenSearch Serverless. Amazon Bedrock es un servicio totalmente gestionado que proporciona acceso a modelos básicos de alto rendimiento de compañías líderes en IA a través de una única API. OpenSearch Serverless es un servicio totalmente gestionado que facilita el almacenamiento de vectores y otros tipos de datos en un índice y permite realizar consultas con latencias de subsegundo al buscar billones de vectores y medir la similitud semántica.

Así es como funciona el proceso propuesto para la creación de contenido:

1. Primero, el usuario, ya sea del equipo de contenido o de marketing, sube una imagen del producto con un fondo simple (como un bolso). Luego, proporciona descripciones en lenguaje natural de la escena y las mejoras que desea agregar a la imagen como un prompt (por ejemplo, «decoraciones de vacaciones de Navidad»).

2. A continuación, el generador de imágenes Amazon Titan crea la imagen mejorada según el escenario proporcionado.

3. Luego, se genera un texto rico y atractivo que describe la imagen mientras se alinea con las directrices y el tono de la marca utilizando Claude 3.

4. Después de crear el borrador (texto e imagen), nuestra solución realiza búsquedas de similitud multimodal contra publicaciones históricas para encontrar publicaciones similares y obtener inspiración y recomendaciones para mejorar la publicación del borrador.

5. Finalmente, basándose en las recomendaciones generadas, el texto de la publicación se refina aún más y se proporciona al usuario en la página web.

En esta solución, comenzamos con la preparación de datos, donde los conjuntos de datos en bruto pueden almacenarse en un bucket de Amazon S3. Proporcionamos un cuaderno de Jupyter para preprocesar los datos en bruto y usar el modelo de embeddings multimodales de Amazon Titan para convertir la imagen y el texto en vectores de embeddings. Estos vectores se guardan en OpenSearch Serverless como colecciones.

El siguiente paso es la generación de contenido. La página web GUI está alojada utilizando una aplicación Streamlit, donde el usuario puede proporcionar una imagen inicial del producto y una breve descripción de cómo espera que se vea la imagen enriquecida. Desde la aplicación, el usuario también puede seleccionar la marca (que se vinculará a una plantilla específica de la marca más adelante), elegir el estilo de la imagen (como fotográfico o cinematográfico) y seleccionar el tono para el texto de la publicación (como formal o casual).

Después de proporcionar todas las configuraciones, se lanza el proceso de creación de contenido.

En la etapa 1, la solución recupera la plantilla y las guías específicas de la marca de un archivo CSV. En un entorno de producción, podría mantener la tabla de plantillas de marca en Amazon DynamoDB para escalabilidad, fiabilidad y mantenimiento. La entrada del usuario se utiliza para generar la imagen enriquecida con el generador de imágenes Amazon Titan. Junto con toda la otra información, se alimenta al modelo de Claude 3, que tiene capacidad de visión, para generar el texto inicial de la publicación que se alinea de cerca con las guías de la marca y la imagen enriquecida. Al final de esta etapa, se crea la imagen enriquecida y el texto inicial de la publicación y se envían de vuelta a la GUI para mostrarse a los usuarios.

En la etapa 2, combinamos el texto e imagen de la publicación y utilizamos el modelo de embeddings multimodales de Amazon Titan para generar el vector de embeddings. Los modelos de embeddings multimodales integran información de diferentes tipos de datos, como texto e imágenes, en una representación unificada. Esto permite buscar imágenes utilizando descripciones de texto, identificar imágenes similares basándose en el contenido visual, o combinar entradas de texto e imagen para refinar los resultados de búsqueda. En esta solución, el vector de embeddings multimodal se utiliza para buscar y recuperar las tres publicaciones históricas similares de la tienda vectorial de OpenSearch. Los resultados recuperados se alimentan al modelo Claude 3 de Anthropic para generar un pie de foto, proporcionar ideas de por qué estas publicaciones históricas son atractivas y ofrecer recomendaciones sobre cómo el usuario puede mejorar su publicación.

En la etapa 3, basándose en las recomendaciones de la etapa 2, la solución refina automáticamente el texto de la publicación y proporciona una versión final al usuario. El usuario tiene la flexibilidad de seleccionar la versión que le guste y realizar cambios antes de publicarla. Para el proceso completo de generación de contenido, los pasos se orquestan con la aplicación Streamlit.

Cuando se termina de experimentar con esta solución, es importante limpiar los recursos de AWS utilizados para evitar costos innecesarios, como eliminar el bucket de Amazon S3 y los datos creados, eliminar la colección de Amazon OpenSearch Serverless, y eliminar la aplicación en ejecución de Amazon SageMaker.

En conclusión, este generador de contenido multimodal para redes sociales utiliza modelos de Amazon Bedrock para crear contenido rápidamente, permitiendo a las marcas e influencers producir contenido atractivo y consistente con la marca.
vía: AWS machine learning blog

Ciencia e Innovación Moviliza el 100% de los Fondos Públicos del PERTE Aeroespacial

0

La ministra de Ciencia, Innovación y Universidades, Diana Morant, ha presidido este miércoles la quinta reunión de la Alianza por el PERTE Aeroespacial, en la que ha destacado que el Ministerio ha movilizado prácticamente el 100% de los fondos públicos del PERTE Aeroespacial, que ascienden a cerca de 2.800 millones de euros. De este total, 900 millones corresponden a fondos europeos y 1.900 millones a presupuesto nacional, representando más de dos tercios del presupuesto total.

Durante la reunión, Morant subrayó que el PERTE ya ha comprometido el 82% del presupuesto. Entre las actuaciones desarrolladas en el último año en el marco de este PERTE, mencionó el proyecto del Centro de Ensayo para aeronaves no tripuladas CEUS, el cual está disponible para que la industria y los centros públicos puedan realizar pruebas con drones aéreos experimentales, especialmente de gran tamaño. Asimismo, se ha finalizado y presentado la Primera Plataforma Aérea de Investigación, una infraestructura crucial para la investigación medioambiental y del cambio climático.

Otra iniciativa destacada es el lanzador de pequeños satélites, desarrollado por la empresa PLD Space con una dotación de hasta 45 millones de euros provenientes de los fondos europeos del Plan de Recuperación, Transformación y Resiliencia. Esta pyme ha duplicado su plantilla, ejemplificando el impacto positivo del PERTE. Además, se ha avanzado en la Constelación Atlántica de observación de la Tierra, gestionada por la Agencia Espacial Española (AEE) en colaboración con la Agencia Espacial Europea (ESA).

En el ámbito del cielo único europeo, ENAIRE ha recibido 107,25 millones de euros de fondos europeos para contribuir a la modernización y digitalización de los centros de control aéreo. La ministra también destacó el proyecto ARRAKIHS, la primera misión del Programa Científico de la ESA liderada por España, programada para lanzarse en 2030 y destinada a estudiar la materia oscura del universo.

El PERTE también incluye el Programa Tecnológico Aeronáutico (PTA), que capacita a la industria nacional en tecnologías disruptivas y estratégicas, mejorando la participación española en programas internacionales de desarrollo de nuevas aeronaves. El presupuesto total del PTA es de 314,75 millones de euros, de los cuales el Ministerio de Ciencia, Innovación y Universidades, a través del Centro para el Desarrollo Tecnológico y la Innovación (CDTI), subvenciona 189,65 millones, es decir, el 60%.

La Alianza por el PERTE Aeroespacial, presidida por el Ministerio de Ciencia, Innovación y Universidades, tiene como objetivo facilitar el diálogo y la cooperación entre el sector público y privado, generando sinergias para impulsar la ejecución de este proyecto estratégico. En esta alianza participan miembros del Grupo de Trabajo Interministerial del PERTE, representantes de comunidades autónomas, del Consejo Superior de Investigaciones Científicas (CSIC), del Instituto de Astrofísica de Canarias (IAC), junto con empresas, asociaciones empresariales y organizaciones sindicales relevantes en el sector.
vía: Plan de Recuperación Gobierno de España

El nuevo organizador colgante de Lidl para maximizar el espacio en tu armario

0
Lo nuevo de Lidl es este organizador colgante para ganar espacio en tu armario y tenerlo siempre ordenado

Lidl ha lanzado su última innovación en soluciones para el hogar: un organizador colgante que promete transformar los armarios en espacios más ordenados y eficientes. Este nuevo producto, diseñado con materiales resistentes y duraderos, se presenta como una opción práctica y asequible para quienes buscan optimizar cada rincón de sus armarios.

El organizador colgante de Lidl está compuesto por varias secciones que permiten almacenar todo tipo de prendas y accesorios. Desde camisetas y pantalones hasta bufandas y bolsos, cada artículo puede tener su propio lugar bien definido, facilitando así la tarea de mantener el armario impecable. Además, su diseño modular posibilita adaptaciones según las necesidades de cada usuario, convirtiéndolo en una pieza versátil para cualquier hogar.

Esta solución de almacenamiento no solo se centra en la funcionalidad, sino que también prioriza la estética. El organizador está disponible en varios colores neutros y elegantes, pensados para combinar con cualquier tipo de decoración. «Queríamos ofrecer a nuestros clientes una herramienta que no solo fuera práctica, sino también visualmente agradable. Sabemos lo importante que es para muchas personas tener un espacio organizado y que además luzca bien,» señaló un portavoz de Lidl.

La instalación del organizador colgante es sencilla. No requiere herramientas adicionales y se adapta a la mayoría de las barras de armario estándar. Sus dimensiones compactas, sin embargo, ofrecen un considerable aumento en la capacidad de almacenamiento, liberando espacio en las estanterías y cajones tradicionales.

Lidl continúa expandiendo su línea de productos destinados a mejorar la vida cotidiana de sus clientes, y este organizador colgante es un claro ejemplo de su compromiso con la calidad y la innovación. Tras su lanzamiento, ya ha recibido múltiples comentarios positivos de usuarios que han encontrado en este producto una solución eficaz y asequible para mantener sus armarios en orden.

El organizador colgante de Lidl está disponible en todas las tiendas de la cadena y también a través de su sitio web, a un precio competitivo que lo convierte en una opción atractiva para un amplio espectro de consumidores. Con este nuevo producto, Lidl reafirma su posición como un referente en soluciones prácticas y accesibles para el hogar.