En el marco de la conferencia NVIDIA GTC 2026, Amazon Web Services (AWS) y NVIDIA anunciaron una colaboración ampliada que busca satisfacer la creciente demanda de capacidad de cálculo para inteligencia artificial (IA). Este esfuerzo conjunto está orientado a ayudar a las empresas a construir y ejecutar soluciones de IA lista para producción, garantizando que estos sistemas sean confiables, escalables y cumplan con los requisitos de seguridad y cumplimiento normativo.
Entre las novedades presentadas, destaca la incorporación de más de un millón de GPUs NVIDIA, incluyendo arquitecturas Blackwell y Rubin, que estarán disponibles en todas las regiones de la nube de AWS. La empresa apunta a ofrecer la colección más amplia de instancias basadas en GPUs NVIDIA entre los proveedores de nube, lo cual es crucial para una amplia variedad de cargas de trabajo de IA y aprendizaje automático (ML).
Otra importante revelación es el anuncio de nuevas instancias de Amazon EC2 que contarán con GPUs NVIDIA RTX PRO 4500 Blackwell Server Edition. Estas instancias están diseñadas para afrontar distintos tipos de cargas de trabajo, desde análisis de datos hasta generación de contenido y streaming de video. Gracias al sistema Nitro de AWS, que combina hardware dedicado y un hipervisor ligero, estas instancias prometen un mejor aprovechamiento de los recursos y una mayor seguridad para las cargas de trabajo sensibles de IA.
Además, se presentó el soporte para la NVIDIA Inference Xfer Library (NIXL) junto con AWS Elastic Fabric Adapter (EFA) que optimiza la inferencia para modelos de lenguaje de gran tamaño. Esta integración es clave para escalar cargas de trabajo modernas de IA, ya que permite un solapamiento eficiente de la comunicación y la computación, reduciendo la latencia de comunicación y maximizando la utilización de las GPUs.
Por otra parte, se reveló que AWS y NVIDIA han logrado optimizar el rendimiento para cargas de trabajo de Apache Spark, ofreciendo un rendimiento tres veces superior mediante el uso de Amazon EMR en contenedores EKS con instancias G7e, lo que facilitará a ingenieros y científicos de datos acelerar sus procesos de análisis.
En el ámbito de la personalización de modelos de IA, se anunció que los desarrolladores podrán afinar modelos de NVIDIA Nemotron directamente en Amazon Bedrock utilizando un enfoque de Reinforcement Fine-Tuning (RFT). Esta característica permitirá adaptar el comportamiento de los modelos a dominios específicos, como el legal o el financiero.
La sostenibilidad también fue un tema discutido, donde Amazon destacó que su infraestructura es un 4.1 veces más eficiente energética que la de los centros de datos tradicionales, lo que la convierte en una opción atractiva no solo desde el punto de vista de costos, sino también en términos de conciencia ambiental.
Finalmente, la colaboración entre AWS y NVIDIA se consolida como un esfuerzo significativo para proporcionar un ecosistema completo optimizado para la IA, que va desde la infraestructura de GPU hasta los servicios administrados. Ambas compañías invitan a los participantes de GTC a visitar su stand y explorar las demostraciones en vivo, reforzando su compromiso con la innovación en el campo de la inteligencia artificial.
vía: AWS machine learning blog