Durante el segundo día del re:Invent 2023, llegó uno de los momentos más esperados del mayor evento anual de AWS: la presentación Adam Selipsky, CEO de AWS. Selipsky hizo un recorrido por la historia de la compañía, desde sus primeros servicios de almacenamiento hasta la creación de una infraestructura sin igual en el mercado global, triplicando el número de centros de datos de sus competidores.

"Somos incansables en la tarea de trabajar de forma retroactiva partiendo de las necesidades de nuestros clientes y sus puntos débiles. Somos los más seguros y confiables, pero también pensamos de diferente forma sobre los problemas de nuestros clientes y su potencial, y eso nos lleva a reinventarnos continuamente para superar las barreras de lo que la gente pensó en su momento que era posible".
Adam Selipsky
CEO de AWS

Durante su presentación, Selipsky realizó los siguientes anuncios que revolucionarán aún más la capacidad de entrega de AWS:

AWS re:Invent 2023 ya comenzó con 50 000 participantes, entre desarrolladores, clientes y socios, se reúnen en el mayor evento sobre la nube de AWS.

Amazon Q

Un asistente basado en IA generativa que acelerará la productividad empresarial sin perder de vista la seguridad y la privacidad de los datos, brindando respuestas rápidas y relevantes a preguntas urgentes, generando contenido y tomando medidas, basándose en repositorios de información, códigos y sistemas corporativos de clientes. Disponible en cuatro componentes distintos, Amazon Q es el resultado de 17 años de conocimientos y experiencia de AWS.

Amazon S3 Express One Zone

Diseñado específicamente para brindar acceso consistente a datos en milisegundos de un solo dígito para las aplicaciones más sensibles a la latencia de sus clientes. Esta solución de almacenamiento en la nube de menor latencia disponible, con una velocidad de acceso a datos hasta 10 veces más rápida y costo de solicitud de hasta un 50% más bajo que Amazon S3 Standard. También proporciona un mejor rendimiento para operaciones con uso intensivo de solicitudes, como capacitación e inferencia de aprendizaje automático, análisis interactivas y creación de contenido multimedia.

Colaboración estratégica con NVIDIA

Las empresas reunirán lo mejor de las tecnologías NVIDIA y AWS, desde los más nuevos sistemas multi-nodo de NVIDIA con GPU, CPU y software de IA de última generación, hasta virtualización y seguridad avanzadas de AWS Nitro System, interconexión Elastic Fabric Adapter (EFA) y Escalabilidad UltraCluster - ideal para entrenar modelos básicos y construir aplicaciones generativas de IA. La colaboración se basa en una relación a largo plazo que impulsó la era de la IA generativa, ofreciendo a los pioneros del Machine Learning (ML) el desempeño computacional necesario para avanzar en el estado del arte en estas tecnologías.

Adam Selipsky, CEO de AWS, y Jensen Huang, CEO de NVIDIA, durante re:Invent 2023
Adam Selipsky, CEO de AWS, y Jensen Huang, CEO de NVIDIA, durante re:Invent 2023.

El anuncio contó con la participación de Jensen Huang, CEO de NVIDIA, quien resaltó el hecho de que la IA generativa está poniendo la computación acelerada en la base de la generación de contenido. Las dos compañías también están colaborando en el Proyecto Ceiba, que diseñará la supercomputadora de IA con GPU más rápida del mundo -un sistema a escala con interconexión GH200 NVL32 y Amazon EFA. Esta supercomputadora pionera - con 16 384 superchips NVIDIA GH200 y capaz de procesar 65 exaflops de IA- se utilizará por NVIDIA para impulsar su próxima ola de innovación en IA generativa.

Chip AWS Trainium 2

Diseñado para proporcionar una formación hasta cuatro veces más rápida que los chips Trainium de primera generación, que se pueden implementar en EC2 UltraClusters de hasta 100 000 chips, lo que permite la formación de fms (Foundation Models) y LLMs (Large Language Models) en una fracción del tiempo, mejorando al mismo tiempo la eficiencia energética en hasta dos veces.

Prototipo de AWS Trainum2.
Prototipo de AWS Trainum2.

Chip Amazon Graviton 4

La nueva generación de procesadores ofrece un rendimiento hasta un 30 % mejor, un 50 % más núcleos y un 75 % más de ancho de banda de memoria que Graviton3. También eleva el nivel de seguridad al cifrar completamente todas las interfaces de hardware físico de alta velocidad. Graviton4 estará disponible en instancias R8g de Amazon EC2 con optimización de memoria, lo que permite a los clientes mejorar la ejecución de sus bases de datos de alto rendimiento, cachés de memoria y cargas de trabajo de análisis de big data.

Prototipo de AWS Graviton 4.
Prototipo de AWS Graviton 4.

Nuevas integraciones para el análisis de datos

Permiten a los clientes conectarse y analizar datos de forma rápida y sencilla sin crear ni gestionar procesos complejos de extracción, transformación y carga (ETL, su sigla en inglés). Las nuevas integraciones de Amazon Aurora PostgreSQL, Amazon DynamoDB y Amazon Relational Database Service (Amazon RDS) para MySQL con el Amazon Redshift facilitan la conexión y el análisis de datos transaccionales de múltiples bases de datos relacionales y no relacionales en Amazon Redshift.

Amazon Data Zone

Un nuevo servicio de administración de datos que hace que sea más rápido y fácil para los clientes catalogar, descubrir, compartir y controlar datos almacenados en AWS, en las instalaciones y en fuentes de terceros. Con él, los administradores pueden gestionar y controlar el acceso a los datos mediante controles detallados para garantizar que se accede a ellos con el nivel adecuado de privilegios y en el contexto correcto.

Anthropic opta por AWS como su proveedor principal en la nube y entrenará e implementará sus futuros modelos fundacionales en chips AWS Trainium e Inferentia, aprovechando los aceleradores de aprendizaje automático de alto rendimiento y bajo costo de AWS.

Guardrails para Amazon Bedrock

También se anunciaron las nuevos Guardrials para Amazon Bedrock, que tienen como objetivo garantizar el cumplimiento de las aplicaciones de IA generativas con políticas de responsabilidad. Lo hace mediante la configuración de filtros y se puede aplicar a cualquier Foundation Model o agente.

Colaboración entre AWS y Anthropic

Quien también estuvo presente en Keynote de Selipsky fue Dario Almodei, CEO de Anthropic, reforzando la recién anunciada colaboración entre las dos empresas. AWS anunció una inversión de hasta US$ 4 mil millones en la compañía que utiliza el chip Trainium en el desarrollo de FM Claude. Almodei presentó la nueva versión del modelo, que trabaja con un volumen mucho mayor de tokens y trae nuevas funcionalidades.