Pelo acordo, a AWS disponibilizará para a OpenAI servidores do tipo Amazon EC2 UltraServers, equipados com centenas de milhares de GPUs de última geração da NVIDIA. A infraestrutura oferece também a escalabilidade para “milhões de CPUs”, permitindo o suporte a cargas de IA generativa extensas, tanto para treinamento de modelos quanto para inferência, como as usadas em serviços como ChatGPT.
Segundo o anúncio, a OpenAI já passará a utilizar a infraestrutura da AWS imediatamente. A previsão é que toda a capacidade contratada esteja implantada até o final de 2026, com possibilidade de expansão nos anos seguintes.
Desempenho e eficiência
A arquitetura adotada prioriza desempenho e eficiência: GPUs NVIDIA (modelos GB200 e GB300) serão agrupadas em clusters com baixa latência e alta interconectividade, otimizados para tarefas intensivas em computação — desde o atendimento de usuários em tempo real até o treinamento de novos modelos de IA avançada.
Para os líderes das companhias, o acordo representa um marco. Conforme declaração do CEO da OpenAI, “escalar IA de fronteira requer computação massiva e confiável”. Já o CEO da AWS afirmou que a infraestrutura de alto desempenho da empresa é ideal para sustentar a ambição da OpenAI de expandir seu alcance e capacidade global.
Em síntese, a parceria AWS–OpenAI marca um passo determinante rumo à expansão em larga escala da IA generativa — atendendo à crescente demanda computacional e sinalizando um reforço na infraestrutura global que suporta tecnologias como o ChatGPT e potenciais futuros avanços.












