A Akamai Technologies (NASDAQ: AKAM), empresa de cibersegurança e computação em nuvem, anunciou a primeira implementação em escala global do design de referência NVIDIA® AI Grid. Ao integrar a infraestrutura de inteligência artificial da NVIDIA à sua própria rede e utilizar orquestração inteligente de workloads em sua rede, a Akamai pretende levar o setor para além das "fábricas de IA" isoladas, em direção a uma grade unificada e distribuída para inferência de IA.
O anúncio marca uma nova etapa no desenvolvimento do Akamai Inference Cloud, apresentado no final do ano passado. Segundo a Akamai, a companhia é a primeira a operacionalizar o AI Grid e está implantando milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, oferecendo uma plataforma que permite às empresas executar IA agêntica e física com a capacidade de resposta da computação local e a escala da web global.
"Fábricas de IA foram projetadas para treinamento e cargas de trabalho de modelos de fronteira — e a infraestrutura centralizada continuará oferecendo a melhor economia de tokens para esses casos de uso", afirma Adam Karon, Chief Operating Officer e General Manager do Cloud Technology Group da Akamai.
"Mas, vídeo em tempo real, IA física e experiências altamente personalizadas e simultâneas exigem inferência no ponto de contato, não uma viagem de ida e volta a um cluster centralizado. Nossa orquestração inteligente do AI Grid oferece às fábricas de IA uma maneira de escalar a inferência para fora — aproveitando a mesma arquitetura distribuída que revolucionou a entrega de conteúdo para rotear workloads de IA em 4.400 localidades, com o custo certo e no momento certo", acrescenta.
A arquitetura da "tokenomics"
No centro do AI Grid está um orquestrador inteligente que atua como intermediário em tempo real para requisições. Ao aplicar a expertise da Akamai em otimização de desempenho de aplicações, esse plano de controle orientado por cargas de trabalho aprimora a "tokenomics", melhorando significativamente métricas como custo por token, tempo até a geração do primeiro token e throughput.
Segundo a empresa, a Akamai permite que clientes acessem modelos ajustados ou espelhados por meio de sua infraestrutura global de edge, o que pode impactar aspectos como custo e desempenho em cargas de trabalho de IA.
- Eficiência de custo em escala: as empresas podem reduzir drasticamente os custos de inferência ao combinar automaticamente workloads com o nível de computação mais adequado. Segundo a Akamai, o orquestrador utiliza técnicas como cache semântico e roteamento para direcionar requisições a recursos dimensionados conforme a demanda, priorizando o uso de GPUs para cargas de trabalho mais exigentes. A empresa afirma que essa estrutura é suportada pela Akamai Cloud, baseada em infraestrutura open source e voltada ao processamento de operações de IA intensivas em dados;
- Resposta em tempo real: de acordo com a empresa, diferentes setores podem aplicar esses recursos em casos como interações com personagens em jogos, detecção de fraude e personalização em serviços financeiros, além de processamento e adaptação de conteúdo em empresas de mídia. A companhia informa que essas aplicações são suportadas por sua rede global de edge, com mais de 4.400 localizações, que inclui recursos como cache integrado, computação serverless e conectividade distribuída, permitindo o processamento de requisições próximo ao usuário;
- IA pronta para produção no núcleo: modelos de linguagem de grande porte, pós-treinamento contínuo e cargas de trabalho multimodais de inferência exigem computação densa e sustentada, algo que apenas infraestrutura dedicada consegue fornecer. A Akamai também informa que utiliza clusters com milhares de GPUs, incluindo NVIDIA RTX PRO 6000 Blackwell Server Edition, para suportar cargas de trabalho de maior escala, em conjunto com sua infraestrutura distribuída de edge.
A continuidade da computação: do centro à edge
Construída sobre a NVIDIA AI Enterprise e utilizando a arquitetura NVIDIA Blackwell e DPUs NVIDIA BlueField para redes e segurança aceleradas por hardware, a Akamai consegue gerenciar SLAs complexos entre a rede edge e o centro:
- Edge (mais de 4.400 localizações): a empresa informa que a estrutura é voltada à redução do tempo de resposta em aplicações de IA física e agentes autônomos. Inclui recursos como cache semântico e serviços serverless, como Akamai Functions (computação baseada em WebAssembly) e EdgeWorkers, utilizados na execução e distribuição de modelos no ponto de contato com o usuário;
- Akamai Cloud IaaS e clusters dedicados de GPU: a infraestrutura de cloud pública no centro permite portabilidade e economia para cargas de trabalho em escala massiva, enquanto pods com GPUs NVIDIA RTX PRO 6000 Blackwell suportam pós-treinamento pesado e inferência multimodal.
"Novas aplicações nativas de IA exigem latência previsível e maior eficiência de custo em escala planetária", afirma Chris Penrose, Global VP de Business Development – Telco da NVIDIA. "Ao operacionalizar o NVIDIA AI Grid, a Akamai está construindo o tecido de conexão para IA generativa, agentiva e física, levando a inteligência diretamente até os dados e desbloqueando a próxima onda de aplicações em tempo real", complementa.
Impulsionando a próxima onda de IA em tempo real
A Akamai já observa forte adoção inicial do Akamai Inference Cloud em setores que exigem alta capacidade de computação e baixa latência:
- Games: estúdios implantam inferência abaixo de 50 milissegundos para NPCs movidos por IA e interações em tempo real;
- Serviços financeiros: bancos usam a grade para marketing hiperpersonalizado e recomendações rápidas nos momentos críticos de login do cliente;
- Mídia e vídeo: empresas de transmissão utilizam a rede distribuída para transcodificação e dublagem em tempo real com IA;
- Varejo e comércio: varejistas adotam a rede para aplicações de IA em loja e ferramentas de produtividade no ponto de venda.
Impulsionada pela demanda empresarial, a plataforma também foi validada por grandes provedores de tecnologia, incluindo um contrato de US$ 200 milhões por quatro anos para um cluster de milhares de GPUs, sem a necessidade de um data center dedicado para infraestrutura de IA empresarial próximo aos centros urbanos.
Escalando fábricas de IA: do centralizado ao distribuído
A primeira onda de infraestrutura de IA foi definida por grandes clusters de GPUs em poucas localizações centralizadas, otimizados para treinamento. À medida que a inferência se torna uma carga de trabalho mais relevante e empresas de diferentes setores passam a desenvolver agentes de IA, modelos centralizados podem apresentar desafios relacionados à escala, conforme a empresa, de forma semelhante ao observado anteriormente em áreas como entrega de mídia, jogos online, transações financeiras e aplicações baseadas em múltiplos serviços.
Para lidar com esses desafios, a Akamai utiliza uma arquitetura de rede distribuída, com orquestração e sistemas projetados para operar próximos ao ponto de interação digital.
De acordo com a empresa, o resultado tem sido melhores experiências de usuário e maior ROI para empresas que adotaram esse modelo. O Akamai Inference Cloud aplica essa arquitetura comprovada às fábricas de IA, permitindo a próxima fase de escala e crescimento ao distribuir computação densa do núcleo até a edge.
Para as empresas, isso significa a capacidade de implantar agentes de IA contextuais e adaptativos. Para a indústria, representa um modelo de como as fábricas de IA podem evoluir de instalações isoladas para uma infraestrutura global distribuída de utilidade pública.
Disponibilidade
O Akamai Inference Cloud já está disponível para clientes empresariais qualificados. Organizações podem saber mais e solicitar acesso aqui. Representantes da Akamai estavam disponíveis para demonstrações e reuniões durante a NVIDIA GTC 2026, no San Jose Convention Center, estande 621, entre 16 e 19 de março de 2026.











