A Akamai Technologies (NASDAQ: AKAM), empresa de cibersegurança e computação em nuvem, anunciou a primeira implementação em escala global do design de referência NVIDIA® AI Grid. Ao integrar a infraestrutura de inteligência artificial da NVIDIA à sua própria rede e utilizar orquestração inteligente de workloads em sua rede, a Akamai pretende levar o setor para além das "fábricas de IA" isoladas, em direção a uma grade unificada e distribuída para inferência de IA.
O anúncio marca uma nova etapa no desenvolvimento do Akamai Inference Cloud, apresentado no final do ano passado. Segundo a Akamai, a companhia é a primeira a operacionalizar o AI Grid e está implantando milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, oferecendo uma plataforma que permite às empresas executar IA agêntica e física com a capacidade de resposta da computação local e a escala da web global.
"Fábricas de IA foram projetadas para treinamento e cargas de trabalho de modelos de fronteira — e a infraestrutura centralizada continuará oferecendo a melhor economia de tokens para esses casos de uso", afirma Adam Karon, Chief Operating Officer e General Manager do Cloud Technology Group da Akamai.
"Mas, vídeo em tempo real, IA física e experiências altamente personalizadas e simultâneas exigem inferência no ponto de contato, não uma viagem de ida e volta a um cluster centralizado. Nossa orquestração inteligente do AI Grid oferece às fábricas de IA uma maneira de escalar a inferência para fora — aproveitando a mesma arquitetura distribuída que revolucionou a entrega de conteúdo para rotear workloads de IA em 4.400 localidades, com o custo certo e no momento certo", acrescenta.
A arquitetura da "tokenomics"
No centro do AI Grid está um orquestrador inteligente que atua como intermediário em tempo real para requisições. Ao aplicar a expertise da Akamai em otimização de desempenho de aplicações, esse plano de controle orientado por cargas de trabalho aprimora a "tokenomics", melhorando significativamente métricas como custo por token, tempo até a geração do primeiro token e throughput.
Segundo a empresa, a Akamai permite que clientes acessem modelos ajustados ou espelhados por meio de sua infraestrutura global de edge, o que pode impactar aspectos como custo e desempenho em cargas de trabalho de IA.
A continuidade da computação: do centro à edge
Construída sobre a NVIDIA AI Enterprise e utilizando a arquitetura NVIDIA Blackwell e DPUs NVIDIA BlueField para redes e segurança aceleradas por hardware, a Akamai consegue gerenciar SLAs complexos entre a rede edge e o centro:
"Novas aplicações nativas de IA exigem latência previsível e maior eficiência de custo em escala planetária", afirma Chris Penrose, Global VP de Business Development – Telco da NVIDIA. "Ao operacionalizar o NVIDIA AI Grid, a Akamai está construindo o tecido de conexão para IA generativa, agentiva e física, levando a inteligência diretamente até os dados e desbloqueando a próxima onda de aplicações em tempo real", complementa.
Impulsionando a próxima onda de IA em tempo real
A Akamai já observa forte adoção inicial do Akamai Inference Cloud em setores que exigem alta capacidade de computação e baixa latência:
Impulsionada pela demanda empresarial, a plataforma também foi validada por grandes provedores de tecnologia, incluindo um contrato de US$ 200 milhões por quatro anos para um cluster de milhares de GPUs, sem a necessidade de um data center dedicado para infraestrutura de IA empresarial próximo aos centros urbanos.
Escalando fábricas de IA: do centralizado ao distribuído
A primeira onda de infraestrutura de IA foi definida por grandes clusters de GPUs em poucas localizações centralizadas, otimizados para treinamento. À medida que a inferência se torna uma carga de trabalho mais relevante e empresas de diferentes setores passam a desenvolver agentes de IA, modelos centralizados podem apresentar desafios relacionados à escala, conforme a empresa, de forma semelhante ao observado anteriormente em áreas como entrega de mídia, jogos online, transações financeiras e aplicações baseadas em múltiplos serviços.
Para lidar com esses desafios, a Akamai utiliza uma arquitetura de rede distribuída, com orquestração e sistemas projetados para operar próximos ao ponto de interação digital.
De acordo com a empresa, o resultado tem sido melhores experiências de usuário e maior ROI para empresas que adotaram esse modelo. O Akamai Inference Cloud aplica essa arquitetura comprovada às fábricas de IA, permitindo a próxima fase de escala e crescimento ao distribuir computação densa do núcleo até a edge.
Para as empresas, isso significa a capacidade de implantar agentes de IA contextuais e adaptativos. Para a indústria, representa um modelo de como as fábricas de IA podem evoluir de instalações isoladas para uma infraestrutura global distribuída de utilidade pública.
Disponibilidade
O Akamai Inference Cloud já está disponível para clientes empresariais qualificados. Organizações podem saber mais e solicitar acesso aqui. Representantes da Akamai estavam disponíveis para demonstrações e reuniões durante a NVIDIA GTC 2026, no San Jose Convention Center, estande 621, entre 16 e 19 de março de 2026.
Tecnologia Tecnologia no tratamento do câncer pode reduzir custos
Tecnologia Serviços de segurança gerenciada crescem no Brasil
Tecnologia Huawei FreeBuds Pro 5 chega ao Brasil em ação única
Tecnologia Prêmio internacional marca setor de Transfer Pricing BR
Tecnologia Dados apontam por que PMEs desistem do crédito
Tecnologia Dados indicam efeitos do custo do crédito nas PMEs