América Latina. A Akamai Technologies marcou um marco importante na evolução da inteligência artificial ao apresentar a primeira implementação mundial do design de referência NVIDIA AI Grid.
Ao integrar a infraestrutura de IA da NVIDIA em sua própria e aproveitar a orquestração inteligente de cargas de trabalho em toda a rede, a Akamai busca levar a indústria além de fábricas de IA isoladas para uma rede unificada e distribuída para inferência de IA.
Este é um passo significativo na evolução do Akamai Inference Cloud, introduzido no final do ano passado. A Akamai, a primeira empresa a lançar a rede AI Grid, está implantando milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, fornecendo uma plataforma que permite que empresas executem IA baseada em agentes e física, com a resposta da computação local e a escala da web global.
"Os centros de IA são construídos especialmente para treinamento e cargas de trabalho de modelos de borda, e a infraestrutura centralizada continuará a entregar os melhores resultados em termos de tokenômica para esses casos de uso", disse Adam Karon, COO e gerente geral do Grupo de Tecnologia em Nuvem da Akamai. "No entanto, vídeo em tempo real, IA física e experiências personalizadas altamente simultâneas exigem inferência no ponto de contato, não uma viagem de ida e volta até um cluster centralizado. Nossa orquestração inteligente AI Grid permite que fábricas de IA estendam a inferência para fora e aproveitem a mesma arquitetura distribuída que revolucionou a entrega de conteúdo para direcionar cargas de trabalho de IA para 4.400 locais, ao custo certo, na hora certa."
A arquitetura da "Tokenomics"
O núcleo do AI Grid consiste em um coordenador inteligente que atua como intermediário em tempo real para solicitações de IA. Ao aplicar a expertise da Akamai em otimizar o desempenho de aplicações à IA, esse plano de controle sensível à carga de trabalho otimiza tokenomics, melhorando o custo por token, o tempo até o primeiro token e o desempenho.
Uma das principais características que diferenciam a Akamai é sua capacidade para os clientes acessarem modelos enxutos ou dispersos em sua enorme presença global, o que representa uma enorme vantagem de custo e desempenho para a longa cauda das cargas de trabalho de IA. Por exemplo:
● Custo-benefício em escala: As empresas podem reduzir drasticamente os custos de inferência ao alocar automaticamente as cargas de trabalho para o tier de computação correto. Esse coordenador aplica técnicas como cache semântico e roteamento inteligente para direcionar requisições a recursos de tamanho adequado e reserva ciclos premium de GPU para cargas de trabalho que precisem. Tudo isso é sustentado pela Akamai Cloud, construída sobre uma infraestrutura de código aberto com amplas alocações de saída para suportar operações de IA intensivas em dados.
● Resposta em tempo real: Estúdios de desenvolvimento de jogos podem oferecer interações com personagens (NPCs) não jogáveis com IA que mantêm o jogador imerso em questão de milissegundos. As instituições financeiras podem fornecer recomendações personalizadas de detecção de fraudes e marketing no período desde o login até a primeira tela. As emissoras podem transcodificar e dublar conteúdo em tempo real para audiências globais. Esses resultados são possíveis graças à rede de borda globalmente distribuída da Akamai, que possui mais de 4.400 locais com cache embutido, computação de borda serverless e conectividade de alto desempenho, e processa requisições no ponto de contato do usuário, evitando o atraso de ida e volta para nuvens dependentes da origem.
● IA de qualidade de produção no núcleo: Grandes modelos de linguagem, pós-treinamento contínuo e cargas de trabalho de inferência multimodal exigem computação sustentada e de alta densidade que só pode ser fornecida por uma infraestrutura dedicada. Os clusters de milhares de GPUs da Akamai, alimentados por GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, entregam a potência concentrada necessária para as cargas de trabalho de IA mais exigentes e complementam a borda distribuída com escala centralizada.
Continuidade da Computação
Construído sobre NVIDIA AI Enterprise e aproveitando a arquitetura NVIDIA Blackwell e as DPUs NVIDIA BlueField para redes aceleradas por hardware e segurança, o Akamai pode gerenciar acordos complexos de nível de serviço (SLAs) entre as localizações de borda e centrais.
● The Edge (com mais de 4.400 locais): Oferece tempos de resposta rápidos para IA física e agentes autônomos. Você vai aproveitar cache semântico e capacidades serverless, como Akamai Functions (computação baseada em WebAssembly) e EdgeWorkers, para oferecer afinidade com modelos e desempenho estável no ponto de contato do usuário.
● Akamai Cloud IaaS e clusters dedicados de GPUs: A infraestrutura básica de nuvem pública permite portabilidade e economia de custos para cargas de trabalho em grande escala, enquanto pods equipados com GPUs Blackwell NVIDIA RTX PRO 6000 possibilitam pós-treinamento de alta intensidade e inferência multimodal.
"Novas aplicações nativas de IA exigem latência previsível e maior custo-benefício em escala global", disse Chris Penrose, vice-presidente global de Desenvolvimento Empresarial e Telcos da NVIDIA. "Ao operacionalizar o NVIDIA AI Grid, a Akamai está construindo o tecido conectivo para IA generativa, agencial, e física, e está transferindo inteligência diretamente para os dados, o que inaugurará a próxima onda de aplicações em tempo real."
Impulsionando a próxima geração de IA em tempo real
A Akamai já está vendo uma forte adoção inicial do Akamai Inference Cloud em indústrias intensivas em computação e sensíveis à latência:
● Jogos: Os estúdios estão implementando inferências abaixo de 50 milissegundos para NPCs movidos por IA e interações em tempo real com os jogadores.
● Serviços financeiros: Os bancos confiam na internet para fazer marketing hiper-personalizado e fornecer recomendações rápidas quando os clientes fazem login.
● Mídia e vídeos: As emissoras usam a rede distribuída para transcodificação e dublagem em tempo real alimentadas por IA.
● Varejo: Os varejistas estão adotando a rede para aplicações de IA em lojas e ferramentas de produtividade associadas no ponto de venda.
Impulsionada pela demanda corporativa, a plataforma também foi validada por fornecedores líderes de tecnologia, incluindo um contrato de serviço de quatro anos no valor de 200 milhões de dólares para um cluster de milhares de GPUs em um data center construído especificamente para infraestrutura de IA corporativa na periferia metropolitana.
Escalando Fábricas de IA de Centralizadas para Distribuídas
A primeira onda de infraestrutura de IA foi caracterizada por enormes clusters de GPUs em alguns poucos locais centralizados otimizados para treinamento. No entanto, à medida que a inferência se torna a carga de trabalho dominante e empresas de diversos setores focam na construção de agentes de IA, esse modelo centralizado enfrenta as mesmas limitações de escalabilidade que gerações anteriores de infraestrutura de internet encontraram com distribuição de mídia, jogos online, transações financeiras e aplicações complexas de microsserviços.
A Akamai está enfrentando cada um desses desafios com uma abordagem fundamental: redes distribuídas, orquestração inteligente e sistemas especificamente projetados para aproximar o conteúdo e o contexto o máximo possível do ponto de contato digital. O resultado foi uma melhoria na experiência do usuário e um retorno sobre o investimento (ROI) maior para as empresas que adotaram esse modelo. A Akamai Inference Cloud aplica a mesma arquitetura comprovada às fábricas de IA, possibilitando a próxima onda de escalabilidade e crescimento ao distribuir computação densa do núcleo para a borda.
Para as empresas, isso significa ser capaz de implantar agentes de IA conscientes do contexto que sejam adaptáveis em sua capacidade de resposta. Para a indústria, isso representa um modelo da evolução das fábricas de IA de instalações isoladas para uma utilidade distribuída globalmente.

