Selecione seu Idioma

Akamai revelou marco de IA com a Nvidia

Akamai presentó hito sobre AI con Nvidia

América Latina. A Akamai Technologies marcou um marco importante na evolução da inteligência artificial ao apresentar a primeira implementação mundial do design de referência NVIDIA AI Grid.

Ao integrar a infraestrutura de IA da NVIDIA em sua própria e aproveitar a orquestração inteligente de cargas de trabalho em toda a rede, a Akamai busca levar a indústria além de fábricas de IA isoladas para uma rede unificada e distribuída para inferência de IA.

Este é um passo significativo na evolução do Akamai Inference Cloud, introduzido no final do ano passado. A Akamai, a primeira empresa a lançar a rede AI Grid, está implantando milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, fornecendo uma plataforma que permite que empresas executem IA baseada em agentes e física, com a resposta da computação local e a escala da web global.

"Os centros de IA são construídos especialmente para treinamento e cargas de trabalho de modelos de borda, e a infraestrutura centralizada continuará a entregar os melhores resultados em termos de tokenômica para esses casos de uso", disse Adam Karon, COO e gerente geral do Grupo de Tecnologia em Nuvem da Akamai. "No entanto, vídeo em tempo real, IA física e experiências personalizadas altamente simultâneas exigem inferência no ponto de contato, não uma viagem de ida e volta até um cluster centralizado. Nossa orquestração inteligente AI Grid permite que fábricas de IA estendam a inferência para fora e aproveitem a mesma arquitetura distribuída que revolucionou a entrega de conteúdo para direcionar cargas de trabalho de IA para 4.400 locais, ao custo certo, na hora certa."

- Publicidad -

A arquitetura da "Tokenomics"
O núcleo do AI Grid consiste em um coordenador inteligente que atua como intermediário em tempo real para solicitações de IA. Ao aplicar a expertise da Akamai em otimizar o desempenho de aplicações à IA, esse plano de controle sensível à carga de trabalho otimiza tokenomics, melhorando o custo por token, o tempo até o primeiro token e o desempenho.

Uma das principais características que diferenciam a Akamai é sua capacidade para os clientes acessarem modelos enxutos ou dispersos em sua enorme presença global, o que representa uma enorme vantagem de custo e desempenho para a longa cauda das cargas de trabalho de IA. Por exemplo:
● Custo-benefício em escala: As empresas podem reduzir drasticamente os custos de inferência ao alocar automaticamente as cargas de trabalho para o tier de computação correto. Esse coordenador aplica técnicas como cache semântico e roteamento inteligente para direcionar requisições a recursos de tamanho adequado e reserva ciclos premium de GPU para cargas de trabalho que precisem. Tudo isso é sustentado pela Akamai Cloud, construída sobre uma infraestrutura de código aberto com amplas alocações de saída para suportar operações de IA intensivas em dados.
● Resposta em tempo real: Estúdios de desenvolvimento de jogos podem oferecer interações com personagens (NPCs) não jogáveis com IA que mantêm o jogador imerso em questão de milissegundos. As instituições financeiras podem fornecer recomendações personalizadas de detecção de fraudes e marketing no período desde o login até a primeira tela. As emissoras podem transcodificar e dublar conteúdo em tempo real para audiências globais. Esses resultados são possíveis graças à rede de borda globalmente distribuída da Akamai, que possui mais de 4.400 locais com cache embutido, computação de borda serverless e conectividade de alto desempenho, e processa requisições no ponto de contato do usuário, evitando o atraso de ida e volta para nuvens dependentes da origem.
● IA de qualidade de produção no núcleo: Grandes modelos de linguagem, pós-treinamento contínuo e cargas de trabalho de inferência multimodal exigem computação sustentada e de alta densidade que só pode ser fornecida por uma infraestrutura dedicada. Os clusters de milhares de GPUs da Akamai, alimentados por GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, entregam a potência concentrada necessária para as cargas de trabalho de IA mais exigentes e complementam a borda distribuída com escala centralizada.

Continuidade da Computação
Construído sobre NVIDIA AI Enterprise e aproveitando a arquitetura NVIDIA Blackwell e as DPUs NVIDIA BlueField para redes aceleradas por hardware e segurança, o Akamai pode gerenciar acordos complexos de nível de serviço (SLAs) entre as localizações de borda e centrais.
● The Edge (com mais de 4.400 locais): Oferece tempos de resposta rápidos para IA física e agentes autônomos. Você vai aproveitar cache semântico e capacidades serverless, como Akamai Functions (computação baseada em WebAssembly) e EdgeWorkers, para oferecer afinidade com modelos e desempenho estável no ponto de contato do usuário.
● Akamai Cloud IaaS e clusters dedicados de GPUs: A infraestrutura básica de nuvem pública permite portabilidade e economia de custos para cargas de trabalho em grande escala, enquanto pods equipados com GPUs Blackwell NVIDIA RTX PRO 6000 possibilitam pós-treinamento de alta intensidade e inferência multimodal.

"Novas aplicações nativas de IA exigem latência previsível e maior custo-benefício em escala global", disse Chris Penrose, vice-presidente global de Desenvolvimento Empresarial e Telcos da NVIDIA. "Ao operacionalizar o NVIDIA AI Grid, a Akamai está construindo o tecido conectivo para IA generativa, agencial, e física, e está transferindo inteligência diretamente para os dados, o que inaugurará a próxima onda de aplicações em tempo real."

Impulsionando a próxima geração de IA em tempo real
A Akamai já está vendo uma forte adoção inicial do Akamai Inference Cloud em indústrias intensivas em computação e sensíveis à latência:
● Jogos: Os estúdios estão implementando inferências abaixo de 50 milissegundos para NPCs movidos por IA e interações em tempo real com os jogadores.
● Serviços financeiros: Os bancos confiam na internet para fazer marketing hiper-personalizado e fornecer recomendações rápidas quando os clientes fazem login.
● Mídia e vídeos: As emissoras usam a rede distribuída para transcodificação e dublagem em tempo real alimentadas por IA.
● Varejo: Os varejistas estão adotando a rede para aplicações de IA em lojas e ferramentas de produtividade associadas no ponto de venda.

Impulsionada pela demanda corporativa, a plataforma também foi validada por fornecedores líderes de tecnologia, incluindo um contrato de serviço de quatro anos no valor de 200 milhões de dólares para um cluster de milhares de GPUs em um data center construído especificamente para infraestrutura de IA corporativa na periferia metropolitana.

Escalando Fábricas de IA de Centralizadas para Distribuídas
A primeira onda de infraestrutura de IA foi caracterizada por enormes clusters de GPUs em alguns poucos locais centralizados otimizados para treinamento. No entanto, à medida que a inferência se torna a carga de trabalho dominante e empresas de diversos setores focam na construção de agentes de IA, esse modelo centralizado enfrenta as mesmas limitações de escalabilidade que gerações anteriores de infraestrutura de internet encontraram com distribuição de mídia, jogos online, transações financeiras e aplicações complexas de microsserviços.

- Publicidad -

A Akamai está enfrentando cada um desses desafios com uma abordagem fundamental: redes distribuídas, orquestração inteligente e sistemas especificamente projetados para aproximar o conteúdo e o contexto o máximo possível do ponto de contato digital. O resultado foi uma melhoria na experiência do usuário e um retorno sobre o investimento (ROI) maior para as empresas que adotaram esse modelo. A Akamai Inference Cloud aplica a mesma arquitetura comprovada às fábricas de IA, possibilitando a próxima onda de escalabilidade e crescimento ao distribuir computação densa do núcleo para a borda.

Para as empresas, isso significa ser capaz de implantar agentes de IA conscientes do contexto que sejam adaptáveis em sua capacidade de resposta. Para a indústria, isso representa um modelo da evolução das fábricas de IA de instalações isoladas para uma utilidade distribuída globalmente.



No comments

• Si ya estás registrado, favor ingresar primero al sistema. Su email no será publicado.
• Se você já está registrado, faça o login primeiro. O seu email não será publicado.

Leave your comment

In reply to Some User
A AVE Trade Summit 2026 reuniu marcas de AV em Bogotá

A AVE Trade Summit 2026 reuniu marcas de AV em Bogotá

Colômbia. Audio Video Export (AVE), distribuidora de soluções audiovisuais profissionais e residenciais para a América Latina e Caribe, organizou recentemente a Cúpula Comercial AVE 2026, realizada...

A NoviSign apresentou suas soluções de DS para a América Latina

A NoviSign apresentou suas soluções de DS para a América Latina

América Latina. O provedor de software de sinalização digital em nuvem, NoviSign, foi lançado na América Latina e apresentou um portfólio completo de soluções de sinalização digital corporativa...

Shure entrega áudio excepcional durante o Super Bowl LX

Shure entrega áudio excepcional durante o Super Bowl LX

América Latina. Do estádio a milhões de espectadores ao redor do mundo, a tecnologia sem fio Shure mais uma vez desempenhou um papel fundamental no Super Bowl, apresentando as mais recentes...

Edifícios Inteligentes 2026: Do Desempenho Reativo ao Preditivo

Edifícios Inteligentes 2026: Do Desempenho Reativo ao Preditivo

América Latina. A gestão prédia está entrando em uma nova era, passando dos controles tradicionais para operações baseadas em inteligência. Por anos, vimos experimentos e testes de IA para funções...

Akamai revelou marco de IA com a Nvidia

Akamai revelou marco de IA com a Nvidia

América Latina. A Akamai Technologies marcou um marco importante na evolução da inteligência artificial ao apresentar a primeira implementação mundial do design de referência NVIDIA AI Grid.

Aurora Multimedia nomeia novo gerente de vendas para a América Latina

Aurora Multimedia nomeia novo gerente de vendas para a América Latina

América Latina. A Aurora Multimedia fortalece sua presença na América Latina com a nomeação do Eng. Aharon Yablon como Gerente Regional de Vendas. Essa expansão estratégica reflete o crescimento...

Cobertura constante impulsiona alto-falantes distribuídos

Cobertura constante impulsiona alto-falantes distribuídos

América Latina. Os tetos expostos deixaram de ser uma tendência para se tornarem padrão em lojas, hotelaria, academias e espaços comerciais de uso misto. Com essa mudança, o design dos sistemas de...

Renovação da galeria digital externa

Renovação da galeria digital externa

Reconstruindo um ícone: a história de engenharia por trás da renovação da Galeria Digital FIESP Sobre Projeções

Módulos flexíveis de LED, nova arquitetura digital no varejo

Módulos flexíveis de LED, nova arquitetura digital no varejo

México. As telas não competem mais apenas em tamanho ou resolução. Hoje, eles competem por forma, integração e a capacidade de transformar espaços. No varejo e ambientes corporativos, o formato...

Alto-falante coaxial de montagem superficial lançado pela Bose Professional

Alto-falante coaxial de montagem superficial lançado pela Bose Professional

América Latina. A Bose Professional lançou o alto-falante DM12SE, o membro mais potente e maior da aclamada família de alto-falantes DesignMax.

Suscribase Gratis
Lembre-se de mim
INSCREVA-SE NO BOLETIM INFORMATIVO
VOCÊ PRECISA DE UMA COTAÇÃO?
ENTREVISTAS EM DESTAQUE
PATROCINADORES










ÚLTIMO BOLETIM
Ultimo Info-Boletin