Selecione seu Idioma

Akamai revelou marco de IA com a Nvidia

Akamai presentó hito sobre AI con Nvidia

América Latina. A Akamai Technologies marcou um marco importante na evolução da inteligência artificial ao apresentar a primeira implementação mundial do design de referência NVIDIA AI Grid.

Ao integrar a infraestrutura de IA da NVIDIA em sua própria e aproveitar a orquestração inteligente de cargas de trabalho em toda a rede, a Akamai busca levar a indústria além de fábricas de IA isoladas para uma rede unificada e distribuída para inferência de IA.

Este é um passo significativo na evolução do Akamai Inference Cloud, introduzido no final do ano passado. A Akamai, a primeira empresa a lançar a rede AI Grid, está implantando milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, fornecendo uma plataforma que permite que empresas executem IA baseada em agentes e física, com a resposta da computação local e a escala da web global.

"Os centros de IA são construídos especialmente para treinamento e cargas de trabalho de modelos de borda, e a infraestrutura centralizada continuará a entregar os melhores resultados em termos de tokenômica para esses casos de uso", disse Adam Karon, COO e gerente geral do Grupo de Tecnologia em Nuvem da Akamai. "No entanto, vídeo em tempo real, IA física e experiências personalizadas altamente simultâneas exigem inferência no ponto de contato, não uma viagem de ida e volta até um cluster centralizado. Nossa orquestração inteligente AI Grid permite que fábricas de IA estendam a inferência para fora e aproveitem a mesma arquitetura distribuída que revolucionou a entrega de conteúdo para direcionar cargas de trabalho de IA para 4.400 locais, ao custo certo, na hora certa."

- Publicidad -

A arquitetura da "Tokenomics"
O núcleo do AI Grid consiste em um coordenador inteligente que atua como intermediário em tempo real para solicitações de IA. Ao aplicar a expertise da Akamai em otimizar o desempenho de aplicações à IA, esse plano de controle sensível à carga de trabalho otimiza tokenomics, melhorando o custo por token, o tempo até o primeiro token e o desempenho.

Uma das principais características que diferenciam a Akamai é sua capacidade para os clientes acessarem modelos enxutos ou dispersos em sua enorme presença global, o que representa uma enorme vantagem de custo e desempenho para a longa cauda das cargas de trabalho de IA. Por exemplo:
● Custo-benefício em escala: As empresas podem reduzir drasticamente os custos de inferência ao alocar automaticamente as cargas de trabalho para o tier de computação correto. Esse coordenador aplica técnicas como cache semântico e roteamento inteligente para direcionar requisições a recursos de tamanho adequado e reserva ciclos premium de GPU para cargas de trabalho que precisem. Tudo isso é sustentado pela Akamai Cloud, construída sobre uma infraestrutura de código aberto com amplas alocações de saída para suportar operações de IA intensivas em dados.
● Resposta em tempo real: Estúdios de desenvolvimento de jogos podem oferecer interações com personagens (NPCs) não jogáveis com IA que mantêm o jogador imerso em questão de milissegundos. As instituições financeiras podem fornecer recomendações personalizadas de detecção de fraudes e marketing no período desde o login até a primeira tela. As emissoras podem transcodificar e dublar conteúdo em tempo real para audiências globais. Esses resultados são possíveis graças à rede de borda globalmente distribuída da Akamai, que possui mais de 4.400 locais com cache embutido, computação de borda serverless e conectividade de alto desempenho, e processa requisições no ponto de contato do usuário, evitando o atraso de ida e volta para nuvens dependentes da origem.
● IA de qualidade de produção no núcleo: Grandes modelos de linguagem, pós-treinamento contínuo e cargas de trabalho de inferência multimodal exigem computação sustentada e de alta densidade que só pode ser fornecida por uma infraestrutura dedicada. Os clusters de milhares de GPUs da Akamai, alimentados por GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, entregam a potência concentrada necessária para as cargas de trabalho de IA mais exigentes e complementam a borda distribuída com escala centralizada.

Continuidade da Computação
Construído sobre NVIDIA AI Enterprise e aproveitando a arquitetura NVIDIA Blackwell e as DPUs NVIDIA BlueField para redes aceleradas por hardware e segurança, o Akamai pode gerenciar acordos complexos de nível de serviço (SLAs) entre as localizações de borda e centrais.
● The Edge (com mais de 4.400 locais): Oferece tempos de resposta rápidos para IA física e agentes autônomos. Você vai aproveitar cache semântico e capacidades serverless, como Akamai Functions (computação baseada em WebAssembly) e EdgeWorkers, para oferecer afinidade com modelos e desempenho estável no ponto de contato do usuário.
● Akamai Cloud IaaS e clusters dedicados de GPUs: A infraestrutura básica de nuvem pública permite portabilidade e economia de custos para cargas de trabalho em grande escala, enquanto pods equipados com GPUs Blackwell NVIDIA RTX PRO 6000 possibilitam pós-treinamento de alta intensidade e inferência multimodal.

"Novas aplicações nativas de IA exigem latência previsível e maior custo-benefício em escala global", disse Chris Penrose, vice-presidente global de Desenvolvimento Empresarial e Telcos da NVIDIA. "Ao operacionalizar o NVIDIA AI Grid, a Akamai está construindo o tecido conectivo para IA generativa, agencial, e física, e está transferindo inteligência diretamente para os dados, o que inaugurará a próxima onda de aplicações em tempo real."

Impulsionando a próxima geração de IA em tempo real
A Akamai já está vendo uma forte adoção inicial do Akamai Inference Cloud em indústrias intensivas em computação e sensíveis à latência:
● Jogos: Os estúdios estão implementando inferências abaixo de 50 milissegundos para NPCs movidos por IA e interações em tempo real com os jogadores.
● Serviços financeiros: Os bancos confiam na internet para fazer marketing hiper-personalizado e fornecer recomendações rápidas quando os clientes fazem login.
● Mídia e vídeos: As emissoras usam a rede distribuída para transcodificação e dublagem em tempo real alimentadas por IA.
● Varejo: Os varejistas estão adotando a rede para aplicações de IA em lojas e ferramentas de produtividade associadas no ponto de venda.

Impulsionada pela demanda corporativa, a plataforma também foi validada por fornecedores líderes de tecnologia, incluindo um contrato de serviço de quatro anos no valor de 200 milhões de dólares para um cluster de milhares de GPUs em um data center construído especificamente para infraestrutura de IA corporativa na periferia metropolitana.

Escalando Fábricas de IA de Centralizadas para Distribuídas
A primeira onda de infraestrutura de IA foi caracterizada por enormes clusters de GPUs em alguns poucos locais centralizados otimizados para treinamento. No entanto, à medida que a inferência se torna a carga de trabalho dominante e empresas de diversos setores focam na construção de agentes de IA, esse modelo centralizado enfrenta as mesmas limitações de escalabilidade que gerações anteriores de infraestrutura de internet encontraram com distribuição de mídia, jogos online, transações financeiras e aplicações complexas de microsserviços.

- Publicidad -

A Akamai está enfrentando cada um desses desafios com uma abordagem fundamental: redes distribuídas, orquestração inteligente e sistemas especificamente projetados para aproximar o conteúdo e o contexto o máximo possível do ponto de contato digital. O resultado foi uma melhoria na experiência do usuário e um retorno sobre o investimento (ROI) maior para as empresas que adotaram esse modelo. A Akamai Inference Cloud aplica a mesma arquitetura comprovada às fábricas de IA, possibilitando a próxima onda de escalabilidade e crescimento ao distribuir computação densa do núcleo para a borda.

Para as empresas, isso significa ser capaz de implantar agentes de IA conscientes do contexto que sejam adaptáveis em sua capacidade de resposta. Para a indústria, isso representa um modelo da evolução das fábricas de IA de instalações isoladas para uma utilidade distribuída globalmente.



No comments

• Si ya estás registrado, favor ingresar primero al sistema. Su email no será publicado.
• Se você já está registrado, faça o login primeiro. O seu email não será publicado.

Leave your comment

In reply to Some User
LEA Professional foca na América Latina

LEA Professional foca na América Latina

América Latina. O fabricante de soluções de áudio LEA Professional busca aumentar a presença de suas soluções no mercado latino-americano, aproveitando o crescimento da indústria AV em seus...

A Yamaki comemora seu 40º aniversário com a AVI Experience

A Yamaki comemora seu 40º aniversário com a AVI Experience

Colômbia. De 12 a 14 de maio, a segunda edição da Yamaki AVI Experience será realizada em Bogotá, um evento que este ano será especial, pois servirá para celebrar os 40 anos da empresa.

D2S DSCBS é lançado para simplificar projetos de AV no Brasil

D2S DSCBS é lançado para simplificar projetos de AV no Brasil

Brasil. A execução de projetos audiovisuais profissionais no Brasil há muito coloca integradores internacionais em uma situação difícil: navegar sozinhos em um ambiente logístico e fiscal complexo e...

Michael Phipps, novo presidente e diretor da Christie

Michael Phipps, novo presidente e diretor da Christie

América Latina. A empresa-mãe da Christie, Ushio Inc., promoveu Michael Phipps ao cargo de Presidente e Diretor Executivo da Christie Digital Systems e suas subsidiárias.

Mudando o escritório em casa para um dia de trabalho mais produtivo

Mudando o escritório em casa para um dia de trabalho mais produtivo

América Latina. A consolidação do trabalho híbrido na Colômbia deixou de ser uma resposta de emergência e se tornou um pilar da economia digital.

A Universidade Anahuac transforma a educação híbrida com a Shure

A Universidade Anahuac transforma a educação híbrida com a Shure

México. A Universidad Anáhuac Puebla, uma instituição líder em excelência acadêmica na América Latina, anunciou a implementação bem-sucedida de um ecossistema de áudio inteligente, com soluções...

O grupo Dante & Aeris oferecerá cursos especializados no México

O grupo Dante & Aeris oferecerá cursos especializados no México

México. O grupo Dante e aeris realizará dois cursos especializados em áudio sobre rede que acontecerão na Cidade do México, voltados para profissionais do setor Pro AV, engenharia de áudio e...

Automação residencial e predial transformarão os edifícios chilenos

Automação residencial e predial transformarão os edifícios chilenos

Chile. O setor de construção inteligente alcançou um marco com a realização dos Dias de Automação Predial pela KNX LATAM Virtual, CHILE 2026.

INFiLED fortalece sua equipe, Henry Ambrose novo presidente

INFiLED fortalece sua equipe, Henry Ambrose novo presidente

Estados Unidos. A INFiLED anunciou uma série de mudanças em sua equipe de liderança norte-americana. Henry Ambrose foi promovido a Presidente e Diretor Executivo, enquanto Chris Donaldson se junta...

Copa FIFA 2026: desafio tecnológico para hotéis no México

Copa FIFA 2026: desafio tecnológico para hotéis no México

México. Em um ambiente onde a experiência do usuário se tornou o principal diferencial, o setor de hospitalidade está se preparando para um de seus maiores desafios nos próximos anos: a alta demanda...

Suscribase Gratis
Lembre-se de mim
INSCREVA-SE NO BOLETIM INFORMATIVO
VOCÊ PRECISA DE UMA COTAÇÃO?
ENTREVISTAS EM DESTAQUE
PATROCINADORES










ÚLTIMO BOLETIM
Ultimo Info-Boletin