Seleccione su idioma

Akamai presentó hito sobre AI con Nvidia

Akamai presentó hito sobre AI con Nvidia

Latinoamérica. Akamai Technologies ha marcado un hito importante en la evolución de la inteligencia artificial al presentar la primera implementación a escala mundial del diseño de referencia NVIDIA AI Grid. 

Al integrar la infraestructura de IA de NVIDIA en la suya y aprovechar la orquestación inteligente de cargas de trabajo en toda su red, Akamai pretende llevar al sector más allá de las fábricas de IA aisladas hacia una red unificada y distribuida para la inferencia de IA.

Esto supone un paso significativo en la evolución de Akamai Inference Cloud, presentada a finales del año pasado. Akamai, la primera empresa en poner en marcha la red AI Grid, está implementando miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, lo que proporciona una plataforma que permite a las empresas ejecutar IA con agentes y física, con la capacidad de respuesta de la computación local y la escala de la web global.

“Los centros de IA se han diseñado específicamente para la formación y las cargas de trabajo de modelos de vanguardia, y la infraestructura centralizada seguirá ofreciendo los mejores resultados en términos de tokenómica para esos casos de uso”, afirma Adam Karon, director de operaciones y director general del Cloud Technology Group de Akamai. “Sin embargo, el vídeo en tiempo real, la IA física y las experiencias personalizadas altamente concurrentes exigen inferencia en el punto de contacto, no un viaje de ida y vuelta a un clúster centralizado. Nuestra orquestación inteligente AI Grid permite a las fábricas de IA ampliar la inferencia hacia el exterior y aprovechar la misma arquitectura distribuida que revolucionó la entrega de contenido para enrutar las cargas de trabajo de IA a través de 4.400 ubicaciones, con el coste y en el momento adecuados”. 

- Publicidad -

La arquitectura de los «Tokenomics»
El núcleo central de AI Grid consiste en un coordinador inteligente que actúa como intermediario en tiempo real para las solicitudes de IA. Al aplicar la experiencia de Akamai en la optimización del rendimiento de las aplicaciones a la IA, este plano de control sensible a la carga de trabajo optimiza la «tokenómica», mejorando así el coste por token, el tiempo hasta el primer token y el rendimiento.

Una de las principales características que iferencian a Akamai es su capacidad para que los clientes accedan a modelos ajustados o dispersos a través de su enorme presencia global, lo que supone una gran ventaja en términos de costes y rendimiento para la larga cola de cargas de trabajo de IA. Por ejemplo:
●    Rentabilidad a gran escala: las empresas pueden reducir drásticamente los costes de inferencia al asignar automáticamente las cargas de trabajo al nivel de computación adecuado. Este coordinador aplica técnicas como el almacenamiento en caché semántico y el enrutamiento inteligente para dirigir las solicitudes a los recursos del tamaño adecuado y reserva los ciclos de GPU premium para las cargas de trabajo que los necesitan. Todo ello se sustenta en Akamai Cloud, construido sobre una infraestructura de código abierto con amplias asignaciones de salida para soportar operaciones de IA con gran volumen de datos.
●    Capacidad de respuesta en tiempo real: los estudios de desarrollo de videojuegos pueden ofrecer interacciones con personajes no jugables (NPC) impulsadas por IA que mantienen la inmersión del jugador en cuestión de milisegundos. Las instituciones financieras pueden ofrecer recomendaciones personalizadas de detección de fraudes y marketing en el periodo comprendido entre el inicio de sesión y la primera pantalla. Los broadcasters pueden transcodificar y doblar contenidos en tiempo real para audiencias globales. Estos resultados son posibles gracias a la red periférica distribuida globalmente de Akamai, que cuenta con más de 4.400 ubicaciones con almacenamiento en caché integrado, computación periférica sin servidores y conectividad de alto rendimiento, y que procesa las solicitudes en el punto de contacto con el usuario, evitando así el retraso que supone la ida y vuelta a las nubes dependientes del origen.
●    IA con calidad de producción en el núcleo: los grandes modelos de lenguaje, el entrenamiento continuo posterior y las cargas de trabajo de inferencia multimodal requieren una computación sostenida y de alta densidad que solo puede proporcionar una infraestructura dedicada. Los clústeres de miles de GPU de Akamai, equipados con las GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, ofrecen la potencia concentrada necesaria para las cargas de trabajo de IA más exigentes y complementan el borde distribuido con una escala centralizada.

Continuidad de la computación 
Desarrollada sobre NVIDIA AI Enterprise y aprovechando la arquitectura NVIDIA Blackwell y las DPU NVIDIA BlueField para redes y seguridad aceleradas por hardware, Akamai puede gestionar acuerdos de nivel de servicio (SLA) complejos entre ubicaciones edge y core.
●    El Edge (con más de 4.400 ubicaciones): ofrece tiempos de respuesta rápidos para la IA física y los agentes autónomos. Aprovechará el almacenamiento en caché semántico y las capacidades sin servidor, como Akamai Functions (computación basada en WebAssembly) y EdgeWorkers, para ofrecer afinidad de modelos y un rendimiento estable en el punto de contacto con el usuario.
●    Akamai Cloud IaaS y clústeres de GPU dedicados: la infraestructura básica de la nube pública permite la portabilidad y el ahorro de costes para cargas de trabajo a gran escala, mientras que los pods equipados con las GPU NVIDIA RTX PRO 6000 Blackwell permiten un entrenamiento posterior de alta intensidad y una inferencia multimodal. 

“Las nuevas aplicaciones nativas de IA exigen una latencia predecible y una mayor rentabilidad a escala global”, asegura Chris Penrose, vicepresidente global de Desarrollo Empresarial y Telco en NVIDIA. “Al poner en funcionamiento NVIDIA AI Grid, Akamai está creando el tejido conectivo para la IA generativa, agencial y física, y está trasladando la inteligencia directamente a los datos, lo que dará paso a la próxima ola de aplicaciones en tiempo real”.

Impulsando la próxima generación de IA en tiempo real
Akamai ya está observando una fuerte adopción temprana de Akamai Inference Cloud en sectores que hacen un uso intensivo de los recursos informáticos y que son sensibles a la latencia:
●    Gaming: los estudios están implementando inferencias inferiores a 50 milisegundos para los NPC impulsados por IA e interacciones con los jugadores en tiempo real.
●    Servicios financieros: los bancos confían en la red para hacer marketing hiperpersonalizado y ofrecer recomendaciones rápidas cuando los clientes inician sesión.
●    Medios y vídeos: las emisoras utilizan la red distribuida para la transcodificación y el doblaje en tiempo real impulsados por IA.
●    Comercio minorista: los minoristas adoptan la red para aplicaciones de IA en las tiendas y herramientas de productividad asociadas en el punto de venta.

Impulsada por la demanda empresarial, la plataforma también ha sido validada por los principales proveedores de tecnología, entre los que se incluye un contrato de servicio de cuatro años por valor de 200 millones de dólares estadounidenses para un clúster de miles de GPU en un centro de datos construido específicamente para la infraestructura de IA empresarial en el borde metropolitano.

Ampliación de las fábricas de IA de centralizadas a distribuidas
La primera ola de infraestructura de IA se caracterizó por enormes clústeres de GPU en unas pocas ubicaciones centralizadas y optimizadas para el entrenamiento. Sin embargo, a medida que la inferencia se convierte en la carga de trabajo dominante y las empresas de todos los sectores se centran en crear agentes de IA, este modelo centralizado se enfrenta a las mismas limitaciones de escalabilidad que encontraron las generaciones anteriores de infraestructura de Internet con la distribución de medios, los juegos en línea, las transacciones financieras y las aplicaciones de microservicios complejos.

- Publicidad -

Akamai está abordando cada uno de estos retos con un enfoque fundamental: redes distribuidas, orquestación inteligente y sistemas diseñados específicamente para reunir el contenido y el contexto lo más cerca posible del punto de contacto digital. El resultado ha sido una mejora en la experiencia de los usuarios y un mayor retorno de la inversión (ROI) para las empresas que han adoptado este modelo. Akamai Inference Cloud aplica la misma arquitectura probada a las fábricas de IA, lo que permite la próxima ola de escalabilidad y crecimiento mediante la distribución de la computación densa desde el núcleo hasta el borde.

Para las empresas, esto significa poder implementar agentes de IA sensibles al contexto y adaptables en su capacidad de respuesta. Para la industria, esto representa un modelo de evolución de las fábricas de IA desde instalaciones aisladas hasta convertirse en una utilidad distribuida a nivel mundial.



No hay comentarios

Deje su comentario

En respuesta a Some User
Discabos Group y Lecran fortalecen ecosistema Pro AV en Brasil

Discabos Group y Lecran fortalecen ecosistema Pro AV en Brasil

Brasil. Discabos Group y Lecran anunciaron una alianza estratégica con el objetivo de ampliar las oportunidades de negocio, generar mayor valor para el mercado Pro AV y fortalecer el ecosistema...

Pleneo Planner: diseño inteligente de salas en minutos

Pleneo Planner: diseño inteligente de salas en minutos

Latinoamérica. Pleneo presentó Planner, una nueva herramienta online que permite a distribuidores, integradores y usuarios finales diseñar salas de reuniones completas en pocos minutos, de forma...

Sennheiser lanza los audífonos cerrados HD 480 PRO

Sennheiser lanza los audífonos cerrados HD 480 PRO

Latinoamérica. Con los HD 480 PRO, Sennheiser lanza sus audífonos cerrados de gama alta para estudio y entornos en vivo. Diseñados con el mayor cuidado y precisión, eliminan los dos puntos más...

Shure invierte en compañía de audio experiencial

Shure invierte en compañía de audio experiencial

Latinoamérica. Shure se ha convertido en inversionista minoritario de EDGE Sound Research, una start-up que desarrolla nuevas tecnologías de audio experiencial que redefinen la forma en que muchos...

El rol del contenido dinámico DOOH en campañas modernas

El rol del contenido dinámico DOOH en campañas modernas

Colombia. La evolución de la publicidad exterior hacia el contenido dinámico DOOH ha transformado por completo la manera en que las marcas se comunican con sus audiencias. Hoy, la publicidad...

Siemens expandirá su capacidad productiva en Querétaro

Siemens expandirá su capacidad productiva en Querétaro

México. Siemens anunció una inversión superior a los 1,300 millones de pesos mexicanos para expandir sus operaciones en el estado de Querétaro, con el objetivo de ampliar su capacidad productiva y...

Infraestructura energética ralentiza centros de datos

Infraestructura energética ralentiza centros de datos

México. La industria de Centros de Datos en México ha demostrado una capacidad notable de crecimiento en un contexto complejo. A pesar de no contar todavía con condiciones óptimas de suficiencia...

LEA Professional se enfoca en América Latina

LEA Professional se enfoca en América Latina

Latinoamérica. El fabricante de soluciones de audio LEA Professional, busca crecer la presencia de sus soluciones en el mercado de América Latina, aprovechando el crecimiento de la industria AV en...

Yamaki celebra sus 40 años con el AVI Experience

Yamaki celebra sus 40 años con el AVI Experience

Colombia. Del 12 al 14 de mayo, se realizará en Bogotá la segunda versión del Yamaki AVI Experience, evento que este año será especial, porque servirá para celebrar los 40 años de la compañía.

D2S DSCBS se lanza para simplificar proyectos AV en Brasil

D2S DSCBS se lanza para simplificar proyectos AV en Brasil

Brasil. La ejecución de proyectos audiovisuales profesionales en Brasil ha puesto durante mucho tiempo a los integradores internacionales en una situación difícil: navegar solos por un entorno...

Suscribase Gratis
Recuérdeme
SUSCRÍBASE AL INFO-BOLETIN
¿REQUIERE UNA COTIZACIÓN?
ENTREVISTAS DESTACADAS
PATROCINADORES










ULTIMO BOLETIN
Ultimo Info-Boletin