Según Cisco, los chips podrían ayudar a llevar a cabo tareas de IA y aprendizaje automático con un 40% menos de conmutadores y un retardo menor.
Los chips están siendo probados por cinco de los seis principales proveedores de servicios en la nube, sin nombrar a las empresas. Entre ellos figuran Amazon Web Services, Microsoft Azure y Google Cloud, que juntos dominan el mercado de la computación en nube, según Bofa Global Research.
La creciente popularidad de aplicaciones de IA como ChatGPT, que funciona con una red de chips especializados llamados unidades de procesamiento gráfico (GPU), ha hecho que la velocidad a la que se comunican estos chips individuales sea extremadamente importante.
Cisco es uno de los principales proveedores de equipos de red, incluidos los conmutadores Ethernet, que conectan dispositivos como computadores, portátiles, enrutadores, servidores e impresoras a una red de área local.
Cisco lanza nuevos chips de red con IA para competir con Broadcom y Marvell
La última generación de sus conmutadores Ethernet, denominados G200 y G202, ofrecen el doble de rendimiento que la generación anterior y pueden conectar entre sí hasta 32,000 GPU.
“G200 y G202 van a ser los chips de red más potentes del mercado para impulsar las cargas de trabajo de IA/ML y permitir la red más eficiente desde el punto de vista energético”, declaró Rakesh Chopra, antiguo ingeniero principal de Cisco.
Según Cisco, los chips podrían ayudar a llevar a cabo tareas de IA y aprendizaje automático con un 40% menos de conmutadores y un retardo menor, además de ser más eficientes desde el punto de vista energético.
En abril, Broadcom anunció el chip Jericho3-AI, capaz de conectar entre sí hasta 32,000 chips de GPU.