
China enfrenta un desafío significativo en el desarrollo de hardware para aplicaciones de inteligencia artificial (IA). Actualmente, los fabricantes chinos de chips de memoria no producen soluciones competitivas con las memorias más avanzadas fabricadas por las empresas surcoreanas Samsung y SK Hynix, así como la estadounidense Micron Technology. Las GPU para IA dependen en gran medida de los chips de memoria HBM (High Bandwidth Memory), cuyo rendimiento está condicionado por estas memorias.
SK Hynix, Samsung y Micron están produciendo a gran escala memorias HBM3E de 12 capas. Las dos firmas surcoreanas planean comenzar la producción de chips HBM4 en el segundo semestre de 2025, mientras que Micron lo hará en 2026. Por su parte, CXMT (Changxin Memory Technologies), una empresa china especializada en la producción de memorias, lanzará sus primeros chips HBM3E en 2027. En el contexto actual de competencia con Estados Unidos, China no puede permitirse estar dos años por detrás en la producción de memorias HBM.
Sin embargo, esta brecha parece estar a punto de cerrarse. Recientemente, el medio estatal chino Securities Times informó que Huawei está a punto de presentar un avance tecnológico que busca reducir la dependencia de China en los chips de memoria HBM importados. Además, DigiTimes Asia ha reportado que la compañía ya está probando los primeros chips HBM3 fabricados completamente en China, un hito crucial para el país asiático.
Huawei no se detiene
Huawei invierte más de 25.000 millones de dólares anuales en el desarrollo de su hardware para IA, lo que podría permitirle alcanzar las prestaciones de las GPU producidas por NVIDIA o AMD. Hasta ahora, la compañía enfrentaba dos obstáculos: la incapacidad para fabricar sus chips con equipos de fotolitografía de ultravioleta extremo (UVE) de ASML y la dificultad para acceder a los circuitos integrados de memoria HBM fabricados en el extranjero. Sin embargo, este último problema podría resolverse pronto.
Durante el Foro de Aplicaciones y Desarrollo de Razonamiento de IA Financiera 2025 en Shanghái, Huawei presentó un algoritmo denominado UCM (Unified Cache Manager), que, según la compañía, puede acelerar drásticamente la inferencia en grandes modelos de IA. Este algoritmo optimiza el almacenamiento de datos en función de los requisitos de latencia, actuando como una caché que asegura que cada dato se almacene en la memoria adecuada, incluyendo la HBM3, para minimizar la latencia durante la inferencia. Huawei afirma que esta tecnología puede reducir la latencia en un 90% y planea hacer el algoritmo UCM de código abierto en septiembre.
Más información | DigiTimes Asia
Fuente original: ver aquí
