Hace ya cinco años de la aparición de la segunda generación de la memoria HBM, la memoria RAM construida utilizando vías a través de silicio o TSV más exitosa hasta el momento. Su tercera generación conocida como memoria HBM3 para HPC y GPU está a la vuelta de la esquina, pero se está encontrando con varios desafíos camino a su estandarización.
Cualquiera que le pregunte a un ingeniero de hardware para PC cuál es el mejor tipo de memoria RAM en la actualidad va a recibir la misma respuesta: la memoria HBM es la mejor de todas. Y es que tiene una serie de ventajas entre las que destaca el menor espacio que ocupa gracias a estar formada por chips apilados interconectados en vertical, ya que también la que menos energía basta, llegando a consumir la mitad por bit transmitido que otras memorias como la GDDR6 manteniendo anchos de banda iguales a la popular VRAM y con la guinda del pastel de tener menos latencia que ninguna y poder ser utilizada por ello como una especie de caché de último nivel.
No obstante la memoria HBM pese a que se ha estandarizado en mercados como es la computación de alto rendimiento no lo ha hecho en el mundo del PC por un motivo: es cara de fabricar y requiere que no solo la memoria sino que todos los componentes que se van a comunicar con ella se monten sobre un interposer. Esto ha llevado al desarrollo de tecnologías como CoWoS de TSMC y EMIB de Intel para comunicar la memoria HBM con los diferentes procesadores que la acompañan.
El gran desafío es que la HBM de tercera generación no se está desarrollando como una evolución del actual estándar, esto obliga a un borrón y cuenta nueva y que los diseños se tengan que pensar desde el principio en un tipo de memoria que por el momento no tiene un estándar terminado sobre como ha de ser su funcionamiento.
Así está evolucionando la memoria HBM3
Oficialmente el estándar de la JEDEC acerca de la memoria HBM3 no existe y no ha sido publicado, pero esto no significa que no haya diferentes agentes dentro de la industria que estén desarrollando el nuevo estándar como es el caso de RAMBUS o Cadence, empresas especializadas en la creación de diseños para vender a terceros. Y es que elementos comunes como por ejemplo las interfaces a memoria no suelen desarrollarse dentro de empresas como Intel, AMD o NVIDIA, sino que son licenciadas bajo la garantía de un estándar, lo cual por el momento no ocurre con la HBM de tercera generación.
¿Y qué cosas sabemos de la HBM3? En primer lugar es que se espera llegar a los 8,4 Gigabits de datos transmitidos por pin, lo cual es más del doble que la HBM2 más rápida que hay en el mercado en estos momentos con 3,6 Gbps. Por el momento desconocemos cuál es el método que se utilizará para alcanzar semejantes velocidades sin aumentar el consumo energético.
En el caso de HBM de primera y segunda generación tenemos 8 canales de 128 bits, mientras que la HBM3 pasa a tener 16 canales, pero de 64 bits cada uno y por tanto también con un bus de 1024 bits por pila, por los que los chips que irán en la pila serán más pequeños y esta más alta. Para aclarar lo que significan estas cifras estamos hablando que cada pila de memoria HBM3 puede alcanzar hasta 1 TB/s de ancho de banda, esto es el doble que alcanza la VRAM de una RX 6900 XT y en un solo chip.
¿Por qué es vista como la memoria del futuro en HPC?
El motivo por el cual la memoria HBM3 es una de las piezas fundamentales para la computación de alto rendimiento no es otro que es ideal para crear un entorno totalmente coherente en el direccionamiento de memoria. Todo esto bajo un ancho de banda más que excelente para gráficos e inteligencia artificial y con una latencia lo suficientemente baja para la CPU.
Esta es la clave de los proyectos para HPC que Intel y AMD están teniendo por separado, tanto el EHP de AMD para El Capitán como la construcción de otro superordenador como es Aurora tienen como elemento central CPU y GPU en un interposer que los intercomunicará con memoria HBM de siguiente generación. Incluso no deberíamos descartar que la dupla compuesta por la CPU Grace y la GPU Hopper de NVIDIA también haga uso de la HBM3 como elemento cohesivo para poder alcanzar nuevos niveles de rendimiento.
Intel por ejemplo ya tiene planeado utilizar la HBM2e para sus futuros Sapphire Rapids, en especial para acelerar los algoritmos relacionados con la IA que se ejecutan haciendo uso de las unidades AMX dentro del nuevo núcleo. En el futuro esto se combinará con el uso de una GPU que compartirán el uso de una memoria HBM3 como pozo único de memoria.
The post NVIDIA, AMD e Intel ¿elegirán en VRAM HBM3 o GDDR6X para GPU? appeared first on HardZone.