Micron var den første til at annoncere masseproduktionen af deres nye ultra-hurtige HBM3E-hukommelse i februar 2024, hvilket placerede firmaet foran HBM-rivalerne SK hynix og Samsung. Det amerikanske hukommelsesselskab annoncerede, at de ville levere HBM3E-hukommelseschips til NVIDIAs kommende H200 AI GPU, der vil have HBM3E-hukommelse, modsat sin forgænger med H100 AI GPU, der havde HBM3-hukommelse.
Micron vil fremstille deres nye HBM3E-hukommelseschips på deres 1b nanometer DRAM-chips, sammenlignelige med 12nm-noder, som HBM-lederen SK Hynix bruger på deres HBM. Ifølge Korea JoongAng Daily er Micron "teknisk foran" HBM-konkurrenten Samsung, der stadig bruger 1a nanometer teknologi, hvilket svarer til 14nm teknologi.
Microns nye 24GB 8-Hi HBM3E-hukommelse vil være hjertet i NVIDIAs kommende H200 AI GPU, og Microns overlegenhed i HBM-processen er en væsentlig del af deres aftale med NVIDIA. Micron forklarer deres nye HBM3E-hukommelse:
Eksperten inden for chips, Jeon In-seong, og forfatter til "The Future of the Semiconductor Empire" sagde: "Det er bevist, at Microns fremstillingsmetode er mere avanceret end Samsung Electronics, fordi deres HBM3E vil blive lavet med 1b nanometer teknologi. Micron vil have brug for noget mere arbejde på packaging, men det burde være lettere end det, de allerede har opnået med 1b nanometer teknologi".