$MU (Micron) wprowadził moduł pamięci 256 GB zaprojektowany specjalnie dla centrów danych AI, który może zapewnić szybszy czas reakcji dla dużych modeli językowych (LLM), a jednocześnie w porównaniu do tradycyjnej pamięci charakteryzuje się znacznie wyższą efektywnością energetyczną. W miarę jak sztuczna inteligencja stopniowo przechodzi z etapu treningu (training) do etapu wnioskowania (inference), pamięć CPU staje się nowym wąskim gardłem wydajności.