For nylig blev der offentliggjort en AI-chips roadmap for datacentre på X, hvor vi får et godt kig på, hvad virksomheder allerede har på markedet, og hvad der er i AI-chips pipeline frem til 2027.
Listen inkluderer chip-producenter som NVIDIA, AMD, Intel, Google, Amazon, Microsoft, Meta, ByteDance og Huawei. NVIDIA's liste over AI-GPUs inkluderer Ampere A100 gennem Hopper H100, GH200, H200 AI-GPUs og videre til Blackwell B200A, B200 Ultra, GB200 Ultra og GB200A. Men derefter - som vi alle ved, er på vej - er Rubin og Rubin Ultra, begge udstyret med næste-generations HBM4-hukommelse.
Vi har også AMD's voksende serie af Instinct MI AI-acceleratorer, med MI250X gennem den nye MI350 og den kommende MI400, der er listet til 2026 og fremefter. Google er tæt på med sin TPU-serie af processorer, med TPU v5e gennem til den næste generation af TPU v7p, der kommer i 2025. Intel har Gaudi 2 og Gaudi 3 på listen, med deres næste generation af Falcon Shores AI-processor forventes først i 2H 2025.
Vi forventer, at NVIDIA's næste-generations Rubin R100 AI-GPUs vil bruge en 4x reticle design (sammenlignet med Blackwell med 3.3x reticle design) og blive fremstillet på TSMC's banebrydende CoWoS-L emballage teknologi på den nye N3 process node.
TSMC har for nylig talt om chips med reticle størrelse op til 5.5x, der ankommer i 2026, og som vil have en 100 x 100mm underlag, der kan håndtere 12 HBM-sites, sammenlignet med 8 HBM-sites på nuværende 80 x 80mm pakker.
TSMC vil skifte til en ny SoIC-design, der vil tillade en større end 8x reticle størrelse på en større 120 x 120mm pakkekonfiguration. Men, som Wccftech påpeger, er disse stadigvæk under planlægning, så vi kan sandsynligvis forvente omkring 4x reticle størrelse for Rubin R100 AI-GPUs.