Tror du AMDs instinkt MI300X og NVIDIAs B200 GPU er meget store?TSMC annoncerede for nylig på et nordamerikansk teknologiseminar, at det udvikler en ny version af Cowos Packaging Technology, som vil øge størrelsen på System Level Packaging (SIP) med mere end to gange.OEM -fabrikken forudsiger, at disse vil bruge enorme pakker på 120x120mm og forbruge flere kilowatt strøm.
Den seneste version af Cowos giver TSMC mulighed for at fremstille siliciummellemlag, der er cirka 3,3 gange større end fotomasker (eller masker, 858 kvadratmillimeter).Derfor kan logik, 8 HBM3/HBM3E -hukommelsesstacks, I/O og andre små chips (chipletter) besætte op til 2831 kvadratmillimeter.Den maksimale underlagsstørrelse er 80 x 80 millimeter.AMDs instinkt MI300X og NVIDIAs B200 bruger begge denne teknologi, selvom NVIDIAs B200 -chip er større end AMDs MI300X.
Den næste generation af Cowosl vil blive sat i produktion i 2026 og vil være i stand til at opnå et mellemliggende lag på cirka 5,5 gange størrelsen på masken (som måske ikke er så imponerende som den 6 gange maskestørrelse, der blev annonceret sidste år).Dette betyder, at 4719 kvadratmillimeter vil være tilgængelige til logik, op til 12 HBM hukommelsesstabler og andre små chips.Denne type SIP kræver et større underlag, og ifølge TSMCs lysbilleder overvejer vi 100x100 millimeter.Derfor vil sådanne chips ikke være i stand til at bruge OAM -moduler.
TSMC stopper ikke der: I 2027 vil den have en ny version af Cowos -teknologi, der vil gøre størrelsen på det mellemliggende lag 8 gange eller flere gange størrelsen på masken, hvilket giver et rum på 6864 kvadratmillimeter til chiplet.En af TSMCs foreslåede design er afhængig af fire stablede integrerede systemchips (SOICS), parret med 12 HBM4 hukommelsesstabler og yderligere I/O -chips.En sådan Behemoth ville bestemt forbruge en enorm mængde magt - dem, der diskuteres her, er flere kilowatt og kræver meget komplekse køleteknikker.TSMC forventer også, at denne type opløsning bruger et 120x120mm underlag.
Interessant nok viste Broadcom tidligere på året en brugerdefineret AI -chip med to logiske chips og 12 HBM hukommelsesstabler.Vi har ikke specifikke specifikationer for dette produkt, men det ser større ud end AMDs instinkt MI300X og NVIDIAs B200, selvom det ikke er så stort som TSMCs 2027 -plan.