{"id":50571,"date":"2026-03-17T18:35:09","date_gmt":"2026-03-17T18:35:09","guid":{"rendered":"https:\/\/www.europesays.com\/at\/50571\/"},"modified":"2026-03-17T18:35:09","modified_gmt":"2026-03-17T18:35:09","slug":"2028-kommen-gestapelte-gpus-heise-online","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/at\/50571\/","title":{"rendered":"2028 kommen gestapelte GPUs | heise online"},"content":{"rendered":"<p>Gestapelte Logikchips sollen 2028 Realit\u00e4t werden. Nvidia will bei seiner \u00fcbern\u00e4chsten Generation Feynman mehrere GPU-Dies f\u00fcr seine KI-Beschleuniger \u00fcbereinanderstapeln. Das best\u00e4tigte Firmenchef Jensen Huang bei der Er\u00f6ffnung der Hausmesse GTC 2026 (<a href=\"https:\/\/www.youtube.com\/live\/jw_o0xr8MWU?si=kFzqmvPQAw9teqlP&amp;t=7953\" rel=\"external noopener nofollow\" target=\"_blank\">im Video ab 2:12:33<\/a>).<\/p>\n<p>        Weiterlesen nach der Anzeige<\/p>\n<p>Eine GPU-Skizze auf Nvidias Roadmap sieht daher deutlich kleiner aus als die n\u00e4chsten beiden KI-Beschleuniger Rubin sowie Rubin Ultra. Dort sitzen GPU-Dies und Speicherstapel nebeneinander, wobei ein Silizium-Interposer die Datenverbindungen herstellt. Diese Konstruktion nennen Hersteller 2,5D-Stacking.<\/p>\n<p>      <a href=\"https:\/\/www.heise.de\/imgs\/18\/5\/0\/4\/7\/1\/8\/0\/NVIDIA_GTC_Keynote_2026_2-13-40_screenshot-2-fa076b453ce537a1.jpg\" rel=\"nofollow noopener\" target=\"_blank\"><\/p>\n<p>  <img loading=\"lazy\" decoding=\"async\" alt=\"\" height=\"1873\" src=\"data:image\/svg+xml,%3Csvg xmlns='http:\/\/www.w3.org\/2000\/svg' width='696px' height='391px' viewBox='0 0 696 391'%3E%3Crect x='0' y='0' width='696' height='391' fill='%23f2f2f2'%3E%3C\/rect%3E%3C\/svg%3E\" style=\"aspect-ratio: 3329 \/ 1873; object-fit: cover;\" width=\"3329\"\/><\/p>\n<p>      <\/a><\/p>\n<p>Feynman folgt auf Rubin und Rubin Ultra.<\/p>\n<p class=\"a-caption__source\">\n      (Bild:\u00a0Nvidia)\n    <\/p>\n<p>Hitzeentwicklung problematisch<\/p>\n<p>3D-Stacking mit mehreren Logikchips \u00fcbereinander hat Vorteile, vor allem bei der Signalf\u00fchrung. Bisher konnten Chipfertiger allerdings ein Problem noch nicht f\u00fcr ein Serienprodukt l\u00f6sen: die W\u00e4rmeabfuhr der unteren Dies. Die K\u00fchll\u00f6sung wird bei Feynman besonders spannend, da der KI-Beschleuniger \u00fcber 2000 Watt elektrische Leistungsaufnahme gehen k\u00f6nnte. Zu den Details hat sich Nvidia bislang allerdings nicht ge\u00e4u\u00dfert.<\/p>\n<p>3D-Stacking gibt es bislang nur mit Cache-Chiplets in gr\u00f6\u00dferem Ma\u00dfstab. Der Chipauftragsfertiger TSMC und AMD etwa stapeln bei den <a class=\"heiseplus-lnk\" href=\"https:\/\/www.heise.de\/tests\/Mehr-Singlethreading-Leistung-Gaming-CPU-AMD-Ryzen-7-9850X3D-im-Test-11134050.html\" rel=\"nofollow noopener\" target=\"_blank\">Ryzen-X3D-Prozessoren CPU-Chiplets und Level-3-Cache<\/a>. In dem Fall erzeugt der Speicher wenig Abw\u00e4rme, sodass die K\u00fchlung hinhaut. AMD forscht ebenfalls an komplexeren 3D-Stacking-Konstruktionen.<\/p>\n<p>Erste Generation mit angepasstem HBM<\/p>\n<p>        Weiterlesen nach der Anzeige<\/p>\n<p>Zus\u00e4tzlich zur Stapelbauweise will Nvidia bei Feynman erstmals Custom High-Bandwidth Memory (cHBM) einsetzen. Dabei handelt es sich um einen Vorsto\u00df der Speicherhersteller Samsung, SK Hynix und Micron sowie Zulieferern wie Marvell: Kunden wie Nvidia k\u00f6nnen beim cHBM eigene Logik zur Ansteuerung der Speicherstapel entwerfen und diese in eigene Prozessoren oder GPUs integrieren.<\/p>\n<p>Bisher sitzt die Logik immer in einem Basis-Die, das die Speicherhersteller produzieren und unter die DRAM-Ebenen setzen. Der gr\u00f6\u00dfte Nachteil dabei: Die Fertigungstechnik der Speicherhersteller ist auf DRAM spezialisiert. Wandern die Basis-Die-Transistoren in eine CPU oder GPU, kann sie etwa TSMC mit Logikfokus produzieren. Das spart potenziell Platz und erh\u00f6ht die Effizienz. Zudem k\u00f6nnen Kunden die cHBM-Ansteuerung so an die eigenen Bed\u00fcrfnisse anpassen.<\/p>\n<p>Zus\u00e4tzlich zu Feynman erscheint 2028 eine F\u00fclle neuer Chips: Nvidias eigener ARM-Prozessor Rosa, der Netzwerkprozessor Bluefield-5, mehrere Switches und der auf Inferenz spezialisierte KI-Beschleuniger LP40 <a href=\"https:\/\/www.heise.de\/news\/Nvidia-Vertragsschluss-mit-Inferenz-Chip-Startup-11124836.html\" rel=\"nofollow noopener\" target=\"_blank\">in Kooperation mit Groq<\/a>.<\/p>\n<p>(<a class=\"redakteurskuerzel__link\" href=\"https:\/\/www.heise.de\/news\/mailto:mma@heise.de\" title=\"Mark Mantel\" rel=\"nofollow noopener\" target=\"_blank\">mma<\/a>)<\/p>\n<p>\n      Dieser Link ist leider nicht mehr g\u00fcltig.\n    <\/p>\n<p>Links zu verschenkten Artikeln werden ung\u00fcltig,<br \/>\n      wenn diese \u00e4lter als 7\u00a0Tage sind oder zu oft aufgerufen wurden.\n    <\/p>\n<p>Sie ben\u00f6tigen ein heise+ Paket, um diesen Artikel zu lesen. Jetzt eine Woche unverbindlich testen \u2013 ohne Verpflichtung!<\/p>\n","protected":false},"excerpt":{"rendered":"Gestapelte Logikchips sollen 2028 Realit\u00e4t werden. Nvidia will bei seiner \u00fcbern\u00e4chsten Generation Feynman mehrere GPU-Dies f\u00fcr seine KI-Beschleuniger&hellip;\n","protected":false},"author":2,"featured_media":50572,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[46,42,3649,21218,103,508,5068,44,97,96,14458,101,98,100,99],"class_list":{"0":"post-50571","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-at","9":"tag-austria","10":"tag-dram","11":"tag-grafikchip","12":"tag-it","13":"tag-kuenstliche-intelligenz","14":"tag-nvidia","15":"tag-oesterreich","16":"tag-science","17":"tag-science-technology","18":"tag-speicher","19":"tag-technik","20":"tag-technology","21":"tag-wissenschaft","22":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@at\/116245962662255788","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/50571","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/comments?post=50571"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/50571\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media\/50572"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media?parent=50571"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/categories?post=50571"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/tags?post=50571"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}