{"id":115168,"date":"2025-05-16T13:00:08","date_gmt":"2025-05-16T13:00:08","guid":{"rendered":"https:\/\/www.europesays.com\/de\/115168\/"},"modified":"2025-05-16T13:00:08","modified_gmt":"2025-05-16T13:00:08","slug":"auch-fuer-iphones-superschneller-sparspeicher-mobile-hbm","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/de\/115168\/","title":{"rendered":"Auch f\u00fcr iPhones: Superschneller Sparspeicher &#8222;Mobile HBM&#8220;"},"content":{"rendered":"<ol class=\"a-toc__list\">\n<li class=\"a-toc__item&#10;          &#10;            a-toc__item--counter&#10;          &#10;            a-toc__item--current\">\n<p>              Auch f\u00fcr iPhones: Superschneller Sparspeicher &#8222;Mobile HBM&#8220;<\/p>\n<\/li>\n<\/ol>\n<p>Der Speicherchip-Weltmarktf\u00fchrer Samsung und wohl auch SK Hynix entwickeln Varianten von Low-Power-DDR-(LPDDR-)SDRAM mit extrem hohen Datentransferraten. Dazu besitzen diese sehr viel mehr Datenleitungen als aktuell \u00fcbliche LPDDR5X- und kommende <a href=\"https:\/\/www.heise.de\/news\/Superschnelles-RAM-PCI-Express-DDR6-LPDDR6-GDDR7-HBM4-und-PCIe-7-0-9760640.html\" rel=\"nofollow noopener\" target=\"_blank\">LPDDR6-Chips<\/a>. In Anlehnung an <a href=\"https:\/\/www.heise.de\/news\/Stapel-RAM-fuer-AMD-Grafikkarten-2454735.html\" rel=\"nofollow noopener\" target=\"_blank\">High Bandwidth Memory (HBM)<\/a>, das die schnellsten KI-Beschleuniger etwa von Nvidia und AMD nutzen, k\u00f6nnte der neue Mobilspeicher Mobile HBM hei\u00dfen.<\/p>\n<p>Es sind aber auch Bezeichnungen wie Low Power Wide I\/O (LPW) aufgetaucht. Auf dem Samsung Memory Summit 2023 war von Low Latency Wide I\/O (LLW) die Rede.<\/p>\n<p>Das zugrundeliegende Konzept ist nicht neu. Schon vor mehr als zehn Jahren ver\u00f6ffentlichte das Industriegremium JEDEC Standards f\u00fcr Wide-I\/O- und Wide-I\/O2-Speicherchips mit bis zu 512 Datensignalleitungen. Wide-I\/O-DRAM kam unter anderem in der <a href=\"https:\/\/www.heise.de\/news\/Intel-plant-angeblich-Prozessoren-mit-eingebautem-Grafikspeicher-1704848.html\" rel=\"nofollow noopener\" target=\"_blank\">mobilen Spielkonsole Playstation Vita<\/a> zum Einsatz.<\/p>\n<p>Mobile HBM beziehungsweise LPW-DRAM k\u00f6nnte nach Spekulationen ab 2027 zum Einsatz kommen, etwa in iPhones und anderen Smartphones mit st\u00e4rkeren KI-Rechenwerken. Bis dahin d\u00fcrfte auch LPDDR6-DRAM marktreif sein. Dadurch ist es schwierig, die maximalen Datentransferraten kommender LPW-Stapelchips einzusch\u00e4tzen.<\/p>\n<p>Datenraten-Sch\u00e4tzungen<\/p>\n<p>Aktuelle LPDDR5X-8500-Chips mit 16 Datenleitungen \u00fcbertragen 17 GByte\/s: 8,5 Milliarden Transfers mit je 2 Byte pro Sekunde. Ein LPW-Chip mit insgesamt 256 oder 512 Signalleitungen (32 oder 64 Byte), der intern aus mehreren gestapelten LPDDR5X-8500-Dies besteht, w\u00fcrde folglich bis zu 272 beziehungsweise 544 GByte\/s liefern.<\/p>\n<p>Zum Vergleich: Ein <a class=\"heiseplus-lnk\" href=\"https:\/\/www.heise.de\/tests\/Apple-Mac-mini-mit-M4-und-M4-Pro-im-Test-10212858.html\" rel=\"nofollow noopener\" target=\"_blank\">Apple M4 Pro<\/a> mit mehreren LPDDR5X-Kan\u00e4len schafft 273 GByte\/s, eine Nvidia GeForce RTX 5060 (Ti) mit GDDR7-Speicher bringt es auf 448 GByte\/s. High-End-Grafikkarten kommen auf weit mehr als ein TByte\/s.<\/p>\n<p>LPDDR5X ist bis bis zu 9,6 Gigatransfers\/s (GT\/s) spezifiziert, dann w\u00e4ren mit LPW \u00fcber 600 GByte\/s m\u00f6glich. Samsung m\u00f6chte &#8222;LPDDR5 Ultra Pro&#8220; noch auf 12,7 GT\/s treiben.<\/p>\n<p>LPDDR6 soll mit 10,667 GT\/s starten, bei 512 Datenleitungen ergeben sich daraus 682 GByte\/s. Allerdings sollen LPDDR6-Chips so organisiert sein, dass sie pro Kanal 24 statt 16 Bits verarbeiten (2 Subkan\u00e4le mit je 12 Bit). LPW auf Basis von LPDDR6-Dies k\u00f6nnte daher 288 oder 576 Datenleitungen nutzen.<\/p>\n<p>Chip-Aufbau<\/p>\n<p>LPDDR(X-)Speicherchips f\u00fcr Mobilger\u00e4te bestehen oft aus mehreren \u00fcbereinandergestapelten Einzelchips (Dies) in einem gemeinsamen Geh\u00e4use (Package). Die Wafer mit den einzelnen Dies werden dabei vorher d\u00fcnngeschliffen, sodass ein Die beispielsweise nur noch 50 Mikrometer (0,05 Millimeter) stark ist.<\/p>\n<p>      <a href=\"https:\/\/www.heise.de\/imgs\/18\/4\/8\/5\/5\/3\/8\/8\/TechInsights_Die_Stack-2533a975ff4a82fc.jpg\" rel=\"nofollow noopener\" target=\"_blank\"><\/p>\n<p>  <img loading=\"lazy\" decoding=\"async\" alt=\"\" height=\"606\" src=\"data:image\/svg+xml,%3Csvg xmlns='http:\/\/www.w3.org\/2000\/svg' width='696px' height='391px' viewBox='0 0 696 391'%3E%3Crect x='0' y='0' width='696' height='391' fill='%23f2f2f2'%3E%3C\/rect%3E%3C\/svg%3E\" style=\"aspect-ratio: 1583 \/ 606; object-fit: cover;\" width=\"1583\"\/><\/p>\n<p>      <\/a><\/p>\n<p>Schliffbild eines NAND-Flash-Stapels mit 16 Dies, jedes rund 40 Mikrometer dick. F\u00fcr die Signalfrequenzen in einer (Micro-)SD-Karte gen\u00fcgt klassisches Wirebonding.<\/p>\n<p class=\"a-caption__source\">\n      (Bild:\u00a0TechInsights)\n    <\/p>\n<p>Um die gestapelten Dies mit dem Basistr\u00e4ger elektrisch zu verbinden, kommen beispielsweise Bond-Dr\u00e4hte zum Einsatz. Um sehr viele Leitungen f\u00fcr sehr hohe Signalfrequenzen bereitzustellen, sind aber senkrecht durch die Dies f\u00fchrende Durchkontaktierungen besser, sogenannte <a class=\"heiseplus-lnk\" href=\"https:\/\/www.heise.de\/hintergrund\/Hintergrund-Packaging-Techniken-fuer-Chips-und-Chiplets-6192551.html\" rel=\"nofollow noopener\" target=\"_blank\">Through Silicon Vias (TSVs)<\/a>. Dabei passen mehrere Hundert TSVs auf einen Quadratmillimeter.<\/p>\n<p>Einfacher und billiger zu fertigen sind LPDDR-DRAM-Dies mit seitlich angeordneten Kontakten. Stapelt man diese anschlie\u00dfend so, dass sie jeweils leicht auskragen, l\u00e4sst sich jedes Die direkt durch kurze senkrechte Verbindungen mit dem Basis-Die (Redistribution Layer, RDL) koppeln. SK Hynix hat dazu die Technik Vertical Fan-Out (VFO) entwickelt.<\/p>\n<p>      <a href=\"https:\/\/www.heise.de\/imgs\/18\/4\/8\/5\/5\/3\/8\/8\/VFO-Hynix-615d29ac11861044.png\" rel=\"nofollow noopener\" target=\"_blank\"><\/p>\n<p>  <img loading=\"lazy\" decoding=\"async\" alt=\"\" height=\"711\" src=\"data:image\/svg+xml,%3Csvg xmlns='http:\/\/www.w3.org\/2000\/svg' width='696px' height='391px' viewBox='0 0 696 391'%3E%3Crect x='0' y='0' width='696' height='391' fill='%23f2f2f2'%3E%3C\/rect%3E%3C\/svg%3E\" style=\"aspect-ratio: 1095 \/ 711; object-fit: cover;\" width=\"1095\"\/><\/p>\n<p>      <\/a><\/p>\n<p>Aufbau eines LPDDR-Die-Stapels mit Vertical Fan-Out (VFO)<\/p>\n<p class=\"a-caption__source\">\n      (Bild:\u00a0SK Hynix)\n    <\/p>\n<p>Chip-Kombination<\/p>\n<p>Bei Notebooks sind LPDDR-Speicherchips typischerweise dicht neben dem Hauptprozessor auf das Mainboard gel\u00f6tet. Mit <a href=\"https:\/\/www.heise.de\/news\/Der-schnellste-Arbeitsspeicher-muss-jetzt-nicht-mehr-verloetet-sein-9697045.html\" rel=\"nofollow noopener\" target=\"_blank\">LPCAMM\/LPCAMM2<\/a> gibt es auch eine steckbare Modulversion.<\/p>\n<p>F\u00fcr Mobile HBM d\u00fcrfte es jedoch n\u00f6tig sein, das RAM-Package direkt auf den Prozessor zu stapeln. Nur so lassen sich die vielen Leitungen kurz genug halten, damit bei hohen Signalfrequenzen nicht zu viele Fehler auftreten. Denkbar sind auch Silizium-Interposer, die CPU-SoC und LPW-DRAM nebeneinander verbinden.<\/p>\n<p>Bei KI-Rechenbeschleunigern f\u00fcr Server sitzen GPU und HBM-Stacks ebenfalls auf Interposern. HBM nutzt allerdings 1024 Datenleitungen pro Stack und mehrere Stacks pro GPU. Acht <a href=\"https:\/\/www.heise.de\/news\/Stapelspeicher-HBM3-Schnellstes-DRAM-fuer-Grafikkarten-und-Beschleuniger-6224117.html\" rel=\"nofollow noopener\" target=\"_blank\">HBM3e-Stacks<\/a> liefern gemeinsam rund 8 TByte\/s.<\/p>\n<p>Rechen-RAM<\/p>\n<p>Samsung und SK Hynix arbeiten zudem an einer Spezifikation, mit der Prozessoren Rechenwerke ansteuern k\u00f6nnen, die in RAM-Chips integriert sind. Mit <a href=\"https:\/\/www.heise.de\/news\/Rechnendes-RAM-fuer-KI-Systeme-5057998.html\" rel=\"nofollow noopener\" target=\"_blank\">Processing-in-Memory (PIM)<\/a> k\u00f6nnten Speicherchips die Ergebnisse (einfacher) Rechen- oder Suchoperationen zur\u00fcckliefern statt nur Rohdaten. Damit lassen sich im Prinzip Transferleistung und Energie sparen.<\/p>\n<p>(<a class=\"redakteurskuerzel__link\" href=\"https:\/\/www.heise.de\/news\/mailto:ciw@ct.de\" title=\"Christof Windeck\" rel=\"nofollow noopener\" target=\"_blank\">ciw<\/a>)<\/p>\n<p>\n      Dieser Link ist leider nicht mehr g\u00fcltig.\n    <\/p>\n<p>Links zu verschenkten Artikeln werden ung\u00fcltig,<br \/>\n      wenn diese \u00e4lter als 7\u00a0Tage sind oder zu oft aufgerufen wurden.\n    <\/p>\n<p><strong>Sie ben\u00f6tigen ein heise+ Paket, um diesen Artikel zu lesen. Jetzt eine Woche unverbindlich testen \u2013 ohne Verpflichtung!<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"Auch f\u00fcr iPhones: Superschneller Sparspeicher &#8222;Mobile HBM&#8220; Der Speicherchip-Weltmarktf\u00fchrer Samsung und wohl auch SK Hynix entwickeln Varianten von&hellip;\n","protected":false},"author":2,"featured_media":115169,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[135],"tags":[29,44627,30,44628,44629,196,1256,44630,44631,44632,190,189,769,21933,44633,194,191,193,192],"class_list":{"0":"post-115168","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-deutschland","9":"tag-dram","10":"tag-germany","11":"tag-hbm","12":"tag-high-bandwidth-memory","13":"tag-it","14":"tag-kuenstliche-intelligenz","15":"tag-lpddr5x","16":"tag-ram","17":"tag-rechenbeschleuniger","18":"tag-science","19":"tag-science-technology","20":"tag-smartphone","21":"tag-speicher","22":"tag-speicherchip","23":"tag-technik","24":"tag-technology","25":"tag-wissenschaft","26":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@de\/114517640736306837","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/115168","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/comments?post=115168"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/115168\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media\/115169"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media?parent=115168"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/categories?post=115168"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/tags?post=115168"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}