{"id":598973,"date":"2025-11-24T15:05:14","date_gmt":"2025-11-24T15:05:14","guid":{"rendered":"https:\/\/www.europesays.com\/de\/598973\/"},"modified":"2025-11-24T15:05:14","modified_gmt":"2025-11-24T15:05:14","slug":"ki-apple-nennt-mehr-details-zu-mlx-auch-zum-neural-accelerator-beim-m5","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/de\/598973\/","title":{"rendered":"KI: Apple nennt mehr Details zu MLX \u2013 auch zum Neural Accelerator beim M5"},"content":{"rendered":"<p>    close notice<\/p>\n<p class=\"notice-banner__text a-u-mb-0\">\n      This article is also available in<br \/>\n        <a href=\"https:\/\/www.heise.de\/en\/news\/Apple-provides-more-details-on-MLX-including-the-Neural-Accelerator-in-the-M5-11089916.html\" class=\"notice-banner__link a-u-inline-link\" target=\"_blank\" rel=\"noopener\">English<\/a>.<\/p>\n<p>      It was translated with technical assistance and editorially reviewed before publication.\n    <\/p>\n<p class=\"notice-banner__link a-u-mb-0\">\n    Don\u2019t show this again.\n<\/p>\n<p>Apple hat auf seiner Machine-Learning-Website <a href=\"https:\/\/machinelearning.apple.com\/research\/exploring-llms-mlx-m5\" rel=\"external noopener\" target=\"_blank\">weitere Informationen<\/a> zu seinem KI-Framework MLX und der Nutzung des integrierten KI-Beschleunigers (Neural Accelerator) <a class=\"heiseplus-lnk\" href=\"https:\/\/www.heise.de\/tests\/Staubsaugen-im-Apple-Home-Diese-Haushaltsroboter-lohnen-sich-10751677.html\" target=\"_blank\" rel=\"noopener\">im M5-Prozessor<\/a> online gestellt. Das ist insbesondere interessant f\u00fcr Nutzer, die lokale KI-Systeme wie gro\u00dfe Sprachmodelle (Large Language Models, LLMs) ausf\u00fchren wollen, was zunehmend zu einem Trend wird. Zuletzt wurde demonstriert, wie sich <a href=\"https:\/\/www.heise.de\/news\/KI-Cluster-Vier-Macs-mit-2-TByte-koennen-Riesenmodell-Kimi-K2-Thinking-ausfuehren-11085555.html\" target=\"_blank\" rel=\"noopener\">das chinesische Gro\u00dfmodell Kimi K2 Thinking auf einem Mac-Studio-Cluster mit vier via Thunderbolt 5 vernetzten 512-GByte-RAM-Workstations<\/a> ausf\u00fchren lie\u00df. Kleinere Konfigurationen wie ein MacBook Pro M3 Max mit 128 GByte RAM k\u00f6nnen aber auch problemlos mittelgro\u00dfe Modelle wie <a href=\"https:\/\/openai.com\/de-DE\/open-models\/\" rel=\"external noopener\" target=\"_blank\">gpt-oss-120b<\/a> von OpenAI ausf\u00fchren. Dabei geben MLX-Varianten der Modelle dem LLM zus\u00e4tzlichen Boost.<\/p>\n<p>        Weiterlesen nach der Anzeige<\/p>\n<p>TB5-Vernetzung und neuer Neural-Beschleuniger<\/p>\n<p>&#8222;Mit MLX k\u00f6nnen Benutzer LLMs auf dem Mac effizient erkunden und ausf\u00fchren. Es erm\u00f6glicht Forschern, mit neuen Inferenz- oder Feinabstimmungstechniken zu experimentieren oder KI-Techniken in einer privaten Umgebung auf ihrer eigenen Hardware zu testen. MLX funktioniert mit allen Apple-Silicon-Systemen&#8220;, so Apple.<\/p>\n<p>Mit macOS 26.2 Beta, das derzeit getestet wird, kommt nun Unterst\u00fctzung f\u00fcr eine latenzfreie Thunderbolt-5-Vernetzung sowie die besagten Neural Accelerators hinzu, die im 14-Zoll-MacBook Pro M5 integriert sind. Letztere sollen dabei helfen, bestimmte Machine-Learning-Workloads zu beschleunigen und auch die Ausf\u00fchrung der KI-Algorithmen (Inferenz) schneller zu machen. <\/p>\n<p>Warten auf M5 Pro, M5 Max und M5 Ultra<\/p>\n<p>Da es aktuell noch keine Maschinen mit M5 Pro, M5 Max oder gar M5 Ultra gibt und der M5 nur maximal 32 GByte RAM anspricht, d\u00fcrften M4 Max oder M3 Ultra derzeit die bessere Wahl sein. Modelle, die in das RAM passen, sollen laut Apple jedoch eine deutlich schnellere &#8222;Time to First Token&#8220;, also die ben\u00f6tigte Zeit zur Ausgabe des ersten Tokens, aufweisen. Sie liegen zwischen dem 3,3-Fachen (gpt-oss-20b-MXFP4-Q4) und dem 4-Fachen (Qwen3-8B-MLX-4bit).<\/p>\n<p>Apple gibt in seinem Dokument auch Tipps dazu, wie man mit MLX arbeitet. Wer sich f\u00fcr weitere Details interessiert, findet auf Github das <a href=\"https:\/\/github.com\/ml-explore\/mlx-lm\" rel=\"external noopener\" target=\"_blank\">MLX-LM-Projekt<\/a> f\u00fcr den Aufruf diverser Modelle und Finetuning. Tipps und Tricks erhalten Interessierte in einer <a href=\"https:\/\/huggingface.co\/mlx-community\" rel=\"external noopener\" target=\"_blank\">eigenen MLX Community auf Hugging Face<\/a>. In Tools wie <a href=\"https:\/\/www.heise.de\/news\/LM-Studio-erlaubt-Ausprobieren-lokaler-DeepSeek-Modelle-auf-Apple-Silicon-Macs-10263071.html\" target=\"_blank\" rel=\"noopener\">LM Studio<\/a> findet man auch schnell MLX-Varianten bekannter Modelle.<\/p>\n<p>        Weiterlesen nach der Anzeige<\/p>\n<p>(<a class=\"redakteurskuerzel__link\" href=\"https:\/\/www.heise.de\/news\/mailto:bsc@heise.de\" title=\"Ben Schwan\" target=\"_blank\" rel=\"noopener\">bsc<\/a>)<\/p>\n<p>\n      Dieser Link ist leider nicht mehr g\u00fcltig.\n    <\/p>\n<p>Links zu verschenkten Artikeln werden ung\u00fcltig,<br \/>\n      wenn diese \u00e4lter als 7\u00a0Tage sind oder zu oft aufgerufen wurden.\n    <\/p>\n<p><strong>Sie ben\u00f6tigen ein heise+ Paket, um diesen Artikel zu lesen. Jetzt eine Woche unverbindlich testen \u2013 ohne Verpflichtung!<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"close notice This article is also available in English. It was translated with technical assistance and editorially reviewed&hellip;\n","protected":false},"author":2,"featured_media":598974,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[135],"tags":[231,69426,29,30,196,1256,35231,1273,190,189,47842,194,191,193,192],"class_list":{"0":"post-598973","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-apple","9":"tag-apple-silicon","10":"tag-deutschland","11":"tag-germany","12":"tag-it","13":"tag-kuenstliche-intelligenz","14":"tag-llm","15":"tag-mobiles","16":"tag-science","17":"tag-science-technology","18":"tag-spracherkennung","19":"tag-technik","20":"tag-technology","21":"tag-wissenschaft","22":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@de\/115605295931161023","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/598973","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/comments?post=598973"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/598973\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media\/598974"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media?parent=598973"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/categories?post=598973"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/tags?post=598973"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}