{"id":601898,"date":"2025-11-25T20:00:15","date_gmt":"2025-11-25T20:00:15","guid":{"rendered":"https:\/\/www.europesays.com\/de\/601898\/"},"modified":"2025-11-25T20:00:15","modified_gmt":"2025-11-25T20:00:15","slug":"studie-chatgpt-analysiert-ultraschallsignale-fuer-effizienteres-tracking-in-vr","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/de\/601898\/","title":{"rendered":"Studie: ChatGPT analysiert Ultraschallsignale f\u00fcr effizienteres Tracking in VR"},"content":{"rendered":"<p>Ein Forschungsteam der Hong Kong Baptist University hat ein neues Verfahren zur Gestenerkennung in Virtual-Reality-Umgebungen vorgestellt. Die Methode soll Bewegungen ohne Trackingkamera, spezielle Sensoren oder umfangreiche Trainingsdaten erm\u00f6glichen, indem gro\u00dfe Sprachmodelle akustische Signale analysieren. Sollten sich LLMs auch f\u00fcr die Interpretation akustischer Bewegungsdaten eignen, k\u00f6nnten sie k\u00fcnftig als flexible Schnittstelle f\u00fcr nat\u00fcrliche Bewegungen in immersiven Umgebungen dienen.<\/p>\n<p>        Weiterlesen nach der Anzeige<\/p>\n<p>Ultraschalltracking mit Smartphone und LLM<\/p>\n<p>Moderne VR-Brillen wie die <a class=\"heiseplus-lnk\" href=\"https:\/\/www.heise.de\/tests\/Meta-Quest-3-im-Test-Mixed-Reality-schon-vor-der-Apple-Vison-Pro-9329568.html\" target=\"_blank\" rel=\"noopener\">Meta Quest 3<\/a> erfassen Bewegungen der H\u00e4nde oder VR-Controller in Echtzeit \u00fcber im Headset verbaute Kameras. Eine KI-gest\u00fctzte Software analysiert diese, um sie zu interpretieren und exakt im Raum zu verorten. W\u00e4hrend das Tracking von VR-Controllern bei guten Lichtverh\u00e4ltnissen nahezu latenzfrei m\u00f6glich ist, gibt es beim deutlich aufwendigeren kamerabasierten Handtracking nach wie vor Ungenauigkeiten.<\/p>\n<p>Ger\u00e4te in h\u00f6heren Preisregionen wie <a class=\"heiseplus-lnk\" href=\"https:\/\/www.heise.de\/tests\/Apple-Vision-Pro-im-ausfuehrlichen-Test-Wackliger-Blick-in-die-Zukunft-9629236.html\" target=\"_blank\" rel=\"noopener\">Apples Vision Pro<\/a> oder <a href=\"https:\/\/www.heise.de\/hintergrund\/Kein-Beben-auf-dem-XR-Markt-Auch-Samsung-Galaxy-XR-wird-es-schwer-haben-11075308.html\" target=\"_blank\" rel=\"noopener\">Samsungs Galaxy XR<\/a> nutzen deshalb erg\u00e4nzend zur Kamera Eye-Tracking. Damit k\u00f6nnen die Ger\u00e4te pr\u00e4zise berechnen, wohin Nutzer blicken, w\u00e4hrend sie eine Eingabe t\u00e4tigen. Auch hier sind die Interaktionen nicht immer perfekt, wenngleich sp\u00fcrbar geschmeidiger als bei herk\u00f6mmlichem Handtracking. Eines haben jedoch s\u00e4mtliche Tracking-L\u00f6sungen gemeinsam: Sie erfordern kostspielige Hardware, viel technisches Know-how und Unmengen an Trainingsdaten.<\/p>\n<p>Statt die sichtbaren Bewegungen per Kamera zu erfassen und auszuwerten, m\u00f6chten die Forschenden aus Hongkong eine g\u00fcnstigere und effizientere Methode etablieren: die Messung von Schallwellen im Ultraschallbereich. W\u00e4hrend eines ersten Experiments setzte das Team ein Smartphone ein, das kontinuierlich hochfrequente Signale aussendet und empf\u00e4ngt, die durch Hand- oder Controllerbewegungen reflektiert und ver\u00e4ndert werden. Diese Ver\u00e4nderungen werden als sogenannte Channel Impulse Responses (CIR) gemessen und anschlie\u00dfend in dCIR-Bilder umgewandelt, die die zeitlichen Unterschiede im Schallmuster darstellen.<\/p>\n<p>        heise online XR-Briefing abonnierenheise online XR-Briefing abonnieren<\/p>\n<p class=\"text-base\">Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten. <\/p>\n<p>E-Mail-Adresse<\/p>\n<p id=\"input-email-help\" class=\"text-sm leading-5 text-gray-400 mb-0\">Ausf\u00fchrliche Informationen zum Versandverfahren und zu Ihren Widerrufsm\u00f6glichkeiten erhalten Sie in unserer <a href=\"https:\/\/www.heise.de\/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html#datenschutz-newsletter\" data-google-interstitial=\"false\" class=\"underline\" target=\"_blank\" rel=\"noopener\">Datenschutzerkl\u00e4rung<\/a>.<\/p>\n<p>Um diese Bilder zu interpretieren, kommen multimodale Sprachmodelle zum Einsatz, die neben Text auch visuelle Eingaben verarbeiten k\u00f6nnen. Das Forschungsteam definierte 15 unterschiedliche Gesten, darunter Zahlen, Buchstaben und einfache Formen. Zehn Testpersonen f\u00fchrten jede Geste mit einem VR-Controller jeweils zehnmal aus. Die daraus entstandenen 1500 dCIR-Bilder wurden zur Klassifikation genutzt. Das System vergleicht dabei ein neues Bild mit \u00e4hnlichen Beispielen aus der Datenbank. Diese Auswahl sowie das zu analysierende Bild werden in einen Prompt eingebettet und dem Sprachmodell \u00fcbergeben. Anschlie\u00dfend entscheidet das Modell, welche Geste am wahrscheinlichsten ist, und liefert eine Begr\u00fcndung f\u00fcr die Wahl.<\/p>\n<p>Je klarer die Geste, desto eindeutiger das Ergebnis<\/p>\n<p>        Weiterlesen nach der Anzeige<\/p>\n<p>Laut den Forschenden zeigen die Ergebnisse eine besonders hohe Erkennungsrate bei klar strukturierten Gesten wie Ziffern oder geometrischen Formen. Hier erreichten die Sprachmodelle Werte von \u00fcber 90 Prozent. Komplexere Buchstaben mit mehreren Kurven f\u00fchrten hingegen h\u00e4ufiger zu Verwechslungen. Das zuverl\u00e4ssigste Modell f\u00fcr Zahlen war <a href=\"https:\/\/www.heise.de\/news\/GPT-5-OpenAI-veroeffentlicht-neues-Sprachmodell-fuer-ChatGPT-10513244.html\" target=\"_blank\" rel=\"noopener\">OpenAIs GPT-5<\/a>. Bei Buchstaben und Formen hatte <a href=\"https:\/\/www.heise.de\/news\/KI-Langlaeufer-Anthropic-stellt-Claude-4-vor-10394452.html\" target=\"_blank\" rel=\"noopener\">Anthropics Claude 4<\/a> die Nase vorn. <a href=\"https:\/\/www.heise.de\/news\/I-O-Edition-Google-verbessert-KI-Modell-Gemini-Pro-2-5-fuer-Entwickler-10376509.html\" target=\"_blank\" rel=\"noopener\">Gemini 2.5 Pro<\/a> lag in s\u00e4mtlichen Bereichen auf dem dritten Platz. Im Vergleich zu klassischen Verfahren f\u00fcr Klassifikationsaufgaben wie k-Nearest-Neighbor oder Support-Vector-Machines lagen die Sprachmodelle noch leicht zur\u00fcck, ben\u00f6tigten daf\u00fcr aber deutlich weniger Trainingsdaten. Zudem liefern sie im Gegensatz zu den herk\u00f6mmlichen Modellen eine schriftliche Begr\u00fcndung f\u00fcr ihre Entscheidung, was die Ergebnisse nachvollziehbarer macht und bei der Weiterentwicklung der Systeme hilfreich sein soll.<\/p>\n<p>Bisher beweisen die Forschenden nur, dass ihr System grundlegend funktioniert. In der Praxis m\u00fcsste es allerdings nahezu latenzfrei arbeiten. Zudem bleibt die Frage offen, wie es \u00fcberhaupt in einem fertigen Produkt umgesetzt werden k\u00f6nnte. Google scheiterte bereits mit dem Konzept Gestensteuerung durch Schallwellen \u2013 damals allerdings noch ohne den Einsatz von LLMs. Der 2015 vorgestellte Chip <a href=\"https:\/\/www.heise.de\/news\/Google-I-O-ATAP-Team-erkennt-Fingergesten-per-Radar-2671611.html\" target=\"_blank\" rel=\"noopener\">\u201eProject Soli\u201c<\/a> sonderte elektromagnetische Wellen ab und erkannte Abweichungen in deren Wellenmuster submillimetergenau. Soli kam schlie\u00dflich <a href=\"https:\/\/www.heise.de\/news\/Google-Handy-Pixel-4-kommt-mit-Radar-Chip-Soli-4483004.html\" target=\"_blank\" rel=\"noopener\">als \u201eMotion Sense\u201c im Smartphone Pixel 4<\/a> zum Einsatz und sollte dort die Steuerung des Smartphones per Fingerbewegungen aus der Ferne erm\u00f6glichen. Als Gestensteuerung funktionierte Soli allerdings nicht zuverl\u00e4ssig genug und wurde sp\u00e4ter als Messger\u00e4t f\u00fcr Atem- und K\u00f6rperbewegungen w\u00e4hrend des Schlafes in der <a href=\"https:\/\/mixed.de\/google-nest-hub-2-test\/\" rel=\"external noopener\" target=\"_blank\">Smart-Home-Zentrale Nest Hub 2<\/a> verbaut.<\/p>\n<p>(<a class=\"redakteurskuerzel__link\" href=\"https:\/\/www.heise.de\/news\/mailto:joe@heise.de\" title=\"Josef Erl\" target=\"_blank\" rel=\"noopener\">joe<\/a>)<\/p>\n<p>\n      Dieser Link ist leider nicht mehr g\u00fcltig.\n    <\/p>\n<p>Links zu verschenkten Artikeln werden ung\u00fcltig,<br \/>\n      wenn diese \u00e4lter als 7\u00a0Tage sind oder zu oft aufgerufen wurden.\n    <\/p>\n<p><strong>Sie ben\u00f6tigen ein heise+ Paket, um diesen Artikel zu lesen. Jetzt eine Woche unverbindlich testen \u2013 ohne Verpflichtung!<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"Ein Forschungsteam der Hong Kong Baptist University hat ein neues Verfahren zur Gestenerkennung in Virtual-Reality-Umgebungen vorgestellt. Die Methode&hellip;\n","protected":false},"author":2,"featured_media":601899,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[135],"tags":[84847,16516,675,29,214,30,33616,1256,65727,1230,190,189,194,191,16517,193,192],"class_list":{"0":"post-601898","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-anthropic","9":"tag-augmented-reality","10":"tag-chatgpt","11":"tag-deutschland","12":"tag-entertainment","13":"tag-germany","14":"tag-google-gemini","15":"tag-kuenstliche-intelligenz","16":"tag-mixed-reality","17":"tag-openai","18":"tag-science","19":"tag-science-technology","20":"tag-technik","21":"tag-technology","22":"tag-virtual-reality","23":"tag-wissenschaft","24":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@de\/115612118060549761","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/601898","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/comments?post=601898"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/601898\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media\/601899"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media?parent=601898"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/categories?post=601898"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/tags?post=601898"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}