Apple rüstet seine nächste Generation von AirPods mit Kameras aus – und macht die Ohrhörer zu intelligenten Assistenten.

Der Technologieriese bereitet einen fundamentalen Wandel seiner Wearable-Strategie vor. Wie aus Branchenkreisen verlautet, sollen die neuen kabellosen Ohrhörer, die möglicherweise unter dem Namen „AirPods Ultra“ auf den Markt kommen, mit Infrarot-Kameras (IR) ausgestattet werden. Ziel ist es, dem Sprachassistenten Siri eine visuelle Komponente zu verleihen – die Ohrhörer könnten ihre Umgebung in Echtzeit erfassen und interpretieren.

Anzeige

Apple-Fachchinesisch macht Ihnen das Leben schwer? Dieses Gratis-Lexikon erklärt die 53 wichtigsten iPhone-Begriffe in einfachen Worten – inklusive Aussprachehilfen. 53 Begriffe klar erklärt – jetzt PDF-Lexikon gratis sichern

Siri bekommt Augen: Visuelle Intelligenz für den Alltag

Der Schritt markiert Apples Übergang zu einer multimodalen Künstlichen Intelligenz. Kameras und Mikrofone arbeiten künftig zusammen, um Daten aus der Umgebung in das Apple Intelligence-Ökosystem einzuspeisen. Anders als herkömmliche Kameras setzt Apple auf IR-Sensoren, die nicht für Fotos oder Videos gedacht sind, sondern für räumliche Wahrnehmung und Computer Vision.

Die eigentliche Innovation steckt in der Weiterentwicklung von Siri. Mit dem erwarteten Update auf iOS 27 soll der Sprachassistent vom reinen Sprachinterface zum kontextbewussten KI-Begleiter werden. Die integrierten IR-Sensoren in den AirPods erlauben es Siri dann, die Umgebung zu „sehen“. Ein Nutzer könnte etwa vor einem Restaurant stehen und fragen: „Was steht auf der Speisekarte?“ – Siri würde die visuellen Daten analysieren und die Antwort direkt über die Ohrhörer ausgeben.

Diese „Visuelle Intelligenz“ zielt darauf ab, den Nutzen von Smart Glasses zu bieten, ohne dass der Nutzer eine neue Geräteklasse tragen muss. Die AirPods sind bereits tief im Alltag der Verbraucher verankert – das macht sie zur idealen Plattform für KI-gesteuerte Wearables.

H3-Chip und IR-Sensoren: Die technische Basis

Die Entwicklung der kamerabestückten AirPods, die intern unter dem Codenamen „B798“ laufen, erforderte einen grundlegenden Neubau der internen Architektur. Herzstück ist der vermeintliche H3-Chip, der die komplexen Berechnungen für die Echtzeit-Bildanalyse und die Geräuschunterdrückung übernehmen soll. Die IR-Sensoren ähneln in ihrer Funktion dem Face-ID-Empfänger von iPhones und iPads – sie können nicht nur die Nähe zu Objekten erkennen, sondern auch die Art des Materials identifizieren.

Die Produktion der neuen Kameramodule soll beim taiwanesischen Auftragsfertiger Foxconn liegen. Branchenberichten zufolge hat Foxconn eine jährliche Produktionskapazität von 18 bis 20 Millionen Einheiten vorbereitet – das entspricht rund 10 Millionen Paar der neuen AirPods. Diese Dimension unterstreicht, dass Apple die kamerabestückten Modelle nicht als Nischenprodukt, sondern als zentrale Säule seiner Hardware-Strategie für die Jahre 2026 und 2027 betrachtet.

Anzeige

Während Apple bereits die Technik von morgen plant, kämpfen viele Nutzer noch mit den aktuellen Funktionen ihres Geräts. Dieser kostenlose PDF-Report enthüllt die wichtigsten Einstellungen, die kaum ein Einsteiger beim Start kennt. Gratis iPhone-Starterpaket jetzt herunterladen

Synergien mit Vision Pro und räumlichem Audio

Die Integration der IR-Kameras geht weit über Siri hinaus. Besonders spannend ist das Zusammenspiel mit dem Vision Pro-Headset. Die Sensoren in den AirPods könnten die Position des Kopfes des Nutzers präziser verfolgen und so das räumliche Audio dynamisch anpassen. Dreht ein Nutzer beim Filmschauen den Kopf, würden die Ohrhörer das System anweisen, die Klangquelle aus dieser Richtung zu betonen – für ein immersiveres Hörerlebnis.

Zudem könnten die Kameras Handgesten erkennen, um die Benutzeroberfläche des Vision Pro zu steuern. Das wäre eine diskretere Alternative zu den eingebauten Kameras des Headsets. Für Apple ist dies ein strategischer Brückenschlag: Die AirPods verbinden die vertraute Welt der Ohrhörer mit der neuen Dimension des Spatial Computing.

Preis, Marktstrategie und Datenschutz

Die neuen AirPods werden ihren Preis haben. Während die aktuellen AirPods Pro 3 bei rund 230 Euro liegen, erwarten Analysten einen Aufpreis von etwa 50 Euro – die kamerabestückte Version könnte bei rund 280 Euro starten. Grund sind die Kosten für die IR-Sensoren und den leistungsstärkeren H3-Chip.

Die Kameras in den Ohrhörern werfen jedoch auch Fragen zum Datenschutz auf. Auch wenn es sich um Infrarot-Sensoren handelt, die keine herkömmlichen Fotos aufnehmen, ist die Vorstellung von nach außen gerichteten Kameras an einem persönlichen Audiogerät sensibel. Apple soll deshalb klare Indikatoren planen – etwa hardware-seitige Beschränkungen oder sichtbare Statusleuchten – die anzeigen, wann die Sensoren aktiv sind. Auch effizientere Ladelösungen sind offenbar in der Entwicklung, um den höheren Energieverbrauch durch die ständige Verarbeitung von Umgebungsdaten auszugleichen.

Ausblick: Vom Zubehör zum KI-Zentrum

Mit der Kamera-Integration verändert Apple das Wesen seiner AirPods grundlegend. Was einst ein reines Ausgabegerät für Musik und Anrufe war, wird zum Eingabegerät und primären Sensor für die künstliche Intelligenz des Unternehmens. Dieser Schritt folgt einem Branchentrend: Hardware-Hersteller suchen nach Wegen, KI allgegenwärtig und „immer an“ zu machen – ohne die gesellschaftliche Reibung, die frühere Wearable-Kameras ausgelöst haben.

Die Massenproduktion der kamerabestückten AirPods soll planmäßig noch in diesem Jahr anlaufen. Branchenkenner rechnen mit einer Vorstellung im Rahmen der traditionellen Apple-Keynote im September. Wenn die Zeitpläne halten, könnten die „AirPods Ultra“ gegen Ende 2026 oder Anfang 2027 in den Regalen liegen. Ob sich das neue Konzept durchsetzt, wird maßgeblich davon abhängen, wie überzeugend die visuelle Integration von Siri im Alltag funktioniert – und ob der Mehrwert den höheren Preis und die unvermeidlichen Diskussionen um Wearable-Sensoren rechtfertigt.