{"id":73185,"date":"2026-03-30T00:00:15","date_gmt":"2026-03-30T00:00:15","guid":{"rendered":"https:\/\/www.europesays.com\/at\/73185\/"},"modified":"2026-03-30T00:00:15","modified_gmt":"2026-03-30T00:00:15","slug":"ki-agent-metaclaw-checkt-erst-deinen-google-kalender-bevor-er-trainiert","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/at\/73185\/","title":{"rendered":"KI-Agent &#8222;MetaClaw&#8220; checkt erst deinen Google-Kalender, bevor er trainiert"},"content":{"rendered":"<p>Forscher aus vier US-Universit\u00e4ten stellen ein Framework vor, das KI-Agenten im laufenden Betrieb verbessert. Daf\u00fcr nutzt es den Google-Kalender des Nutzers.<\/p>\n<p>Die meisten KI-Agenten auf Basis gro\u00dfer Sprachmodelle werden einmal trainiert und dann unver\u00e4ndert eingesetzt. Die Aufgaben und Anforderungen der Nutzer ver\u00e4ndern sich aber st\u00e4ndig, das Modell passt sich nicht an.<\/p>\n<p>Forscher der UNC-Chapel Hill, Carnegie Mellon University, UC Santa Cruz und UC Berkeley wollen dieses Problem mit MetaClaw l\u00f6sen, einem Framework, das einen KI-Agenten kontinuierlich aus seinen eigenen Fehlern verbessert, gr\u00f6\u00dftenteils ohne dass der Nutzer etwas davon mitbekommt oder der Service unerreichbar ist.<\/p>\n<p><a href=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/03\/Just-Talk-An-Agent-That-Meta-Learns-and-Evolves-in-the-Wild-x5.png\"><img fetchpriority=\"high\" decoding=\"async\" class=\"size-full wp-image-53533\" src=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/03\/Just-Talk-An-Agent-That-Meta-Learns-and-Evolves-in-the-Wild-x5.png\" alt=\"Architekturdiagramm von MetaClaw. Links unterst\u00fctzte pers\u00f6nliche Agenten wie OpenClaw und CoPaw, in der Mitte die OpenClaw-Plattform mit dem Meta-Learning Scheduler, der zwischen frei und besch\u00e4ftigt unterscheidet. Bei Inaktivit\u00e4t pr\u00fcft er drei Signale: Schlafenszeit, Tastaturinaktivit\u00e4t und Kalendereintr\u00e4ge, und l\u00f6st Cloud-LoRA-Feintuning aus. Bei aktiver Nutzung sammelt der Agent Trajektorien und destilliert aus Fehlern neue Skills.\" width=\"947\" height=\"428\"\/><\/a>MetaClaw verbindet sich \u00fcber die OpenClaw-Plattform mit verschiedenen LLM-Anbietern und nutzt drei Idle-Signale, um Trainingszeiten zu finden. | Bild: Xia et al.<br \/>\nAus Fehlern werden neue Verhaltensregeln<\/p>\n<p>Der erste Mechanismus greift, sobald der Agent an einer Aufgabe scheitert. Dann analysiert ein separates Sprachmodell die gescheiterte Interaktion und leitet daraus eine kompakte Verhaltensregel ab. Diese wird direkt in den System-Prompt des Agenten eingef\u00fcgt und gilt ab sofort f\u00fcr alle folgenden Aufgaben. Das Modell selbst wird dabei nicht ver\u00e4ndert, es gibt keine Unterbrechung des Dienstes.<\/p>\n<p>Laut dem <a target=\"_blank\" rel=\"noopener nofollow\" href=\"https:\/\/arxiv.org\/html\/2603.17187v1\">Paper<\/a> entstehen so vor allem drei Typen von Regeln: Zeitformate korrekt normalisieren, vor zerst\u00f6rerischen Dateioperationen ein Backup anlegen und Namenskonventionen einhalten. Weil solche Regeln nicht an eine einzelne Aufgabe gebunden sind, kann ein einziger Fehler Verbesserungen bei strukturell ganz anderen Folgeaufgaben bewirken.<\/p>\n<p>System checkt freie Zeitfenster<\/p>\n<p>Der zweite Mechanismus aktualisiert die Modellgewichte per Reinforcement-Learning \u00fcber Cloud-basiertes LoRA-Feintuning. Da ein solches Update den Agenten kurzzeitig unterbricht, darf es nicht w\u00e4hrend aktiver Nutzung laufen.<\/p>\n<p>Daf\u00fcr haben die Forscher einen Hintergrundprozess namens OMLS (Opportunistic Meta-Learning Scheduler) entwickelt, der drei Signale \u00fcberwacht: konfigurierbare Schlafenszeiten, Tastatur- und Maus-Inaktivit\u00e4t auf Betriebssystemebene sowie die Belegung des Google-Kalenders. Sitzt der Nutzer laut Kalender in einem Meeting, \u00f6ffnet sich ein Trainingsfenster. Der Trainer kann pausieren und fortsetzen, sodass auch kurze Inaktivit\u00e4tsphasen nutzbar sind.<\/p>\n<p>Das System unterscheidet strikt zwischen Daten, die vor einer Regelanpassung gesammelt wurden, und solchen danach. Nur letztere flie\u00dfen ins Training ein. Andernfalls w\u00fcrde das Modell f\u00fcr Fehler bestraft, die die neue Verhaltensregel bereits behoben hat.<\/p>\n<p><a href=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/03\/Just-Talk-An-Agent-That-Meta-Learns-and-Evolves-in-the-Wild-x7-1.png\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-53535\" src=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/03\/Just-Talk-An-Agent-That-Meta-Learns-and-Evolves-in-the-Wild-x7-1.png\" alt=\"Liniendiagramm mit der Genauigkeit \u00fcber 30 simulierte Arbeitstage f\u00fcr f\u00fcnf Konfigurationen: GPT-5.1 Baseline und mit Skills sowie Kimi-K2.5 Baseline, mit Skills und mit RL plus Skills. MetaClaw RL+Skills erreicht um Tag 19 den Spitzenwert von fast 0,8, alle Varianten fallen ab Tag 25 deutlich ab.\" width=\"996\" height=\"458\"\/><\/a>MetaClaw mit dem vollst\u00e4ndigen Framework (RL+Skills, blau gestrichelt) erreicht seinen gr\u00f6\u00dften Vorsprung in den mittleren Tagen, bevor die Aufgabenschwierigkeit alle Varianten nach unten dr\u00fcckt. Anmerkung: Das Paper spricht konsequent von GPT-5.2, nicht 5.1. | Bild: Xia et al.<\/p>\n<p>Beide Mechanismen verst\u00e4rken sich laut den Forschern gegenseitig: Ein besseres Modell produziert aufschlussreichere Fehler, aus denen sich bessere Regeln ableiten lassen. Bessere Regeln wiederum erzeugen hochwertigere Trainingsdaten f\u00fcr die n\u00e4chste Gewichtsaktualisierung.<\/p>\n<p>Schw\u00e4cheres Modell schlie\u00dft fast zum st\u00e4rkeren auf<\/p>\n<p>Die Forscher evaluieren MetaClaw auf einem eigens entwickelten Benchmark mit 934 Fragen \u00fcber 44 simulierte Arbeitstage, getestet mit <a href=\"https:\/\/the-decoder.de\/neues-ki-ranking-gpt-5-2-fuehrt-vor-claude-opus-4-5-und-gemini-3-pro\/\" rel=\"nofollow noopener\" target=\"_blank\">GPT-5.2<\/a> und <a href=\"https:\/\/the-decoder.de\/chinesisches-ki-unternehmen-moonshot-ai-will-mit-agenten-schwaermen-die-konkurrenz-ueberholen\/\" rel=\"nofollow noopener\" target=\"_blank\">Kimi-K2.5<\/a>. Die Verhaltensregeln allein verbessern die Genauigkeit von Kimi-K2.5 um bis zu 32 Prozent relativ. Das vollst\u00e4ndige Framework hebt Kimi-K2.5 von 21,4 auf 40,6 Prozent und erreicht damit fast das GPT-5.2-Ausgangsniveau von 41,1 Prozent. Die Rate vollst\u00e4ndig gel\u00f6ster Aufgaben steigt um den Faktor 8,25.<\/p>\n<p><a href=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/03\/Just-Talk-An-Agent-That-Meta-Learns-and-Evolves-in-the-Wild-x8.png\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-53536 size-full\" src=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/03\/Just-Talk-An-Agent-That-Meta-Learns-and-Evolves-in-the-Wild-x8.png\" alt=\"Balkendiagramm mit Pass-Raten f\u00fcr File-Check und Multi-Choice-Aufgaben \u00fcber f\u00fcnf Konfigurationen. Kimi-K2.5 mit RL plus Skills erreicht bei File-Check etwa 16 Prozent und bei Multi-Choice etwa 42 Prozent, w\u00e4hrend das Kimi-K2.5-Baseline bei File-Check unter 5 Prozent liegt.\" width=\"997\" height=\"398\"\/><\/a>Die Regeln verbessern vor allem das Wissen des Agenten. Dass er Aufgaben auch fehlerfrei zu Ende bringt, schafft erst das zus\u00e4tzliche Modell-Training. | Bild: Xia et al.<\/p>\n<p>Das Muster ist laut dem Paper konsistent: Schw\u00e4chere Modelle profitieren deutlich st\u00e4rker, weil ihnen prozedurales Wissen fehlt, das die Regel-Bibliothek explizit bereitstellt. GPT-5.2 startet bereits von einem h\u00f6heren Niveau und hat weniger Spielraum nach oben.<\/p>\n<p>Um zu pr\u00fcfen, ob MetaClaw auch au\u00dferhalb von CLI-Aufgaben funktioniert, setzen die Forscher das Framework zus\u00e4tzlich in AutoResearchClaw ein. Diese Pipeline durchl\u00e4uft autonom 23 Schritte, von der Literaturrecherche \u00fcber Experimente bis zum fertigen Paper. Allein durch die eingespeisten Verhaltensregeln, ohne jedes Modell-Training, sinkt die Wiederholungsrate einzelner Schritte um 24,8 Prozent und die Zahl der Verfeinerungszyklen um 40 Prozent.<\/p>\n<p>Simulierter Benchmark mit Einschr\u00e4nkungen<\/p>\n<p>Die Forscher r\u00e4umen ein, dass ihr Benchmark eine Simulation ist und keine echten Nutzersitzungen abbildet. Die absoluten Zahlen seien daher nicht direkt auf Produktionsumgebungen \u00fcbertragbar. Zudem h\u00e4ngt die Erkennung inaktiver Zeitfenster von der Konfiguration des Nutzers ab. Der <a target=\"_blank\" rel=\"noopener nofollow\" href=\"https:\/\/github.com\/aiming-lab\/MetaClaw\">Code ist auf GitHub verf\u00fcgbar<\/a>. MetaClaw ben\u00f6tigt keine lokale GPU und arbeitet \u00fcber eine Proxy-Architektur mit Cloud-Endpunkten.<\/p>\n<p>Erst k\u00fcrzlich stellten Forscher der Princeton University mit <a href=\"https:\/\/the-decoder.de\/openclaw-rl-forscher-wollen-ki-agenten-allein-durch-nutzung-verbessern\/\" rel=\"nofollow noopener\" target=\"_blank\">OpenClaw-RL<\/a> ein verwandtes Framework vor, das ebenfalls KI-Agenten im laufenden Betrieb verbessern soll. OpenClaw-RL nutzt daf\u00fcr Folgesignale aus jeder Interaktion, etwa Nutzerantworten oder Testergebnisse, als Live-Trainingsquelle. MetaClaw baut auf der OpenClaw-Infrastruktur auf, verfolgt aber einen anderen Ansatz: Statt alle Interaktionssignale direkt ins Training einflie\u00dfen zu lassen, trennt es explizit zwischen schneller Regelanpassung im Prompt und verz\u00f6gerter Gewichtsoptimierung in inaktiven Zeitfenstern.<\/p>\n<p><img decoding=\"async\" class=\"wp-worthy-pixel-img skip-lazy \" src=\"https:\/\/www.europesays.com\/at\/wp-content\/uploads\/2026\/03\/75546f9aa7044035b549298188739f29.gif\" loading=\"eager\" data-no-lazy=\"1\" data-skip-lazy=\"1\" height=\"1\" width=\"1\" alt=\"\"\/><\/p>\n<p>\t\t\t\tKI-News ohne Hype \u2013 von Menschen kuratiert<\/p>\n<p>\n\t\t\t\t\tMit dem THE\u2011DECODER\u2011Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren w\u00f6chentlichen KI\u2011Newsletter, 6\u00d7 im Jahr den \u201eKI Radar&#8220;\u2011Frontier\u2011Newsletter mit den neuesten Entwicklungen aus der Spitze der KI\u2011Forschung, bis zu 25 % Rabatt auf KI Pro\u2011Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.\t\t\t\t<\/p>\n<p>\t\t\t\t<a href=\"https:\/\/the-decoder.de\/subscription\/\" class=\"inline-block text-white bg-(--heise-primary) mt-3 hover:bg-blue-800 focus:ring-4 focus:outline-none focus:ring-blue-300 font-medium rounded-sm w-full sm:w-auto  pl-3 pr-3 py-2.5 text-center newsletter-submit-button hover:no-underline\" rel=\"nofollow noopener\" target=\"_blank\"><br \/>\n\t\t\t\t\tJetzt abonnieren\t\t\t\t<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Forscher aus vier US-Universit\u00e4ten stellen ein Framework vor, das KI-Agenten im laufenden Betrieb verbessert. Daf\u00fcr nutzt es den&hellip;\n","protected":false},"author":2,"featured_media":73186,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[46,42,9718,44,97,96,101,98,100,99],"class_list":{"0":"post-73185","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-at","9":"tag-austria","10":"tag-openclaw","11":"tag-oesterreich","12":"tag-science","13":"tag-science-technology","14":"tag-technik","15":"tag-technology","16":"tag-wissenschaft","17":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@at\/116315188460998769","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/73185","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/comments?post=73185"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/posts\/73185\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media\/73186"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/media?parent=73185"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/categories?post=73185"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/at\/wp-json\/wp\/v2\/tags?post=73185"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}