{"id":126163,"date":"2025-05-20T19:10:12","date_gmt":"2025-05-20T19:10:12","guid":{"rendered":"https:\/\/www.europesays.com\/de\/126163\/"},"modified":"2025-05-20T19:10:12","modified_gmt":"2025-05-20T19:10:12","slug":"google-i-o-ki-abo-fuer-250-us-dollar-und-ein-agentisches-gemini","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/de\/126163\/","title":{"rendered":"Google I\/O: KI-Abo f\u00fcr 250 US-Dollar und ein agentisches Gemini"},"content":{"rendered":"<p>Intelligenter, &#8222;agentisch&#8220; und personalisiert \u2013 das sind die neuen Attribute f\u00fcr KI, die Googles CEO Sundar Pichai zum Auftakt der Entwicklerkonferenz Google I\/O verlauten l\u00e4sst. Dahinter steckt ein allgemeiner Trend: Die KI soll noch besser, korrekter und ausf\u00fchrlicher Fragen beantworten k\u00f6nnen, aber auch Aufgaben gleich selbst erledigen und immer im Sinne des Anwenders handeln. Und irgendwann, so ertr\u00e4umt es Demis Hassabis, CEO von Google Deepmind, haben wir dann ein Weltenmodell, das alles kann \u2013 wie ein echtes Gehirn.<\/p>\n<p>Googles leistungsf\u00e4higste Modelle Gemini 2.5 Flash und Pro legen laut Hassabis schon das Fundament f\u00fcr diese neue KI-Welt. Google will sie weiter verbessert haben und mehr Menschen zug\u00e4nglich machen. Gemini 2.5 Flash zieht in die Gemini App und ist f\u00fcr Entwickler via Google AI Studio sowie Vertex AI verf\u00fcgbar \u2013 2.5 Pro soll bald folgen. Google hatte bereits eine <a href=\"https:\/\/www.heise.de\/news\/I-O-Edition-Google-verbessert-KI-Modell-Gemini-Pro-2-5-fuer-Entwickler-10376509.html\" target=\"_blank\" rel=\"noopener\">Vorab-Version f\u00fcr Entwickler verf\u00fcgbar<\/a> gemacht. Laut Google ist Gemini 2.5 Pro in der WebDev Arena mit einem ELO von 1420 f\u00fchrend sowie in allen LMArena Kategorien \u2013 in einer solchen Arena treten KI-Modelle gegeneinander an und werden bewertet.<\/p>\n<p>Gemini kann denken, sprechen und den Browser steuern<\/p>\n<p>Neu ist zudem Deep Think, ein sogenanntes Reasoning Model, das in Gemini 2.5 steckt. Reasoning bedeutet, das Modell soll nicht nur Inhalte wiedergeben k\u00f6nnen, sondern auch logisch verkn\u00fcpfen. Beide Modelle k\u00f6nnen zudem bald nativ Audio generieren. Dabei l\u00e4sst sich die Tonart, ein Akzent und der Stil eines Sprechers bestimmen. Fl\u00fcstern, dramatisch sprechen, alles m\u00f6glich.<\/p>\n<p>Auch taugen Gemini 2.5 Flash und Pro als Agenten, die den Browser steuern k\u00f6nnen. Daran arbeitet Google schon l\u00e4nger unter dem Namen Project Mariner. Das zieht nun in die Gemini API und Vertex AI ein. Google unterst\u00fctzt zudem das <a href=\"https:\/\/www.heise.de\/blog\/Maechtigere-KI-Systeme-mit-dem-Model-Context-Protocol-MCP-10363599.html\" target=\"_blank\" rel=\"noopener\">Model Context Protokol (MCP)<\/a>, das Anthropic entwickelt hat. Dank des MCP kann Gemini Informationen zusammensammeln und Listen erstellen, wie etwa wo eine W\u00e4scherei ist. Das Protokoll macht Webseiten f\u00fcr Agenten &#8222;lesbar&#8220;.<\/p>\n<p>250 US-Dollar f\u00fcr einen VIP-Pass<\/p>\n<p>Project Mariner gibt es f\u00fcr Kunden des neuen KI-Ultra-Abos von Google bereits in den USA zu testen. Google nennt das einen &#8222;VIP-Pass&#8220; \u2013 und l\u00e4sst den auch bezahlen: er kostet 250 US-Dollar im Monat. Inklusive sind die h\u00f6chsten Nutzungslimits f\u00fcr alle KI-Dienste, sie bekommen etwa zudem als erstes Zugang zu Deep Think, Flow und etwa Whisk, mit dem man Bilder in kurze Animationen verwandeln kann. Zum Abo geh\u00f6ren auch 30 TB Speicherkapazit\u00e4ten f\u00fcr Fotos und andere Dokumente. AI Premium wird in AI Pro umbenannt \u2013 man kann dieses behalten und bekommt auch hier mehr Zugriffe, etwa auf Flow.<\/p>\n<p>Die Suche wird in den USA um den AI Mode erweitert. Der war bisher bereits in einer Testumgebung der Google Labs verf\u00fcgbar. Hinter dem <a href=\"https:\/\/www.heise.de\/news\/Google-Noch-mehr-KI-zieht-in-die-Suchmaschine-10305981.html\" target=\"_blank\" rel=\"noopener\">AI Mode stecken ebenfalls die Reasoning-F\u00e4higkeiten<\/a>. Damit sollen komplexere Fragen in der Suche beantwortet werden k\u00f6nnen. Dazu nutzt Google das Web aber auch den eigenen Knowledge Graph, also jenes Wissen, das Google in einer gigantischen Datenbank gesammelt hat. In dieser Datenbank stecken auch die Shoppingergebnisse. So kommt es, dass Google Shopping \u00fcber den AI Mode KI-Funktionen bekommt. Dazu geh\u00f6rt die M\u00f6glichkeit, <a href=\"https:\/\/www.heise.de\/news\/Diffussion-basierte-generative-KI-Googles-Shopping-Funktion-mit-diversen-Models-9188410.html\" target=\"_blank\" rel=\"noopener\">Kleidung virtuell anzuprobieren<\/a>, so etwas hatte Google bereits fr\u00fcher getestet, au\u00dferdem gibt es einen agentischen Checkout.<\/p>\n<p>Imagen 4 und Veo 3 sind Googles neue und verbesserte Video- und Bildgeneratoren. Veo 3 kann k\u00fcnftig nativ Audio generieren, Text und Umgebungsger\u00e4usche etwa. Mit Flow sollen sich l\u00e4ngere Filme erstellen lassen, etwa indem man eine bessere Kontrolle \u00fcber Charaktere und Stile bekommt. Google scheint das mit einem Video gleich zum Start der I\/O beweisen zu wollen. Ein Zoo wirbelt da eine klassische Wild-West-Stadt auf. Papageien fliegen umher, ein T-Rex aus Klemmbausteinen br\u00fcllt, es staubt. Doch die ballonartigen Buchstaben, die zur I\/O begr\u00fc\u00dfen, gl\u00e4nzen sauber im blauen Himmel.<\/p>\n<p>Canvas, Googles KI-Skribbletool, Deep Research, der Chatbot f\u00fcr wissenschaftliche Aufgaben, bekommen Updates, genauso wie Gmail und Google Meet \u2013 dazu geh\u00f6ren E-Mails, die Gemini so beantwortet, wie man selbst schreibt sowie synchrone \u00dcbersetzungen in Meet. Zun\u00e4chst gibt es die aber nur f\u00fcr wenige Sprachen.<\/p>\n<p><a href=\"https:\/\/www.heise.de\/news\/In-3D-und-ohne-Sprachbarriere-Video-Calls-wie-ein-persoenliches-Gespraech-10390322.html\" target=\"_blank\" rel=\"noopener\">Neu ist Google Beam<\/a>: Eine 3D-Kommunikationsplattform, die auf KI basiert. Auch hier k\u00f6nnen Gespr\u00e4che zwischen zwei Personen simultan \u00fcbersetzt werden. Und das nicht etwa in einer Computerstimme, sondern in der des jeweiligen Sprechers. Android XR soll Gemini auf smarte Brillen und Headsets bringen. Gemini Live ist zudem auf Android und iOS-Ger\u00e4ten verf\u00fcgbar. Das ist jene Funktion, bei der man in Echtzeit mit der KI \u00fcber das sprechen kann, was man sieht \u2013 auf dem Bildschirm oder mittels Kamera. Dank agentischer F\u00e4higkeiten ist es bald auch m\u00f6glich, dass Gemini zwischendurch mal eben einen Shop anruft und nach einem Ersatzteil fragt, w\u00e4hrend man dank Hilfe der KI eine Fahrradreparatur durchf\u00fchren will. So zeigt es Google in einem Video.<\/p>\n<p>(<a class=\"redakteurskuerzel__link\" href=\"https:\/\/www.heise.de\/news\/mailto:emw@heise.de\" title=\"Eva-Maria Wei\u00df\" target=\"_blank\" rel=\"noopener\">emw<\/a>)<\/p>\n<p>\n      Dieser Link ist leider nicht mehr g\u00fcltig.\n    <\/p>\n<p>Links zu verschenkten Artikeln werden ung\u00fcltig,<br \/>\n      wenn diese \u00e4lter als 7\u00a0Tage sind oder zu oft aufgerufen wurden.\n    <\/p>\n<p><strong>Sie ben\u00f6tigen ein heise+ Paket, um diesen Artikel zu lesen. Jetzt eine Woche unverbindlich testen \u2013 ohne Verpflichtung!<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"Intelligenter, &#8222;agentisch&#8220; und personalisiert \u2013 das sind die neuen Attribute f\u00fcr KI, die Googles CEO Sundar Pichai zum&hellip;\n","protected":false},"author":2,"featured_media":126164,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[135],"tags":[29,676,30,4149,33616,36265,196,1256,47299,190,189,194,191,193,192],"class_list":{"0":"post-126163","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wissenschaft-technik","8":"tag-deutschland","9":"tag-gemini","10":"tag-germany","11":"tag-google","12":"tag-google-gemini","13":"tag-google-i-o","14":"tag-it","15":"tag-kuenstliche-intelligenz","16":"tag-reasoning","17":"tag-science","18":"tag-science-technology","19":"tag-technik","20":"tag-technology","21":"tag-wissenschaft","22":"tag-wissenschaft-technik"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@de\/114541744989393893","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/126163","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/comments?post=126163"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/posts\/126163\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media\/126164"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/media?parent=126163"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/categories?post=126163"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/de\/wp-json\/wp\/v2\/tags?post=126163"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}