Google oficjalnie uruchamia właśnie Personal Intelligence – nową warstwę sztucznej inteligencji dla Gemini, która ma zamienić tego asystenta AI w świadomego doradcę, rozumiejącego osobisty kontekst użytkownika.
Czym jest Personal Intelligence od Google?
Personal Intelligence to opcjonalna usługa, która spina kluczowe usługi Google – m.in. Gmaila, Zdjęcia Google, YouTube i historię wyszukiwania – w jeden, wspólny kontekst dla modeli Gemini. Zamiast ogólnych odpowiedzi, system ma udzielać porad dopasowanych do konkretnej osoby, jej przyzwyczajeń, historii aktywności i bieżących potrzeb.
Google podkreśla, że to „fundamentalna zmiana” w kierunku AI rozumiejącej unikalny kontekst użytkownika, co ma być kolejnym krokiem na drodze do bardziej zaawansowanych agentów i – w dłuższej perspektywie – AGI (Artificial General Intelligence).
Jak to działa w praktyce?
Po włączeniu Personal Intelligence możemy jednym tapnięciem połączyć wybrane aplikacje Google z Gemini, a każda z nich „doładowuje” możliwości asystenta. Asystent potrafi wtedy zarówno wyciągać konkretne szczegóły (np. numer rejestracyjny auta ze zdjęcia), jak i rozumować na wielu źródłach naraz – od maili, przez zdjęcia i historię wyszukiwania, po wcześniejsze czaty.
Google opisuje np. sytuację z wymianą opon: Gemini nie tylko znajduje właściwy rozmiar na podstawie danych z dokumentów w Gmailu, ale też proponuje różne typy opon, biorąc pod uwagę rodzinne wyjazdy zapisane w Zdjęciach Google oraz zestawia ceny i oceny produktów.
W innym scenariuszu asystent planuje nasz nowy wyjazd, analizując wcześniejsze podróże, preferencje z maili i zdjęć, omijając turystyczne pułapki na rzecz miejsc dopasowanych do faktycznych zainteresowań.
Prywatność, ograniczenia i kontrola
Personal Intelligence będzie domyślnie wyłączone – to my będziemy mogli zadecydować, czy włączyć tę funkcję, które aplikacje połączyć i w każdej chwili będziemy mogli je odłączyć oraz wyczyścić historię rozmów. Google deklaruje, że Gemini nie trenuje się bezpośrednio na zawartości naszej skrzynki Gmail ani biblioteki Zdjęć Google – do ulepszania modeli wykorzystywane są m.in. same prompt’y i odpowiedzi, po uprzednim filtrowaniu danych osobistych.
Pewnie rodzi się tu w Waszych głowach pytanie, co z przykładem z numerem rejestracyjnym znalezionym w Google Zdjęcia? Google tłumaczy, że jego modele nie są szkolone tak aby zapamiętywały takie numery, ale aby rozumiały, iż w sytuacji gdy je o nie poprosimy, będą mogły je zlokalizować.
Nowość startuje dzisiaj, czyli 14 stycznia 2026 r. w USA dla subskrybentów Google AI Pro i AI Ultra i działa w aplikacji Gemini w przeglądarce, na Androidzie oraz iOS, ze wszystkimi dostępnymi modelami. Google zapowiada jednocześnie, że z czasem funkcja trafi do większej liczby krajów, do darmowego planu Gemini, a także do Trybu AI w wyszukiwarce.
Źródło: Google.

