Apple gruntownie przebudowuje Siri z pomocą Gemini

Mark Gurman informuje, że Apple wypracowało strategię gruntownej przebudowy Siri, którą firma może pokazać już w przyszłą wiosnę razem z iOS 26.4. Zasadnicza część nowych możliwości ma działać na modelu Gemini od Google.

Gemini ma być uruchamiany na serwerach Apple Private Cloud Compute i pomagać asystentce w obsłudze próśb użytkowników. Apple przekazuje, że odświeżona Siri będzie potrafiła odpowiadać na osobiste pytania, analizując dane z urządzenia i generując odpowiedzi w czasie rzeczywistym.

Nowa architektura Siri ma składać się z trzech elementów: planera żądań, systemu pozyskiwania wiedzy oraz modułu podsumowującego. Na serwerach Apple to właśnie Google Gemini zasili planera i podsumowywanie.

Firma podkreśla, że prywatność pozostanie nienaruszona: sztuczna inteligencja Google’a ma działać wyłącznie wewnątrz infrastruktury Apple, bez wysyłania danych do zewnętrznych usług, a dane osobiste na urządzeniach będą przetwarzane przez własne Foundation Models Apple.

Nowa warstwa wyszukiwania może również korzystać z Gemini. Jej zadaniem jest pozwolić Siri lepiej rozumieć tematy ogólne i odpowiadać na standardowe pytania bez uciekania się do integracji z innymi usługami czy do zwykłego wyszukiwania w sieci.

Mimo szerokiego wykorzystania Gemini po stronie serwerów Apple nie zamierza eksponować tej współpracy. Funkcje zostaną przedstawione jako własne technologie Apple, uruchamiane na jego serwerach i podane w firmowej oprawie. Taki układ wypełnia luki w modelach LLM rozwijanych wewnętrznie, które na razie nie są jeszcze dość dojrzałe. To trzeźwy, praktyczny wybór: sięgać po Gemini tam, gdzie ma to największy sens, a jednocześnie utrzymać doświadczenie jako natywne dla ekosystemu Apple. Brzmi to znajomo — podobną ścieżką idzie Samsung z funkcjami Galaxy AI, z których część także bazuje na Google Gemini.