За неделю до Google I/O компания провела отдельную презентацию Gemini Intelligence для мобильных устройств. Главное нововведение обновления — полноценная мультишаговая автоматизация внутри приложений. Нейросеть теперь работает как системный агент: она самостоятельно ходит по сайтам и программам, извлекает данные из одних окон, переносит в другие и физически нажимает нужные кнопки. Это та самая механика межаппового взаимодействия, которую ранее анонсировала Apple, но пока не довела до релиза.
Интеграция работает на базовом уровне ОС и постоянно считывает контекст активного экрана. Из утилитарных функций добавили умный голосовой ввод, который на лету вычищает слова-паразиты и структурирует поток мыслей в форматированный текст. Также появились генеративные виджеты, которые собираются под текущие задачи пользователя, и автоматическое заполнение сложных форм с предварительным ревью перед отправкой.
Запускать тяжелые локальные процессы на старом железе система не позволит. На старте заявлена поддержка только для флагманов уровня Galaxy S26 и Pixel 10. Одновременно с мобильной экосистемой Google показала Googlebook — новый класс ноутбуков, аппаратно спроектированных для локальной работы с Gemini и бесшовной синхронизации с Android-смартфонами.
Поделиться:
Прогрев кеша в Claude API для снижения задержки первого токена (TTFT) →
Эссе Маттиаса Отта о разделении дизайна и разработки как устаревшем индустриальном наследии →