Все ждали, что аппаратные ИИ-решения изменят наш подход к интерфейсам, но индустрия продолжает надстраивать нейросети поверх старых концепций. Google анонсировала Googlebook — новый класс устройств, который скрещивает экосистему Android с логикой десктопа, плотно завязывая все процессы на Gemini. Главной особенностью заявляют не железо, а контекстные взаимодействия.
Взять хотя бы функцию Magic Pointer. Пользователь трясет курсором над любым объектом, и система предлагает подходящие генеративные действия, вроде ретуши кадра или составления ответа на письмо. Забавная микромеханика, но насколько этот жест интуитивнее привычного контекстного меню, покажет только реальная работа. Кажется, корпорации просто ищут физическое воплощение для алгоритмов, чтобы заставить нас чаще к ним обращаться.
Гораздо более жизнеспособным выглядит генератор виджетов по промпту. Вы описываете задачу словами, а Gemini собирает временный дашборд с данными из почты, календаря и поисковика. Планируете командировку — система сама вытащит билеты и брони в единый блок на рабочем столе. Идея интерфейса, который собирается под конкретную задачу и исчезает после, действительно имеет смысл. Вопрос в том, не превратятся ли наши экраны в хаотичное кладбище одноразовых виджетов, которые ИИ создает быстрее, чем мы успеваем их закрывать?
Поделиться:
Прогрев кеша в Claude API для снижения задержки первого токена (TTFT) →
Эссе Маттиаса Отта о разделении дизайна и разработки как устаревшем индустриальном наследии →