- Сообщения
- 7.806
- Реакции
- 10.690
Эта статья про то, как за последние месяцы ИИ перестал быть «окошком чата» и стал средой работы. Крупные игроки спешно переносят фокус из коротких ответов в долговремённые задачи: «Проекты» с долговечной памятью и файлами, голосовые ассистенты с задержкой в сотые секунды, ИИ‑режимы в поиске, и важнее всего - приватный ИИ на устройстве. Ниже - самые заметные направления и почему они важны именно как пользовательский опыт.
Началось всё с «долгой задачи»: ИИ‑Проекты и рабочие пространства.
Простой чат оказался плохим контейнером для исследований, поэтому в 2025‑м повально появляются persistent‑пространства с источниками, файлами и историей. В Gemini тестируется функция «Проекты»: вы складываете туда документы, код и медиа и дальше общаетесь с ИИ «внутри проекта», не теряя контекст. Параллельно NotebookLM от Google вырос из «суммаризатора» в полноценного напарника для исследований: он делает отчёты разных форматов (гайд, блог, тезисы, квизы, флэш‑карты) и даже аудио‑«обзоры» в нескольких режимах - от краткого пересказа до дебатов двух голосов по вашим материалам. Это всё про UX устойчивости: не один ответ «здесь и сейчас», а длинная траектория, где ИИ помнит ваши источники и стиль, а вы возвращаетесь к рабочей карте знаний.
Поиск стал интерфейсом к рассуждению.
В Google Search с мая 2025 года AI Overviews/AI Mode развернули как отдельный режим: ИИ собирает ответ поверх выдачи, подкладывает цитируемые источники, генерирует диаграммы и помогает идти «вглубь» (Deep Search). Важная деталь - языковая экспансия и локализация: по мере расширения режим работает на десятках языков и в сотнях стран, что превращает его из «англоязычного эксперимента» в повседневный UX поиска. Пользовательски это меняет «паттерн кликов»: вы реже прыгаете по вкладкам и чаще уточняете вопрос прямо в AI‑панели, где уже видите источники и вызванные по требованию детали.
Голос и видео научились разговаривать «здесь‑и‑сейчас».
От демонстраций 2024 года индустрия пришла к реальным голосовым агентам с низкой задержкой и способностью принимать речь, изображение и экран. OpenAI выкатил Realtime API: «речь‑вход → речь‑выход» по WebRTC/WebSocket, образный анализ, SIP‑звонки, и под капотом - защита от инъекций через протоколы инструментов. У Google в линейке Gemini Live/Astra идёт общий вектор: камера/микрофон/экран как единый сенсор взаимодействия. Для UX это радикальная смена «темпа»: ассистент не «пишет вам текст», а ведёт диалог, видит, что вы делаете, и подсказывает в момент действия от настройки маршрута в IDE до подсказок при съёмке или обсуждении слайдов на митинге.
On‑device ИИ и приватное облако: доверие - это тоже UX.
Apple Intelligence поставил планку: максимум вычислений - на устройстве, а для тяжёлых задач - Private Cloud Compute на Apple Silicon со сквозной верификацией и прозрачными гарантиями доступа к данным. У Google параллельный слой — Gemini Nano в Android и растущий набор локальных возможностей в приложениях. У Microsoft - линия Copilot+ PC с «памятью» устройства и переосмыслением приватности после критики ранних версий Recall. В практическом UX это означает новые привычки: тонкие разрешения по типу «чем именно ИИ может пользоваться», индикаторы отправки в облако и понятные маршруты удаления/отзыва контента.
Агенты и «действия вместо ответов».
Набирают силу agentic‑сценарии: не просто подсказка, а последовательность шагов (зайди, найди, выполни, проверь). В корпоративном мире Microsoft продвигает Copilot как надстройку к процессам (M365, Dynamics), а параллельно готовит «агентные» пакеты для ИТ‑админов и отраслей. В Google‑экосистеме агентность расползается по Workspace и поиску: от генерации черновиков и форм до автоматического сбора контекста по письмам и файлам. В командных мессенджерах Slack AI уходит от «просто резюме» к persistent‑поиску по подключённым приложениям, транскрипциям совещаний и «recap’ам» каналов. Всё это про UX перехода от «ответа в окне» к изменениям в ваших материалах, календарях и таск‑системах.
Отчёты «по кнопке» и сторителлинг на ваших данных.
Ещё одна тихая революция - шаблонные конструкции поверх собственных источников. NotebookLM научился производить видео‑и аудио‑overviews десятками языков и настраиваемых тонов; Perplexity сделал Pages/Deep Research - кнопка превращает запрос и источники в структурированный документ с оглавлением, ссылками и визуальными блоками. Пользовательский эффект прост: вы наконец-то получаете не «ответ‑текст», а готовый объект - учебник, бриф, исследовательский отчёт, который можно сразу делиться с командой.
Мультимодальность стала рутиной.
Google расширил в Gemini поддержку аудиофайлов (для Pro/Ultra - длинные, вплоть до часов записи), NotebookLM оперирует видео/аудио‑обзорами, OpenAI объединяет голос/видео/экран в единый поток. Для UX это означает, что «вложить» можно не только PDF и ссылку, но и аудиозаметку, диктовку интервью или запись собрания, и получить от ИИ не пересказ, а структурированную работу: разметку тем, гипотезы, контраргументы, цитаты с таймкодами.
Сдвиг в «доступности по умолчанию».
В 2025‑м ИИ‑возможности из премиум‑допов всё чаще оказываются включены в базовые планы. Google объявил, что значимая часть Gemini‑возможностей входит в стандартные уровни Workspace для бизнеса/образования. Slack расширяет доступ к ИИ‑функциям в пакетах, Microsoft упрощает включение Copilot и переносит настройки «на один тумблер» для админов. Это «экономика UX»: когда ИИ не надо отдельно покупать и устанавливать, им начинают пользоваться массово - и приходится продумывать онбординг, права и объяснимость в масштабе.
Контроль, цитаты, источники - не косметика.
По мере того как ИИ «врастает» в поиск и работу, растут ожидания к проверяемости. В поиске и ответах «поверх выдачи» обязательны кликабельные источники, в продуктивных ассистентах - журнал действий и объяснение прав. В корпоративной среде - изоляция данных и защита от пермиссий «шире, чем нужно». Там, где это есть из коробки, пользователи быстрее доверяют и переводят ИИ из «игрушки» в основной инструмент.
Что это всё значит для продуктовых и контент‑команд.
Первое: проектный контекст - король. Планируйте UX вокруг долговременных «папок»/«пространств» с файлами, заметками, ссылками и настройками прав, а не вокруг бесконечных чатов.
Второе: голос не «фича», а новый режим взаимодействия; продумывайте ситуации, где руки заняты, а взгляд в другом месте.
Третье: по умолчанию давайте пользователю два очевидных рычага «покажи, что ты сделал и откуда взял» и «ограничи доступ ИИ к этому контенту».
Четвёртое: обучайте через готовые формы - отчёт, шпаргалка, спор двух голосов, презентация, так конверсия в пользу ИИ растёт кратно. Пятое: помните о «недельной динамике» - люди возвращаются к проектам, и ИИ должен помнить. За «Проектами» в Gemini и аналогами у конкурентов, там решится вопрос стандарта. За голосовыми API и видеорежимами, там рождён реальный «помощник рядом», а не чат‑бот. За on‑device‑Ии и гибридными моделями приватного облака, там лежит принятие в чувствительных сценариях (медицина, образование, юрпрактика). За корпоративным поиском в мессенджерах - он тихо станет главным интерфейсом доступа к знаниям команды.
При создании статьи использовался ИИ, как часть процесса. Материал проверен, перед публикацией редактором - человеком! Нажимай на изображение, там ты найдешь все информационные ресурсы A&N
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
Простой чат оказался плохим контейнером для исследований, поэтому в 2025‑м повально появляются persistent‑пространства с источниками, файлами и историей. В Gemini тестируется функция «Проекты»: вы складываете туда документы, код и медиа и дальше общаетесь с ИИ «внутри проекта», не теряя контекст. Параллельно NotebookLM от Google вырос из «суммаризатора» в полноценного напарника для исследований: он делает отчёты разных форматов (гайд, блог, тезисы, квизы, флэш‑карты) и даже аудио‑«обзоры» в нескольких режимах - от краткого пересказа до дебатов двух голосов по вашим материалам. Это всё про UX устойчивости: не один ответ «здесь и сейчас», а длинная траектория, где ИИ помнит ваши источники и стиль, а вы возвращаетесь к рабочей карте знаний.
Поиск стал интерфейсом к рассуждению.
В Google Search с мая 2025 года AI Overviews/AI Mode развернули как отдельный режим: ИИ собирает ответ поверх выдачи, подкладывает цитируемые источники, генерирует диаграммы и помогает идти «вглубь» (Deep Search). Важная деталь - языковая экспансия и локализация: по мере расширения режим работает на десятках языков и в сотнях стран, что превращает его из «англоязычного эксперимента» в повседневный UX поиска. Пользовательски это меняет «паттерн кликов»: вы реже прыгаете по вкладкам и чаще уточняете вопрос прямо в AI‑панели, где уже видите источники и вызванные по требованию детали.
Голос и видео научились разговаривать «здесь‑и‑сейчас».
От демонстраций 2024 года индустрия пришла к реальным голосовым агентам с низкой задержкой и способностью принимать речь, изображение и экран. OpenAI выкатил Realtime API: «речь‑вход → речь‑выход» по WebRTC/WebSocket, образный анализ, SIP‑звонки, и под капотом - защита от инъекций через протоколы инструментов. У Google в линейке Gemini Live/Astra идёт общий вектор: камера/микрофон/экран как единый сенсор взаимодействия. Для UX это радикальная смена «темпа»: ассистент не «пишет вам текст», а ведёт диалог, видит, что вы делаете, и подсказывает в момент действия от настройки маршрута в IDE до подсказок при съёмке или обсуждении слайдов на митинге.
On‑device ИИ и приватное облако: доверие - это тоже UX.
Apple Intelligence поставил планку: максимум вычислений - на устройстве, а для тяжёлых задач - Private Cloud Compute на Apple Silicon со сквозной верификацией и прозрачными гарантиями доступа к данным. У Google параллельный слой — Gemini Nano в Android и растущий набор локальных возможностей в приложениях. У Microsoft - линия Copilot+ PC с «памятью» устройства и переосмыслением приватности после критики ранних версий Recall. В практическом UX это означает новые привычки: тонкие разрешения по типу «чем именно ИИ может пользоваться», индикаторы отправки в облако и понятные маршруты удаления/отзыва контента.
Агенты и «действия вместо ответов».
Набирают силу agentic‑сценарии: не просто подсказка, а последовательность шагов (зайди, найди, выполни, проверь). В корпоративном мире Microsoft продвигает Copilot как надстройку к процессам (M365, Dynamics), а параллельно готовит «агентные» пакеты для ИТ‑админов и отраслей. В Google‑экосистеме агентность расползается по Workspace и поиску: от генерации черновиков и форм до автоматического сбора контекста по письмам и файлам. В командных мессенджерах Slack AI уходит от «просто резюме» к persistent‑поиску по подключённым приложениям, транскрипциям совещаний и «recap’ам» каналов. Всё это про UX перехода от «ответа в окне» к изменениям в ваших материалах, календарях и таск‑системах.
Отчёты «по кнопке» и сторителлинг на ваших данных.
Ещё одна тихая революция - шаблонные конструкции поверх собственных источников. NotebookLM научился производить видео‑и аудио‑overviews десятками языков и настраиваемых тонов; Perplexity сделал Pages/Deep Research - кнопка превращает запрос и источники в структурированный документ с оглавлением, ссылками и визуальными блоками. Пользовательский эффект прост: вы наконец-то получаете не «ответ‑текст», а готовый объект - учебник, бриф, исследовательский отчёт, который можно сразу делиться с командой.
Мультимодальность стала рутиной.
Google расширил в Gemini поддержку аудиофайлов (для Pro/Ultra - длинные, вплоть до часов записи), NotebookLM оперирует видео/аудио‑обзорами, OpenAI объединяет голос/видео/экран в единый поток. Для UX это означает, что «вложить» можно не только PDF и ссылку, но и аудиозаметку, диктовку интервью или запись собрания, и получить от ИИ не пересказ, а структурированную работу: разметку тем, гипотезы, контраргументы, цитаты с таймкодами.
Сдвиг в «доступности по умолчанию».
В 2025‑м ИИ‑возможности из премиум‑допов всё чаще оказываются включены в базовые планы. Google объявил, что значимая часть Gemini‑возможностей входит в стандартные уровни Workspace для бизнеса/образования. Slack расширяет доступ к ИИ‑функциям в пакетах, Microsoft упрощает включение Copilot и переносит настройки «на один тумблер» для админов. Это «экономика UX»: когда ИИ не надо отдельно покупать и устанавливать, им начинают пользоваться массово - и приходится продумывать онбординг, права и объяснимость в масштабе.
Контроль, цитаты, источники - не косметика.
По мере того как ИИ «врастает» в поиск и работу, растут ожидания к проверяемости. В поиске и ответах «поверх выдачи» обязательны кликабельные источники, в продуктивных ассистентах - журнал действий и объяснение прав. В корпоративной среде - изоляция данных и защита от пермиссий «шире, чем нужно». Там, где это есть из коробки, пользователи быстрее доверяют и переводят ИИ из «игрушки» в основной инструмент.
Что это всё значит для продуктовых и контент‑команд.
Первое: проектный контекст - король. Планируйте UX вокруг долговременных «папок»/«пространств» с файлами, заметками, ссылками и настройками прав, а не вокруг бесконечных чатов.
Второе: голос не «фича», а новый режим взаимодействия; продумывайте ситуации, где руки заняты, а взгляд в другом месте.
Третье: по умолчанию давайте пользователю два очевидных рычага «покажи, что ты сделал и откуда взял» и «ограничи доступ ИИ к этому контенту».
Четвёртое: обучайте через готовые формы - отчёт, шпаргалка, спор двух голосов, презентация, так конверсия в пользу ИИ растёт кратно. Пятое: помните о «недельной динамике» - люди возвращаются к проектам, и ИИ должен помнить. За «Проектами» в Gemini и аналогами у конкурентов, там решится вопрос стандарта. За голосовыми API и видеорежимами, там рождён реальный «помощник рядом», а не чат‑бот. За on‑device‑Ии и гибридными моделями приватного облака, там лежит принятие в чувствительных сценариях (медицина, образование, юрпрактика). За корпоративным поиском в мессенджерах - он тихо станет главным интерфейсом доступа к знаниям команды.
• Google о расширении AI Overviews/AI Mode и возможностях поиска (Deep Search, персональный контекст, графики):
• Записи обновлений Gemini (в т.ч. развёртывание 2.5 Pro в веб и мобильном приложении):
• «Проекты» в Gemini — сообщение о тестировании:
• NotebookLM — официальный сайт/возможности:
• Включение Gemini‑функций в стандартные планы Google Workspace (блог/справка):
• Azure OpenAI (Realtime API через WebRTC/WebSocket):
• Apple Intelligence — принципы приватности и Private Cloud Compute:
• Microsoft Copilot — что нового/управляемость/приватность: блог Microsoft 365 Copilot (июль 2025):
• Perplexity — Deep Research/Pages (как формат отчётов):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; об экспансии в страны/языки:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Записи обновлений Gemini (в т.ч. развёртывание 2.5 Pro в веб и мобильном приложении):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• «Проекты» в Gemini — сообщение о тестировании:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• NotebookLM — официальный сайт/возможности:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; апдейты на The Keyword (видео/аудио‑overviews, 80+ языков):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; заметка AndroidCentral о режимах Audio Overview (Deep Dive/Brief/Critique/Debate):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Обновления Gemini‑экосистемы (аудиоаплоады в приложении, новые языки AI Mode и т.д.): обзор The Verge:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Включение Gemini‑функций в стандартные планы Google Workspace (блог/справка):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
;
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• OpenAI — Realtime API и голосовые агенты:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; новая линейка аудио‑моделей и GA Realtime:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Azure OpenAI (Realtime API через WebRTC/WebSocket):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; унификация «ChatGPT Voice» и отказ от старого режима:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Apple Intelligence — принципы приватности и Private Cloud Compute:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; пресс‑релиз WWDC25 с новыми возможностями и доступом разработчикам:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; исследовательская заметка Apple ML:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Slack AI — официальный гид по функциям (recaps, summaries, перевод), обновления планов и запуск enterprise‑поиска:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
;
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
;
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; репортаж о запуске enterprise‑поиска:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Microsoft Copilot — что нового/управляемость/приватность: блог Microsoft 365 Copilot (июль 2025):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; дата‑щит и защита от prompt‑инъекций:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; хронология обновлений приватности Windows (Recall/Click to Do):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
• Perplexity — Deep Research/Pages (как формат отчётов):
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
; обзор практического применения Deep Research:
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
При создании статьи использовался ИИ, как часть процесса. Материал проверен, перед публикацией редактором - человеком! Нажимай на изображение, там ты найдешь все информационные ресурсы A&N
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.