Google запустила ИИ‑модель Gemini 3.1 Pro на ключевых платформах

Компания Google представила Gemini 3.1 Pro — новейшую версию своей ИИ‑модели Gemini 3 Pro. С этой недели модель становится доступной для разработчиков, корпоративных пользователей и обычных потребителей.

Основные платформы для доступа к модели

Gemini 3.1 Pro представлена в режиме предварительного просмотра для разработчиков через следующие инструменты и платформы Google:

  • Gemini API в Google AI Studio;
  • Android Studio;
  • Gemini CLI;
  • среду разработки агентных систем Google Antigravity.

Корпоративные пользователи могут воспользоваться моделью через Vertex AI и Gemini Enterprise. Для обычных пользователей Gemini 3.1 Pro интегрирована в приложение Gemini и NotebookLM. При этом подписчики планов Google AI Pro и Ultra получают расширенные лимиты использования.

Ключевые особенности и преимущества модели

Модель разработана для усиления способностей к рассуждению и решению сложных задач. На тесте ARC-AGI-2, который оценивает способность модели решать новые логические задачи, Gemini 3.1 Pro показала верифицированный результат в 77,1 %. По данным Google, это более чем вдвое превышает показатели рассуждающих способностей модели Gemini 3 Pro.

Майкл Герстенхабер (Michael Gerstenhaber), вице‑президент по управлению продуктами Vertex AI в Google Cloud, отметил, что запуск Gemini 3.1 Pro — это шаг вперёд в развитии базовых рассуждающих способностей в рамках серии Gemini 3. Он подчеркнул, что 3.1 Pro представляет собой более умную и эффективную базовую модель для решения сложных задач. Google выпускает её в широком масштабе, чтобы помочь компаниям адаптироваться к будущему с агентными системами.

Герстенхабер написал: «Gemini 3.1 Pro создана для решения более сложных задач, предоставляя глубину рассуждений, необходимую вашему бизнесу. Вы можете объединить разрозненные данные в едином представлении, визуализировать сложные темы и решать задачи, требующие глубокого контекста и планирования».

Связанные обновления и нововведения

Запуск Gemini 3.1 Pro последовал за недавним обновлением Gemini 3 Deep Think — специализированного модуля, разработанного совместно с исследователями и инженерами для решения научных и технических задач, где данные могут быть неполными или решения — неопределёнными. Deep Think доступен в приложении Gemini для подписчиков Google AI Ultra, а также через Gemini API для отдельных пользователей в сфере исследований и корпоративного сектора.

В прошлом месяце Google представила Agentic Vision как часть Gemini 3 Flash. Agentic Vision сочетает визуальные рассуждения с выполнением кода, позволяя модели анализировать изображения через итеративный процесс, а не как единичное статическое действие. Рассматривая зрение как активное исследование, модель может планировать действия — например, приближать, изучать и манипулировать изображениями пошагово, используя выполнение кода для обоснования своих ответов на основе визуальных данных.

Обратная связь и планы развития

По данным Google, отзывы, полученные после запуска Gemini 3 Pro в ноябре 2025 года, сыграли важную роль в доработке и улучшении последней версии. Компания отмечает, что выпуск Gemini 3.1 Pro в режиме предварительного просмотра позволяет ей проверить недавние изменения, продолжая работу над агентными рабочими процессами перед широким общим выпуском.

Подписчики планов Google AI Pro или Ultra теперь могут воспользоваться повышенными лимитами использования в приложении Gemini. NotebookLM также поддерживает новую модель исключительно для этих уровней подписки.

Финансовые результаты Alphabet

Ранее в этом месяце материнская компания Google — Alphabet — опубликовала финансовые результаты за четвёртый квартал 2025 года:

  • чистая прибыль достигла $34,5 млрд, что на 30 % больше по сравнению с $26,5 млрд в четвёртом квартале 2024 года;
  • квартальная выручка выросла на 18 %, составив $113,8 млрд по сравнению с $96,5 млрд в предыдущем году;
  • операционная прибыль увеличилась на 16 %, достигнув $35,9 млрд;
  • разводнённая чистая прибыль на акцию выросла до $2,82 с $2,15 за тот же период.



Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching