Google запустила ИИ‑модель Gemini 3.1 Pro на ключевых платформах

Компания Google представила Gemini 3.1 Pro — новейшую версию своей ИИ‑модели Gemini 3 Pro. С этой недели модель становится доступной для разработчиков, корпоративных пользователей и обычных потребителей.

Расширенный доступ к усовершенствованному интеллекту

Выпуск Gemini 3.1 Pro открывает более широкий доступ к обновлённому базовому интеллекту модели. Это стало возможным благодаря недавнему обновлению Gemini 3 Deep Think, которое служит технической основой для новой версии.

Где доступна модель

Разработчики могут опробовать Gemini 3.1 Pro в режиме предварительного просмотра через:

  • Gemini API в Google AI Studio;
  • Android Studio;
  • Gemini CLI;
  • среду разработки агентных систем Google Antigravity.

Корпоративные пользователи смогут использовать модель через Vertex AI и Gemini Enterprise.

Для обычных пользователей Gemini 3.1 Pro интегрирована в:

  • приложение Gemini;
  • NotebookLM.

Подписчики планов Google AI Pro и Ultra получат расширенные лимиты использования модели.

Улучшенные возможности решения задач

Модель разработана для усиления способностей к рассуждению и решению сложных задач. На бенчмарке ARC‑AGI‑2, который оценивает способность модели решать новые логические задачи, Gemini 3.1 Pro набрала 77,1 %. По данным Google, это более чем вдвое превышает показатели рассуждений у Gemini 3 Pro.

Комментарии представителей Google

Майкл Герстенхабер (Michael Gerstenhaber), вице‑президент по управлению продуктами Vertex AI в Google Cloud, в корпоративном блоге отметил, что запуск Gemini 3.1 Pro — это шаг вперёд в развитии базовых рассуждений на основе серии Gemini 3.

Он заявил, что Gemini 3.1 Pro представляет собой более умную и эффективную базовую модель для решения сложных задач. Google выпускает её в широком масштабе, чтобы помочь компаниям адаптироваться к будущему с агентными системами.

Герстенхабер написал: «Gemini 3.1 Pro разработана для решения более сложных задач, предоставляя глубину рассуждений, необходимую вашему бизнесу. Вы можете объединить разрозненные данные в едином представлении, визуализировать сложные темы и решать задачи, требующие глубокого контекста и планирования».

Предыдущие обновления

Запуск Gemini 3.1 Pro последовал за недавним обновлением Gemini 3 Deep Think — специализированного модуля, разработанного совместно с исследователями и инженерами для решения научных и технических задач, где данные могут быть неполными или решения — неопределёнными. Deep Think доступен:

  • в приложении Gemini для подписчиков Google AI Ultra;
  • через Gemini API для отдельных пользователей в сфере исследований и корпоративного сектора.

В прошлом месяце Google представила Agentic Vision как часть Gemini 3 Flash. Agentic Vision сочетает визуальные рассуждения с выполнением кода, позволяя модели анализировать изображения итеративным способом, а не как единичное статическое действие. Рассматривая зрение как активное исследование, модель может планировать действия — например, приближать, изучать и манипулировать изображениями пошагово, используя выполнение кода для обоснования своих ответов на основе визуальных данных.

Обратная связь и дальнейшие планы

По данным Google, обратная связь, полученная после запуска Gemini 3 Pro в ноябре 2025 года, сыграла важную роль в обновлении и улучшении последней версии. Компания отмечает, что выпуск Gemini 3.1 Pro в режиме предварительного просмотра позволяет проверить недавние изменения, продолжая работу над агентными рабочими процессами перед широким выпуском.

Финансовые результаты Alphabet

Ранее в этом месяце материнская компания Google — Alphabet — опубликовала финансовые результаты за четвёртый квартал 2025 года:

  • чистая прибыль достигла $34,5 млрд (рост на 30 % по сравнению с $26,5 млрд в четвёртом квартале 2024 года);
  • квартальная выручка выросла на 18 %, составив $113,8 млрд (по сравнению с $96,5 млрд в предыдущем году);
  • операционная прибыль увеличилась на 16 %, достигнув $35,9 млрд;
  • разводнённая чистая прибыль на акцию выросла до $2,82 (с $2,15 за аналогичный период).



Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching