Google официально запустил Gemini 3, свою новую платформу ИИ

Google официально завершил свою игру в догонялки, запустив Gemini 3.0 Pro — теперь компания уже не просто на шаг впереди конкурентов, а сама задает темп в области моделей ИИ. Впервые Google занял лидирующую позицию в независимых рейтингах языковых моделей, дебютировав с результатом, превышающим как GPT-5.1, так и Claude 4.5 Sonnet по Индексу Искусственного Интеллекта.

Хотя Gemini 3.0 Pro запущен в режиме предварительного просмотра и, вероятно, будет модифицироваться и улучшаться в течение следующих месяцев, Google уже сейчас внедряет эту модель во всю свою экосистему, включая Поиск и приложение Gemini, что сигнализирует о новом уровне уверенности в своем флагманском продукте.

Как и его предшественник, Gemini 3.0 Pro основан на архитектуре Transformer с механизмом смешивания экспертов (Mixture-of-Experts, MoE). Этот подход позволяет активировать только подмножество параметров для каждого входного токена, разъединив общую емкость модели от затрат на ее использование, что позволяет поддерживать скорость масштабирования.

В то время как в отрасли ходили слухи о том, что законы масштабирования достигли предела, руководство исследований Google утверждает обратное. По словам Ориола Виньялса, этап предварительной тренировки обеспечил «резкий скачок» между версиями 2.5 и 3.0, описывая потенциальную возможность масштабирования как «без пределов на горизонте».

Многообразие возможностей Gemini 3.0 Pro

Gemini 3.0 Pro поддерживает стандартное окно контекста в 1 миллион токенов и выходную емкость в 64,000 токенов, что аналогично Gemini 2.5 Pro, что позволяет генерировать обширные репозитории кода или длинные тексты. Что особенно важно, модель является нативно мультимодальной: она обрабатывает текст, аудио, видео и изображения одновременно, а не полагается на отдельные модели.

Это позволяет бесшовно синтезировать информацию, например, расшифровывать рукописные рецепты на разных языках или анализировать видео-лекции для генерации интерактивных карточек.

Улучшенные способности рассуждения

Чтобы повысить возможности рассуждения, Google представил Gemini 3 Deep Think, замену Gemini 2.5 Deep Think. Модели Deep Think используют техники масштабирования во время тестирования, чтобы исследовать несколько решений параллельно и сфокусироваться на лучших ответах.

Этот улучшенный режим рассуждений обеспечивает заметное увеличение производительности при решении сложных задач. В тестировании Deep Think показал лучшие результаты по сравнению со стандартным Gemini 3 Pro на таких оценках, как «Последний экзамен для человечества» (41.0% против 37.5%) и GPQA Diamond (93.8%), продемонстрировав способность справляться с новыми задачами, которые требуют продолжительных вычислений и планирования.

Эффективность и производительность

Технические улучшения прямо влияют на доминирование в рейтингах. Gemini 3 Pro дебютировал с рейтингом Elo в 1501 на LMArena, став первой языковой моделью, пересекшей отметку в 1500. В независимых тестах, проведенных Artificial Analysis, модель возглавила 5 из 10 оценок, продемонстрировав особую силу в мультимодальном рассуждении.

  • 81% на MMMU-Pro
  • 87.6% на Video-MMMU
  • 23.4% на MathArena Apex для математики

Независимый анализ показывает нюансированный профиль производительности в отношении точности и эффективности. Хотя Gemini 3 Pro демонстрирует улучшенную эффективность токенов, использует значительно меньше токенов для выполнения задач по сравнению с конкурентами, такими как Kimi K2 Thinking, у него также отмечается высокая степень «галлюцинаций».

На Индексе Всеведения, который штрафует за неправильные ответы, высокая точность модели смягчается 88% уровнем галлюцинаций. Это подразумевает, что хотя модель чаще дает правильные ответы, она также может уверенно допускать ошибки, когда ошибается.

Инновации в разработке

Google позиционирует Gemini 3 как ведущий движок для разработки программного обеспечения, называя его своей моделью «лучшего кодирования по настроению». В настоящее время модель занимает первое место в WebDev Arena с оценкой 1487 и достигает 76.2% на SWE-bench Verified, специализированной оценке для измерения агентов кодирования.

Эти возможности не ограничиваются стандартными задачами кодирования; модель показала 56% на SciCode, что на 10 пунктов выше предыдущих рекордов, доказывая свою полезность для научного и сложного алгоритмического программирования.

Эта возможность питает «Google Antigravity», новую платформу разработки с акцентом на агента. Antigravity трансформирует ИИ в активного партнера с прямым доступом к редактору, терминалу и браузеру. Это позволяет системе автономно планировать и выполнять сложные многошаговые задачи программирования и проверять выполнение своего кода.

Доступность и коммерческая привлекательность

Gemini 3.0 Pro доступен во всей экосистеме инструментов ИИ Google, включая приложение Gemini, Google AI Studio и облачные AI-сервисы. Он также является основой режима ИИ в Google Поиске.

Для разработчиков, рассматривающих возможность создания приложений на основе Gemini 3.0 Pro, следует отметить, что новая модель уровня SOTA приходит с высокой ценой. Цены установлены на уровне NULL.00 за миллион входных токенов и NULL.00 за миллион выходных токенов для контекстов менее 200k (увеличиваются до NULL/NULL при достижении 200k токенов).

Несмотря на то что это дешевле, чем Claude 4.5 Sonnet, оно все равно остается дороже, чем GPT-5.1 и Gemini 2.5. Тесты, проведенные Artificial Analysis, показывают, что несмотря на свою эффективность токенов, более высокая цена за единицу приводит к 12% росту расходов на стандартные оценки интеллекта по сравнению с предшествующей моделью.

Разработчики должны взвесить эти затраты против прироста производительности, принимая во внимание, что Gemini 3 остается проприетарной, закрытой моделью, доступной исключительно через платформы Google, такие как Vertex AI и AI Studio.

Несмотря на тяжелую вычислительную нагрузку, модель поддерживает скорости, сопоставимые с Gemini 2.5 на уровне 128 выходных токенов в секунду. Эта скорость, которая ставит ее впереди моделей, таких как Grok 4, вероятно, обусловлена оптимизацией на кастомных ускорителях TPU Google.

Преимущества полного стека

Выпуск подчеркивает силу подхода Google «полного стека», который интегрирует кастомные чипы, обширную инфраструктуру дата-центров и огромные каналы распределения. Компания не просто выпускает модель, но мгновенно внедряет ее для пользовательской базы, составляющей колоссальные масштабы: 2 миллиарда пользователей в месяц в Поиске, 650 миллионов в приложении Gemini и 13 миллионов разработчиков.

Эта широкая интеграция ставит огромное давление на конкурентов, таких как OpenAI и Anthropic, которые не располагают ни финансовыми ресурсами, ни каналами распределения, сопоставимыми с Google. Google в настоящее время является единственным вертикально интегрированным поставщиком ИИ, который контролирует весь стек — от оборудования до модели.

С Gemini 3 Google эффективно сбросил стандарт для передовых моделей, используя свою экосистему для предоставления усовершенствованных агентных возможностей, которые сразу же можно использовать, а не оставлять в теории.




Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching