
Спустя более двух лет после того, как Google был пойман в результате выпуска CHATGPT Openai, компания значительно повысила темп.
В конце марта Google запустил модель рассуждения AI, Gemini 2.5 Pro, которая приводит к индустрии по нескольким критериям, измеряющим кодирование и математические возможности. Этот запуск произошел всего через три месяца после того, как технологический гигант дебютировал еще одну модель, Gemini 2.0 Flash, которая была современной.
Директор Google и глава отдела продукта Gemini, Tulsee Doshi, заявила TechCrunch в интервью, что растущая частота модельного запуска компании является частью согласованных усилий, чтобы не отставать от быстро развивающейся индустрии ИИ.
«Мы все еще пытаемся выяснить, как правильный способ избавить эти модели — как правильно получить обратную связь», — сказал Доши.
Но увеличенное время выпуска, по-видимому, стоило. Google еще не опубликовал отчеты о безопасности для своих последних моделей, в том числе Gemini 2.5 Pro и Gemini 2.0 Flash, вызывая опасения, что компания приоритет скорости по сравнению с прозрачностью.
Сегодня это довольно стандартно для Frontier AI Labs, включая OpenAI, антроп и мета, — сообщать о тестировании безопасности, оценке производительности и вариантах использования всякий раз, когда они запускают новую модель. Эти отчеты, иногда называемые системными картами или модельными картами, были предложены много лет назад исследователями в промышленности и научных кругах. Google на самом деле был одним из первых, кто предложил модельные карты в исследовательской статье 2019 года, назвав их «подходом к ответственной, прозрачной и подотчетной практике в машинном обучении».
Доши сказал TechCrunch, что компания не опубликовала модельную карту для Gemini 2.5 Pro, потому что она считает модель «экспериментальным» релизом. По ее словам, цель этих экспериментальных выпусков состоит в том, чтобы выпустить модель искусственного интеллекта, получить обратную связь и итерацию по модели перед запуском производства.
Google намеревается опубликовать модель Gemini 2.5 Pro, когда она делает модель в целом доступной, согласно Doshi, добавив, что компания уже провела тестирование на безопасность и состязательную красную команду.
В последующем сообщении представитель Google сказал TechCrunch, что безопасность продолжает оставаться «главным приоритетом» для компании, и что она планирует выпустить больше документации вокруг своих моделей искусственного интеллекта, включая Flash Gemini 2.0, продвигаясь вперед. Flash Gemini 2.0, которая обычно доступна, также не имеет модельной карты. Последняя модельная карта, выпущенная Google, была для Gemini 1.5 Pro, которая вышла более года назад.
Системные карты и модельные карты предоставляют полезную — и нелестную, иногда — информацию, которую компании не всегда широко широко рекламируют об их искусственном интеллекте. Например, системная карта Openai, выпущенная для своей модели рассуждения O1, показала, что модель компании имеет тенденцию к «схеме» против людей и тайно достигает собственных целей.
В целом, сообщество ИИ воспринимает эти отчеты как добросовестные усилия по поддержке независимых оценок исследований и безопасности, но в последние годы отчеты приобрели дополнительное значение. Как ранее отмечал трансформатор, Google сообщил правительству США в 2023 году, что он опубликует отчеты о безопасности для всех «значительных», публичных моделей искусственного интеллекта «в рамках». Компания взяла на себя аналогичную приверженность другим правительствам, обещая «обеспечить общественную прозрачность».
На федеральном и государственном уровнях в США предпринимались регулирующие усилия по созданию стандартов отчетности по безопасности для разработчиков моделей искусственного интеллекта. Тем не менее, они были встречены с ограниченным усыновлением и успехом. Одной из наиболее заметных попыток был вето на вето в Калифорнийском законопроекте SB 1047, против которого выступала технологическая индустрия. Законодатели также выдвинули законодательство, которое разрешило бы Институт безопасности ИИ США, орган по стандартному установлению ИИ, чтобы установить руководящие принципы для выпусков моделей. Тем не менее, Институт безопасности в настоящее время сталкивается с возможными сокращениями под администрацией Трампа.
Из всех появлений Google отстает от некоторых своих обещаний сообщать о тестировании моделей, в то же время отправляя модели быстрее, чем когда -либо. Многие эксперты утверждают, что это плохой прецедент, особенно когда эти модели становятся более способными и сложными.