
В четверг, через несколько недель после запуска своей самой мощной модели ИИ, Gemini 2.5 Pro, Google опубликовал технический отчет, показывающий результаты его внутренней оценки безопасности. Однако, по словам экспертов, отчет является легким в деталях, что затрудняет определение того, какие риски могут представлены модель.
Технические отчеты предоставляют полезные — и нелестные, иногда — информация, которую компании не всегда широко широко рекламируют об их искусственном интеллекте. В целом, сообщество ИИ рассматривает эти отчеты как добросовестные усилия по поддержке независимых исследований и оценки безопасности.
Google использует другой подход отчетности о безопасности, чем некоторые из его конкурентов по ИИ, публикуя технические отчеты только после того, как он рассматривает модель, чтобы закончить «экспериментальный» этап. Компания также не включает выводы из всех своих оценок «опасных возможностей» в этих записях; Это оставляет их для отдельного аудита.
Однако несколько экспертов TechCrunch все еще были разочарованы редкостью отчета Gemini 2.5 Pro, что, как они отметили, не упоминает фронта безопасности Google (FSF). Google представил FSF в прошлом году в том, что он назвал попыткой определить будущие возможности ИИ, которые могут привести к «серьезным вредам».
«Этот (отчет) очень редкий, содержит минимальную информацию и вышла через несколько недель после того, как модель уже была предоставлена общественности»,-сказал TechCrunch, соучредитель Института политики и стратегии ИИ уже предоставлена модель. «Невозможно проверить, выполняет ли Google свои общественные обязательства и, следовательно, невозможно оценить безопасность и безопасность своих моделей».
Томас Вудсайд, соучредитель проекта Secure AI, сказал, что, хотя он рад, что Google опубликовал отчет Gemini 2.5 Pro, он не убежден в приверженности компании предоставить своевременные дополнительные оценки безопасности. Вудсайд отметил, что в последний раз, когда Google публиковал результаты опасных тестов на способность в июне 2024 года — для модели, объявленной в феврале того же года.
Не вдохновляя большую уверенность, Google не предоставила отчет для Gemini 2.5 Flash, более мелкой, более эффективной модели, которую компания объявила на прошлой неделе. Представитель сказал TechCrunch, что отчет для Flash «скоро появится».
«Я надеюсь, что это обещание от Google начать публиковать более частые обновления», — сказал Вудсайд TechCrunch. «Эти обновления должны включать результаты оценок для моделей, которые еще не были публично развернуты, поскольку эти модели также могут представлять серьезные риски».
Google, возможно, был одной из первых лабораторий искусственного интеллекта, предложившего стандартизированные отчеты для моделей, но это не единственный, что в последнее время обвиняется в недопустимой прозрачности. Meta выпустила аналогичную скудную оценку безопасности своих новых открытых моделей Llama 4, и Openai решила не публиковать какие-либо отчет для своей серии GPT-4.1.
На главе Google висят гарантии, которые технологический гигант, сделанный регуляторам, для поддержания высокого стандарта тестирования и отчетности по безопасности ИИ. Два года назад Google сообщил правительству США, что опубликует отчеты о безопасности для всех «значительных» публичных моделей искусственного интеллекта «в рамках». Компания следовала этому обещанию с аналогичными обязательствами перед другими странами, пообещав «обеспечить общественную прозрачность» вокруг продуктов искусственного интеллекта.
Кевин Бэнкстон, старший советник по управлению искусственным интеллектом в Центре демократии и технологий, назвал тенденцию спорадической и смутной, сообщает «гонку до дна» по безопасности ИИ.
«В сочетании с сообщениями о том, что конкурирующие лаборатории, такие как Openai, побрили свое время тестирования на безопасность до выхода от месяцев до дней, эта скудная документация для лучшей модели ИИ Google рассказывает о тревожной истории о гонке на дне о безопасности и прозрачности ИИ, поскольку компании спешат свои модели на рынок», — сказал он TechCrunch.
В заявлениях Google заявил, что, хотя и не подробно описано в своих технических отчетах, он проводит тестирование безопасности и «состязательную красную команду» для моделей перед выпуском.