Openai Ships GPT-4.1 без отчета о безопасности

В понедельник Openai запустила новую семью моделей искусственного интеллекта, GPT-4.1, которая, по словам компании, превзошла некоторые из существующих моделей по определенным тестам, особенно критериям для программирования. Тем не менее, GPT-4.1 не отправил отчет о безопасности, который обычно сопровождает выпуски модели OpenAI, известные как модель или системная карта.

По состоянию на утро вторника Openai еще не опубликовал отчет о безопасности для GPT-4.1-и, похоже, он не планирует. В заявлении для TechCrunch представитель Openai Shaokyi Amdo сказал, что «GPT-4.1 не является пограничной моделью, поэтому для нее не будет выпущена отдельная система».

Для AI Labs довольно стандартно выпустить отчеты о безопасности, показывающие типы тестов, которые они провели внутренне, и со сторонними партнерами для оценки безопасности конкретных моделей. Эти отчеты иногда показывают нелестную информацию, например, модель имеет тенденцию обмануть людей или опасно убедительна. В целом, сообщество ИИ воспринимает эти отчеты как добросовестные усилия AI Labs для поддержки независимых исследований и красного команды.

Но за последние несколько месяцев ведущие лаборатории ИИ, по -видимому, снизили свои стандарты отчетности, что вызвало негативную реакцию исследователей безопасности. Некоторые, такие как Google, тащили ноги в отчетах о безопасности, в то время как другие опубликовали отчеты, не имеющие обычных деталей.

Недавний послужной список Openai также не является исключительным. В декабре компания вызвала критику за выпуск отчета о безопасности, содержащий эталонные результаты для модели, отличной от версии, которую она внедрила в производство. В прошлом месяце Openai запустила модель Deep Research, за несколько недель до публикации системной карты для этой модели.

Стивен Адлер, бывший исследователь безопасности Openai, отметил TechCrunch, что отчеты о безопасности не предписываются каким -либо законом или регулированием — они добровольные. Тем не менее, OpenAI взял на себя несколько обязательств перед правительствами повысить прозрачность вокруг своих моделей. В преддверии саммита по безопасности ИИ в Великобритании в 2023 году Openai в блоге под названием «Системные карты» «ключевая часть» своего подхода к подотчетности. И в преддверии вершины ACT Paris Ai Act в 2025 году Openai сказал, что системные карты дают ценную информацию о рисках модели.

«Системные карты являются основным инструментом индустрии искусственного интеллекта для прозрачности и для описания того, что было проведено», — сказал Адлер TechCrunch в электронном письме. «Сегодняшние нормы и обязательства прозрачности в конечном итоге являются добровольными, поэтому каждая компания искусственного интеллекта должен решать, выпускать или когда выпустить системную карту для данной модели».

GPT-4.1 отправляется без системной карты в то время, когда нынешние и бывшие сотрудники вызывают опасения по поводу практики безопасности Openai. На прошлой неделе Адлер и 11 других бывших сотрудников Openai подали предложенное краткое изложение Amicus по делу Элона Маска против Openai, утверждая, что коммерческий Openai может сократить уголки на работе по безопасности. Недавно Financial Times сообщила, что производитель CHATGPT, подстегнутый конкурентным давлением, сократил количество времени и ресурсов, которые он выделяет на тестеры безопасности.

В то время как наиболее способная модель в семействе GPT-4.1, GPT-4.1, не является самой высокой успеваемостью в списке Openai, она делает существенные достижения в отделениях эффективности и задержки. Томас Вудсайд, соучредитель и политический аналитик в Secure AI Project, сказал TechCrunch, что улучшения производительности делают отчет о безопасности еще более критичным. Чем более сложная модель, тем выше риск, которую она может поставить, сказал он.

Многие лаборатории искусственного интеллекта сбили усилия по кодификации требований к отчетности о безопасности в законе. Например, OpenAI выступил против California SB 1047, что потребовало бы, чтобы многие разработчики искусственного интеллекта для аудита и публикации оценок безопасности на моделях, которые они открывают.

Previous post Активист Эллиотт берет 1,5 млрд долларов в Hewlett Packard Enterprise
Next post Главный торговый переговорщик Японии для посещения Вашингтона на тарифные переговоры на этой неделе