Openai может «корректировать» свои гарантии, если конкуренты выпустили «AI с высоким риском»

В обновлении своей рамки готовности, внутренняя структура Openai использует для решения, безопасными ли модели искусственного интеллекта и какие гарантии, если таковые имеются, необходимы во время разработки и выпуска, OpenAI сказал, что он может «корректировать» свои требования, если конкурирующая лаборатория AI выпускает «систему высокого риска» без сопоставимых гарантий.

Изменения отражают растущее конкурентное давление на коммерческих разработчиков ИИ для быстрого развертывания моделей. OpenAI был обвинен в снижении стандартов безопасности в пользу более быстрых выпусков и в неспособности предоставить своевременные отчеты, подробно описывающие его тестирование на безопасность.

Возможно, ожидая критики, Openai утверждает, что она не сделает эти политические корректировки легкомысленно, и что она сохранит свои гарантии на «уровне более защищает».

«Если другой разработчик ИИ Frontier выпускает систему высокого риска без сопоставимых гарантий, мы можем скорректировать наши требования»,-написал Openai в посте в блоге, опубликованном во вторник днем. «Однако мы сначала тщательно подтвердили бы, что ландшафт рисков фактически изменился, публично признав, что мы вносим корректировку, оценили, что корректировка не значительно увеличивает общий риск серьезного вреда и при этом сохраняет гарантии на более защитном уровне».

Обновленная структура готовности также ясно дает понять, что OpenAI в большей степени полагается на автоматические оценки, чтобы ускорить разработку продукта. Компания говорит, что, хотя она вообще не отказалась от испытаний на человека, она создала «растущий набор автоматических оценок», который, предположительно, может «не отставать от (а) более быстрой (выпуск) каденции».

Некоторые отчеты противоречат этому. Согласно Financial Times, OpenAI дал тестеров менее недели для проверки безопасности для предстоящей основной модели — сжатой временной шкалы по сравнению с предыдущими выпусками. Источники публикации также утверждают, что многие из тестов безопасности Openai в настоящее время проводятся на более ранних версиях моделей, чем версии, выпущенные для общественности.

В заявлениях OpenAI оспаривает представление о том, что он идет на компромисс в безопасности.

Другие изменения в рамках Openai касаются того, как компания классифицирует модели в соответствии с риском, включая модели, которые могут скрыть их возможности, уклоняться от гарантий, предотвратить их отключение и даже самостоятельное обращение. OpenAI говорит, что теперь он будет сосредоточен на том, соответствуют ли модели один из двух порогов: «высокие» возможности или «критические» возможности.

Определение первого OpenAI — это модель, которая может «усилить существующие пути до тяжелого вреда». Последние — это модели, которые «вводят беспрецедентные новые пути к серьезным вредам», согласно компании.

«Покрытые системы, которые достигают высоких возможностей, должны иметь гарантии, которые достаточно минимизируют связанный с этим риск тяжелого вреда до их развертывания», — написал Openai в своем блоге. «Системы, которые получают критические возможности, также требуют гарантий, которые достаточно минимизируют связанные риски во время разработки».

Изменения — это первый Openai, внесенный в рамку готовности с 2023 года.

Previous post Индийский блюсмарт вырос в расследовании Генсола, утверждая, что злоупотребление ссудами EV EV
Next post Трамп не может отменить юридический статус мигрантов из Кубы, Гаити, Никарагуа и Венесуэлы, судья Правила