
OpenAI может скоро потребовать, чтобы организации завершили процесс проверки идентификации, чтобы получить доступ к определенным будущим моделям искусственного интеллекта, согласно странице поддержки, опубликованной на веб -сайте компании на прошлой неделе.
Процесс проверки, называемый проверенной организацией, является «новым способом для разработчиков разблокировать доступ к самым продвинутым моделям и возможностям на платформе Openai», — говорится на странице. Проверка требует выдающегося правительства удостоверения личности одной из стран, поддерживаемых API Openai. По словам Openai, удостоверение личности может проверять только одну организацию каждые 90 дней, и не все организации будут иметь право на проверку.
«На Openai мы серьезно относимся к нашей ответственности за то, чтобы ИИ был широко доступен и безопасно использован», — говорится на странице. «К сожалению, небольшое меньшинство разработчиков намеренно использует API Openai в нарушение нашей политики использования. Мы добавляем процесс проверки для смягчения небезопасного использования ИИ, продолжая предоставлять расширенные модели для более широкого сообщества разработчиков».
Openai выпустил новый проверенный статус организации в качестве нового способа для разработчиков, чтобы разблокировать доступ к самым продвинутым моделям и возможностям на платформе, и быть готовым к «следующему захватывающему выпуску модели»
— Проверка занимает несколько минут и требует действительного … pic.twitter.com/zwzs1oj8ve
— Тибор Блахо (@btibor91) 12 апреля 2025 года
Новый процесс проверки может быть предназначен для усиления безопасности вокруг продуктов Openai, поскольку они становятся более сложными и способными. Компания опубликовала несколько отчетов о своих усилиях по выявлению и смягчению злонамеренного использования своих моделей, в том числе групп, предположительно базирующиеся в Северной Корее.
Это также может быть направлено на предотвращение кражи IP. Согласно отчету Bloomberg в начале этого года, OpenAI исследовал, связана ли группа с DeepSeek, китайской лабораторией ИИ, эксфильтрированной большие объемы данных через свой API в конце 2024 года, возможно, для моделей обучения-нарушение условий OpenAI.
Openai заблокировал доступ к своим услугам в Китае прошлым летом.