DeepSeek, возможно, использовал Google Gemini для обучения своей последней модели

На прошлой неделе китайская лаборатория Deepseek выпустила обновленную версию своей модели AI R1, которая хорошо работает по ряду контрольных показателей по математике и кодирования. Компания не раскрыла источник данных, которые он использовал для обучения модели, но некоторые исследователи ИИ предполагают, что, по крайней мере, часть поступила из ИИ в Google Gemini.

Сэм Пайч, разработчик, основанный на Мельбурне, который создает оценки «эмоционального интеллекта» для ИИ, опубликовал то, что, как он утверждает, является доказательством того, что последняя модель Deepseek была обучена результатам Gemini. Модель Deepseek, называемая R1-0528, предпочитает слова и выражения, похожие на эти Google Gemini 2.5 Pro Favors, сказал Paeach в посте X.

Это не курительный пистолет. Но другой разработчик, псевдонимный создатель «Eval Free Speed ​​Eval» для ИИ, называемой речевой картой, отметил следы Deepseek Model — «мысли», которые модель генерирует, когда она работает к выводу — «Читать как следы Близнецов».

DeepSeek был обвинен в обучении данных конкурирующих моделей ИИ. В декабре разработчики заметили, что модель V3 Deepseek часто идентифицировалась как Chatgpt, платформу чат-ботов с AI на основе AO OpenAI, что предполагает, что она может быть обучена в журналах чата CHATGPT.

Ранее в этом году Openai сообщила Financial Times, что нашел доказательства, связывающие DeepSeek с использованием дистилляции, методику для обучения моделей искусственного интеллекта путем извлечения данных из более крупных, более способных. По словам Bloomberg, Microsoft, близкого сотрудника и инвестора Openai, обнаружила, что в конце 2024 года большие объемы данных эксфильтрируются с помощью DeepSeek.

Дистилляция не является необычной практикой, но условия обслуживания OpenAI запрещают клиентам использовать результаты модели компании для создания конкурирующего ИИ.

Чтобы быть ясным, многие модели неправильно идентифицируют себя и сходятся на одних и тех же словах и поворотах фраз. Это потому, что открытая сеть, в которой компании ИИ поставляют большую часть своих учебных данных, становятся заваленными с помощью ИИ. Контент -фермы используют ИИ для создания ClickBait, а боты затопляют Reddit и X.

Это «загрязнение», если хотите, затрудняло тщательное фильтрование результатов ИИ из обучающих наборов данных.

Тем не менее, эксперты по искусственному искусству, такие как Натан Ламберт, исследователь некоммерческого исследовательского института ИИ AI2, не думают, что не может быть и речи, что DeepSeek обучил данные Google Gemini.

«Если бы я был DeepSeek, я бы определенно создал тонну синтетических данных из лучшей модели API», — написал Ламберт в посте на X. «(DeepSeek Is) недостаток в графических процессорах и промывки с наличными. Это буквально эффективно для них».

Отчасти в попытке предотвратить дистилляцию, компании ИИ увеличивают меры безопасности.

В апреле OpenAI начал требовать, чтобы организации завершили процесс проверки идентификации, чтобы получить доступ к определенным продвинутым моделям. Процесс требует выпущенного правительством удостоверения личности из одной из стран, поддерживаемых API OpenAI; Китай не в списке.

В другом месте Google недавно начал «суммировать» следы, генерируемые моделями, доступными через его платформу разработчиков AI Studio, что делает его более сложным для обучения исполнительских конкурентных моделей на следах Близнецов. В мае антроп сказал, что начнет суммировать следы своей собственной модели, сославшись на необходимость защитить свои «конкурентные преимущества».

Мы обратились к Google для комментариев и обновим эту часть, если мы услышим ответ.

Previous post Имане Хелиф: World Boxing приносит извинения за название алжирского истребителя в объявлении о сексуальных тестах
Next post Интер Милан: Симона Инзаги уходит в качестве менеджера