![](https://runews.sbs/wp-content/uploads/2025/01/GettyImages-1883327378-e1730136121848.jpg)
Близкий партнер и сотрудник Microsoft, Openai, может предположить, что Deepseek украл свой IP и нарушил его условия обслуживания. Но Microsoft по -прежнему хочет блестящие новые модели Deepseek на своей облачной платформе.
Microsoft сегодня объявила, что R1, так называемая модель Deepseek, доступна на Foundry Service Azure Foundry, платформе Microsoft, которая объединяет ряд услуг искусственного интеллекта для предприятий под одним баннером. В сообщении в блоге Microsoft заявила, что версия R1 на Lazure Ai Foundry «претерпела строгие красные оценки команды и безопасности», в том числе «автоматизированные оценки поведения модели и обширные обзоры безопасности для снижения потенциальных рисков».
В ближайшем будущем, по словам Microsoft, клиенты смогут использовать «дистиллированные» ароматы R1 для локального запуска на Copilot+ PCS, марке Microsoft Windows Wharware, которая отвечает определенным требованиям к готовности искусственного интеллекта.
«Поскольку мы продолжаем расширять модельный каталог в Azure AI Foundry, мы рады видеть, как разработчики и предприятия используют (…) R1 для решения реальных проблем и обеспечить преобразующий опыт»,-продолжила Microsoft в сообщении.
Добавление R1 к облачным сервисам Microsoft является любопытным, учитывая, что Microsoft, как сообщается, инициировала зонд в потенциальное злоупотребление Deepseek в отношении своих услуг и Openai. По словам исследователей безопасности, работающих в Microsoft, DeepSeek, возможно, уделял большую часть данных, используя API Openai осенью 2024 года. Microsoft, которая также является крупнейшим акционером OpenAI, уведомил Openai о подозрительной деятельности, согласно Bloomberg.
Но R1 — это разговоры о городе, и Microsoft, возможно, была убеждена внести его в свою облачную складку, в то время как она все еще поддерживает очарование.
Неясно, внесла ли Microsoft какие -либо изменения в модель для повышения его точности — и борьбы с цензурой. Согласно тесту организации, наделенной информацией NewsGuard, R1 предоставляет неточные ответы или без ответов в 83% случаев, когда его спрашивают о темах, связанных с новостями. Отдельный тест обнаружил, что R1 отказывается отвечать на 85% подсказок, связанных с Китаем, возможно, следствие государственной цензуры, на которую подпадают модели искусственного интеллекта в стране.