
Китайская лаборатория AI Deepseek спровоцировала первый урод к Силиконовой долине в 2025 году после выпуска открытых версий моделей искусственного интеллекта, которые конкурируют с лучшими технологиями Openai, Meta и Google.
DeepSeek утверждает, что создал свои модели высокоэффективно и быстро (хотя некоторые скептически относятся к этим утверждениям), и предоставляет эти модели за долю от цены американских компаний AI. Развитие охватило не только технических гигантов, но и самых высоких уровней правительства США, которые опасаются, что Китай выступает вперед в гонке AI Air.
«Я не удивлюсь, если сейчас во многих лабораториях ИИ происходят военные комнаты»,-сказал Роберт Нишихара, соучредитель Infrastructure Startup, в интервью TechCrunch.
Рост DeepSeek отмечает точку перегиба для ландшафта ИИ Силиконовой долины. Генеральные директора, основатели, исследователи и инвесторы ИИ говорят TechCrunch, что модели DeepSeek имеют серьезные последствия для американской политики искусственного интеллекта. Более того, эти эксперты говорят, что модели служат индикатором ускоряющей скорости прогресса ИИ.
«Конечно, (DeepSeek) был переподключен»,-сказал TechCrunch Равид Шварц-Зив, доцент в Центре науки о данных Нью-Йоркского университета. «Но это все еще очень интересно, и мы можем многое извлечь из этого».
Новые способы заставить ИИ мышление
По словам генерального директора Workera и адъюнкт-преподавателя Stanford Katanforoosh, одним из ключевых инноваций в создании модели R1 и «Обучение чистым подкреплению».
Катанрофош сравнил прорыв Deepseek с ребенком, выясняющим, что не касается горячей пластины, случайно сжигая себя.
«(Ребенок) может прикоснуться к горячей тарелке, сгореть и быстро научиться не делать этого снова», — сказал Катанфохош через текст. «Это чистое обучение подкрепления — обучение на основе проб и ошибок на основе обратной связи (…) Метод Deepseek — это все, чтобы позволить модели учиться только через опыт».
DeepSeek, похоже, в большей степени полагался на обучение подкреплению, чем другие передовые модели ИИ. Openai также использовал методы обучения подкрепления для разработки O1, что компания раскрыла за несколько недель до того, как DeepSeek объявил R1. Предстоящая модель O3 O3 достигает еще лучшей производительности, используя в значительной степени сходные методы, но также и дополнительные вычисления, утверждает компания.
По словам Катанфороша, обучение подкрепления представляет собой один из самых перспективных способов улучшения моделей фонда ИИ. Термин «модели фундамента» обычно относится к моделям искусственного интеллекта, обученными огромным объемам данных, такими как изображения и текст из Интернета. Кажется вероятным, что другие лаборатории искусственного интеллекта будут продолжать расширять границы обучения подкрепления для улучшения своих моделей ИИ, особенно с учетом успеха DeepSeek.
Всего несколько месяцев назад компании ИИ оказались изо всех сил пытаться повысить производительность своих моделей фундамента. Но успех таких методов, как обучение подкрепления и другие, такие как контролируемая точная настройка и масштабирование времени испытания, указывает на то, что прогресс в области искусственного интеллекта может быть восстановлен.
«R1 дал мне гораздо большую уверенность в темпе прогресса, оставаясь на высоте», — сказал Натан Ламберт, исследователь AI2, в интервью TechCrunch, в интервью TechCrunch.
Поворотный момент Для политики ИИ
R1, который можно загрузить и запускать на любой машине, которая соответствует требованиям к аппаратному обеспечению, соответствует или ударяет O1 на нескольких тестах ИИ. Несмотря на то, что мы не впервые видели разрыв в производительности, узкий между «закрытыми» моделями, такими как у Openai и открыто доступными моделями, скорость, с которой DeepSeek сделал это, ошеломила отрасль.
Это может подтолкнуть США к увеличению своих инвестиций в открытый или даже полностью открытый исходный код, чтобы конкурировать с Китаем. Мартин Касадо, генеральный партнер Andreessen Horowitz (A16Z), рассказывает TechCrunch, что DeepSeek доказывает, насколько «безразличным» было регулирующее обоснование последних двух лет.
«Для ИИ я думаю, что это просто показывает нам, что (Соединенные Штаты) не одиноки в наших технических возможностях», — сказал Касадо в интервью. «Очень конкурентоспособные решения могут приходить из любого места, но, в частности, в Китае. Вместо того, чтобы препятствовать нам инноваций, мы должны сильно инвестировать в это. Открытый исходный код каким -то образом не позволяет Китай. На самом деле, не обращая внимания на наши компании с открытым исходным кодом означает, что наша технология не распространяется так сильно ».
Казадо, казалось, имел в виду недавно обоснованный исполнительный приказ бывшего президента Байдена Байдена и на вето на вето в Калифорнийском законопроекте SB 1047, оба из которых агрессивно выступили A16Z. A16Z утверждает, что обе меры приоритет приоритетному предотвращению «диковинных» сценариев дающего дня ИИ над американскими инновациями. В более широком смысле, Силиконовая долина, как правило, имела успех, сбив с толку «Движение AI Doom» в 2024 году. Реальная забота о ИИ, A16Z и других неоднократно говорила, что Америка теряет свое конкурентное преимущество в Китае.
Этот сценарий кажется гораздо более осязаемым в свете подъема Deepseek.
Не за что -то, A16Z сильно инвестирует во многие крупнейшие игроки в мире AI, в том числе DataBricks, Mistral и Brandest Labs. Фирма ВК может также сыграть огромную роль, консультирующую администрацию Трампа по ИИ. Бывший партнер A16Z Шрирам Кришнан теперь является старшим политическим советником Трампа по ИИ.
Президент Трамп заявил в понедельник, что DeepSeek должен быть «тревожным звонком» для американских компаний искусственного интеллекта, в то же время восхваляя китайскую лабораторию искусственного интеллекта за его открытый подход. Это довольно тесно связано с позицией A16Z на ИИ.
«Deepseek R1-это момент Sputnik AI»,-сказал соучредитель A16Z Марк Андреессен в посте о X, ссылаясь на запуск космического корабля Советского Союза на землю десятилетия назад, который заставил США серьезно инвестировать в ее космическую программу.
Похоже, что рост DeepSeek также изменил разум открытых скептиков AI, таких как бывший генеральный директор Google Эрик Шмидт. Только в прошлом году Шмидт выразил обеспокоенность по поводу распространения западных моделей ИИ по всему миру. Но во вторник, опубликованный в режиме акции, Шмидт сказал, что рост Deepseek знаменует собой «поворотный момент» в глобальной гонке ИИ и призвал к дальнейшим инвестициям в American Open AI.
Глядя в будущее
Важно не преувеличить достижения Deepseek.
Например, некоторые аналитики скептически относятся к утверждению Deepseek о том, что он обучил одну из своих пограничных моделей, Deepseek V3 всего за 5,6 миллиона долларов — грохочу в отрасли искусственного интеллекта — с использованием примерно 2000 более старых графических процессоров Nvidia. В конце концов, китайская лаборатория ИИ не выросла в одночасье, и, как сообщается, Diepseek, как сообщается, имеет запас более чем на 50 000 более способных графических процессоров Nvidia Hopper.
Модели DeepSeek также ошибочны. Согласно тесту организации, наделенной информацией NewsGuard, R1 предоставляет неточные ответы или без ответов в 83% случаев, когда его спрашивают о темах, связанных с новостями. Отдельный тест обнаружил, что R1 отказывается отвечать на 85% подсказок, связанных с Китаем, возможно, следствие государственной цензуры, на которую подпадают модели искусственного интеллекта в стране.
Затем есть претензии о краже IP. OpenAI говорит, что у него есть доказательства того, что DeepSeek использовал свои модели ИИ для обучения, используя процесс, называемый дистилляцией. Если это правда, это будет нарушением условий Openai, а также сделает достижения Deepseek менее впечатляющими. Например, исследователи Беркли недавно создали дистиллированную модель рассуждений всего за 450 долларов. (Конечно, в настоящее время OpenAI предъявляет иск со стороны ряда сторон за якобы совершение нарушения авторских прав на обучение своих собственных моделей.)
Тем не менее, DeepSeek переместил иглу более эффективными моделями — и она инновационно вводила в новшества. Ламберт отметил, что, в отличие от O1, R1 раскрывает свой «процесс мышления» пользователям. Ламберт заметил, что некоторые пользователи доверяют или считают, что рассуждающий ИИ больше модели, когда они видят свой внутренний процесс, в течение которого они «объясняют свою работу».
Теперь нам придется посмотреть, как отвечают политики Америки и лаборатории искусственного интеллекта.