
Чтобы завершить день выпусков продукта, исследователи, инженеры и руководители Openai, в том числе генеральный директор Openai Сэм Альтман, ответили на вопросы в широком классе Reddit AMA в пятницу.
Openai Компания оказывается в какой -то опасной позиции. Это борется с тем, что он ведет себя в гонке искусственного интеллекта для китайских компаний, таких как DeepSeek, который, как утверждает Openai, мог бы украсить его IP. Создатель CATGPT пытается поднять свои отношения с Вашингтоном и одновременно осуществить амбициозный проект центра обработки данных, в то же время, как сообщается, закладывает основы для одного из крупнейших раундов финансирования в истории.
Альтман признал, что Deepseek уменьшил лидерство Openai в ИИ, и он также сказал, что, по его мнению, Openai был «не на той стороне истории», когда дело доходит до открытых источников его технологий. В то время как OpenAI в прошлом имел модели с открытым исходным кодом, компания, как правило, предпочитала запатентованный подход к развитию с закрытым исходным кодом.
«(Я лично думаю, что нам нужно) выяснить другую стратегию с открытым исходным кодом», — сказал Альтман. «Не все в Openai разделяют эту точку зрения, и это также не является нашей нынешней высочайшей приоритетом (…) Мы будем производить лучшие модели (в будущем), но мы будем поддерживать меньше лидерства, чем в предыдущие годы».
В последующем ответе Кевин Вейл, директор по продукту Openai, сказал, что OpenAI рассматривает возможность старых моделей с открытым исходным кодом, которые больше не являются современными. «Мы обязательно подумаем о том, чтобы сделать больше этого», — сказал он, не вдаваясь в более подробные детали.
Помимо побуждения Openai пересмотреть свою философию выпуска, Альтман сказал, что DeepSeek подтолкнул компанию, чтобы потенциально раскрыть больше о том, как ее так называемые модели рассуждений, такие как модель O3-Mini, выпущенная сегодня, показывают свой «мыслительный процесс». В настоящее время модели OpenAI скрывают их рассуждения, стратегию, предназначенную для предотвращения сохранения данных обучения для своих собственных моделей. Напротив, модель рассуждения Deepseek, R1, показывает свою полную цепь мысли.
«Мы работаем над тем, чтобы показать кучу больше, чем мы показываем сегодня — (показывая модельный процесс мысли) будет очень скоро», — добавил Вейл. «TBD на всех — показывая всю цепочку мышления, приводит к конкурентной дистилляции, но мы также знаем, что люди (по крайней мере, власти) хотят этого, поэтому мы найдем правильный способ сбалансировать ее».
Альтман и Вейль попытались развеять слухи о том, что Chatgpt, приложение Chatbot, через которое Openai запускает многие свои модели, увеличит цену. Альтман сказал, что он хотел бы сделать CHATGPT «дешевле» с течением времени, если это возможно.
Альтман ранее говорил, что Openai теряет деньги на своем дорожном плане CHATGPT, Catgpt Pro, который стоит 200 долларов в месяц.
В несколько связанной ветке Вейл сказал, что Openai продолжает видеть доказательства того, что более вычислительная мощность приводит к «лучшим» и более эффективным моделям. По словам Вейла, это в значительной степени, что требует таких проектов, как Stargate, недавно объявленный массовый проект центра обработки данных Openai. Обслуживание растущей пользовательской базы также подпитывает вычисление спроса в Openai, он продолжил.
Отвечая на вопрос о рекурсивном самосовершенствовании, который может быть обеспечен этими мощными моделями, Альтман сказал, что, по его мнению, «быстрый взлет» более правдоподобен, чем он когда-то верил. Рекурсивное самосовершенствование-это процесс, в котором система ИИ может улучшить свой собственный интеллект и возможности без ввода человека.
Конечно, стоит отметить, что Альтман печально известен тем, что чрезмерно. Не так давно он опустил бар Openai для Agi.
Один пользователь Reddit спросил, будут ли модели Openai, самосовершенствовающие или нет, будут использоваться для разработки разрушительного оружия-особенно ядерного оружия. На этой неделе Openai объявила о партнерстве с правительством США, чтобы отчасти предоставить свои модели национальным лабораториям США для исследований ядерной обороны.
Вейл сказал, что доверял правительству США.
«Я познакомился с этими учеными, и они являются экспертами по искусственному интеллекту в дополнение к исследователям мирового класса», — сказал он. «Они понимают мощность и пределы моделей, и я не думаю, что есть шанс, что они просто ввязываются модели в ядерном расчете. Они умные и основанные на фактических данных, и они проводят много экспериментов и данных, чтобы проверить всю свою работу ».
Команду Openai было задано несколько вопросов о более техническом характере, например, когда будет выпущена следующая модель рассуждений Openai, O3 («Более нескольких недель, меньше, чем несколько месяцев», — сказал Альтман), когда следующий флагман компании « Непомощная модель, GPT-5, может приземлиться («Установка пока нет»,-сказал Альтман), и когда Openai может представить преемника Dall-E, модели, создающей изображение. 3, который был выпущен около двух лет назад, стал довольно старым в зубе. Технология генерации изображений улучшилась на скачках с момента дебюта Dall-E 3, и модель больше не является конкурентоспособной по ряду тестов.
«Да! Мы работаем над этим »,-сказал Вейл о последующем наблюдении Dall-E 3. «И я думаю, что это будет стоить ожидания».