Согласно новому отчету The Wall Street Journal, усилия OpenAI по разработке следующей крупной модели, GPT-5, отстают от графика, а результаты пока не оправдывают огромных затрат.
Это перекликается с более ранним отчетом в The Information, в котором говорилось, что OpenAI ищет новые стратегии, поскольку GPT-5 может не представлять собой такой большой шаг вперед, как предыдущие модели. Но история WSJ включает дополнительные подробности о 18-месячной разработке GPT-5 под кодовым названием Orion.
Сообщается, что OpenAI завершила как минимум два крупных цикла обучения, целью которых является улучшение модели путем ее обучения на огромных объемах данных. Первоначальный тренировочный забег прошел медленнее, чем ожидалось, что намекает на то, что более масштабный забег потребует много времени и средств. И хотя GPT-5, как сообщается, может работать лучше, чем его предшественники, он еще не настолько продвинулся, чтобы оправдать затраты на поддержание работы модели.
WSJ также сообщает, что вместо того, чтобы просто полагаться на общедоступные данные и лицензионные соглашения, OpenAI также наняла людей для создания свежих данных путем написания кода или решения математических задач. Он также использует синтетические данные, созданные другой его моделью — o1.
OpenAI не сразу ответила на запрос о комментариях. Ранее компания заявляла, что не будет выпускать модель под кодовым названием Orion в этом году.