
Генеральный директор Openai Сэм Альтман сказал, что человечество всего в нескольких годах от развития искусственного общего интеллекта, который может автоматизировать большинство человеческих работ. Если это правда, то человечество также заслуживает того, чтобы понять и иметь право голоса в людях и механиках, стоящей за такой невероятной и дестабилизирующей силой.
Это руководящая цель «Файлы Openai», архивный проект из проекта Midas и проекта по технологиям, две некоммерческие технологические организации. Файлы представляют собой «набор документированных проблем с практикой управления, честностью лидерства и организационной культурой в Openai». Помимо повышения осведомленности, цель файлов состоит в том, чтобы предложить путь вперед для OpenAI и других лидеров искусственного интеллекта, который фокусируется на ответственном управлении, этическом лидерстве и общих выгодах.
«Структуры управления и целостность лидерства, направляющие проект, такой важный, как это должно отражать величину и серьезность миссии», — гласит видение веб -сайта к изменениям. «Компании, ведущие гонку к AGI, должны придерживаться и должны придерживаться исключительно высоких стандартов».
До настоящего времени гонка к доминированию в ИИ привели к масштабированию необработанного-мышление роста по цене за его стоимость, которая привела к тому, что такие компании, как Openai, увеличить контент без согласия на учебные целей и создавать массовые центры обработки данных, которые вызывает отключения электроэнергии и увеличивают затраты на электроэнергию для местных потребителей. Стремление к коммерциализации также привело к тому, что компании отправили продукты перед внедрением необходимых гарантий, поскольку давление со стороны инвесторов по поводу получения прибыли.
Это давление инвестора изменило основную структуру Openai. Файлы OpenAI подробно описывают, как в свои ранние некоммерческие дни OpenAI изначально ограничил прибыль инвесторов максимум в 100 раз, так что любые доходы от достижения AGI пойдут в человечество. С тех пор компания объявила о планах убрать этот ограничение, признав, что внесла такие изменения, что умиротворяют инвесторов, которые сделали финансирование условным на структурных реформах.
Файлы подчеркивают такие проблемы, как спешные процессы оценки безопасности Openai и «культура безрассудства», а также потенциальные конфликты интересов членов совета директоров Openai и самого Альтмана. Они включают в себя список стартапов, которые могут быть в собственном инвестиционном портфеле Альтмана, в котором также есть перекрывающиеся предприятия с OpenAI.
Файлы также ставят под сомнение целостность Альтмана, которая была темой спекуляций, поскольку старшие сотрудники пытались свергнуть его в 2023 году из -за «обманчивого и хаотического поведения».
«Я не думаю, что Сэм — парень, который должен иметь пальцем на кнопку для Аги», — сообщила в то время Илья Сатскевер, бывший главный ученый Openai.
Вопросы и решения, поднятые файлами OpenAI, напоминают нам, что огромная сила остается в руках нескольких, с небольшой прозрачностью и ограниченным надзором. Файлы дают представление о этом черном ящике и стремятся перенести разговор с неизбежности на подотчетность.