OpenAI представляет предпочтительную версию регулирования ИИ в новом «проекте»

OpenAI в понедельник опубликовала то, что она называет «экономическим планом» для ИИ: живой документ, в котором изложена политика, которую, по мнению компании, она может развивать совместно с правительством США и его союзниками.

В проекте, включающем в себя предложение Криса Лехана, вице-президента OpenAI по глобальным вопросам, утверждается, что США должны действовать, чтобы привлечь миллиарды средств на чипы, данные, энергию и таланты, необходимые для «победы над ИИ».

«Сегодня, в то время как некоторые страны отодвигают на второй план ИИ и его экономический потенциал, — написал Лехейн, — правительство США может проложить путь для своей индустрии ИИ, чтобы продолжить глобальное лидерство страны в инновациях, одновременно защищая национальную безопасность».

OpenAI неоднократно призывала правительство США принять более существенные меры в отношении ИИ и инфраструктуры для поддержки развития технологии. Федеральное правительство в значительной степени оставило регулирование ИИ на уровне штатов, и OpenAI описывает в проекте ситуацию как несостоятельную.

Только в 2024 году законодатели штатов внесли почти 700 законопроектов, связанных с ИИ, некоторые из которых противоречат другим. Например, Закон об ответственном управлении ИИ в Техасе налагает обременительные требования к ответственности для разработчиков моделей ИИ с открытым исходным кодом.

Генеральный директор OpenAI Сэм Альтман также раскритиковал существующие федеральные законы, такие как Закон о CHIPS, который направлен на оживление полупроводниковой промышленности США за счет привлечения внутренних инвестиций от ведущих мировых производителей микросхем. В недавнем интервью Bloomberg Альтман сказал, что закон о CHIPS «(не) оказался настолько эффективным, как кто-либо из нас надеялся», и что, по его мнению, у администрации Трампа есть «реальная возможность» «сделать что-то гораздо лучшее, чем продолжение».

«В чем я действительно глубоко согласен с (Трампом), так это в том, что невероятно сложно стало строить что-то в Соединенных Штатах», — сказал Альтман в интервью. «Электростанции, центры обработки данных и все такое. Я понимаю, как накапливается бюрократический хлам, но стране в целом это не идет на пользу. Это особенно бесполезно, когда вы думаете о том, что должно произойти, чтобы США возглавили ИИ. И США действительно необходимо возглавить ИИ».

Для обеспечения центров обработки данных, необходимых для разработки и эксплуатации искусственного интеллекта, план OpenAI рекомендует «резко» увеличить федеральные расходы на электроэнергию и передачу данных, а также значимо наращивать «новые источники энергии», такие как солнечная энергия, ветряные электростанции и атомная энергия. OpenAI — вместе со своими конкурентами в области ИИ — ранее оказывала поддержку проектам ядерной энергетики, утверждая, что они необходимы для удовлетворения потребностей в электроэнергии серверных ферм следующего поколения.

Технологические гиганты Meta и AWS столкнулись с препятствиями в своих ядерных проектах, хотя и по причинам, не имеющим ничего общего с самой ядерной энергетикой.

В ближайшем будущем план OpenAI предлагает правительству «разработать лучшие практики» по развертыванию моделей для защиты от неправомерного использования, «упорядочить» взаимодействие индустрии ИИ с агентствами национальной безопасности и разработать экспортный контроль, который позволит обмениваться моделями с союзниками, в то же время « ограничить (ограничить)» их экспорт в «страны-противники». Кроме того, план призывает правительство делиться с поставщиками определенной информацией, связанной с национальной безопасностью, например, брифингами об угрозах для отрасли искусственного интеллекта, и помогать поставщикам обеспечивать ресурсы для оценки своих моделей на предмет рисков.

«Подход федерального правительства к безопасности и защищенности пограничной модели должен упростить требования», — говорится в проекте. «Ответственный экспорт… моделей нашим союзникам и партнерам поможет им укрепить свои собственные экосистемы ИИ, включая собственные сообщества разработчиков, внедряющие инновации с использованием ИИ и распределяющие его преимущества, а также создавая ИИ на основе технологий США, а не технологий, финансируемых Коммунистической партией Китая. »

OpenAI уже считает несколько правительственных ведомств США своими партнерами, и — если ее план получит признание среди политиков — он может добавить еще. Компания заключила соглашения с Пентагоном о работе в области кибербезопасности и других связанных с ней проектах, а также объединилась с оборонным стартапом Anduril для поставки своих технологий искусственного интеллекта в системы, которые военные США используют для противодействия атакам дронов.

В своем проекте OpenAI призывает к разработке стандартов, «признанных и уважаемых» другими странами и международными организациями от имени частного сектора США. Но компания воздерживается от принятия обязательных правил и указов. «(Правительство может создать) определенный добровольный путь для компаний, которые разрабатывают (ИИ), для работы с правительством над определением оценок моделей, тестированием моделей и обменом информацией для поддержки мер безопасности компаний», — говорится в проекте.

Администрация Байдена пошла по аналогичному пути в своем Указе по ИИ, который стремился ввести в действие несколько добровольных стандартов безопасности и защиты ИИ высокого уровня. В соответствии с указом был учрежден Институт безопасности искусственного интеллекта США (AISI), орган федерального правительства, изучающий риски в системах искусственного интеллекта, который сотрудничает с такими компаниями, как OpenAI, для оценки безопасности моделей. Но Трамп и его союзники пообещали отменить указ Байдена, поставив его кодификацию – и AISI – под угрозу отмены.

В проекте OpenAI также рассматривается авторское право, касающееся ИИ, — актуальная тема. Компания утверждает, что разработчики ИИ должны иметь возможность использовать «общедоступную информацию», включая контент, защищенный авторским правом, для разработки моделей.

OpenAI, как и многие другие компании, занимающиеся искусственным интеллектом, обучает модели на общедоступных данных из Интернета. Компания имеет лицензионные соглашения с рядом платформ и издателей и предлагает создателям ограниченные возможности «отказаться» от разработки своей модели. Но OpenAI также заявила, что было бы «невозможно» обучать модели ИИ без использования материалов, защищенных авторским правом, и ряд создателей подали в суд на компанию за то, что она якобы обучала их работам без разрешения.

«(Другие) участники, в том числе разработчики из других стран, не прилагают никаких усилий, чтобы уважать владельцев прав интеллектуальной собственности или взаимодействовать с ними», — говорится в проекте. «Если США и страны-единомышленники не устранят этот дисбаланс с помощью разумных мер, которые помогут развитию ИИ в долгосрочной перспективе, тот же контент по-прежнему будет использоваться для обучения ИИ в других местах, но на благо других экономик. (Правительство должно обеспечить), чтобы ИИ имел возможность учиться на универсальной, общедоступной информации, как это делают люди, а также защищать создателей от несанкционированных цифровых копий».

Еще неизвестно, какие части плана OpenAI, если таковые имеются, влияют на законодательство. Но эти предложения являются сигналом того, что OpenAI намерена оставаться ключевым игроком в гонке за единую политику США в области искусственного интеллекта.

В первой половине прошлого года OpenAI более чем утроила свои расходы на лоббирование, потратив $800 000 против $260 000 за весь 2023 год. Компания также привлекла в свои руководящие ряды бывших правительственных лидеров, в том числе бывшего чиновника Министерства обороны Сашу Бейкера и главу АНБ Пола. Накасоне и Аарон Чаттерджи, бывший главный экономист Министерства торговли при президенте Джо Байдене.

Нанимая на работу и расширяя свое подразделение по глобальным вопросам, OpenAI все активнее заявляла о том, какие законы и правила в области ИИ она предпочитает, например, поддерживая законопроекты Сената, которые учредят федеральный нормотворческий орган для ИИ и предоставят федеральные стипендии для ИИ. НИОКР. Компания также выступила против законопроектов, в частности калифорнийского законопроекта SB 1047, утверждая, что он будет подавлять инновации в области искусственного интеллекта и вытеснять таланты.

Previous post Мое место или твое? Зеленский и Фицо не могут договориться о месте урегулирования ужасной газовой вражды – POLITICO
Next post Кэрри Андервуд выступит на инаугурации Трампа