Кремниевая долина подавила движение за гибель искусственного интеллекта в 2024 году

Вот уже несколько лет технологи бьют тревогу по поводу того, что передовые системы искусственного интеллекта могут нанести катастрофический ущерб человечеству.

Но в 2024 году эти предупредительные призывы были заглушены практичным и процветающим видением генеративного искусственного интеллекта, продвигаемым технологической индустрией – видением, которое также принесло пользу их кошелькам.

Тех, кто предупреждает о катастрофическом риске ИИ, часто называют «обреченными на ИИ», хотя это имя им не нравится. Они обеспокоены тем, что системы искусственного интеллекта будут принимать решения об убийстве людей, использоваться власть имущими для угнетения масс или тем или иным образом способствовать падению общества.

В 2023 году казалось, что мы находимся в начале эпохи возрождения регулирования технологий. Гибель ИИ и безопасность ИИ — более широкая тема, которая может охватывать галлюцинации, недостаточную модерацию контента и другие способы, которыми ИИ может нанести вред обществу — превратилась из нишевой темы, обсуждаемой в кафе Сан-Франциско, в разговор, появляющийся на MSNBC, CNN и на первых полосах. из «Нью-Йорк Таймс».

Подводя итог предупреждениям, сделанным в 2023 году: Илон Маск и более 1000 технологов и ученых призвали приостановить разработку ИИ, попросив мир подготовиться к серьезным рискам, связанным с этой технологией. Вскоре после этого ведущие ученые из OpenAI, Google и других лабораторий подписали открытое письмо, в котором говорилось, что риску ИИ, вызывающего вымирание человечества, следует уделять больше внимания. Несколько месяцев спустя президент Байден подписал указ об искусственном интеллекте, общей целью которого является защита американцев от систем искусственного интеллекта. В ноябре 2023 года совет некоммерческой организации OpenAI, ведущего мирового разработчика искусственного интеллекта, уволил Сэма Альтмана, заявив, что ее генеральный директор имеет репутацию лжеца и ему нельзя доверять такую ​​важную технологию, как общий искусственный интеллект, или AGI — когда-то воображаемая конечная точка ИИ, то есть систем, которые на самом деле демонстрируют самосознание. (Хотя сейчас это определение меняется, чтобы удовлетворить потребности бизнеса тех, кто об этом говорит.)

На мгновение показалось, что мечты предпринимателей Кремниевой долины отодвинуты на второй план по сравнению с общим здоровьем общества.

Но для этих предпринимателей повествование о гибели ИИ волновало больше, чем сами модели ИИ.

В ответ соучредитель a16z Марк Андриссен в июне 2023 года опубликовал статью «Почему ИИ спасет мир» — эссе объемом 7000 слов, в котором разбираются планы сторонников искусственного интеллекта и представлено более оптимистичное видение того, как технология будет развиваться.

Марк Андриссен выступает на сцене во время TechCrunch Disrupt.
САН-ФРАНЦИСКО, Калифорния – 13 СЕНТЯБРЯ: Предприниматель Марк Андриссен выступает на сцене во время TechCrunch Disrupt SF 2016 на пирсе 48 13 сентября 2016 года в Сан-Франциско, Калифорния. (Фото Стива Дженнингса/Getty Images для TechCrunch)Кредиты изображений:Стив Дженнингс / Getty Images

«Наступила эра искусственного интеллекта, и люди сходят с ума. К счастью, я здесь, чтобы сообщить хорошие новости: ИИ не разрушит мир и даже может спасти его», — сказал Андриссен в эссе.

В своем заключении Андриссен предложил удобное решение наших страхов в области ИИ: действовать быстро и ломать вещи – по сути, та же самая идеология, которая определила любую другую технологию 21-го века (и сопутствующие ей проблемы). Он утверждал, что крупным технологическим компаниям и стартапам должно быть разрешено создавать ИИ как можно быстрее и агрессивнее, практически без каких-либо нормативных барьеров. По его словам, это гарантирует, что ИИ не попадет в руки нескольких влиятельных компаний или правительств, а также позволит Америке эффективно конкурировать с Китаем.

Конечно, это также позволило бы многим AI-стартапам a16z зарабатывать намного больше денег — и некоторые сочли его технооптимизм неуклюжим в эпоху крайнего неравенства доходов, пандемий и жилищных кризисов.

Хотя Андриссен не всегда согласен с мнением крупных технологических компаний, зарабатывание денег — это одна из областей, с которой может согласиться вся отрасль. В этом году соучредители a16z написали письмо генеральному директору Microsoft Сатье Наделле, в котором, по сути, просили правительство вообще не регулировать индустрию искусственного интеллекта.

Тем временем, несмотря на отчаянное размахивание руками в 2023 году, Маск и другие технологи не остановились и не остановились, чтобы сосредоточиться на безопасности в 2024 году – как раз наоборот: инвестиции в ИИ в 2024 году превзошли все, что мы видели раньше. Альтман быстро вернулся к рулю OpenAI, а в 2024 году группу покинула масса исследователей в области безопасности, одновременно забивая тревогу по поводу снижения культуры безопасности.

Указ Байдена об искусственном интеллекте, ориентированный на безопасность, в этом году в значительной степени потерял популярность в Вашингтоне, округ Колумбия: новый избранный президент Дональд Трамп объявил о планах отменить указ Байдена, утверждая, что он препятствует инновациям в области искусственного интеллекта. Андриссен говорит, что в последние месяцы он консультировал Трампа по вопросам искусственного интеллекта и технологий, а Шрирам Кришнан, давний венчурный капиталист в a16z, теперь является официальным старшим советником Трампа по искусственному интеллекту.

По словам Дина Болла, научного сотрудника Центра Меркатус при Университете Джорджа Мейсона, у республиканцев в Вашингтоне есть несколько приоритетов, связанных с искусственным интеллектом, которые сегодня превосходят судьбу искусственного интеллекта. К ним относятся создание центров обработки данных для поддержки искусственного интеллекта, использование искусственного интеллекта в правительстве и вооруженных силах, конкуренция с Китаем, ограничение модерации контента со стороны левоцентристских технологических компаний и защита детей от чат-ботов с искусственным интеллектом.

«Я думаю, что (движение по предотвращению катастрофического риска ИИ) потеряло позиции на федеральном уровне. На уровне штата и на местном уровне они также проиграли одну крупную битву», — сказал Болл в интервью TechCrunch. Конечно, он имеет в виду спорный калифорнийский законопроект о безопасности ИИ SB 1047.

Одна из причин, по которой в 2024 году судьба ИИ потеряла популярность, заключалась просто в том, что по мере того, как модели ИИ становились все более популярными, мы также видели, насколько неразумными они могут быть. Трудно представить, чтобы Google Gemini стал Skynet, когда вам просто сказали намазать пиццу клеем.

Но в то же время 2024 год стал годом, когда многие продукты искусственного интеллекта, казалось, воплотили в жизнь концепции из научной фантастики. Впервые в этом году: OpenAI показала, как мы можем разговаривать с нашими телефонами, а не через них, а Meta представила умные очки с визуальным пониманием в реальном времени. Идеи, лежащие в основе катастрофических рисков ИИ, во многом взяты из научно-фантастических фильмов, и, хотя очевидно, что существует предел, эра ИИ доказывает, что некоторые идеи из научной фантастики не могут быть вымышленными навсегда.

Крупнейшая битва 2024 года с искусственным интеллектом: SB 1047

Сенатор штата Скотт Винер, демократ от Калифорнии (справа), во время саммита Bloomberg BNEF в Сан-Франциско, Калифорния, США, в среду, 31 января 2024 года. Саммит предоставляет идеи, идеи и связи для формулирования успешных стратегий и извлечения выгоды из технологические изменения и формирование более чистого и конкурентоспособного будущего. Фотограф: Дэвид Пол Моррис/Bloomberg через Getty ImagesКредиты изображений:Дэвид Пол Моррис / Bloomberg через Getty Images / Getty Images

Битва за безопасность ИИ в 2024 году достигла апогея с принятием законопроекта SB 1047, поддержанного двумя уважаемыми исследователями ИИ: Джеффри Хинтоном и Йошуа Бенджио. Законопроект пытался не допустить, чтобы передовые системы искусственного интеллекта вызывали массовые вымирания людей и кибератаки, которые могли бы нанести больший ущерб, чем отключение CrowdStrike в 2024 году.

SB 1047 прошел через Законодательное собрание Калифорнии и дошел до стола губернатора Гэвина Ньюсома, где он назвал его законопроектом, имеющим «чрезмерное влияние». Законопроект пытался предотвратить то, о чем Маск, Альтман и многие другие лидеры Кремниевой долины предупреждали в 2023 году, когда подписывали открытые письма об искусственном интеллекте.

Но Ньюсом наложил вето на SB 1047. За несколько дней до своего решения он говорил о регулировании ИИ на сцене в центре Сан-Франциско, говоря: «Я не могу решить все вопросы. Что мы можем решить?»

Это довольно четко показывает, как многие политики думают сегодня о катастрофическом риске ИИ. Это просто не проблема с практическим решением.

Несмотря на это, SB 1047 имел недостатки, если не считать внимания к катастрофическим рискам ИИ. Законопроект регулировал модели ИИ в зависимости от размера, пытаясь регулировать только крупнейших игроков. Однако это не учитывает новые методы, такие как вычисления во время тестирования или появление небольших моделей искусственного интеллекта, к которым уже переходят ведущие лаборатории искусственного интеллекта. Более того, этот законопроект широко рассматривался как нападение на ИИ с открытым исходным кодом – и, косвенно, на исследовательский мир – потому что он ограничил бы такие компании, как Meta и Mistral, в выпуске передовых моделей ИИ с широкими возможностями настройки.

Но, по словам автора законопроекта, сенатора штата Скотта Винера, Кремниевая долина играла грязно, чтобы повлиять на общественное мнение о SB 1047. Ранее он рассказал TechCrunch, что венчурные капиталисты из Y Combinator и A16Z участвовали в пропагандистской кампании против законопроекта.

В частности, эти группы распространили заявление о том, что SB 1047 отправит разработчиков программного обеспечения в тюрьму за дачу ложных показаний. Y Combinator попросил молодых основателей подписать письмо, в котором говорилось об этом, в июне 2024 года. Примерно в то же время генеральный партнер Andreessen Horowitz Анджей Мидха сделал аналогичное заявление в подкасте.

Институт Брукингса назвал это одним из многих искажений законопроекта. В SB 1047 упоминалось, что руководителям технологических компаний необходимо будет представлять отчеты, выявляющие недостатки их моделей искусственного интеллекта, а в законопроекте отмечалось, что ложь в правительственном документе является лжесвидетельством. Однако венчурные капиталисты, распространяющие эти опасения, не упомянули, что людей редко обвиняют в лжесвидетельстве и еще реже осуждают.

YC отверг идею о том, что они распространяют дезинформацию, ранее сообщив TechCrunch, что SB 1047 был расплывчатым и не таким конкретным, как его представлял сенатор Винер.

В целом, во время битвы SB 1047 росло мнение, что ИИ-убийцы не только против технологий, но и бредят. В октябре этого года знаменитый инвестор Винод Хосла назвал Винера невежественным в отношении реальных опасностей ИИ.

Главный научный сотрудник Meta, Ян ЛеКун, долгое время выступал против идей, лежащих в основе гибели ИИ, но в этом году стал более откровенным.

«Идея о том, что каким-то образом (разумные) системы достигнут своих собственных целей и захватят человечество, просто нелепа, это просто смешно», — заявил ЛеКун в Давосе в 2024 году, отметив, насколько мы очень далеки от разработки сверхразумных систем искусственного интеллекта. «Есть много-много способов создать (любую технологию) такими способами, которые будут опасными, неправильными, убивающими людей и т. д. Но пока есть один способ сделать это правильно, это все, что нам нужно».

Тем временем политики переключили свое внимание на новый набор проблем безопасности ИИ.

Предстоящая борьба в 2025 году

Политики, стоящие за SB 1047, намекнули, что могут вернуться в 2025 году с измененным законопроектом, направленным на устранение долгосрочных рисков ИИ. Один из авторов законопроекта, компания Encode, говорит, что внимание всей страны, которое привлек SB 1047, стало положительным сигналом.

«Движение за безопасность ИИ добилось очень обнадеживающего прогресса в 2024 году, несмотря на вето SB 1047», — сказал Санни Ганди, вице-президент Encode по политическим вопросам, в электронном письме TechCrunch. «Мы оптимистичны в отношении того, что осведомленность общественности о долгосрочных рисках ИИ растет, а среди политиков растет готовность решать эти сложные проблемы».

Ганди говорит, что Encode ожидает «значительных усилий» в 2025 году по регулированию катастрофических рисков, связанных с искусственным интеллектом, хотя она не раскрыла какой-либо конкретный риск.

С другой стороны, генеральный партнер a16z Мартин Касадо — один из тех, кто возглавляет борьбу с регулированием катастрофических рисков ИИ. В декабрьской статье о политике в области ИИ Касадо заявил, что нам нужна более разумная политика в области ИИ, заявив, что «ИИ кажется чрезвычайно безопасным».

«Первая волна глупых политических усилий в области искусственного интеллекта в значительной степени позади», — сказал Касадо в декабрьском твите. «Надеюсь, мы сможем стать умнее в будущем».

Называть ИИ «чрезвычайно безопасным», а попытки регулировать его «тупыми» — это своего рода упрощение. Например, в отношении компании Character.AI – стартапа, в который инвестировал a16z, – в настоящее время возбуждено судебное дело и проводится расследование по поводу проблем безопасности детей. В одном активном судебном процессе 14-летний мальчик из Флориды покончил с собой после того, как якобы признался в своих суицидальных мыслях чат-боту Character.AI, с которым у него были романтические и сексуальные беседы. Этот случай сам по себе показывает, как наше общество должно готовиться к новым типам рисков, связанных с ИИ, которые всего несколько лет назад могли показаться смешными.

Вокруг долгосрочного риска искусственного интеллекта обсуждается множество законопроектов, в том числе законопроект, который только что был внесен на федеральном уровне сенатором Миттом Ромни. Но теперь, похоже, в 2025 году разработчикам искусственного интеллекта придется вести тяжелую битву.

Previous post Чтобы стать лучше, дела должны стать хуже
Next post Результаты чемпионата мира по дартсу PDC 2025: Крис Доби побеждает Гервина Прайса и выходит в полуфинал