145-страничная бумага DeepMind о безопасности AGI не может убедить скептиков

Google DeepMind в среду опубликовал исчерпывающий документ о его подходе безопасности к AGI, примерно определенному как ИИ, который может выполнить любую задачу, которую человеческий может.

AGI — это что -то вроде спорного предмета в области ИИ, с скептиками, которые предполагают, что это чуть больше, чем мечта о трубе. Другие, в том числе крупные лаборатории искусственных интеллекта, такие как Антроп, предупреждают, что он не за горами, и могут привести к катастрофическому вреду, если не предприняты шаги для реализации соответствующих гарантий.

145-страничный документ DeepMind, который был соавтором соучредителя DeepMind Шейном Леггом, предсказывает, что AGI может прибыть к 2030 году, и что это может привести к тому, что авторы называют «серьезным вредом». Бумага не конкретно определяет это, но приводит пример паникерского примера «экзистенциальных рисков», которые «постоянно уничтожают человечество».

«(Мы ожидаем) развитие исключительного AGI до конца текущего десятилетия», — написали авторы. «Исключительная AGI-это система, которая обладает способностями, соответствующей по крайней мере 99-м процентилу квалифицированных взрослых с широким спектром нефизических задач, включая метакогнитивные задачи, такие как изучение новых навыков».

Вне летучих мышей, бумага контрастирует с обращением DeepMind с смягчением риска AGI с антропным и Openai. Антропик, по его словам, делает меньший акцент на «надежную подготовку, мониторинг и безопасность», в то время как OpenAI чрезмерно оптимистично на «автоматизации» формы исследования безопасности ИИ, известного как исследования выравнивания.

В документе также возникает сомнение в жизнеспособности искусственного интеллекта Superintelligent — AI, который может выполнять работу лучше, чем любой человек. (Openai недавно утверждал, что он превращает свою цель от AGI в суперинтеллигентность.) При отсутствии «значительных архитектурных инноваций», авторы DeepMind не убеждены, что SuperIntelligent Systems появятся в ближайшее время — если вообще когда -либо.

В статье действительно считается правдоподобным, что текущие парадигмы позволят «рекурсивному улучшению ИИ»: положительный цикл обратной связи, где ИИ проводит свои собственные исследования ИИ для создания более сложных систем ИИ. И это может быть невероятно опасно, утверждают авторов.

На высоком уровне статья предлагает и выступает за разработку методов, чтобы блокировать доступ плохих субъектов к гипотетическому AGI, улучшить понимание действий систем ИИ и «укрепить» среды, в которой ИИ может действовать. Он признает, что многие из техник зарождаются и имеют «открытые проблемы исследования», но предостерегают от игнорирования проблем безопасности, возможно, на горизонте.

«Трансформационный характер AGI имеет потенциал как для невероятных преимуществ, так и для серьезных вреда», — пишут авторы. «В результате, чтобы построить AGI ответственно, для разработчиков Frontier AI важно упреждающе планировать смягчение сильного вреда».

Однако некоторые эксперты не согласны с помещениями газеты.

Хайди Хлааф, главный ученый ИИ в Институте некоммерческого ИИ сейчас, сказала TechCrunch, что, по ее мнению, концепция AGI слишком плохо определена, чтобы быть «тщательно оцениваемой научно». Другой исследователь ИИ, Мэтью Гусдиал, доцент профессора Университета Альберты, сказал, что он не верит, что рекурсивное улучшение ИИ в настоящее время является реалистичным.

«(Рекурсивное улучшение) является основой для разведывательных аргументов сингулярности», — сказал Гусдиал TechCrunch, — но мы никогда не видели никаких доказательств за работу ».

Сандра Вахтер, исследователь, изучающий технологии и регулирование в Оксфорде, утверждает, что более реалистичная проблема заключается в том, что ИИ усиливает себя «неточными результатами».

«Благодаря пролиферации генеративных выходов ИИ в Интернете и постепенной замены аутентичных данных модели теперь учатся на своих собственных результатах, которые пронизаны ошибкой или галлюцинациями», — сказала она TechCrunch. «На данный момент чат-боты преимущественно используются в целях поиска и поиска истины. Это означает, что мы постоянно подвергаемся риску недостатков и верить им, потому что они представлены очень убедительными способами».

Как бы всеобъемлющему, бумага DeepMind, похоже, вряд ли урегулирует дебаты по поводу того, насколько реалистично является AGI — и области безопасности ИИ в большинстве срочных потребностей внимания.

Previous post Жена человека по ошибке отправлена ​​в тюрьму Сальвадора, говорит, что опасается за его безопасность: «Мой муж не преступник»
Next post Мэллори МакМроро объявляет о предложении за место в Сенате США, которое освободилось Петерсом