OpenAI финансирует академические исследования алгоритмов, которые могут предсказывать моральные суждения людей.
В заявлении, поданном в IRS, OpenAI Inc., некоммерческая организация OpenAI, сообщила, что она предоставила грант исследователям Университета Дьюка на проект под названием «Исследование морали ИИ». Представитель OpenAI, с которым связались для получения комментариев, указал на пресс-релиз, в котором говорится, что награда является частью более крупного трехлетнего гранта в размере 1 миллиона долларов для профессоров Дьюка, изучающих «создание морального ИИ».
Об этом исследовании «морали», которое OpenAI финансирует, мало что известно, за исключением того факта, что грант заканчивается в 2025 году. Главный исследователь исследования, Уолтер Синнотт-Армстронг, профессор практической этики в Университете Дьюка, сообщил TechCrunch по электронной почте, что он «не будет уметь говорить» о работе.
Синнотт-Армстронг и соавтор проекта Яна Борг подготовили несколько исследований (и книгу) о потенциале ИИ служить «моральным GPS», помогающим людям принимать более правильные суждения. В составе более крупных команд они создали «морально ориентированный» алгоритм, помогающий решать, кто получит донорство почек, и изучили, в каких сценариях люди предпочли бы, чтобы ИИ принимал моральные решения.
Согласно пресс-релизу, цель работы, финансируемой OpenAI, — обучить алгоритмы «прогнозировать человеческие моральные суждения» в сценариях, включающих конфликты «среди морально значимых функций в медицине, праве и бизнесе».
Но далеко не очевидно, что такая тонкая концепция, как мораль, находится в пределах досягаемости сегодняшних технологий.
В 2021 году некоммерческий институт Аллена по искусственному интеллекту создал инструмент под названием Ask Delphi, который должен был давать этически обоснованные рекомендации. Он достаточно хорошо разбирался в основных моральных дилеммах — например, бот «знал», что списывать на экзамене — это неправильно. Но небольшого перефразирования и переформулирования вопросов оказалось достаточно, чтобы Дельфи одобрял практически все, включая удушение младенцев.
Причина связана с тем, как работают современные системы искусственного интеллекта.
Модели машинного обучения — это статистические машины. Обучившись на множестве примеров со всего Интернета, они изучают закономерности в этих примерах, чтобы делать прогнозы, например, фраза «кому» часто предшествует «это может касаться».
ИИ не понимает ни этических концепций, ни понимания рассуждений и эмоций, которые влияют на принятие моральных решений. Вот почему ИИ склонен повторять ценности западных, образованных и промышленно развитых стран — в сети и, следовательно, в обучающих данных ИИ доминируют статьи, поддерживающие эти точки зрения.
Неудивительно, что ценности многих людей не выражаются в ответах, которые дает ИИ, особенно если эти люди не участвуют в обучающих наборах ИИ, размещая сообщения в Интернете. И ИИ усваивает ряд предубеждений, выходящих за рамки западного уклона. Дельфи заявила, что быть гетеросексуалом более «морально приемлемо», чем быть геем.
Задача, стоящая перед OpenAI и исследователями, которых она поддерживает, становится еще более неразрешимой из-за присущей морали субъективности. Философы обсуждают достоинства различных этических теорий на протяжении тысячелетий, но универсально применимой системы не существует.
Клод отдает предпочтение кантианству (то есть сосредоточению внимания на абсолютных моральных правилах), в то время как ChatGPT склоняется к слегка утилитарному подходу (отдавая приоритет наибольшему благу для наибольшего числа людей). Превосходит ли одно другое? Это зависит от того, кого вы спрашиваете.
Алгоритм прогнозирования моральных суждений людей должен будет принять все это во внимание. Это очень высокая планка — если вообще предположить, что такой алгоритм возможен.
У TechCrunch есть информационный бюллетень, посвященный искусственному интеллекту! Зарегистрируйтесь здесь чтобы получать его на свой почтовый ящик каждую среду.