Платформа Character AI, которая позволяет пользователям участвовать в ролевых играх с чат-ботами AI, подала ходатайство о прекращении дела, возбужденного против нее родителем подростка, который покончил жизнь самоубийством, предположительно после того, как подсел на технологию компании.
В октябре Меган Гарсия подала иск против Персонажа AI в Окружной суд США Среднего округа Флориды, округ Орландо, в связи со смертью ее сына Сьюэлла Сетцера III. По словам Гарсии, у ее 14-летнего сына развилась эмоциональная привязанность к чат-боту по имени Дэни, которому он постоянно писал сообщения, до такой степени, что он начал отдаляться от реального мира.
После смерти Сетцера компания Character AI заявила, что внедрит ряд новых функций безопасности, включая улучшенное обнаружение, реагирование и вмешательство, связанное с чатами, которые нарушают ее условия обслуживания. Но Гарсия борется за дополнительные меры, включая изменения, которые могут привести к тому, что чат-боты на ИИ персонажей потеряют способность рассказывать истории и личные анекдоты.
В ходатайстве об отводе адвокат компании «Character AI» утверждает, что платформа защищена от ответственности Первой поправкой так же, как и компьютерный код. Ходатайство может не убедить судью, и юридические обоснования ИИ персонажа могут измениться по ходу дела. Но это движение, возможно, намекает на ранние элементы защиты ИИ персонажа.
«Первая поправка запрещает деликтную ответственность против медиа и технологических компаний, возникающую из-за предположительно вредных высказываний, в том числе высказываний, предположительно приведших к самоубийству», — говорится в документе. «Единственная разница между этим случаем и предыдущими состоит в том, что некоторые из этих случаев связаны с искусственным интеллектом. Но контекст выразительной речи — будь то разговор с чат-ботом с искусственным интеллектом или взаимодействие с персонажем видеоигры — не меняет анализ Первой поправки».
В ходатайстве не рассматривается вопрос о том, может ли ИИ персонажей быть признан безвредным в соответствии с разделом 230 Закона о порядочности в сфере коммуникаций, федеральным законом о безопасной гавани, который защищает социальные сети и другие онлайн-платформы от ответственности за сторонний контент. Авторы закона подразумевали, что раздел 230 не защищает результаты работы ИИ, в отличие от чат-ботов Feature AI, но это далеко не решенный юридический вопрос.
Адвокат по вопросам ИИ персонажей также утверждает, что настоящее намерение Гарсиа состоит в том, чтобы «отключить» ИИ персонажей и принять закон, регулирующий подобные технологии. Если истцы добьются успеха, это окажет «сдерживающий эффект» как на ИИ персонажей, так и на всю зарождающуюся индустрию генеративного ИИ, говорит адвокат платформы.
«Помимо заявленного адвокатом намерения «отключить» ИИ персонажей, (их жалоба) направлена на радикальные изменения, которые существенно ограничили бы характер и объем речи на платформе», — говорится в документе. «Эти изменения радикально ограничат способность миллионов пользователей ИИ персонажей создавать диалоги с персонажами и участвовать в них».
Иск, в котором в качестве ответчика также названа материнская компания Alphabet, являющаяся материнской компанией, занимающейся ИИ, является лишь одним из нескольких исков, с которыми сталкивается ИИ, связанных с тем, как несовершеннолетние взаимодействуют с контентом, созданным ИИ на его платформе. В других исках утверждается, что ИИ персонажей подверг 9-летнего подростка воздействию «гиперсексуализированного контента» и пропагандировал членовредительство 17-летнего пользователя.
В декабре генеральный прокурор Техаса Кен Пэкстон объявил, что начинает расследование в отношении Персонажа AI и 14 других технологических фирм по поводу предполагаемых нарушений законов штата о конфиденциальности и безопасности детей в Интернете. «Эти расследования являются важным шагом на пути к обеспечению того, чтобы социальные сети и компании, занимающиеся искусственным интеллектом, соблюдали наши законы, призванные защитить детей от эксплуатации и вреда», — сказал Пакстон в пресс-релизе.
ИИ персонажей является частью быстро развивающейся индустрии приложений для общения с ИИ, влияние которых на психическое здоровье в значительной степени не изучено. Некоторые эксперты выразили обеспокоенность тем, что эти приложения могут усугубить чувство одиночества и тревоги.
Компания Character AI, основанная в 2021 году исследователем искусственного интеллекта Google Ноамом Шазиром и которой Google, как сообщается, заплатила 2,7 миллиарда долларов за «обратное приобретение», заявила, что продолжает предпринимать шаги для повышения безопасности и модерации. В декабре компания представила новые инструменты безопасности, отдельную модель искусственного интеллекта для подростков, блокировку конфиденциального контента и более заметные заявления об отказе от ответственности, уведомляющие пользователей о том, что ее персонажи, созданные искусственным интеллектом, не являются реальными людьми.
ИИ персонажа претерпел ряд кадровых изменений после того, как Шазир и другой соучредитель компании Дэниел Де Фрейтас ушли в Google. Платформа наняла бывшего руководителя YouTube Эрин Тиг на должность директора по продукту и назначила Доминика Переллу, который был главным юрисконсультом Character AI, временным генеральным директором.
ИИ персонажей недавно начал тестировать игры в сети, стремясь повысить вовлеченность и удержание пользователей.