Google изменил свои условия, чтобы разъяснить, что клиенты могут использовать свои генеративные инструменты искусственного интеллекта для принятия «автоматических решений» в областях «высокого риска», таких как здравоохранение, при условии, что в процессе участвует человек.
Согласно обновленной Политике запрещенного использования генеративного ИИ компании, опубликованной во вторник, клиенты могут использовать генеративный ИИ Google для принятия «автоматических решений», которые могут оказать «существенное вредное воздействие на права личности». При условии, что человек в той или иной роли осуществляет контроль, клиенты могут использовать генеративный искусственный интеллект Google для принятия решений о трудоустройстве, жилье, страховании, социальном обеспечении и других областях «высокого риска».
В контексте ИИ автоматизированные решения относятся к решениям, принимаемым системой ИИ на основе как фактических, так и предполагаемых данных. Система может принять автоматическое решение, например, о выдаче кредита или проверке кандидата на работу.
Предыдущий проект условий Google подразумевал полный запрет на автоматизированное принятие решений с высоким уровнем риска, когда оно задействует генеративный искусственный интеллект компании. Но Google сообщает TechCrunch, что клиенты всегда могут использовать его генеративный искусственный интеллект для автоматического принятия решений, даже для приложений с высоким уровнем риска, при условии, что за процессом будет следить человек.
«Требование человеческого надзора всегда было в нашей политике для всех доменов с высоким уровнем риска», — сказал представитель Google, когда к нему обратились за комментариями по электронной почте. «(Мы) переклассифицируем некоторые элементы (в наших терминах) и более подробно приводим некоторые примеры, чтобы они были более понятны для пользователей».
Главные конкуренты Google в области ИИ, OpenAI и Anthropic, имеют более строгие правила, регулирующие использование их ИИ в автоматизированном принятии решений с высоким уровнем риска. Например, OpenAI запрещает использование своих сервисов для автоматизированных решений, касающихся кредита, трудоустройства, жилья, образования, социального рейтинга и страхования. Anthropic позволяет использовать свой ИИ в юриспруденции, страховании, здравоохранении и других областях высокого риска для автоматического принятия решений, но только под наблюдением «квалифицированного профессионала» — и требует от клиентов сообщать, что они используют ИИ для этого. цель.
Искусственный интеллект, который принимает автоматизированные решения, влияющие на отдельных людей, привлек внимание регулирующих органов, которые выразили обеспокоенность по поводу того, что технология может искажать результаты. Исследования показывают, например, что ИИ, используемый для принятия таких решений, как одобрение заявок на кредит и ипотеку, может увековечить историческую дискриминацию.
Некоммерческая группа Human Rights Watch призвала, в частности, запретить системы «социального рейтинга», которые, по мнению организации, угрожают лишить людей доступа к поддержке социального обеспечения, поставить под угрозу их конфиденциальность и представить их предвзятым образом.
В соответствии с Законом ЕС об искусственном интеллекте, системы искусственного интеллекта с высоким уровнем риска, в том числе те, которые принимают индивидуальные решения о кредите и трудоустройстве, подвергаются наибольшему надзору. Поставщики этих систем, помимо прочего, должны регистрироваться в базе данных, осуществлять управление качеством и рисками, нанимать людей-контролеров и сообщать об инцидентах в соответствующие органы.
В США Колорадо недавно принял закон, обязывающий разработчиков ИИ раскрывать информацию о системах ИИ «высокого риска» и публиковать заявления, обобщающие возможности и ограничения систем. Тем временем город Нью-Йорк запрещает работодателям использовать автоматизированные инструменты для проверки кандидата при принятии решения о приеме на работу, если только этот инструмент не подвергался проверке предвзятости в течение предыдущего года.