Scale AI сталкивается с третьим иском по поводу предполагаемой трудовой практики чуть более чем за месяц, на этот раз от работников, утверждающих, что они получили психологическую травму из-за просмотра тревожного контента без надлежащих мер защиты.
Scale, стоимость которой в прошлом году была оценена в $13,8 млрд, полагается на работников, которых она относит к подрядчикам, для выполнения таких задач, как оценка ответов модели ИИ.
Ранее в этом месяце бывшая работница подала в суд, утверждая, что ей фактически платили меньше минимальной заработной платы и ее неправильно классифицировали как подрядчика. Жалоба о подобных проблемах также была подана в декабре 2024 года.
Эта последняя жалоба, поданная 17 января в Северном округе Калифорнии, представляет собой групповой иск, в котором основное внимание уделяется психологическому вреду, предположительно нанесенному шести людям, работавшим на платформе Scale Outlier.
Истцы утверждают, что их заставляли писать тревожные сообщения о насилии и жестоком обращении, включая жестокое обращение с детьми, без надлежащей психологической поддержки, и они терпели возмездие, когда обращались за помощью к психологу. Они говорят, что были введены в заблуждение относительно характера работы при приеме на работу, и в результате из-за работы у них возникли проблемы с психическим здоровьем, такие как посттравматическое стрессовое расстройство. Они добиваются создания программы медицинского мониторинга наряду с новыми стандартами безопасности, а также неуказанным ущербом и гонорарами адвокатов.
Один из истцов, Стив МакКинни, является ведущим истцом в отдельной жалобе против Scale, поданной в декабре 2024 года. Одна и та же юридическая фирма Clarkson Law Firm из Малибу, Калифорния, представляет истцов по обеим жалобам.
Юридическая фирма Кларксона ранее подала коллективный иск против OpenAI и Microsoft по обвинению в использовании украденных данных, который был отклонен после критики со стороны окружного судьи за их объем и содержание. Ссылаясь на этот случай, Джо Осборн, представитель Scale AI, раскритиковал юридическую фирму Clarkson и заявил, что Scale планирует «решительно защищаться».
«Юридическая фирма Кларксона ранее – и безуспешно – преследовала инновационные технологические компании с судебными исками, которые были отклонены в судебном порядке. Судья федерального суда установил, что одна из их предыдущих жалоб была «ненужно длинной» и содержала «в значительной степени нерелевантную, отвлекающую или избыточную информацию», — рассказал Осборн TechCrunch.
Осборн заявил, что Scale соблюдает все законы и правила и имеет «многочисленные гарантии» для защиты своих участников, такие как возможность отказаться в любое время, предварительное уведомление о конфиденциальном контенте и доступ к программам здравоохранения и хорошего самочувствия. Осборн добавил, что Scale не берется за проекты, которые могут включать материалы о сексуальном насилии над детьми.
В ответ Гленн Данас, партнер юридической фирмы Clarkson, рассказал TechCrunch, что Scale AI «вынуждает работников просматривать ужасный и жестокий контент для обучения этих моделей ИИ» и не может обеспечить безопасное рабочее место.
«Мы должны привлечь к ответственности такие крупные технологические компании, как Scale AI, иначе рабочие будут продолжать эксплуатироваться для обучения этой нерегулируемой технологии ради получения прибыли», — сказал Данас.