Google требует ослабленных правил авторского права и экспорта в предложении политики искусственного интеллекта

Google, следуя по пятам Openai, опубликовал политическое предложение в ответ на призыв администрации Трампа к национальному «Плану действий искусственного интеллекта». Технический гигант поддержал слабые ограничения авторских прав на обучение искусственного интеллекта, а также «сбалансированные» экспортные контроли, которые «защищают национальную безопасность, одновременно позволяя экспорту США и глобальному бизнес -операциям».

«США должны проводить активную международную экономическую политику, чтобы защищать американские ценности и поддержать инновации искусственного интеллекта на международном уровне», — написал Google в документе. «Слишком долго политика ИИ уделяет непропорциональное внимание рискам, часто игнорируя затраты, которые может иметь ошибочное регулирование на инновации, национальную конкурентоспособность и научное лидерство — динамика, которая начинает сдвигаться под новой администрацией».

Одна из более спорных рекомендаций Google относится к использованию материала, защищенного IP.

Google утверждает, что «исключения справедливого использования и добычи текста и даты» являются «критическими» для развития ИИ и научных инноваций, связанных с ИИ. Как и Openai, компания стремится кодифицировать право для нее и конкурентов на обучение общедоступным данным, включая защищенные авторским правом, в основном без ограничений.

«Эти исключения позволяют использовать защищенные авторским правом, общедоступным материалом для обучения искусственного интеллекта без значительного влияния на правителей, — пишет Google, — и избегают часто очень непредсказуемых, несбалансированных и длительных переговоров с держателями данных во время разработки модели или научных экспериментов».

Google, который, как сообщается, обучил ряд моделей на общественных, защищенных авторским правом данных, борется с судебными исками с владельцами данных, которые обвиняют компанию в том, что он не уведомил и компенсирует их до этого. Суды США еще не решили, эффективно ли доктрина справедливого использования выкрикивает разработчиков ИИ от судебного разбирательства.

В своем предложении по политике искусственного интеллекта Google также не согласен с определенными экспортными контролями, наложенными в соответствии с администрацией Байдена, в котором говорится, что «может подорвать цели экономической конкурентоспособности», «навязывая непропорциональное бремя на поставщиков облачных услуг США». Это контрастирует с заявлениями конкурентов Google, таких как Microsoft, которые в январе сказали, что это «уверенно», что может «полностью соблюдать» правила.

Важно отметить, что правила экспорта, которые стремятся ограничить доступность передовых чипов ИИ в неправоостренных странах, вырезают исключения для доверенных предприятий, ищущих большие кластеры чипов.

В другом месте в своем предложении Google призывает к «долгосрочным, устойчивым» инвестициям в основополагающие внутренние исследования и разработки, отталкиваясь против недавних федеральных усилий по сокращению расходов и ликвидации наград грантов. Компания заявила, что правительство должно выпустить наборы данных, которые могут быть полезны для коммерческого обучения ИИ, и выделять финансирование для «НИОКР на раннем рынке», обеспечивая при этом вычисления и модели «широко доступны» для ученых и учреждений.

Указывая на хаотическую регуляторную среду, созданную лохмотья США законов штата АИ, Google призвал правительство принять федеральное законодательство по ИИ, включая комплексную структуру конфиденциальности и безопасности. В течение двух месяцев в 2025 году количество ожидающих счетов AI в США выросло до 781, согласно инструменту отслеживания онлайн.

Google предостерегает правительство США от навязывания того, что оно считает обременительными обязательствами вокруг систем ИИ, таких как обязательства по ответственности за использование. Во многих случаях Google утверждает, что разработчик модели «практически не имеет видимости или контроля» над тем, как используется модель, и, следовательно, не должен нести ответственность за неправильное использование.

Исторически, Google выступал против таких законов, как побежден California, SB 1047, в котором четко изложили то, что будет представлена ​​мерами предосторожности, которые должен принять разработчик ИИ, прежде чем выпустить модель, и в этом случае разработчики могут нести ответственность за причинение вреда модели.

«Даже в тех случаях, когда разработчик предоставляет модель непосредственно для развертывателей, развертыватели часто будут наилучшим образом возможно для понимания рисков использования вниз по течению, реализации эффективного управления рисками и постмаркета
Мониторинг и ведение журнала », — написал Google.

Google в своем предложении также называется требованиями раскрытия информации, такими как те, которые рассматриваются ЕС «чрезмерно широкими», и заявило, что правительство США должно выступить против правил прозрачности, которые требуют «разглашения коммерческих секретов, позволяют конкурентам дублировать продукты или поставить под угрозу национальную безопасность, предоставляя дорожную карту для противников о том, как обрезать защитные модели или модели в тюрьму».

Растущее число стран и государств приняло законы, требующие от разработчиков ИИ, чтобы узнать больше о том, как работают их системы. Калифорнийский AB-2013 обязывает компании, разработанные системы искусственного интеллекта, публикуют резюме высокого уровня наборов данных, которые они использовали для обучения своих систем. В ЕС, чтобы соответствовать Закону об ИИ, как только он вступит в силу, компаниям придется предоставить модели развертывателей с подробными инструкциями об эксплуатации, ограничениях и рисках, связанных с моделью.

Previous post Тесла предупреждает администрацию Трампа, что она «подвергается ответным тарифам
Next post На фоне торговой войны в США-Канаде Трамп делает некоторые ложные или вводящие в заблуждение претензии на оправдание тарифов