Ведущие разработчики ИИ, такие как OpenAI и Anthropic, продевают тонкую иглу в продажу программного обеспечения военным США: сделать Пентагон более эффективным, не позволяя своему ИИ убивать людей.
Сегодня их инструменты не используются в качестве оружия, но ИИ дает Министерству обороны «значительное преимущество» в выявлении, отслеживании и оценке угроз, сообщила TechCrunch директор по цифровым технологиям и искусственному интеллекту Пентагона доктор Радха Пламб. телефонное интервью.
«Очевидно, что мы расширяем возможности ускорения выполнения цепочки убийств, чтобы наши командиры могли отреагировать в нужное время и защитить наши силы», — сказал Пламб.
«Цепочка уничтожения» относится к военному процессу выявления, отслеживания и устранения угроз, включающему сложную систему датчиков, платформ и оружия. По словам Пламба, генеративный ИИ оказывается полезным на этапах планирования и разработки стратегии цепочки убийств.
Отношения между Пентагоном и разработчиками ИИ являются относительно новыми. OpenAI, Anthropic и Meta отменили свою политику использования в 2024 году, разрешив разведывательным и оборонным агентствам США использовать свои системы искусственного интеллекта. Однако они по-прежнему не позволяют своему ИИ причинять вред людям.
«Мы четко дали понять, для чего мы будем и не будем использовать их технологии», — сказал Пламб, отвечая на вопрос, как Пентагон работает с поставщиками моделей ИИ.
Тем не менее, это положило начало раунду быстрых знакомств для компаний, занимающихся искусственным интеллектом, и оборонных подрядчиков.
Meta в партнерстве с Lockheed Martin и Booz Allen, среди прочих, представила свои модели искусственного интеллекта Llama оборонным ведомствам в ноябре. В том же месяце Anthropic объединилась с Palantir. В декабре OpenAI заключила аналогичную сделку с Anduril. Более спокойно Cohere также внедряет свои модели с Palantir.
Поскольку генеративный ИИ доказывает свою полезность в Пентагоне, это может подтолкнуть Кремниевую долину к смягчению политики использования ИИ и разрешению большего количества военных приложений.
«Проигрывание различных сценариев — это то, в чем может помочь генеративный ИИ», — сказал Пламб. «Это позволяет вам воспользоваться всем набором инструментов, которыми располагают наши командиры, а также творчески подходить к различным вариантам реагирования и потенциальным компромиссам в условиях, когда существует потенциальная угроза или ряд угроз, которые необходимо расследовать. »
Неясно, чью технологию Пентагон использует для этой работы; использование генеративного ИИ в цепочке уничтожения (даже на ранней стадии планирования), похоже, нарушает политику использования нескольких ведущих разработчиков моделей. Политика Anthropic, например, запрещает использовать ее модели для производства или модификации «систем, предназначенных для причинения вреда или потери человеческой жизни».
В ответ на наши вопросы Anthropic указал TechCrunch на недавнее интервью его генерального директора Дарио Амодеи газете Financial Times, в котором он защищал свою военную работу:
Позиция о том, что мы никогда не должны использовать ИИ в оборонных и разведывательных целях, для меня не имеет смысла. Позиция, согласно которой мы должны бросить вызов бандитам и использовать их для изготовления всего, что захотим – вплоть до оружия судного дня – очевидно, столь же безумна. Мы пытаемся искать золотую середину, подходить к делу ответственно.
OpenAI, Meta и Cohere не ответили на запрос TechCrunch о комментариях.
Жизнь и смерть и ИИ-оружие
В последние месяцы в сфере оборонных технологий разгорелись дебаты о том, действительно ли ИИ-оружию следует позволить принимать решения о жизни и смерти. Некоторые утверждают, что у американских военных уже есть такое оружие.
Генеральный директор Anduril Палмер Лаки недавно отметил на X, что американские военные имеют долгую историю приобретения и использования автономных систем вооружения, таких как башни CIWS.
«Министерство обороны закупает и использует автономные системы вооружения уже несколько десятилетий. Их использование (и экспорт!) хорошо понятно, четко определено и четко регулируется правилами, которые вовсе не являются добровольными», — сказал Лаки.
Но когда TechCrunch спросил, покупает ли Пентагон и использует ли он полностью автономное оружие, в котором нет людей, Пламб принципиально отверг эту идею.
— Нет, таков краткий ответ, — сказал Пламб. «Как с точки зрения надежности, так и с точки зрения этики, в принятии решения о применении силы всегда будут участвовать люди, в том числе и в отношении наших систем вооружения».
Слово «автономия» несколько двусмысленно и вызвало споры во всей технологической отрасли о том, когда автоматизированные системы – такие как агенты кодирования искусственного интеллекта, беспилотные автомобили или самостреляющееся оружие – станут по-настоящему независимыми.
Пламб сказал, что идея о том, что автоматизированные системы независимо принимают решения о жизни и смерти, была «слишком бинарной», а реальность была менее «научно-фантастической». Скорее, она предположила, что использование Пентагоном систем искусственного интеллекта на самом деле представляет собой сотрудничество между людьми и машинами, при котором старшие руководители принимают активные решения на протяжении всего процесса.
«Люди склонны думать об этом так, будто где-то есть роботы, а затем гонкулятор (вымышленная автономная машина) выплевывает лист бумаги, а люди просто ставят галочку», — сказал Пламб. «Командная работа человека и машины работает не так, и это не эффективный способ использования подобных систем искусственного интеллекта».
Безопасность ИИ в Пентагоне
Военное партнерство не всегда устраивало сотрудников Кремниевой долины. В прошлом году десятки сотрудников Amazon и Google были уволены и арестованы после протеста против военных контрактов их компаний с Израилем — облачных сделок, которые подпадали под кодовое название «Проект Нимбус».
По сравнению с этим, реакция сообщества ИИ была довольно приглушенной. Некоторые исследователи ИИ, такие как Эван Хубингер из Anthropic, говорят, что использование ИИ в вооруженных силах неизбежно, и крайне важно работать напрямую с военными, чтобы убедиться, что они все делают правильно.
«Если вы серьезно относитесь к катастрофическим рискам, связанным с ИИ, правительство США является чрезвычайно важным игроком, с которым нужно взаимодействовать, и попытка просто заблокировать правительство США от использования ИИ не является жизнеспособной стратегией», — сказал Хубингер в ноябрьском сообщении в Интернете. форум LessWrong. «Недостаточно просто сосредоточиться на катастрофических рисках, вы также должны предотвратить любые случаи, когда правительство может злоупотреблять вашими моделями».