Пентагон определился, как использовать искусственный интеллект на войне

Министерство обороны США приняло этические принципы применения искусственного интеллекта(ИИ) в военных системах.

Министерство обороны США приняло этические принципы применения искусственного интеллекта(ИИ) в военных системах.  Согласно сообщению Пентагона, при формулировании принципов военные руководствовались конституцией США, десятой главой Кодекса США, законами и обычаями войны, а также международными договорами и «устоявшимися нормами и ценностями».

Новые принципы призывают людей "проявлять должную осмотрительность и осторожность" при развертывании и использовании систем ИИ, а решения, принимаемые автоматизированными системами, должны быть "отслеживаемыми" и "управляемыми", что означает, что "должен быть способ отключить или деактивировать" их, если алгоритм дает сбой, сказал генерал-лейтенант ВВС Джек Шэнахэн (Jack Shanahan), директор Объединенного центра искусственного интеллекта Пентагона.

В число ключевых этических норм для искусственного интеллекта также вошли такие принципы, как ответственность (разумно подходить к разработке и использованию ИИ), беспристрастность (свести к минимуму предвзятость ИИ), понятность (документация должна быть прозрачной и унифицированной). 

Пентагон также назначил Объединенный центр искусственного интеллекта ответственным за исполнение принципов использования систем искусственного интеллекта. В общей сложности на разработку принципов использования систем искусственного интеллекта министерство обороны США потратило 15 месяцев. Некоторые эксперты отметили расплывчатость принятых формулировок и отсутствие четкого свода правил, что военным следует и что не следует делать при разработке и использовании ИИ-систем.

Стремление Пентагона ускорить разработки в области искусственного интеллекта подтолкнуло технологические компании к борьбе за контракт на облачные вычисления на сумму более 10 млрд долларов США, известный как JEDI (Joint Enterprise Defense Infrastructure). Microsoft выиграла контракт в октябре, но Amazon подала в суд на Пентагон, утверждая, что антипатия президента Дональда Трампа к Amazon и ее главному директору Джеффу Безосу снизила шансы компании на победу в тендере.

Существующая военная директива от 2012 года требует, чтобы люди контролировали автоматизированное оружие, но не касается более широкого использования ИИ. Новые принципы США в области применения искусственного интеллекта призваны направлять как боевые, так и небоевые области, начиная от сбора разведданных и наблюдения и заканчивая прогнозированием проблем технического обслуживания самолетов или кораблей.

При разработке принципов учтены рекомендации, сделанные в прошлом году Советом по оборонным инновациям - группой во главе с бывшим генеральным директором Google Эриком Шмидтом. В то время как Пентагон признал, что ИИ "поднимает новые этические неясности и риски", новые принципы не соответствуют более сильным ограничениям, которым отдают предпочтение сторонники контроля над вооружениями.

В 2018-м году в процессе разработки ИИ-систем, Пентагон столкнулся с сопротивлением работников Google, которые заставили технологическую компанию отказаться от участия в военном проекте Project Maven, который использует алгоритмы для интерпретации аэрофотоснимков из конфликтных зон. С тех пор другие компании заполнили пустующую нише.

Большая часть ИИ-проектов в Пентагоне развивает подконтрольное Управление перспективных исследовательских проектов (Defense Advanced Research Projects Agency, DARPA). Сотрудники этого подразделения занимаются совершенствованием и внедрением систем искусственного интеллекта в различные образцы вооружения. В DARPA работают над наделением машин возможностью общаться и думать, так же как это делают люди.

Кроме того, американские власти поддерживают развитие ИИ-систем, позволяющие роботам быстро выявлять в сети видеоролики, изображения и аудиозаписи с отслеживаемым и потенциально опасным контентом.

Высока вероятность, что военные захотят заручиться поддержкой высокотехнологических компаний для более эффективной и скорой разработки подходящих ИИ-систем. Впрочем, сами техгиганты от этой перспективы не в восторге. В июле 2018-го около 160 компаний, а также более 2,4 тыс. ученых и предпринимателей во время Международной конференции по искусственному интеллекту (IJCAI) в Стокгольме подписали договор, который предполагает отказ от разработки оружия с искусственным интеллектом.

Среди подписавших документ, оказались основатель DeepMind Демис Хассабис, предприниматель Илон Маск, программист и основатель Skype Жаан Таллин. Инициаторы соглашения призывают правительство согласовать нормы, законы и правила, которые навеки запретят разработку роботов-убийц на основе технологий искусственного интеллекта. Пока такие меры не приняты, подписавшие соглашение стороны обязуются “не участвовать и не поддерживать разработку, производство, торговлю или применение смертоносного автономного оружия”.

Появление оружия, способного самостоятельно выбрать цель и вступить с ней в бой, несет угрозу моральным и прагматическим принципам человечества, а право о лишении человека жизни никогда не должно передаваться машине, говорится в документе. Прагматическая угроза заключается в том, что “летальное автоматическое оружие, способное самостоятельно выбирать и нацеливаться на объект без вмешательства человека, опасно дестабилизирует ситуацию для каждой страны и индивида”. Предприниматели и ученые также обратились к Организации Объединенных Наций (ООН) с требованием принять законы, ограничивающие разработку боевых роботов.

Профессор физики из Массачусетского технологического института Макс Тегмарк, который также подписал документ, заявил о том, что соглашение знаменует переход лидеров в сфере искусственного интеллекта “от слов к делу”. По его словам, оружие, оснащенное алгоритмами, так же отвратительно, как и биологическое, поэтому оно должно строго регулироваться.

И тем не менее, финансирование Минобороны США является основой современной высокотехнологичной экономики. Но это технологии двойного назначения. Компании типа Amazon, Apple, Facebook (запрещена в РФ), Google, Microsoft и PayPal, косвенно, а иногда и напрямую, связаны с военно-разведывательным комплексом США.

Например, согласно отчету Open the Government, большая часть правительства США настолько плотно завязана на инфраструктуре Amazon, что технический гигант открывает филиал недалеко от Вашингтона. Услуги, предоставляемые Amazon, включают облачные контракты, машинное обучение и системы биометрических данных. 

В перечень услуг, которые Amazon оказывает военным, входит также программное обеспечение для наблюдения и распознавания лиц для полиции и ФБР, а также расово-гендерные идентификационные инструменты для Департамента внутренней безопасности. 10% прибыли дочерних компаний Amazon Web Services поступает от государственных контрактов. В состав департаментов входят Государственный департамент, НАСА, Управление по контролю за продуктами и лекарствами и Центры по контролю и профилактике заболеваний.

Но Amazon – это лишь верхушка айсберга. Как пишет директор Плимутского института исследования проблем мира (PIPR) доктор Ти-Джей Коулз (T.J. Coles), в середине 90-х гг. будущие основатели Google Ларри Пейдж и Сергей Брин использовали гранты от фондов, связанных с Пентагоном, и другие государственные средства для разработки поисковых роботов и приложений для ранжирования страниц. Примерно в то же время ЦРУ и Агентство национальной безопасности финансировали программу Massive Data Digital Systems» (MDDS).

Брин получил финансирование от программы MDDS. По словам профессора Бхавани Турайзингема, который работал над проектом, “разведывательное сообщество…, по сути, обеспечило начальное финансирование Брина, которое было дополнено многими другими источниками, включая частный сектор”. Часть запатентованной системы Google PageRank была разработана как часть программы MDDS. Два предпринимателя, Андреас Бехтольсхайм (который создал Sun Microsystems) и Дэвид Черитон, оба из которых ранее получали деньги Пентагона, были ранними инвесторами в Google.