Що таке оновлена ​​політика Пентагону щодо роботів-вбивць?

Пентагон оприлюднив оновити свою Директиву 3000.09, який охоплює те, що вони називають Автономність систем озброєння а інші називають 'роботи-вбивці.' Сучасні дрони, такі як ВПС і ЦРУ MQ-9 Жниварки керуються дистанційним керуванням: людина сидячи перед відеоекраном визначає цілі на землі за тисячі миль, розміщує їх у перехресті прицілу та випускає a Ракета Hellfire або іншу зброю. Автономна зброя інша: вона самостійно вибирає цілі без втручання людини. Потрібні чіткі правила щодо того, коли і як їх можна використовувати, і нова директива наближає їх на крок.

Десять років тому, коли вийшла перша версія 3000.09, автономна зброя виглядала науковою фантастикою. Тепер вони цілком реальні. Про це заявили в ООН Поставлені Туреччиною безпілотники атакували цілі автономно у Лівії у 2020 році, а Росія зараз розміщує в Україні боєприпаси автономна здатність.

Багато активістів, як Кампанія для зупинки роботів-вбивць, хочуть прямої заборони на автономну зброю, наполягаючи на тому, що будь-яка дистанційна зброя залишається під дією значущий контроль людини в будь-який час. В ООН обговорювали, як це зробити контролювати таку зброю протягом багатьох років.

Однак, як стає ясно з нової директиви, Пентагон дотримується іншої лінії.

«Міністерство оборони постійно виступає проти політичного стандарту «значущого людського контролю», коли мова йде як про автономні системи, так і про системи ШІ», Грегорі Аллен, директор проекту з управління AI в Центр стратегічних та міжнародних досліджень, сказав мені. «Переважним терміном Міністерства оборони є «відповідний рівень людського судження», який відображає той факт, що в деяких випадках (наприклад, автономні літаки спостереження та деякі види автономної кіберзброї) відповідний рівень людського контролю може бути незначним або відсутнім. .”

Яка автономна зброя буде дозволена за яких обставин? Аллен вважає, що попередня версія директиви була настільки незрозумілою, що перешкоджала будь-якому розвитку в цій сфері.

«Плутанина була настільки широко поширеною — в тому числі серед деяких старших керівників Міністерства оборони — що чиновники утримувалися від розробки деяких систем, які не тільки дозволялися політикою, але й прямо виключалися з вимоги перевірки старшим керівництвом», — каже Аллен.

Жодна зброя не була подана на розгляд процесу автономної зброї, викладеної в оригінальному документі 3000.09, протягом десяти років з моменту його публікації.

Аллен написав твір на цю тему для CSIS минулого року, описуючи чотири сфери, які потребують роботи: офіційне визначення автономних систем зброї, пояснення того, що означає «підтримка штучного інтелекту» для цієї політики, як процес перегляду враховуватиме перепідготовку моделей машинного навчання та уточнення, які типи зброї вимагають пройти складний процес перевірки.

«Міністерство оборони впровадило їх усі», — каже Аллен.

У принципі це повинно забезпечити те, що Міністерство оборони називає «сильним і постійним зобов’язанням бути прозорим глобальним лідером у встановленні відповідальної політики щодо військового використання автономних систем».

Однак є деякі доповнення, які можуть розглядатися як лазівки, наприклад, звільнення від перевірки вищого керівництва для безпілотних літальних апаратів із автономною зброєю, що обороняються, які не націлені на людей («антиматеріальна зброя»), але яким буде дозволено націлюватися на ракети, інші безпілотні літальні апарати. і потенційно інші системи.

«Слово «захищати» виконує масу роботи» Зак Калленборн, сказав мені політичний співробітник Школи політики та урядування Шара при Університеті Джорджа Мейсона. «Якщо дрон працює на ворожій території, майже будь-яка зброя може розглядатися як «захист» платформи».

Калленборн також зазначає, що хоча фактично автономна зброя, як-от протипіхотні міни, використовується вже більше століття, ландшафт швидко змінюється завдяки прогресу ШІ та зокрема машинного навчання. Це породило системи, які є дуже спроможними, але технічно крихкий – коли вони зазнають невдачі, вони зазнають неймовірної невдачі, як, наприклад, жодна людина прийнявши черепаху за рушницю.

«Автономія за допомогою штучного інтелекту, безперечно, заслуговує на більше занепокоєння, враховуючи крихкість і відсутність пояснень домінуючих підходів», — каже Калленборн.

Оновлення не велике. Але це свідчить про незмінну прихильність Пентагону розробці ефективної автономної зброї та віру в те, що вони можуть відповідати міжнародне гуманітарне право — відрізнити цивільних осіб від військового персоналу, намагаючись уникнути заподіяння шкоди цивільним особам і застосовуючи лише пропорційну та необхідну силу.

Активісти кампанії вважають, що штучний інтелект не матиме необхідного розуміння, щоб робити моральні оцінки під час війни, і ризикує створити світ, де війна автоматизована, а люди більше не контролюють. Інші вважають, що армія США буде перемагають супротивників з автономною зброєю якщо штучний інтелект не включений на тактичний рівень, і це занадто багато людської участі уповільнює військових роботів.

Аргументація, ймовірно, триватиме, навіть коли почне з’являтися автономна зброя, і за результатами буде уважно стежити. У будь-якому випадку, здається, роботи-вбивці йдуть.

Джерело: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/