Етика штучного інтелекту бореться з вогненним ударом автономних систем зброї на основі штучного інтелекту та використанням керованих штучним інтелектом автономних систем, які диявольськи озброєні

Ці дивовижні танцюючі чотириногі роботи.

Я впевнений, що ви бачили ці вірусні відео чотирилапих робототехнічних систем, які танцюють і гарцюють, здавалося б, чарівними та улюбленими собачими способами. Нам, здається, подобається спостерігати за тими роботами, керованими штучним інтелектом, які долають перешкоди та, здається, делікатно закріплюються, сидячи на коробках або коли їх ненадійно поклали на п’яні верхи шаф. Їхні доглядачі іноді штовхають або штовхають веселих чотирилапих роботів, що здається надзвичайно несправедливим і може легко викликати у вас гнів через нахабне поводження цих гуманоїдів-натхненників.

Але мені цікаво, чи бачили ви не надто вірусні відео зовсім іншого калібру.

Приготуйся.

Є багато опублікованих відео, на яких показано чотирилапих роботів, які були оснащені яскраво вираженою зброєю того чи іншого виду.

Наприклад, кулемет або подібна вогнепальна зброя встановлена ​​на верхівці звичного танцюючого й стрибучого робота. Між чотирилапим роботом і ударно-спусковим механізмом зброї існує електронний зв'язок. Комп’ютерна крокуюча техніка, яка тепер є озброєнням, крокує до місця, де була розміщена мішень, а кулемет люто стріляє по цілі. Після того, як забив частково знищену ціль, чотирилапий робот танцює та стрибає навколо найближчих перешкод і шикується в чергу, щоб знову і знову повторювати ту саму дію на інших нових цілях.

Не зовсім те, що ви могли очікувати побачити. Це, безсумнівно, позбавляє від безтурботності та відносної радості від відвертого спостереження за цими приємними чотириногими роботами, які роблять свою справу. Ласкаво просимо в сувору реальність, здавалося б нешкідливий автономні системи перетворюються або перетворюються на гостру зброю. Не доклавши значних зусиль, ви можете за одну ніч модернізувати автономну систему, яка вважається «без зброї», щоб вона містила повну зброю.

За деяких обставин це майже легко.

Я збираюся обговорити цю надзвичайно суперечливу тему та розглянути досить серйозні сумніви щодо етики ШІ, які виникають. Ми вирушимо в подорож до автономних систем, штучного інтелекту, автономних транспортних засобів, створення зброї та низки пов’язаних з цим етичних бойових питань ШІ. Щоб дізнатися про постійне та широке висвітлення етики ШІ та етики ШІ, див посилання тут та посилання тут, просто назвемо декілька.

Давайте почнемо з деяких фундаментальних ключових каменів.

Заради обговорення визнайте, що існує два основних способи класифікації автономних систем, які були озброєні зброєю:

1) Автономні системи озброєння (за проектом)

2) автономні системи, які є озброєними (постфактум)

Існує важлива різниця між двома категоріями.

У першому випадку ми визначимо an автономна система озброєння бути з самого початку комп'ютеризованим витвором, який цілеспрямовано призначений як зброя. Розробники мали на увазі, що вони хотіли створити зброю. Їх явним завданням є виготовлення зброї. Вони знали, що можуть інтегрально поєднувати зброю з останніми технологіями автономних систем. Це зброя, яка йде на хвилі високих технологій, яка досягає автономного руху та автономних дій (незабаром я розповім докладніше).

Навпаки, у другому випадку ми розглянемо питання автономних систем, які взагалі не мають особливого ухилу в озброєнні. Це автономні системи, які розробляються для інших цілей. Уявіть собі автономний транспортний засіб, такий як безпілотний автомобіль, який використовуватиметься для забезпечення мобільності для всіх і допоможе зменшити кількість тисяч смертельних випадків щорічно через автомобілі, якими керує людина (перегляньте мій докладний огляд). в посилання тут). Схоже, не зброя розглядається для тих оптимістичних суспільних зусиль, щоб звільнити людей з-за керма та поставити штучний інтелект на місце водія.

Але ці нешкідливі автономні системи можуть стати зброєю, якщо люди цього захочуть.

Тоді я називаю цю другу категорію автономні системи, які оснащені озброєнням. Автономна система була спочатку і віддано створена для імовірно не збройових цілей. Незважаючи на це, мрійливу альтруїстичну надію руйнує хтось десь, кому спадає на думку, що цю вигадку можна використовувати як зброю. Раптом автономна система, яка здавалася приємною, стала смертоносною зброєю, позначивши певні можливості зброї (наприклад, згадані раніше чотирилапі собачі роботи, які мають кулемет або подібну вогнепальну зброю). .

На жаль, ці дві категорії в кінцевому підсумку дещо збігаються, а саме — забезпечення здатності використовувати автономні системи для озброєнь на потенційно летальній основі.

Процес досягнення цієї кінцевої точки, ймовірно, буде іншим.

Для повністю озброєних автономних систем, які були прив’язані до зброї, аспекти озброєння зазвичай є передніми та центральними. Ви можете сказати, що грані автономної системи є наріжним каменем будь-якої зброї, яка розглядається. Процес мислення розробників дещо схожий на те, як зброя може використовувати появу автономних систем.

Інша перспектива зазвичай зовсім не відповідає такому мисленню. Розробники хочуть вивести найсучаснішу автономну систему, можливо, для кращого розвитку людства. Ці розробники вклали щире серце і душу в створення автономної системи. Це суть їхнього винаходу. Можливо, вони не уявляють, що хтось узурпує або руйнує їхній чудово корисний пристрій. Вони блаженно захоплені суспільними перевагами, пов’язаними з формуванням і створенням автономної системи.

У якийсь момент, скажімо, треті сторони зрозуміють, що автономну систему можна переробити на зброю. Можливо, вони обдурили розробників, щоб вони дали їм автономну систему для, як стверджується, високих цілей. За зачиненими дверима ці зловмисники вирішують підступно додати до автономної системи можливості створення зброї. Вуаля, невинність перетворилася на відверту зброю.

Речі не повинні розвиватися таким чином.

Можливо, розробникам сказали, що вони розробляють невинну автономну систему, але ті, хто фінансував або керував цими зусиллями, мали на увазі інші цілі. Можливо, робота над автономною системою справді почалася невинно, але потім, коли потрібно було оплачувати рахунки, керівництво уклало угоду з джерелом фінансування, яке хоче автономні системи з мерзенних причин. Інша можливість полягає в тому, що розробники знали, що пізніше може бути використано для озброєння, але вони припускали, що вони перетнуть цей жахливий міст, коли або якщо він колись виникне. тощо

Є багато-багато різних шляхів того, як все це відбувається.

Можливо, вас зацікавить те, що я описав у попередніх колонках, що зростає обізнаність щодо етики ШІ щодо подвійного використання елементи сучасного ШІ див посилання тут. Дозвольте мені коротко ознайомити вас із цим.

Система штучного інтелекту, яка передбачається як хороша, іноді може бути на межі поганого, можливо, через деякі досить прості зміни, і, відповідно, вважається такою, що має подвійний характер. Нещодавно в новинах була система штучного інтелекту, яка була створена для виявлення хімічних речовин, які можуть бути вбивцями, для яких розробники хотіли переконатися, що ми можемо уникати або остерігатися таких непродуманих хімічних речовин. Виявляється, штучний інтелект можна дещо легко налаштувати, щоб віддано розкривати ці смертоносні хімікати і, таким чином, потенційно дозволяти лиходіям знати, які види хімікатів потенційно можна приготувати для своїх жахливих злих планів.

Автономні системи можуть явно вписуватися в цю оболонку подвійного призначення.

Певною мірою саме тому етика ШІ та етичний ШІ є такою важливою темою. Правила етики ШІ змушують нас залишатися пильними. Технологи штучного інтелекту іноді можуть бути стурбовані технологіями, особливо оптимізацією високих технологій. Вони не обов’язково враховують більші суспільні наслідки. Наявність мислення щодо етики штучного інтелекту, яке є невід’ємною частиною розробки та впровадження штучного інтелекту, є життєво важливим для створення належного штучного інтелекту, включаючи (можливо, дивовижно чи іронічно) оцінку того, як етика штучного інтелекту приймається компаніями.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Насправді вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо штучного інтелекту, ми підірвемо «золотий гусак», пригнічуючи досягнення ШІ, які пропонують величезні переваги для суспільства.

Автономія і зброя як дві заповіді

Існує крилата фраза, яку дехто використовує, щоб попередити про озброєні автономні системи всіх видів, які спільно вигадуються як slaughterbots.

Це викликає додатковий аспект, над яким ми повинні подумати.

Чи повинна автономна система зброї та/або автономна система, яка була озброєна, мати перевагу над смертоносними роботами чи роботами-вбивцями?

Дехто заперечить, що ми можемо мати рішуче нелетальний озброєні автономні системи також. Таким чином, з цієї точки зору, було б абсолютно недоречним використовувати такі фрази, як боти-боти чи роботи-вбивці. Нелетальний варіант, ймовірно, зможе приборкати або завдати шкоди, яка не має летального результату. Такі системи не вбивають, вони мають меншу здатність завдавати шкоди. Не перебільшуйте здібності, кажуть ті, хто наполягає, що ми не повинні бути стурбовані відвертою машиною для вбивств.

Отже, ми можемо мати таке:

  • Летальні автономні системи зброї
  • Летальні автономні системи, які були озброєні
  • Нелетальні автономні системи зброї
  • Нелетальні автономні системи, які були озброєні

Звичайно, контраргументом є те, що будь-яка автономна система, яка була озброєна, здавалося б, має потенціал для скочування в сферу смертоносності, навіть якщо нібито передбачається лише для використання на нелетальній основі. Поступовий два етапи переходу від несмертоносного до летального буде швидко виконано, коли ви вже отримаєте в руки зброю серед автономної системи. Вам було б важко надати залізну гарантію того, що несмертоносний не вилетить на смертоносну арену (хоча деякі намагаються це зробити, математично подібно).

Перш ніж ми заглибимося далі в цю загальну тему автономних систем і озброєння, можливо, було б корисно вказати на щось інше, що, хоча й очевидно, не обов’язково має на увазі.

Ось:

  • Існує аспект ШІ, який є невід’ємною частиною автономної системи
  • Існує збройовий аспект, який є збройовою частиною цього рівняння
  • ШІ також може бути пов’язаний зі зброєю

Давайте розпакуємо це.

Ми припустимо, що сучасні автономні системи вимагають штучного інтелекту як основного комп’ютеризованого засобу для виявлення автономних аспектів. Я згадав це, тому що ви можете спробувати стверджувати, що ми можемо використовувати технології та методи, не пов’язані зі штучним інтелектом, для створення автономних систем, що, хоч і правда, здавалося б усе менш і менш імовірним. В основному ШІ, як правило, забезпечує більший рівень автономії, і більшість відповідно використовує високі технології ШІ.

Отже, у нас є можливість на основі штучного інтелекту, яка якимось чином впроваджується в автономну систему та керує автономною системою та контролює її.

Як правило, тримайте це під рукою.

Здається очевидним, що нам також потрібна певна форма зброї, інакше чому ми обговорюємо тут тему автономних систем та зброї. Отже, так, очевидно, існує та чи інша зброя.

Я не збираюся заглиблюватися в тип зброї, яка може бути використана. Ви можете просто замінити будь-яку зброю, яка спадає на думку. Там може бути точкова зброя. Може існувати масова руйнівна зброя. Це може бути щось із кулями чи снарядами. Це може бути щось, що містить хімічні речовини або атомні летючі компоненти. Список нескінченний.

Додатковим фактором є те, чи ШІ взаємопов’язаний зі зброєю. Штучний інтелект може просто взяти зброю на прогулянку. У випадку з чотирилапим роботом, який стріляв із пістолета, можливо, з пістолета стріляє людина, яка має пульт дистанційного керування, підключений до спускового механізму зброї. Собакоподібний робот орієнтується в сцені, а потім віддалена людина повинна натиснути на курок.

З іншого боку, штучний інтелект може бути, так би мовити, спусковим гачком. Можливо, штучний інтелект був розроблений не лише для навігації та маневрування, але й для активації зброї. У цьому сенсі штучний інтелект виконує все, від А до Я. Немає залежності від віддаленої людини, щоб виконати роботу зі зброєю. ШІ запрограмований робити це замість цього.

Щоб уточнити, у цьому конкретному випадку використання автономних систем, які оснащені зброєю, у нас є такі можливості:

  • Автономна система: ШІ керує автономною системою повністю самостійно
  • Автономна система: ШІ керує автономною системою, але людина в циклі також може втрутитися
  • Зброя: Віддалена людина керує зброєю (ШІ ні)
  • Зброя: ШІ керує зброєю, але людина в циклі також може втрутитися
  • Зброя: ШІ керує зброєю повністю самостійно

Раніше я вже розглядав варіації людини в циклі щодо автономних систем і автономних транспортних засобів, див. посилання тут.

Коли ви дивитеся ці веселі відео танцюючих і гарцюючих чотирилапих роботів, зазвичай вони мають бути роботами, якими керує виключно штучний інтелект (ну, це звичай або вважається правильним етикетом серед тих, хто глибоко в ці справи). Це те, що ви також можете справедливо припустити. Звичайно, ви цього точно не знаєте. Можливо, віддалений оператор-людина керує роботами. Також існує ймовірність того, що штучний інтелект виконує частину скерування, і віддалений оператор-людина також робить це, можливо, допомагаючи ШІ, якщо робот потрапляє в скрутне становище і не може за допомогою обчислень розрахувати життєздатний спосіб звільнитися.

Суть тут полягає в тому, що існує безліч різновидів того, як штучний інтелект, автономні системи та озброєння можуть бути змішані. У деяких є ШІ, який керує автономною системою, але не керує зброєю. Можливо, людина віддалено керує зброєю. Інша точка зору полягає в тому, що зброя, можливо, активується заздалегідь, і автономна система доставляє активовану зброю, таким чином ШІ не брав безпосередньої участі в запуску зброї як такої, а натомість діяв як засіб доставки. І цілком можливо, що штучний інтелект є відомим майстром на всі руки, і також виконує весь спектр аспектів автономної системи для використання зброї.

Зробіть ваш вибір.

Водночас пам’ятайте, що під час дебатів на цю тему вагомим фактором є «людина в циклі».

Деякі розмежовують те, що якщо штучний інтелект виконує прицілювання та стрілянину (або будь-яку іншу зброю), то весь комплект і кумедний перетнули в безземельну зону. Це, мабуть, відрізняється від звичайної зброї типу «вистрілив і забув», яка має наперед націлений вибір, визначений людиною, наприклад, патрульний безпілотник, який має ракету, готову до стрільби по цілі, яка була вже обраний людиною.

Дехто дивується, чому автономні системи, які оснащені зброєю, не завжди включають людину в циклі протягом усього процесу, коли автономна система перебуває в активному стані. Схоже, нам було б краще, якби суворою вимогою було те, щоб усі такі озброєні автономні системи мали мати людину в циклі, роблячи це або для роботи автономної системи, або для керування зброєю (або для обох) . Тримати передбачувану надійну людську руку в цій суміші штучного інтелекту може здатися цілком хитрим.

Будьте готові до тривалого списку причин, чому це не обов’язково можливо.

Розглянемо ці труднощі:

  • Людина в циклі може бути недостатньо швидкою, щоб вчасно відреагувати
  • Людина в циклі може не мати достатньо інформації, щоб сумлінно відповісти
  • Людина в петлі може бути недоступною в потрібний час
  • Людина в циклі може бути невизначеною та не діятиме, коли це буде потрібно
  • Людина в циклі може прийняти «неправильне» рішення (відносно)
  • Людина в циклі може бути недоступна з системи в потрібний час
  • Людина в петлі може заплутатися та бути приголомшеною
  • І т.д.

У вас, безсумнівно, виникає спокуса поглянути на цей список людських недоліків і обмежень, а потім прийти до урочистого висновку, що є очевидний сенс вирізати людину в циклі та завжди використовувати натомість ШІ. Це може бути або виключення людини в циклі, або, можливо, штучний інтелект зможе перевизначити вкорінений дизайн людини в циклі. Перегляньте мій аналіз того, як розбіжності між штучним інтелектом і людиною в циклі можуть призвести до нестабільних ситуацій, описано на посилання тут.

Часто принизливий перелік недоліків, орієнтованих на людину в режимі реального часу, залишається сам по собі та залишає враження, що штучний інтелект має бути якось набагато мудрішим вибором, ніж мати людину в циклі . Не попадіться в цю підступну пастку. Існують серйозні компроміси.

Розглянемо ці розгалуження ШІ:

  • ШІ може виявити помилку, через яку він збився з шляху
  • ШІ може бути перевантажений і заблокуватись
  • ШІ може містити помилки розробника, які спричиняють нестабільну поведінку
  • ШІ може бути пошкоджений імплантованим вірусом злочинця
  • ШІ може бути захоплений кіберхакерами в режимі реального часу
  • ШІ можна вважати непередбачуваним через складність
  • ШІ може за допомогою обчислень прийняти «неправильне» рішення (відносно)
  • І т.д.

Сподіваюся, ви бачите, що є компроміси між використанням «людини в циклі» та використанням виключно ШІ. Якщо у вас виникає спокуса припустити, що готовим рішенням є використання обох, я хотів би підкреслити, що ви можете отримати найкраще з обох світів, але ви також можете отримати гірше з обох світів. Не припускайте, що це завжди і безперечно буде найкращим з обох світів.

Ви могли бути дещо здивовані одним із перерахованих вище недоліків ШІ, зокрема тим, що ШІ може бути непередбачуваний. Ми звикли вважати, що штучний інтелект має бути строго логічним і математично точним. Таким чином, ви також можете очікувати, що ШІ буде повністю передбачуваним. Ми повинні точно знати, що робитиме ШІ. Крапка, кінець історії.

Вибачте, що лопаю цю повітряну кулю, але цей міф про передбачуваність є неправильним. Розмір і складність сучасного штучного інтелекту часто є трясовиною, яку неможливо передбачити. Це видно з етичних хвилювань штучного інтелекту щодо деяких видів машинного навчання (ML) і глибокого навчання (DL). Я поясню трохи докладніше.

Крім того, ви можете поглянути на мій останній аналіз майбутніх тенденцій щодо спроб забезпечити верифіковані та математично доведені правильні системи штучного інтелекту за допомогою останніх технологій безпеки штучного інтелекту на сторінці посилання тут.

Роздум про правила дорожнього руху

Я вже згадував поняття цілей і орієнтування, що є досить перевантаженою термінологією, яка заслуговує на пильну увагу.

Ми можемо поміркувати над цим:

  • Цілі, якими є люди
  • Цілі, які не є людьми, а є живими істотами
  • Цілі, які тлумачаться як власність

Припустімо, що у нас є автономна система, яку озброїли. ШІ використовується для керування автономною системою та для озброєння. Штучний інтелект виконує все від А до Я. Людина в циклі не передбачена. З точки зору націлювання, ШІ вибиратиме цілі. Немає попереднього націлювання, яке було б створено людьми. Натомість штучний інтелект був запрограмований на те, щоб загалом визначити, чи є люди, на яких потрібно націлитися (можливо, сканування на наявність ворожих дій, певних видів уніформи тощо).

Зі мною до цього часу?

Цей сценарій є майже тим, який викликає найбільше обурення щодо озброєних автономних систем.

Заявлене занепокоєння полягає в тому, що штучний інтелект робить (принаймні) три речі, які йому не повинні бути дозволені:

  • Націлювання на людей як мішені
  • Націлювання без використання людини в петлі
  • Потенційно діє непередбачуваноly

Зауважте, що є гостра згадка про занепокоєння щодо непередбачуваності ШІ. Можливо, незважаючи на те, що штучний інтелект був запрограмований націлюватися на певні типи людей, програмування штучного інтелекту не те, про що ми думали, і штучний інтелект в кінцевому підсумку націлюється на «дружніх» на додаток до тих, кого ШІ мав сприймати як «ворожих». ” (або, можливо, замість). На додаток до цього, навіть якщо ми вирішимо включити положення про людину в циклі, непередбачуваність ШІ може означати, що коли ШІ має спілкуватися з людиною в циклі, він не зможе це зробити. так і діє без будь-якого втручання людини.

Вам може бути цікаво, що Міжнародний Комітет Червоного Хреста (МКЧХ) запропонував загальну позицію з трьох пунктів щодо автономних систем зброї, яка детально розкриває такі типи проблем (на веб-сайті МКЧХ):

1. «Непередбачувані автономні системи зброї повинні бути чітко вирішені з, особливо через їх невибірковий вплив. Найкраще цього можна досягти шляхом заборони автономних систем зброї, які розроблені або використовуються таким чином, що їх вплив неможливо зрозуміти, передбачити та пояснити достатньою мірою».

2. «У світлі етичних міркувань захисту людяності та дотримання норм міжнародного гуманітарного права щодо захисту цивільних осіб і комбатантів, що вийшли з ладу, використання автономних систем зброї для ураження людей має бути виключено. Найкраще цього можна досягти шляхом заборони автономних систем зброї, які розроблені або використовуються для застосування сили проти людей».

3. «З метою захисту цивільних осіб та цивільних об’єктів, дотримання норм міжнародного гуманітарного права та захисту людяності слід регулювати розробку та використання автономних систем зброї, які не будуть заборонені, зокрема шляхом поєднання: обмеження на типи цілей, наприклад, обмеження їх об’єктами, які за своєю природою є військовими; обмеження щодо тривалості, географічного охоплення та масштабу використання, у тому числі для забезпечення людського судження та контролю щодо конкретної атаки; обмеження ситуацій використання, наприклад, обмеження їх у ситуаціях, коли цивільні особи або цивільні об’єкти відсутні; rвимоги до взаємодії людини і машини, зокрема для забезпечення ефективного людського нагляду, своєчасного втручання та дезактивації».

З іншого боку, Організація Об’єднаних Націй (ООН) через Конвенцію про певні види звичайної зброї (CCW) у Женеві встановила одинадцять необов’язкових керівних принципів щодо летальної автономної зброї, згідно з офіційним звітом, опублікованим в Інтернеті (включаючи посилання на відповідні міжнародні гуманітарні Закон або положення МГП):

(a) міжнародне гуманітарне право продовжує повністю застосовуватися до всіх систем зброї, включаючи потенційну розробку та використання летальних автономних систем зброї;

(b) Відповідальність людини за рішення щодо використання систем озброєння повинна бути збережена, оскільки відповідальність не може бути передана машинам. Це слід враховувати протягом усього життєвого циклу системи озброєнь;

(c) Взаємодія «людина-машина», яка може набувати різних форм і реалізовуватися на різних етапах життєвого циклу зброї, повинна гарантувати, що потенційне використання систем зброї на основі нових технологій у сфері смертоносних автономних систем зброї є в дотримання чинного міжнародного права, зокрема МГП. При визначенні якості та масштабу взаємодії «людина-машина» слід враховувати низку факторів, включаючи оперативний контекст, а також характеристики та можливості системи озброєння в цілому;

(d) Відповідальність за розробку, розгортання та використання будь-якої нової системи озброєння в рамках КНО має бути забезпечена відповідно до чинного міжнародного права, у тому числі шляхом функціонування таких систем у відповідальному ланцюжку командування та контролю;

(e) Відповідно до зобов’язань держав згідно з міжнародним правом, при вивченні, розробці, придбанні або прийнятті на озброєння нової зброї, засобів або методу ведення війни, має бути визначено, чи буде її застосування за деяких чи всіх обставин заборонені міжнародним правом;

(f) При розробці або придбанні нових систем зброї на основі новітніх технологій у сфері смертоносних автономних систем зброї, фізичної безпеки, відповідних нефізичних гарантій (включаючи кібербезпеку від злому або підробки даних), ризик придбання терористичними групами слід враховувати ризик розповсюдження;

(g) Оцінка ризиків і заходи з пом’якшення мають бути частиною циклу проектування, розробки, тестування та розгортання нових технологій у будь-яких системах озброєнь;

(h) слід приділити увагу використанню новітніх технологій у сфері смертоносних автономних систем зброї для забезпечення дотримання МГП та інших відповідних міжнародно-правових зобов’язань;

(i) При розробці потенційних політичних заходів нові технології в області летальних автономних систем зброї не повинні антропоморфізуватися;

(j) Обговорення та будь-які потенційні політичні заходи, вжиті в контексті КНО, не повинні перешкоджати прогресу або доступу до мирного використання інтелектуальних автономних технологій;

(k) CCW пропонує належну основу для вирішення проблеми нових технологій у сфері летальних автономних систем зброї в контексті цілей і цілей Конвенції, яка прагне знайти баланс між військовою необхідністю та гуманітарними міркуваннями.

Трудна ситуація, в якій ми опинилися

Ці різні закони війни, закони збройних конфліктів або МГП (міжнародне гуманітарне право) служать життєво важливим і багатообіцяючим посібником для розгляду того, що ми можемо спробувати зробити з появою автономних систем, які оснащені зброєю, незалежно від того, чи це ключове рішення, чи постфактум методами.

Ми можемо щиро побажати, щоб заборона на смертоносні озброєні автономні системи суворо і слухняно дотримувалася. Проблема полягає в тому, що в будь-якій із найщиріших заборон неминуче знайдеться багато можливостей для хитрості. Як кажуть, правила створені для того, щоб їх порушувати. Можете посперечатися, що там, де все погано, тріщина шукатиме прогалини та намагатиметься обійти правила.

Ось деякі потенційні лазівки, які варто розглянути:

  • Претензії щодо несмертельності. Зробіть нелетальний автономні системи зброї (здавалося б, це нормально, оскільки це поза межами заборони), які потім можна перетворити на смертоносні (ви потрапите за межі заборони лише в останню хвилину).
  • Претензії лише щодо автономної системи. Дотримуйтеся заборони, не створюючи автономних систем, орієнтованих на смертельні випадки, тим часом досягайте максимального прогресу в розробці повсякденних автономних систем, які (ще) не озброєні, але які ви можете за копійки модернізувати, щоб стати озброєнням.
  • Претензії не інтегровані як одне ціле. Створюйте автономні системи, які зовсім не озброєні, а коли прийде час, комбіновані озброєння, щоб ви могли різко стверджувати, що вони є двома окремими елементами, і тому стверджувати, що вони не підпадають під рубрику все-в-одному автономна система зброї або її двоюрідний брат.
  • Стверджує, що не є автономним. Створіть систему зброї, яка, здається, не має автономних можливостей. Залиште місце в цій, ймовірно, неавтономній системі, для введення автономності на основі ШІ. Коли потрібно, підключіть автономію, і ви готові до роботи (до того часу, здавалося б, ви не порушували заборону).
  • Інше

Є багато інших виражених труднощів, пов’язаних із спробою прямої заборони летальних автономних систем зброї. Я розгляну ще кілька з них.

Деякі експерти стверджують, що заборона не є особливо корисною, а замість цього повинні бути нормативні положення. Ідея полягає в тому, що ці хитрощі будуть дозволені, але під суворим контролем поліції. Викладено перелік законних видів використання разом із законними способами націлювання, законними типами можливостей, законною пропорційністю тощо.

На їхню думку, пряма заборона — це все одно, що засунути голову в пісок і вдавати, що слона в кімнаті не існує. Однак ця суперечка викликає кипіння у тих, хто заперечує аргумент, що, запровадивши заборону, ви можете значно зменшити спокусу використовувати такі системи. Звичайно, дехто хизуватиметься забороною, але принаймні сподіваюся, що більшість – ні. Тоді ви можете зосередити свою увагу на рекламувальниках і не потрібно приділяти увагу кожному.

Ці дебати точаться.

Інша проблема, про яку часто згадують, полягає в тому, що навіть якщо хороші люди дотримуються заборони, погані – ні. Це ставить доброго в погане становище. Погані матимуть такі озброєні автономні системи, а хороші – ні. Щойно з’ясується, що є погані, буде надто пізно, щоб наздогнати хороші. Коротше кажучи, єдине розумне, що можна зробити, це підготуватися боротися з вогнем вогнем.

Існує також класичне протистояння щодо стримування. Якщо хороші вирішать створити озброєні автономні системи, це можна буде використати, щоб утримати поганих від спроб вступити в бійку. Або добрі будуть краще озброєні і таким чином відмовлятимуть поганих, або добрі будуть готові, коли погані, можливо, виявлять, що вони весь час таємно розробляли ці системи.

Протилежністю цим протидіям є те, що, створюючи озброєні автономні системи, ви ведете гонку озброєнь. Інша сторона прагнутиме мати те саме. Навіть якщо вони технологічно не в змозі створити такі системи заново, тепер вони зможуть викрасти плани «хороших», переробити інжиніринг високотехнологічних нутрощів або імітувати все, що вони вважають перевіреним і правдивим. спосіб виконати роботу.

Ага, репліка, все це могло б призвести до зменшення конфліктів ніби взаємно. Якщо сторона А знає, що сторона Б має таку смертоносну зброю автономних систем, а сторона Б знає, що вона є у сторони А, вони можуть сидіти спокійно і не вступати в бійку. Це має особливу ауру взаємно гарантованого знищення (MAD).

І так далі.

ШІ в автономії

Давайте переконаємося, що ми знаходимося на одній сторінці щодо природи сучасного ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

Будьте дуже обережні з антропоморфізацією сучасного ШІ.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

З додатковим базовим фоном ми знову звертаємося до теми автономних систем і озброєння. Раніше ми бачили, що ШІ входить до компонента автономної системи, а також може входити до компоненту озброєння. Сучасний ШІ не розумний. Це варто повторити, і я висвітлю це для додаткового розуміння цих питань.

Давайте розглянемо кілька сценаріїв, щоб зрозуміти, наскільки це важливо. Я на мить відмовлюся від орієнтації на воєнний час у цій темі та покажу, як вона пронизує багато інших соціальних середовищ. Забезпечте себе відповідним чином.

Автономна система на основі штучного інтелекту, як-от автономний транспортний засіб, який, як ми скажемо, не має нічого спільного зі зброєю, прокладає собі шлях у звичайній місцевості. Людина приходить, щоб скористатися автономним транспортним засобом. Людина озброєна передчутною зброєю. Для обговорення цього конкретного сценарію припустіть, що людина має на увазі щось неприємне. Людина сідає в автономний транспортний засіб (несучи зброю, приховану чи не приховану, у будь-якому випадку).

Автономний транспортний засіб прямує до будь-якого місця призначення, яке просив водій. У цьому випадку штучний інтелект просто програмно переносить цього пасажира з одного місця посадки до визначеного пункту призначення, так само, як він робив, можливо, десятки чи сотні поїздок щодня.

Якби це була людина-водій і транспортний засіб, керований людиною, мабуть, є певна ймовірність того, що водій-людина зрозуміє, що пасажир озброєний і, схоже, має неблагоприємні наміри. Людина-водій може відмовитися керувати транспортним засобом. Або людина-водій може під'їхати до поліцейської дільниці. Або, можливо, людина-водій може спробувати приборкати озброєного пасажира (існують випадки), або відмовити пасажира від використання зброї. Це досить складно, і може існувати будь-яка кількість варіацій. Вам було б важко стверджувати, що існує лише одна правильна відповідь для вирішення такої скрутної ситуації. На жаль, ситуація тривожна і явно небезпечна.

ШІ в цьому випадку навряд чи буде запрограмований на будь-яку з таких можливостей. Коротше кажучи, озброєний пасажир міг би використовувати свою зброю, роблячи це всередині автономного транспортного засобу під час поїздки. Система водіння штучного інтелекту продовжуватиме рух, а автономний транспортний засіб продовжуватиме курс до зазначеного місця пасажира (за умови, що пункт призначення не вважався поза межами).

Більшість сучасних систем водіння штучного інтелекту обчислювально зосереджуватимуться лише на дорозі, а не на зусиллях водія.

Ситуація може стати ще гіршою.

Припустімо, що хтось хоче доставити купу продуктів до місця, де потребують додаткової їжі. Людина запитує автономний транспортний засіб і кладе пакети з продуктами на заднє сидіння автомобіля. Вони не збираються брати участь у поїздці, а просто використовують автономний транспортний засіб, щоб доставити для них пакети з їжею.

Здається, цілком нормально.

Уявіть собі, що підла людина замість цього вирішить розмістити якусь форму зброї в автономному транспортному засобі, а не більш мирну концепцію продуктових пакетів. Я думаю, ви можете здогадатися, що може статися. Це проблема, про яку я неодноразово закликав у своїх колонках і попереджав, що нам потрібно впоратися швидше, ніж пізніше.

Однією із пропонованих відповідей на такі сценарії є те, що, можливо, всі автономні транспортні засоби можна запрограмувати використовувати свої камери та інші датчики, щоб спробувати виявити, чи потенційний пасажир озброєний і чи має підлі наміри. Можливо, штучний інтелект буде запрограмований на це. Або штучний інтелект в електронному вигляді беззвучно сповіщає віддаленого оператора-людину, який потім за допомогою камер візуально або іншим чином перевіряє пасажира та, можливо, взаємодіє з ним. Усе це є частиною складної та потенційно нерозв’язної «консерви черв’яків», яка викликає гострі проблеми конфіденційності та безліч інших потенційних проблем, пов’язаних із етичним ШІ. Дивіться моє висвітлення на посилання тут.

Інша дещо схожа альтернатива полягає в тому, що ШІ містить певне вбудоване етичне програмування, яке намагається дозволити ШІ робити етичні чи моральні судження, які зазвичай зарезервовані для людей, які приймають рішення. Я досліджував ці типи прогностиків обчислювальної етики, вбудовані в штучний інтелект, див. посилання тут та посилання тут.

Повертаючись до сценарію на полі бою, уявіть собі, що смертоносна автономна система зброї кружляє над зоною бойових дій. ШІ керує автономною системою. AI керує зброєю на борту. Раніше ми уявляли можливість того, що штучний інтелект може бути запрограмований на пошук, здавалося б, ворожих рухів або інших індикаторів людських цілей, які вважаються дійсними комбатантами.

Чи повинен цей самий штучний інтелект мати якийсь етично орієнтований компонент, який намагатиметься обчислювально розглянути те, що може зробити людина в циклі, діючи в певному сенсі замість того, щоб мати людину в циклі?

Деякі кажуть, що так, давайте продовжимо це. Деякі з жахом відсахаються і кажуть, що це або неможливо, або іншим чином порушує святість людського.

Ще одна банка хробаків.

Висновок

Для тих із вас, хто цікавиться цією темою, є ще багато чого для обговорення.

Я швидко розповім вам одну неприємну головоломку.

Зазвичай ми очікуємо, що людину врешті-решт притягнуть до відповідальності за все, що станеться під час війни. Якщо штучний інтелект керує автономною системою зброї або автономною системою, яка, можливо, була озброєна, і ця система робить на полі бою щось, що вважається недобросовісним, кого або що слід звинуватити в цьому?

Ви можете заперечити, що штучний інтелект повинен нести відповідальність. Але якщо так, то що саме це означає? Ми ще не вважаємо сьогоднішній ШІ втіленням юридичної особи, дивіться моє пояснення на посилання тут. Не можна пришпилювати хвіст ослу у випадку ШІ. Можливо, якщо штучний інтелект одного разу стане розумним, ви можете спробувати це зробити. До того часу це трохи досягнуто (плюс, які штрафи чи наслідки буде піддано штучному інтелекту, див. мій аналіз на посилання тут та посилання тут, наприклад).

Якщо штучний інтелект не є відповідальним підозрюваним, ми, природно, можемо сказати, що будь-яка людина або люди, які винайшли штучний інтелект, мають бути притягнуті до відповідальності. Чи можете ви зробити це, якби штучний інтелект просто керував автономною системою, і з’явилися люди, які поєднали це з озброєнням? Чи слідкуєте ви за розробниками ШІ? Або тих, хто розгорнув ШІ? Чи просто актор, який створює зброю?

Сподіваюся, ви зрозуміли, що я торкнувся лише верхівки айсберга у своїй щирій дискусії.

А поки давайте завершимо цю розмову. Можливо, ви пам’ятаєте, що Джон Лілі в Евфей: Анатомія дотепу в 1578 році пам'ятно заявив, що в любові і на війні все справедливо.

Чи мав би він на увазі появу автономних систем озброєнь і аналогічну появу автономних систем зі зброєю?

Нам, звичайно, потрібно негайно згадати про це.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- системи-озброєння-і-експлуатація-автономних-систем-керованих-інтелектом-які-диявольськи-озброєні/