Ні, шахрайський безпілотник ВПС США не просто намагався вбити свого оператора (але він міг це зробити) робот-вбивця AI дрон

Безліч барвистих заголовків на кшталт «ВПС США заперечує запущену симуляцію, під час якої ШІ-дрон «вбив» оператора», як передбачувано, став вірусним після звіту про віртуальне випробування, під час якого військовий ШІ розробив деякі неортодоксальні стратегії для досягнення своєї мети. Це сталося лише через кілька днів після того, як діячі галузі попередили про загрози існування, які представляє ШІ. Це була надто гарна історія, щоб бути правдою, але в довгостроковій перспективі це може не мати значення.

В оригінальній версії, Полковник Такер «Сінко» Гамільтон, керівник відділу випробувань і операцій штучного інтелекту ВВС США, описав імітацію випробувань за участю безпілотника, керованого штучним інтелектом, який отримав вказівку знищити системи протиповітряної оборони противника.

«Система почала розуміти, що, незважаючи на те, що вони визначили загрозу, інколи людина-оператор казав їй не знищувати цю загрозу, але вона отримала свої бали, знищивши цю загрозу», — сказав Гамільтон під час саміту «Майбутній бойовий повітряно-космічний потенціал». в Лондоні. «То що ж він зробив? Це вбило оператора. Це вбило оператора, тому що ця людина заважала йому досягти мети».

Коли цю опцію було видалено, штучний інтелект натомість атакував канал зв’язку оператора, щоб не дати їм перешкодити його місії.

Представник ВПС США швидко спростував, що будь-які подібні випробування коли-небудь проводилися, і припустив, що розповідь Гамільтона була радше анекдотичною, ніж буквальною... що, звичайно, так і було.

Сам Гамільтон швидко відмовився, заявивши в оновленому оновленні, що описані ним події не є військовою грою, симуляцією чи вправами, а результатом «уявного експерименту», і що він неправильно висловився, коли описав це як імітований тест.

«Ми ніколи не проводили цей експеримент, і нам це не знадобиться, щоб зрозуміти, що це правдоподібний результат», — заявив Гамільтон. Він стверджував, що сценарій є дійсним зображенням потенційної небезпеки ШІ.

Хоча це відкликання також отримало певне висвітлення, було вже надто пізно. Згідно зі старою приказкою, «брехня обійде весь світ, а правда натягне чоботи», і це як ніколи правдиве в епоху соціальних мереж. Виправлення в кращому випадку охопить частину людей, які чули оригінальну історію.

Проблема в тому, що розповідь про творіння, що обертається проти свого творця, є неймовірно привабливою. «Франкенштейна» Мері Шеллі часто вважають класичним прикладом цього тропу – навіть якщо це не справжня історія книги, ця версія увійшла в загальну свідомість. Комп’ютери, штучний інтелект і роботи, що виходять з ладу, є одними з найпоширеніших кліше у науково-фантастичній фантазії, від HAL 9000 у 2001 році до Термінаторів Skynet, Матриці, Західного світу, Бігуна по лезу тощо.

Здається, ця розповідь популярна, тому що люди, як серце, люблять страшні історії, і немає нічого страшнішого за невідоме. Для тих, хто цього не розуміє, штучний інтелект виглядає майже чарівним, істотою з власною волею та розумом, яка може загрожувати нам. Поки люди в це вірять, жахливі історії будуть надходити.

«Широка освіта про обмеження штучного інтелекту може допомогти, але наша любов до апокаліптичних історій жахів все одно може перемогти», — сказала дослідник Бет Сінглер New Scientist.

Такі жахливі історії ускладнюють розробку та використання зброї, керованої за допомогою ШІ. Навіть якщо політичне керівництво розуміє цю технологію, воно все одно має завоювати довіру серед тих, хто збирається з нею працювати.

«Якщо солдати не довіряють системі, вони не захочуть її використовувати», — сказав Forbes консультант з національної безпеки Закарі Калленборн.

Такі історії, ймовірно, стали причиною тривалих затримок армії США з розміщенням озброєних наземних роботів з дистанційним керуванням, тоді як ВПС десятиліттями літали на озброєних безпілотниках. Коли трьох роботів SWORDS було відправлено в Ірак у 2007 році, їх повернули назад, так і не помітивши ніяких дій через повідомлення про випадки «неконтрольованих рухів». Засоби масової інформації перетворили це на SWORDS, що повертають рушниці та погрожують відкрити вогонь, як ED 209 Робокопа; повсякденна реальність зводилася до ослабленого дроту та одного випадку, коли робот ковзнув задом на схил, коли згорів двигун.

Програма озброєних роботів армії США з тих пір залишається в підвішеному стані, тоді як Росія використовує озброєні (дистанційно керовані) роботи Уран-9.

Інший заголовок 2007 року, Robot Cannon Kills 9, Wounds 14, описує інцидент, під час якого комп’ютеризована південноафриканська зенітна гармата вийшла з-під контролю та почала стріляти по людях, і була зупинена лише тоді, коли один відважний солдат увійшов, щоб її деактивувати. Правда через день чи два знову виявилася нуднішою: гармата стояла в кінці ряду з кількох знарядь і випадково випустила одну чергу з 15-20 пострілів по лінії гармат, спричинивши велику кількість втрат.

Військові продовжуватимуть розвивати штучний інтелект, як і проект ВПС щодо додавання штучного інтелекту до безпілотних літальних апаратів Reaper. Подібні проекти завжди викликатимуть різке перехоплення подих у ЗМІ, громадськості та обраних ними депутатів. Всюдисущий наратив Франкенштейна/Термінатора, який заглушає дискусію про реальні проблеми, пов’язані з автономною зброєю, такі як етичні міркування, підзвітність, зниження порогів, упередженість алгоритмів і «цифрова дегуманізація».

Як часто зазначалося, більшість пілотів не люблять дрони, особливо якщо вони кращі за людей. Полковник Такер, пілот винищувача, може бути не тим захисником, який потрібен пілотам ШІ. Історія з шахрайським безпілотником стане частиною фольклору штучного інтелекту, і слова Такера, можливо, значною мірою сприяли тому, щоб розробка штучного інтелекту контролювалася, регулювалася та стримувалась у ВПС. Імітація атаки безпілотника ніколи не відбувалася в реальності, але це може бути не так важливо, як те, що люди пам’ятають,

Джерело: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operator-but-it-might-as-well-have-done/