Етика штучного інтелекту обмірковує переваги законодавчо обов’язкових фондів спокути для забезпечення відповідальності за погані дії ШІ

Хто винен?

Це може здатися простим запитанням, хоча у випадку відомої комедії легендарного дуету Еббота та Костелло про бейсбольну команду «хто» може збентежити. Ви можете бути трохи знайомі з Хто перший комедійну рутину, яку вони перетворили на одну з найтриваліших сценок усіх часів (спойлер для тих із вас, хто цього не чув).

Ебботт каже Костелло, що на першому — Хто, на другому — Що, а на третьому — Я не знаю. Дотепний трюк полягає в тому, що першого підвала називають Хто, другого підвалу — Що, а третього — Я не знаю. Звичайно, ці фрази також мають своє загальноприйняте значення, тому спроби інтерпретувати те, що говорить Еббот, можуть бути цілком заплутаними. Дійсно, Костелло ставить, здавалося б, нешкідливе запитання про те, хто перший, відповідь на яке твердо стверджується. Але це не має сенсу для Костелло, оскільки він очікував імені, а натомість отримав незрозумілу відповідь «так».

Коли мова заходить про появу штучного інтелекту (ШІ), одне з найбільш неприємних запитань, яке постійно задають, полягає в тому, хто або, можливо, що буде відповідати за те, що ШІ збивається з шляху.

Я раніше обговорював кримінальну відповідальність за випадки, коли штучний інтелект призводить до злочинних дій або вчиняє їх, перегляньте моє висвітлення на посилання тут. Існує також питання цивільної відповідальності, наприклад, на кого або що ви можете подати до суду, коли штучний інтелект вчинив вам погано, і це тема, яку я тут обговорюватиму. Усе це пов’язано з суттєвими міркуваннями етики ШІ. Щоб дізнатися про постійне та широке висвітлення етики ШІ та етики ШІ, див посилання тут та посилання тут, просто назвемо декілька.

Правила етики ШІ змушують нас залишатися пильними. Технологи штучного інтелекту іноді можуть бути стурбовані технологіями, особливо оптимізацією високих технологій. Вони не обов’язково враховують більші суспільні наслідки. Наявність мислення щодо етики штучного інтелекту, яке є невід’ємною частиною розробки та впровадження штучного інтелекту, є життєво важливим для створення належного штучного інтелекту, включаючи (можливо, дивовижно чи іронічно) оцінку того, як етика штучного інтелекту приймається компаніями.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Насправді вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо ШІ, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які дають величезні переваги для суспільства.

Точаться гарячі дебати щодо того, чи здатні існуючі закони належним чином протистояти появі систем ШІ в суспільстві. Юридична відповідальність зазвичай вимагає, щоб ви могли причепити хвіст ослу щодо того, хто несе відповідальність за шкідливу поведінку. У випадку штучного інтелекту може існувати досить незрозумілий шлях, який прив’язує конкретну особу чи осіб до штучного інтелекту, який виконав певну дію, що завдала шкоди. Штучний інтелект може бути значною мірою невідстежуваним до джерела чи винахідника, який склав ШІ.

Інше міркування полягає в тому, що навіть якщо коріння штучного інтелекту можна простежити до когось, питання полягає в тому, чи могла ця особа чи особи не змогли розумно передбачити несприятливий результат, який зрештою спричинив штучний інтелект. Суть передбачуваності зазвичай є важливим фактором при оцінці юридичної відповідальності.

У вас може виникнути спокуса подумати, що ви можете просто переслідувати сам штучний інтелект і назвати штучний інтелект як законну сторону, відповідальну або відповідальну за будь-яку ймовірно заподіяну шкоду. Загалом, переважаюча юридична точка зору полягає в тому, що ШІ ще не досяг рівня юридичної особи. Таким чином, ви не зможете, строго кажучи, змусити ШІ заплатити, і вам потрібно буде знайти людей, які працювали за лаштунками, так би мовити (для мого аналізу юридичної особи для ШІ див. посилання тут).

У всю цю потенційну юридичну трясовину входить ідея, яка висувається як можливий засіб правового захисту, або на короткостроковій основі, або, можливо, на довгостроковій перспективі. Ідея полягає в тому, що, можливо, слід створити спеціальний компенсаційний фонд для надання фінансової допомоги тим, хто постраждав від ШІ. Якщо іншим чином ви не можете отримати від штучного інтелекту компенсацію, і ви не можете визначити осіб, які, імовірно, повинні бути притягнуті до відповідальності, наступним найкращим варіантом може бути використання компенсаційного фонду, який спрямований на допомогу тим, хто постраждав від штучного інтелекту.

Такий фонд був би схожий на своєрідну форму страхування, як зазначено в дослідницькій статті, що спонукає до роздумів: «Це, по суті, буде механізм страхування від невизначеності: чітка та прозора основа для швидкої компенсації у випадках, коли позов про відповідальність невизначеність або відсутність перспектив на успіх через непередбачуваний характер шкідливої ​​поведінки, (тип) самої шкоди або надмірні витрати та/або складність процедури» (стаття Олівії Ерделі та Габора Ерделі «Головоломка відповідальності за штучний інтелект» І обхідний шлях на основі коштів», Журнал досліджень штучного інтелекту, 2021).

Компенсаційний фонд стане частиною загальної схеми гарантій штучного інтелекту (AIGS) і супроводжуватиметься деякими легкими змінами до існуючих законів про юридичну відповідальність. Легкий дотик, імовірно, було б легше прийняти і не вимагало б важкої юридичної та суспільної тривоги, якби до існуючих правових режимів було внесено більш важку серію показових змін. За словами дослідників: «Це відображає наше переконання, що, незважаючи на привабливість такого швидкого рішення, без змін застосування існуючих правил відповідальності до AI або a протекціоністськи вмотивований звернення до суворої відповідальності з метою встановлення відповідальності будь-якою ціною не є правильною відповіддю з трьох причин: по-перше, ігноруючи, що ці правила були адаптовані до різних обставин і, отже, можуть бути невідповідними для ШІ, вони суперечать делікатно збалансованим цілям система юридичної відповідальності. По-друге, вони гальмують інновації штучного інтелекту, використовуючи необґрунтовано каральний підхід. По-третє, невиправдане звернення до суворої відповідальності лише обходить проблеми передбачуваності та помилок у догматично непослідовний спосіб, а не усуває їх» (згідно з цитованою вище статтею).

Аргументи на користь таких компенсаційних фондів ШІ включають:

  • Зменшує потребу в тривалих і дорогих судових розглядах для вирішення проблем, заподіяних ШІ
  • Запевняє людей, що вони можуть використовувати штучний інтелект і отримати компенсацію, якщо їм завдано шкоди
  • Сприяє інноваціям штучного інтелекту, зменшуючи правову невизначеність, з якою стикаються новатори штучного інтелекту
  • Його можна ввести в дію набагато швидше, ніж вносити масштабні зміни до існуючих законів
  • Пропонує відносно чіткий засіб, який є надійним і легкодоступним
  • Інше

Тим часом ті, хто виступає проти підходу компенсаційних фондів ШІ, кажуть наступне:

  • Давайте розробникам штучного інтелекту надмірно звільнятися від роботи та дозволимо їм уникати відповідальності
  • Підбадьорить розробників штучного інтелекту створювати штучний інтелект, якому бракує сумлінної безпеки та належного контролю
  • Може спонукати людей неправдиво заявляти про шкоду ШІ, щоб вони могли отримати кошти
  • Обходить і підриває справжню потребу переглянути наші закони, щоб належним чином керувати ШІ
  • Це може стати бюрократичним кошмаром, який застряє та використовує кошти не за призначенням
  • Інше

Як видно, є як прихильники, так і супротивники цієї вельми суперечливої ​​ідеї.

Вам буде важко коротко виключити компенсаційний фонд ШІ як потенційний підхід до зростання занепокоєння щодо ШІ, який завдає шкоди. Запропоноване рішення також не є слем-данком.

Одна з точок зору полягає в тому, що виробникам штучного інтелекту доведеться вкладати кошти у фонди як частину своїх зусиль під час розробки та поширення штучного інтелекту. Це можна тлумачити як певну плату або податок, який вони повинні нести, щоб мати можливість випустити свій ШІ у світ. Але чи може ця додаткова вартість пригнічувати зусилля стартапів, які намагаються розширити межі сучасного ШІ? І як буде здійснюватися примусовий контроль за тим, щоб виробники штучного інтелекту сплачували свої збори чи податки?

Виникає низка запитань, які необхідно вирішити:

  • У яких країнах компенсаційний фонд штучного інтелекту був би найбільш доцільним?
  • Чи можна створити глобальну подобу взаємопов’язаних компенсаційних фондів ШІ?
  • Якими будуть докладні та дієві механізми, пов’язані з такими коштами?
  • Як будуть фінансуватися компенсаційні фонди АІ (державні, приватні, благодійні)?
  • Чи буде це страхування без вини, чи буде застосовано якийсь інший підхід?
  • І т.д.

Сфера, в якій вже реалізована ідея компенсаційних фондів ШІ, складається з автономних систем, таких як автономні транспортні засоби та безпілотні автомобілі. Про мою інформацію про безпілотні автомобілі та автономні системи ШІ див посилання тут.

Ось ескіз того, як це може працювати для самокерованих автомобілів на основі ШІ.

Припустімо, що безпілотний автомобіль врізається в велосипедиста. Велосипедист травмований. Велосипедист може вимагати судового захисту, потягнувшись до автовиробника автономного автомобіля. Або вони можуть націлитися на технологічну компанію з безпілотним керуванням, яка створила систему водіння ШІ. Якщо безпілотний автомобіль експлуатується як автопарк, іншим юридичним шляхом було б переслідувати оператора автопарку. Спроба подати до суду на AI на даному етапі неможлива, оскільки правосуб’єктність AI ще не встановлена.

Замість того, щоб подавати позов проти будь-якої з цих сторін, іншим заходом було б подати заяву або претензію до відповідного компенсаційного фонду ШІ. Фонд мав би формалізувати процеси, пов’язані з розглядом претензії, а потім визначити, які компенсаційні виплати можуть бути надані позивачу. Може існувати процес апеляції, який допоможе заявникам, які вважають, що їм було помилково відмовлено фондом або вони отримали недостатню компенсацію від фонду.

Теоретично компенсаційний фонд штучного інтелекту був би набагато швидшим шляхом до отримання компенсації за завдану шкоду. Ви можете собі уявити, наскільки трудомістким може бути судовий процес, коли фірми, на яких позовуються, можуть намагатися затягнути справу.

Однак адвокати можуть підкреслити, що компенсаційний фонд штучного інтелекту міг би дозволити іншим сторонам, таким як виробники штучного інтелекту, начебто уникнути будь-якого чіткого покарання за те, що вони пустили свій безпілотний автомобіль на громадських дорогах, який у підсумку збив велосипедиста. Що ще можуть «недбало» зробити ці фірми? Без навислого привиду законного меча, що бовтається над їхніми головами, ми могли б щоденно стикатися зі штучним інтелектом, який рясніє небезпечними можливостями.

Аргументи тривають.

Висновок

Етика штучного інтелекту нагадує нам, що ми завжди повинні враховувати етичні та правові наслідки ШІ. У цьому випадку компенсаційних фондів штучного інтелекту запропонована концепція страхового пулу коштів для компенсації тим, хто постраждав від штучного інтелекту, дійсно виглядає привабливою. Кошти, здавалося б, чекали б там, готові до використання та надання якнайшвидшої компенсації.

Компроміси щодо того, чи може це відкрити шлюзи для створення штучного інтелекту, який матиме все менше і менше засобів контролю безпеки, викликають страх і надто серйозне занепокоєння. Ймовірно, нам не потрібно підливати масла у вогонь, який, можливо, вже трохи розгорівся.

Чи можемо ми якимось чином змусити виробників штучного інтелекту розробити відповідний етичний штучний інтелект і одночасно створити ці компенсаційні фонди штучного інтелекту?

Хтось скаже, що так, ми можемо. Якщо змінити існуючі закони, щоб узгодити їх із компенсаційними фондами штучного інтелекту, ті, хто постраждав від штучного інтелекту, потенційно отримають подвійний шлях для отримання справедливої ​​компенсації.

Хто перший?

Так, це ті, хто (як і всі ми) першими помічають, що нам слід подумати про потенційне використання компенсаційних фондів штучного інтелекту та змінити існуючі закони, хоча б незначно, надаючи засоби для боротьби з натиском як хорошого ШІ, так і поганий ШІ.

Немає ніякої плутанини щодо цього життєво важливого міркування.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- підзвітність/