Етика штучного інтелекту, яка бореться з неминучими аваріями з штучним інтелектом, які також нависають над автономними самокерованими автомобілями

Ви, можливо, знаєте когось, хто, здається, особливо схильний до нещасних випадків?

Здається, ми всі так.

Можливо, це той тип людини, який схильний посковзнутися на банановій шкірці або збити дорогоцінну вазу у вашій вітальні. Вони є людським магнітом для аварій того чи іншого роду. Це може бути настільки погано, що вам навіть ненавидіться перебувати поруч з ними. Ви можете отримати зловісне переповнення або постраждати від безславних наслідків одного з їхніх неприємних нещасних випадків.

Але, можливо, ми занадто різко говоримо, що хтось більш схильний до нещасних випадків, ніж інші. Можна стверджувати, що нещасні випадки можуть статися з кожним із нас. Ми всі схильні до можливості вчинити або потрапити в аварію. Найкращі з нас включені.

Давайте додамо до цього обговорення ще одне неприємне питання.

Чи неминучі аварії?

Іншими словами, як би ми не намагалися запобігти нещасним випадкам, нерозривно може статися, що все ж є шанс і остаточна впевненість у тому, що нещасні випадки все ж таки відбудуться. Ви можете прагнути захистити світ від нещасних випадків. Це здається безсумнівно розсудливим. Але так чи інакше, аварії все одно висуватимуть свою потворну голову.

Як кажуть, аварії чекають.

Можливо, буде корисно пояснити, що мається на увазі, коли певна подія має належне позначення як нещасний випадок. Звичайне визначення у словнику полягає в тому, що нещасний випадок – це тип інциденту, який стався несподівано і ненавмисно, для якого є сумний результат, який складається з видимості пошкодження або травми.

Уважно розпакуйте це визначення.

Зазначений інцидент є неочікуваним. Це означає, що ми, здається, не усвідомлювали, що сама аварія станеться.

Зазначений інцидент є ненавмисним. Це говорить про те, що ми повинні виключити обставини, коли хтось навмисно прагнув, щоб інцидент стався. Якщо жартівник кладе бананову шкірку на підлогу, де, як він знає, ступить невдалий і нічого не підозрюючий невинний, вам буде важко стверджувати, що людина, яка спотикалася об неї, потрапила в аварію. Натомість їх обдурили і підступно ввели в пастку.

Визначення також включає критерій того, що результат є невдалим. Аварія в цьому світлі повинна призвести до гіршого результату. Людина, яка випадково перекинула вазу, тріснула і, можливо, пошкодила предмет, який сподобався, і не підлягає ремонту. Власнику вази шкодить втрата вартості. Людина, яка наштовхнулася на вазу, тепер може бути винна власнику за втрату. Не дай Боже, щоб хтось був порізаний або зламаний через розбиття вази.

Задля рівноваги, ми можемо зазначити, що існують також так звані «хороші» аварії. У результаті нещасного випадку людина може опинитися в великому стані або отримати якусь іншу життєво важливу вигоду. Одним з найбільш часто цитованих прикладів є сер Олександр Флемінг і його відоме відкриття пеніциліну. Кажуть, що він був трохи необережний у своїй лабораторії, і, повернувшись із двотижневої відпустки, він виявив цвіль на одній зі своїх культуральних пластин. Як повідомляється, він сказав про це так: «Іноді знаходиш те, чого не шукаєш. Коли я прокинувся відразу після світанку 28 вересня 1928 року, я, звичайно, не планував революціонізувати всю медицину, виявивши перший у світі антибіотик або вбивцю бактерій. Але я здогадуюсь, що це саме те, що я зробив».

Ми залишимо в стороні сприятливі аварії і зосередимося тут на жахливих нещасних випадках. Нахмурена версія нещасних випадків – це те, коли ці несприятливі наслідки можуть бути особливо небезпечними для життя або мати обтяжливі наслідки. Наскільки це можливо, ми хочемо звести до мінімуму негативні випадки (і, звісно, ​​негативні випадки, які ми хотіли б максимізувати, якщо це можливо зробити, хоча я розповім про цей варіант смайлика в наступній колонці).

Я хотів би трохи переформулювати попереднє питання про неминучість аварій. Поки що ми зосереджували нашу увагу на нещасних випадках, які відбуваються в конкретному випадку з окремою особою. Безсумнівно, аварії також можуть вплинути на безліч людей одночасно. Особливо це можна зустріти, коли люди занурені в складну систему того чи іншого роду.

Приготуйтеся до варіанта попереднього запитання.

Чи неминучі системні аварії?

Ми повинні це обдумати.

Припустимо, завод закладено для виготовлення деталей для автомобілів. Ті, хто проектував фабрику, скажімо, надзвичайно стурбовані нещасними випадками на робочих місцях, які можуть статися. Працівники заводу зобов’язані постійно носити шоломи. Знаки на заводі закликають остерігатися нещасних випадків і бути уважними у своїй роботі. Вживаються всілякі запобіжні заходи, щоб уникнути нещасних випадків.

У цій системі ми можемо сподіватися, що ніхто ніколи не потрапить в аварію. Чи вірите ви, що шансів на аварію немає? Я наважуся припустити, що жоден розумний мислитель не поставив би на те, що в цьому випадку ймовірність нещасного випадку дорівнює нулю. Шанси на аварію можуть бути дуже низькими, але ми все ще знаємо і припускаємо, що, незважаючи на всі запобіжні заходи, все ще існує певний ризик того, що аварія станеться.

Все це вказує на ідею, що в системі достатньої складності ми зобов’язані вірити, що нещасні випадки все одно відбуватимуться, незалежно від того, наскільки ми намагаємося їм запобігти. Ми неохоче підтримуємо положення про те, що системні аварії справді неминучі. Грандіозна заява такого калібру може мати застереження про те, що система повинна мати певний поріг складності, так що по суті неможливо охопити всі основи, щоб повністю запобігти нещасним випадкам.

Тепер вас акуратно, крок за кроком, ознайомили з широко окресленою теорією аварій, яку можна позначити як звичайні аварії або теорію звичайних аварій (NAT). Ось зручний опис дослідників, які досліджували це поняття: «У досить великих масштабах будь-яка система призведе до «звичайних аварій». Це неминучі аварії, викликані поєднанням складності, зв’язку між компонентами та потенційної шкоди. Звичайна аварія відрізняється від більш поширених несправностей компонентів тим, що події та взаємодії, що призводять до нормальної аварії, незрозумілі для операторів системи» (як зазначено в «Розуміння та уникнення збоїв AI: практичний посібник» Роберта Вільямса та Роман Ямпольський, Філософії журнал).

Причина, чому я привів вас у землю т. зв нормальні аварії полягає в тому, що нам може знадобитися ретельно застосувати цю теорію до чогось, що поступово і неминуче стає повсюдно поширеним у нашому суспільстві, а саме до появи штучного інтелекту (ШІ).

Давайте вникнемо в це.

Деякі люди помилково припускають, що ШІ буде досконалістю. Системи штучного інтелекту не будуть робити помилок і не завдадуть нам неприємностей, ходять припущення. Все, що вам потрібно зробити, це переконатися, що ці розробники штучного інтелекту справляються з роботою достатньо добре, і вуаля, ШІ ніколи не зробить нічого, що можна було б розцінити як випадковість або нещасний випадок.

Не так швидко щодо цієї гіпотетичної віри. Якщо ви готові придбати теорію нормальні аварії, будь-який ШІ будь-якої істотної складності неминуче призведе до нещасного випадку. Незалежно від того, скільки пізно вночі майструють ці розробники штучного інтелекту, щоб запобігти аварії, ШІ, безсумнівно, в якийсь момент часу потрапить у аварію. Таким чином печиво кришиться. І немає перепочинку, щоб плакати в нашому розлитому молоці про це.

Поміркуйте про комбінацію ШІ та концептуальних принципів нормальні аварії.

Уявіть собі, що у нас є система ШІ, яка контролює ядерну зброю. ШІ був ретельно розроблений. Кожна можлива система стримувань і балансів була закодована в системі штучного інтелекту. Чи застраховані ми від нещасного випадку, який може статися через штучний інтелект? Ті, хто підтримує нормальну точку зору щодо аварій, сказали б, що ми не настільки безпечні, як можна було б припустити. Враховуючи, що ШІ, ймовірно, буде особливо складним, звичайна аварія тихо чекає там, щоб коли-небудь виникнути, можливо, в найгірший момент.

Суть цих хвилюючих запитань і заклопотань полягає в тому, що ми повинні бути впевнені, що штучний інтелект неминуче спричинений нещасними випадками, і людство має зробити щось розумне та активне щодо небезпек, які можуть виникнути. Як ви побачите через мить-другий, коли справа доходить до використання штучного інтелекту, це дуже актуальне питання, а у сфері етики AI та етичного AI дуже багато боротьба з тим, що робити. Для мого постійного та широкого висвітлення Етики ШІ та Етичного ШІ див посилання тут та посилання тут, просто назвемо декілька.

Перш ніж ми спустимося в кролячу нору, давайте переконаємося, що ми на одній сторінці щодо природи ШІ. Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, і чи розумний ШІ якимось дивом спонтанно виникне у формі обчислювальної когнітивної наднової (зазвичай її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини, яка дає вам поради. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут). Всі ці сценарії посилили б оцінку джерела.

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера штучного інтелекту широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Загалом, загальна сподівання полягає в тому, що, закріпивши почуття етики ШІ, ми зможемо принаймні підвищити обізнаність суспільства про те, що ШІ може як корисно зробити, так і негативно. Я детально обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який досліджував та згортав сутність численних національних та міжнародних принципів етики ШІ у статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та застосування штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Можливо, нам доведеться додати до хвалених списків етики штучного інтелекту, які ми маємо чітко розглянути та вжити відкритих заходів, щоб запобігти чи принаймні різко пом’якшити вплив штучного інтелекту. нормальні аварії це може статися. Ті, хто розвиває AI, повинні зробити все можливе на цьому фронті. Ті, хто розгортає AI, повинні зробити те саме. Ті, хто використовує або якимось чином піддається штучному інтелекту, повинні бути обережними та остерігатися можливості нещасних випадків, які, здавалося б, можуть статися.

У вас може виникнути спокуса подумати, що в ШІ можна вбудувати достатньо запобіжних заходів, щоб шанси на нещасний випадок знизилися до нуля. Для тих, хто є технарями, звичайна гордість полягає в тому, що якщо частина техніки може створити проблему, інша частина техніки, безсумнівно, може вирішити проблему. Просто продовжуйте викидати все нові й нові технології, поки проблема не зникне.

Що ж, ті, хто вивчав системно-орієнтовані аварії, схильні були б не погодитися і ввічливо відповісти на передбачувану помпезність техніків, пропонуючи точку зору, відому як Swiss Cheese Model (SCM): «У SCM шари безпеки моделюються як шматочки сир з дірочками, що представляють слабкі місця в кожному шарі безпеки. З часом отвори змінюють форму і рухаються. Зрештою, незалежно від того, скільки шматочків сиру (шарів безпеки) є, отвори вирівняються, дозволяючи прямий постріл крізь усі скибочки сиру (трапиться нещасний випадок)» (за раніше цитованим документом Роберта Вільямса та Романа Ямпольського ).

Я не хочу занурюватися в цю бічну дотичну щодо того, чи існує гарантований спосіб запрограмувати ШІ, щоб повністю та завжди запобігти будь-якій ймовірності нещасного випадку. Випробовуються всілякі математичні та обчислювальні підходи. Я вважаю, що розумно та справедливо заявити, що сьогодні у нас немає ні масштабованого методу роботи, ні технологій, які можуть гарантувати такий нульовий шанс, до того ж ми, безперечно, обтяжені тоннами за тоннами штучного інтелекту, який виробляється безперервно. знаю точно не намагався дотримуватися такої практики. Цей останній момент є вирішальним, оскільки навіть якщо ми зможемо щось придумати в лабораторії штучного інтелекту, збільшити це до мільйонів безтурботних і безтурботних зусиль штучного інтелекту, які тривають, і це буде продовжувати з’являтися, це вузлова проблема, яка навряд чи буде вирішена, навіть якщо обчислювальна перевірювальна машина стане срібною. куля існувала.

Ще один момент, який, на мою думку, заслуговує короткої згадки, — це штучний інтелект, який перетворюється на дії зловмисних людей. Я не збираюся відносити ці випадки до сфери нещасних випадків із штучним інтелектом. Пам’ятайте, що на початку дискусії було висловлено припущення, що словникове визначення нещасного випадку є інцидентом ненавмисне природа. Якщо людині кібершахраю вдається змусити систему штучного інтелекту робити погані речі, я не класифікую цей ШІ як нещасний випадок. Я вірю, що ви погодитеся з цією презумпцією.

Виникає цікаве питання щодо того, скільки різних несприятливих дій штучного інтелекту можна віднести лише до нещасного випадку з штучним інтелектом проти підступних дій кіберзлочинця. Згідно з деякими наявними базами даних про інциденти з штучним інтелектом, схоже, що нещасні випадки, пов’язані з штучним інтелектом, трапляються частіше, ніж інциденти, викликані зловмисниками, хоча ви повинні сприймати це поняття з великою дозою солі. Я кажу це, тому що існує велика спокуса не повідомляти про атаку на систему штучного інтелекту і, можливо, бути більш охоче повідомляти про нещасний випадок з штучним інтелектом.

Є надзвичайно важливе застереження, яке ми маємо обговорити щодо нещасних випадків із штучним інтелектом.

Використання крилатої фрази «аварії на штучному інтелекті» загалом небажано і створить неабиякий безлад для всіх нас, тобто для всього суспільства. Коли людина, можливо, потрапляє в аварію, ми часто знизуємо плечима і співчуваємо людині, яка потрапила в аварію. Здається, ми ставимося до слова «аварія» так, ніби воно означає, що ніхто не несе відповідальності за те, що сталося.

Візьмемо приклад, як потрапити в ДТП. Одна машина широко розгойдується на правому повороті й випадково врізається в іншу машину, яка йшла прямо попереду. Чорт, це був просто нещасний випадок і випадково трапився. Ті, хто не був причетний до інциденту, мабуть, звільняться від цього, якщо подія розглядається як просто нещасний випадок, який стався.

Але у мене таке відчуття, що якби ви були в машині, яку збили, ви б не так прихильно ставилися до водія, який зробив занадто широкий поворот. Ваша думка, безумовно, така, що інший водій був поганим водієм і що або нібито незаконне або нерозумне водіння призвело до аварії. Позначивши інцидент як «аварію», водій, який застряг, тепер перебуває в дещо невигідному становищі, оскільки виглядає так, що все сталося виключно випадково, а не через руки водія, який зіпсувався.

Насправді, слово «аварія» настільки наповнене різноманітними конотаціями, що загалом державна статистика дорожньо-транспортних пригод позначає це питання як зіткнення автомобілів або автокатастрофи, а не використання фрази автомобільні аварії. Зіткнення автомобіля чи автокатастрофа, здається, не мають жодних наслідків для того, як стався інцидент. Тим часом формулювання «автомобільна аварія» майже наводить нас на думку, що це було примхою долі або якимось чином не в руках людства.

Ви можете добре побачити, як це конотаційне міркування грає, коли йдеться про нещасні випадки з штучним інтелектом. Ми не хочемо, щоб розробники AI ховалися за конотаційним щитом, що AI просто випадково заподіяв комусь шкоду. Те саме стосується тих, хто використовує AI. Ви можете стверджувати, що формулювання «аварії з штучним інтелектом» є майже антропоморфізацією ШІ, яка введе суспільство в оману, дозволяючи людям, які були за лаштунками ШІ, уникнути відповідальності. Мою дискусію про зростаючу важливість притягнення людей до відповідальності за свій AI див Це посилання тут та Це посилання тут.

Відтепер я буду використовувати тут крилатий вислів про нещасні випадки з штучним інтелектом, але роблю це неохоче і лише тому, що це звичайний спосіб посилатися на це явище. Спроби сформулювати це по-іншому, на жаль, бувають більш роздутими і не так легко читаються. Будь ласка, переконайтеся, що ви інтерпретуєте крилатий вираз так, щоб ви не дивилися в інший бік і не усвідомлювали, що люди, що лежать в основі ШІ, винні, коли ШІ йде не так.

Щоб допомогти проілюструвати ймовірну плутанину або оманливі аспекти згадки про AI як про нещасний випадок, ми можемо повернутися до моїх зауважень про збиття вази. Розглянемо цей приклад, коли ШІ робить це: «Ця проблема пов’язана з речами, які зробив ШІ випадково чи байдуже. Одним із прикладів цього є робот-прибиральник, який збиває вазу. Складні середовища мають так багато видів «ваз», що ми навряд чи зможемо запрограмувати штраф за всі побічні ефекти» (за матеріалами Роберта Вільямса та Романа Ямпольського).

Система штучного інтелекту, яка використовується в побуті, а потім «випадково» збиває вазу, здається, говорить про те, що нікого не слід звинувачувати в цій несприятливій дії ШІ. Це був просто нещасний випадок, можна було б жалітися. З іншого боку, ми повинні по праву запитати, чому система штучного інтелекту не була запрограмована на обробку вази взагалі. Навіть якщо розробники штучного інтелекту не передбачали, що ваза сама по собі знаходиться в межах об’єктів, з якими можна зіткнутися, ми, безперечно, можемо задатися питанням, чому не було всеосяжного уникнення об’єктів, яке б утримало систему штучного інтелекту від повалення. ваза (таким чином, штучний інтелект міг би не класифікувати вазу як вазу, але все ж міг би уникнути її як об'єкта, якого можна виявити, якого слід уникати).

Я передбачав і продовжую передбачати, що ми поступово рухаємося до величезної юридичної битви за появу систем штучного інтелекту, які потрапляють у «аварії з штучним інтелектом» і завдають певної форми шкоди. До цього часу суспільство жодним чином не відреагувало на юридичну реакцію на штучний інтелект, який викидається на ринок і призводить до несприятливих наслідків навмисно чи ненавмисно. Сьогоднішній підножок штучного інтелекту, який став золотою лихоманкою виробників штучного інтелекту, і тих, хто поспішно впроваджує штучний інтелект, зараз стає щасливим і залишається відносно недоторканим цивільними позовами та кримінальними переслідуваннями.

Рано чи пізно настане юридична реакція, спричинена штучним інтелектом.

Продовжуючи, як нам спробувати впоратися з неминучістю так званих нещасних випадків з штучним інтелектом?

Одне, що ми можемо зробити негайно, — це спробувати передбачити, як можуть статися нещасні випадки, пов’язані з штучним інтелектом. Передбачаючи нещасні випадки, пов’язані з штучним інтелектом, ми можемо принаймні знайти засоби для їх скорочення або мінімізації ймовірності їх виникнення. Крім того, ми можемо спробувати встановити огорожі, щоб, коли нещасний випадок з штучним інтелектом все-таки трапиться, зменшилися шанси демонстративної шкоди.

Корисний набір факторів, описаних у цитованій раніше дослідницькій статті Розуміння та уникнення невдач AI: практичний посібник включає такі властивості (як цитується з наукової роботи):

  • Система, на яку впливають виходи ШІ.
  • Часова затримка між виходами ШІ та більшою системою, спостережливість системи, рівень людської уваги та здатність операторів виправляти несправності ШІ.
  • Максимальний збиток, можливий через зловмисне використання систем, якими керує ШІ.
  • З’єднання компонентів у близькості до ШІ та складність взаємодій.
  • Пробіл у знаннях про AI та інших використовуваних технологіях та енергетичному рівні системи.

На цьому етапі цієї серйозної дискусії, я б повірив, ви бажаєте отримати деякі ілюстративні приклади, які могли б додатково прояснити тему нещасних випадків з штучним інтелектом. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи пояснює поява справжніх самокерованих автомобілів на базі штучного інтелекту щось про появу так званих аварій із штучним інтелектом, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Самокеровані автомобілі та інциденти з штучним інтелектом

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це дає достатню кількість застережень, щоб підтвердити те, про що я збираюся розповісти.

Зараз ми готові глибоко зануритися в безпілотні автомобілі та можливості етичного штучного інтелекту, що тягне за собою появу так званих аварій із штучним інтелектом.

Уявіть собі, що автомобілем на основі штучного інтелекту їздить на вулицях вашого околиці і, здається, їздить безпечно. Спочатку ви приділяли особливу увагу кожному разу, коли вам вдавалося кинути поглядом самокерований автомобіль. Автономний автомобіль вирізнявся стійкою електронних датчиків, які включали відеокамери, радари, пристрої LIDAR тощо. Після багатьох тижнів автономного автомобіля, який їздить по вашій громаді, ви зараз ледве помічаєте це. Що стосується вас, то це просто ще один автомобіль на і без того жвавих дорогах загального користування.

Щоб ви не думали, що неможливо або неправдоподібно познайомитися з самокерованими автомобілями, я часто писав про те, як місцевості, які входять до сфери випробувань безпілотних автомобілів, поступово звикли бачити оновлені автомобілі. Багато місцевих жителів врешті-решт перейшли від захопленого погляду, що роззяв рота, до того, щоб тепер випромінювати широкий позіхання від нудьги, спостерігаючи за цими звивистими самокерованими автомобілями.

Ймовірно, головна причина зараз, через яку вони можуть помітити автономні транспортні засоби, полягає в факторі роздратування та роздратування. Звичні системи водіння з штучним інтелектом гарантують, що автомобілі підкоряються всім обмеженням швидкості та правилам дорожнього руху. Метушливі людині-водії в їхніх традиційних автомобілях, які керують людиною, часом дратуєтеся, коли застряєте за суворо законослухняними самокерованими автомобілями на основі штучного інтелекту.

Це те, до чого нам усім, можливо, доведеться звикнути, справедливо чи ні.

Повертаємося до нашої казки.

Одного разу самокерований автомобіль потрапляє в аварію.

Під час повороту направо система водіння з штучним інтелектом широко розмахнула автономний автомобіль, і автомобіль, керований людиною, був вражений. Автомобіль, керований людиною, рухався прямо по смузі руху. У водія-людини не було особливої ​​можливості звернути або уникнути удару. Крім того, не було жодного попередження чи вказівки самокерованого автомобіля про те, що він збирається широко зробити правильний поворот.

Це нещасний випадок?

Ми, безумовно, можемо сказати, що це входить до категорії нещасного випадку з штучним інтелектом. Підставою для такого твердження є те, що за кермом самокерованого автомобіля була система водіння AI. Якимось чином, з будь-яких причин, AI вирішив зробити широкий розмах при повороті направо. В результаті самокерований автомобіль врізався в автомобіль, яким керує людина.

Згадайте попередню дискусію про конотації, пов’язані зі словом «аварія», і подивіться, як такі відтінки відіграються в цьому сценарії. Також пам’ятайте, що ми обговорювали випадок, коли водій-людина зробив широкий правий поворот і наїхав на автомобіль, яким керує людина. Ми зрозуміли, що уявлення про те, що цей акт є «аварією», вводить в оману та вводить в оману. Людина-водій, який зробив широкий розмах, міг сховатися за думкою про те, що аварія сталася просто випадковістю чи примхами долі.

Замість того, щоб позначати сценарій як «аварію з штучним інтелектом» у випадку, коли самокерований автомобіль на базі штучного інтелекту роз’їжджає і врізається в автомобіль, керований людиною, можливо, ми повинні сказати, що це була автомобільна аварія або зіткнення автомобіля з самокеруванням. керований автомобіль і автомобіль, керований людиною. Тоді ми можемо обійтися без пустої плутанини, що це випадковість непізнаних засобів.

Як ви думаєте, якою була б реакція громадськості на інцидент?

Що ж, якщо виробник автомобілів або технічна фірма, що керують автомобілем, зможуть дотримуватись ярликів, які позначають справу як нещасний випадок, вони можуть обійти потенційну негативну реакцію з боку спільноти в цілому. Почуття співчуття щодо нещасних випадків, про які всі розповідають, можливо, вплине на конкретну обставину. Щоб дізнатися більше про те, як міста, округи та лідери штатів потенційно реагуватимуть на інциденти з автономними транспортними засобами AI, дивіться обговорення Гарвардського дослідження, яке я очолював і описано на сторінці посилання тут.

Якщо ситуація чітко описана як автомобільна аварія або зіткнення автомобіля, можливо, це дозволить зрозуміти, що хтось чи щось, можливо, винні в інциденті. Реакцією на коліно може бути те, що AI повинен нести відповідальність. Справа в тому, що поки або якщо ми коли-небудь вирішимо позначити ШІ як юридичної особи, ви не зможете покласти відповідальність на ШІ як такий (див. моє обговорення ШІ та юридичної особи на посилання тут).

Ми можемо перевірити систему водіння зі штучним інтелектом, щоб спробувати з’ясувати, що призвело до, здавалося б, неналежного водіння та подальшої автомобільної аварії. Але це не означає, що AI буде притягнуто до відповідальності. До відповідальності належать розробники AI, оператор автопарку самокерованого автомобіля та інші. Я також включаю інших, оскільки існує ймовірність того, що місто може нести часткову відповідальність за дизайн кутка, де відбувався поворот. Крім того, припустимо, що пішохід з’їхав з повороту, а система водіння AI вирішила уникнути цієї людини, а потім потрапила в автокатастрофу.

І так далі.

Висновок

Нам би хотілося знати, що AI обчислював і на що він був запрограмований. Чи зробив ШІ так, як було закодовано? Можливо, AI зіткнувся з помилкою або помилкою в програмуванні, що не виправдовує дії, але дає більше підказки про те, як стався збій.

Які огорожі з штучним інтелектом були запрограмовані в систему водіння AI? Якби були огорожі, ми б хотіли з’ясувати, чому вони, здавалося, не запобігають автокатастрофі. Можливо, система водіння AI могла зупинитися, а не зробити поворот. Нам би хотілося знати, які альтернативи AI обчислював під час інциденту.

Окрім того, щоб зрозуміти суть конкретного інциденту, ще одна справедлива сумніва полягає в тому, чи має система водіння AI недолік чи інший вбудований аспект, який може здійснювати подібні види несприятливих дій. По суті, цей інцидент може бути сигнальним індикатором того, що буде ще більше. Як було використано комп’ютерне моделювання ситуацій водіння, щоб спробувати передбачити цей тип підказок системи AI для водіння? Чи було достатньо іспитів з водіння на дорозі, щоб виявити проблеми AI, які могли призвести до аварії?

Цей сценарій висвітлює спірну загадку, яка стикається з появою самокерованих автомобілів на основі штучного інтелекту.

Це відбувається так.

З одного боку, існує бажання суспільства якнайшвидше використовувати самокеровані автомобілі через надію, що системи водіння з штучним інтелектом будуть такими ж безпечними або, можливо, безпечнішими, ніж люди-водії. Тільки в Сполучених Штатах наразі ми маємо майже 40,000 2.5 смертей на рік через автомобільні аварії та близько XNUMX мільйонів людських травм. Аналіз показує, що значна частина цих аварій пов’язана з людськими помилками, такими як водіння в стані алкогольного сп’яніння, водіння в стані відволікання тощо (див. мою оцінку такої статистики на посилання тут).

Системи водіння зі штучним інтелектом не будуть пити та керувати автомобілем. Їм не потрібен відпочинок і вони не втомляться за кермом. Припущення полягає в тому, що встановивши безпілотні автомобілі як життєздатний вид транспорту, ми зможемо зменшити кількість водіїв. Це, у свою чергу, має означати, що ми будемо скорочувати кількість щорічних смертей і травм людей в результаті автомобільних аварій.

Деякі експерти сказали, що в кінцевому підсумку ми не отримаємо смертельних випадків і травм, а ці самокеровані автомобілі нібито будуть нерозбитими, але це абсолютно абсурдний і абсолютно хибний набір очікувань. Я пояснив, чому це так нечесно посилання тут.

У будь-якому випадку, припустимо, що у нас буде деяка кількість аварій, у які втягуються самокеровані автомобілі. Припустимо також, що в цих автокатастрофах буде деяка кількість смертей і травм. Питання, яке мучить, полягає в тому, чи готові ми як суспільство взагалі терпіти такі випадки. Деякі кажуть, що якщо навіть одна смертельна смерть або одна травма трапиться в результаті справжнього самокерування автомобілів, весь комплект і кебул слід закрити.

Компенсаційна точка зору полягає в тому, що якщо врятовані життя зменшують щорічні підрахунки, ми повинні продовжувати заохочувати появу самокерованих автомобілів і не реагувати в такий нелогічний спосіб. Нам потрібно буде погодитися з тим, що деяка кількість смертей і травм все ще існуватиме, навіть у безпілотних автомобілях, і все ж усвідомити, що річний підрахунок, якщо його зменшити, говорить про те, що ми на правильному шляху.

Звичайно, деякі стверджують, що ми не повинні мати безпілотних автомобілів на наших дорогах загального користування до тих пір, поки вони або не будуть дозволені для такого використання в результаті обширного і вичерпного комп’ютерного моделювання, або за допомогою приватного тестування на закритій трасі. Контраргумент полягає в тому, що єдиний життєздатний і найшвидший спосіб запустити безпілотні автомобілі – це використання доріг загального користування, і що будь-які затримки у впровадженні безпілотних автомобілів в іншому випадку призведуть до жахливого підрахунку аварій, яким керує людина. Я докладніше висвітлював ці дебати у своїх колонках і закликаю читачів подивитися на ці дискусії, щоб отримати повне уявлення про перспективи цього суперечливого питання.

Давайте поки що підведемо підсумки.

Аварії з штучним інтелектом мають статися. Ми повинні протистояти імпульсу інтерпретувати нещасний випадок з штучним інтелектом як здавалося б випадковість і тому помилково дозволяли виробникам і тим, хто розгортає ШІ, бути категорично не в курсі.

Є додатковий поворот, який я залишаю вам як останню інтригуючу думку на ваш день.

Повідомляється, що комік Дейн Кук розповів такий жарт про автомобільні аварії: «Кілька днів тому я потрапив в автокатастрофу. Не моя вина. Навіть якщо це не твоя вина, інша людина виходить зі своєї машини і дивиться на тебе так, ніби це твоя вина: чому ти зупинився на червоне світло і дозволив мені вдарити тебе, зробивши 80!»

На перший план виходить можливість того, що система штучного інтелекту вирішить наполягати на тому, що, коли відбувається нещасний випадок AI за участю цього конкретного AI, AI рекламує, що інцидент стався з вини людини, а не з вини AI. До речі, це може бути цілком правдою, і людина може намагатися зробити козлом відпущення ШІ, стверджуючи, що це була вина ШІ.

Або, можливо, ШІ намагається стати козлом відпущення людини.

Розумієте, штучний інтелект, який ми розробляємо, може бути складним, випадково чи ні.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- водіння-автомобілі-теж/