Ethical AI амбіційно сподівається, що AI навчиться етичної поведінки сам по собі, як-от випадок з AI в автономних самокерованих автомобілях

Аристотель чудово стверджував, що виховання розуму без виховання серця – це зовсім не освіта.

Ви можете інтерпретувати це проникливе зауваження як припущення, що вивчення етики та моральної поведінки є надзвичайно важливим для людства. У дебатах про класичну природу та виховання потрібно запитати, наскільки наші етичні звичаї є інстинктивно рідними, а скільки засвоєно протягом життя. Малюки спостережливі до інших людей і, ймовірно, збирають свої етичні основи на основі того, що вони бачать і чують. Те ж саме можна сказати і про підлітків. Для дорослих із відкритим поглядом вони також продовжуватимуть пристосовуватися та прогресувати у своєму етичному мисленні в результаті переживання повсякденного світу.

Звичайно, чітке навчання когось про етику також є нормальним. Люди обов’язково дізнаються про етичні способи, відвідуючи уроки на цю тему або, можливо, відвідуючи події та практики, які їх цікавлять. Етичні цінності можуть бути чітко визначені та поширені як засіб допомоги іншим у формулюванні власної структури етики. Крім того, етика може бути тонко прихована в оповіданнях або інших методах навчання, які в кінцевому підсумку несуть повідомлення про те, з чого складається етична поведінка.

Ось як люди, здається, наповнюють етикою.

А як щодо штучного інтелекту (ШІ)?

Я розумію, що таке запитання може здатися дивним. Ми, безумовно, очікуємо, що люди включатимуть етику та ходять по життю з певною схожістю морального кодексу. Це простий і очевидний факт. З іншого боку, машина чи комп’ютер, здається, не вписуються в ту саму систему відліку. Ваша інтуїція може полягати в тому, що вважати ШІ втіленням етичних і моральних кодексів надумано чи дивно.

Найкраще, що ми можемо зробити щодо ШІ, — це створити його так, щоб він не відхилявся від етичної поведінки. Розробники штучного інтелекту та ті, хто користується штучним інтелектом, несуть відповідальність за те, щоб штучний інтелект, розроблений і впроваджений, уже відповідав етичним нормам. За ворота, так би мовити, ШІ вже має бути незайманим і готовим до роботи як повністю етично відповідне вигадування.

Ви, безсумнівно, маєте рацію, якщо подумати, що системи штучного інтелекту справді мають бути створені так, щоб вони вже повністю відповідали етичним засадам. Суспільство було дуже схвильовано, коли вперше була випущена остання хвиля систем штучного інтелекту, яка продемонструвала, що ми живемо в епоху ШІ для добра. ШІ допоможе у вирішенні багатьох найскладніших проблем світу. Досягнення технологій використовувалися для доповнення людських можливостей когнітивними можливостями, хоча дозвольте мені підкреслити, що у нас ще немає розумного ШІ, і ми не знаємо, чи буде досягнутий розумний ШІ.

Проблема з невимушеною поспіхом запровадити ШІ у світ поступово виявила потворне підживлення ШІ, відоме як ШІ для поганого. Було багато заголовків про системи штучного інтелекту, які використовують алгоритмічне прийняття рішень (ADM), яке рясніє упередженнями та несправедливістю. Крім того, велика частина сучасного AI страждає від нестачі прозорості, має тенденцію бути незрозумілим з точки зору пояснення обчислювальних рішень, часто демонструє відсутність справедливості і дозволяє деяким відволікти свою людську відповідальність, вказуючи пальцем на AI.

Я широко висвітлював етичний ШІ та етику ШІ у своїх роботах, у тому числі посилання тут та посилання тут, просто назвемо декілька.

Як там може бути ШІ для поганого якщо ми візьмемо як заявлену конструкцію, що ШІ слід створювати з самого початку, щоб уникнути неетичних дій?

Відповідь багатогранна.

По-перше, багато розробників штучного інтелекту та компанії, які використовують AI, самі не знають про важливість формування свого AI, щоб залишатися в етичних межах. Концепція зовсім не на їх радарі. Привабливість швидкого заробітку змушує деяких просувати будь-які дикі ідеї штучного інтелекту, які вони хочуть свідомо створити. Не потрібно з’ясовувати будь-які етичні речі. Просто створіть AI і запустіть його.

По-друге, є ті, хто створює ШІ, які прикрашають відверте усвідомлення етичних наслідків, але вони відверто применшують або дещо ігнорують міркування етичного ШІ. Однією з поширених точок зору є класична мантра технарів, яка полягає в тому, щоб швидко і часто терпіти невдачі. Просто продовжуйте повторювати, поки, ми сподіваємося, все не врегулюється належним чином. Шанси втиснути будь-яке систематичне та продумане включення етики ШІ в ці швидкодіючі зусилля ШІ, на жаль, невеликі. Я обговорюю необхідність розширення можливостей лідерства щодо етичного ШІ на посилання тут.

По-третє, існує багато неясностей щодо того, які етичні огорожі слід враховувати при розробці ШІ. Звичайно, сьогодні існує багато етичних рекомендацій щодо штучного інтелекту, див посилання тут, хоча ці зручні теоретичні настанови важко перетворити на конкретику для даної системи штучного інтелекту, яка створюється. Я вказав, що ми повільно спостерігатимемо появу інструментів і методологій створення штучного інтелекту, які включають практики кодування етичного штучного інтелекту, допомагаючи закрити розрив між абстрактними аспектами та відомими аспектами «гума зустрічається з дорогою».

По-четверте, відповідно до наголосу в цьому документі, ми досліджуємо уражений випадок ШІ, який, навіть якщо спочатку складався в рамках етичних кордонів, згодом під час використання виходить за межі передбачуваних етично закодованих параметрів.

Нам потрібно це розпакувати.

Значна частина сучасного AI використовує машинне навчання (ML) і глибоке навчання (DL). Це обчислювальні методи та технології узгодження шаблонів. Загалом, ідея полягає в тому, що ви збираєте разом багато релевантних даних для того, що, як передбачається, AI може зробити, ви подаєте ці дані у вибраний обчислювальний узгоджувач шаблонів, а узгодження шаблонів математично намагається знайти корисні шаблони. Зауважте, що цей AI не має розуму (якого, знову ж таки, поки що не існує). Немає також жодних міркувань здорового глузду. Це все математика і обчислення.

Можливо, дані, що вводяться в ML/DL, вже містять упередження та несправедливість. У цьому випадку велика ймовірність, що узгодження обчислювального шаблону буде просто імітувати ті ж самі схильності. Якщо ви надаєте дані, які надають перевагу одній расі перед іншою або віддають перевагу одній статі перед іншою, є значний шанс, що відповідність шаблону зачепиться за це як виявлений шаблон.

Велика проблема такого типу фіксації полягає в тому, що нам може бути важко визначити, що шаблони засновані на цьому аспекті даних. Терписта і складна математика може зробити наплавлення таких знайдених візерунків досить проблематичним. Навіть тестування ШІ не обов’язково виявить ці тенденції, залежно від діапазону та глибини тестів, які застосовуються.

Отже, припустимо, що ви створили систему штучного інтелекту і виконали домашнє завдання, спочатку намагаючись уникнути використання даних, які мали попередні упередження. Далі, після того, як було здійснено машинне навчання та глибоке навчання, ви перевірили результати, щоб побачити, чи не виникли якісь упередження чи нерівності. Припустимо, що ви не можете знайти таких небажаних нахилів.

Загалом, тепер дано зелене світло, щоб продовжити і запустити AI. Люди почнуть використовувати штучний інтелект і, ймовірно, вважатимуть, що він є етично правильним. Розробники теж так думають. Так вважає компанія, яка розробляє штучний інтелект. Геть ми всі йдемо.

Ось що може статися.

Імовірно, спрацьовує припущення про упередження, яке не було виявлено в вихідних даних і яке не було виявлено під час тестування ШІ. Можливо, це трапляється рідко. Ви можете повірити, що поки це рідко, все добре. Хоча я сумніваюся, що ті, хто вразливий до згаданої упередженості, готові бачити речі таким чином. Смію стверджувати, що система штучного інтелекту та ті, хто її сформулював, зіткнуться з наслідками або в юридичних судах, або у відкритому суді громадської думки.

Інша варіація - це прислів'я ідея взяти дюйм і захопити милю. Припущення спочатку можуть бути крихітними. Під час використання штучного інтелекту штучний інтелект міг бути розроблений для того, щоб змінювати себе в міру розвитку подій. Таке «навчання» чи «самонавчання» може бути досить корисним. Замість того, щоб вимагати від розробників людського інтелекту постійно модифікувати та коригувати систему штучного інтелекту, штучний інтелект створений для цього самостійно. Без затримок, без дорогої робочої сили тощо.

Недоліком цієї зручної самоналаштування є те, що в межах обсягу використання штучним інтелектом інтуїція може підвищуватися до все більшої і більшої. У той час як упередження могло бути в тісному маленькому кутку, тепер йому дається простір для розширення. ШІ не має жодної видимості, що це «неправильно», і лише обчислювально розширює те, що, здається, працює.

Якщо від цього волосся встає на голові, вам доведеться сісти для наступного варіанту.

Припустимо, що упередження не існувало з самого початку, і ми маємо всі обгрунтовані переконання, що ШІ повністю вільний від упереджень. Нам або пощастило, або, можливо, систематично переконалися, що в даних немає жодних упереджень і вони не виникали через узгодження обчислювальних шаблонів. Незважаючи на це зітхання полегшення, штучному інтелекту дозволено коригуватися під час використання. Двері Пандори відчиняються, і ШІ вирішує використовувати обчислювальну спрямованість до упереджень, які виявляються під час того, що робить ШІ.

Нововиявлене упередження поглинається ШІ, і ніхто не є особливо мудрішим, що це сталося. Ой, ми створили монстра, справжнього Франкенштейна.

Як можна запобігти або принаймні помітити цю появу?

Один з підходів, який набирає популярності, полягає у вбудові в ШІ компонента збору етики. ШІ сконструйовано так, щоб включати елементи етичного ШІ. Ці елементи потім спостерігають або контролюють решту AI, поки AI коригується з часом. Коли здається, що ШІ вийшов за межі запрограмованих етичних правил, Етичний ШІ намагається внести ці зміни або попереджає розробників, що щось пішло не так.

Ви можете спробувати запрограмувати цю здатність нагляду за етичним штучним інтелектом і сподіватися, що вона буде переважати, поки AI використовується.

Іншим дещо суперечливим кутом може бути використання машинного навчання та глибокого навчання для навчання аспектів етичного ШІ в системі ШІ.

Скажи що?

Так, можливо неортодоксальна концепція полягає в тому, що замість того, щоб програміст-людина безпосередньо кодував набір етичних правил ШІ, ШІ сформований таким чином, щоб намагатися «вивчити» їх замість цього. Нагадаємо, що я коротко зазначив, що використання ML/DL зазвичай залежить від подачі даних в алгоритми і відбувається узгодження обчислювального шаблону. Питання на мільйон доларів полягає в тому, чи можемо ми використовувати той самий механізм, щоб впровадити етичні цінності в систему ШІ.

Я припускаю, що ви могли б порівняти це з моїм обговоренням на початку того, як люди усвідомлюють етичні принципи, хоча, будь ласка, не антропоморфізуйте сьогоднішній ШІ як порівнянний з людським мисленням (це ні, і я скоро повторю це заклик). ШІ можна запрограмувати «вроджено» за допомогою етичних правил ШІ. Або ШІ міг би «навчитися» етичним правилам ШІ. Ви, звичайно, можете робити і те, і інше, про що я розповідав деінде посилання тут.

Знайдіть хвилинку, щоб обдумати, здавалося б, вражаючу концепцію про те, що ШІ може «навчитися» етиці і, скоріше за все, дотримуватися етичної поведінки.

Ці дослідники використовують приклад системи штучного інтелекту, яка визначає бажану температуру в будинку, щоб проілюструвати, як це може працювати: «Вона вперше «спостерігала» за поведінкою людей у ​​різних домогосподарствах лише тиждень і зробила висновки щодо їхніх уподобань. Потім він використав датчик руху, щоб визначити, чи є хтось вдома. Коли будинок був порожній, розумний термостат перейшов у режим високої енергозбереження; коли люди були вдома, термостат регулював температуру відповідно до їхніх уподобань. Цей термостат чітко відповідає двом вимогам етичного бота, хоча й дуже простому. Він оцінює уподобання людей і накладає їх на органи управління системою опалення та охолодження. Можна запитати, яке відношення це має до суспільних моральних цінностей. Цей термостат дозволяє людям з різними значеннями встановлювати параметри температури, які вони віддають перевагу. Мешканцям будинку не потрібно щодня скидати термостат, коли заходять і виходять. Цей простий бот з етики також зменшує загальний енергетичний слід спільноти» (відповідно до статті Амітая Еціоні та Орена Еціоні під назвою «Етика за допомогою AI» у томі на Етика та інформаційні технології).

Перш ніж глибше заглиблюватися в повороти існування штучного інтелекту, який «вчиться» етичній поведінці, я хотів би сказати дещо більше про статус ШІ.

ШІ може складатися з таких можливих станів:

1. Нерозумний звичайний сучасний ШІ

2. Розумний штучний інтелект людської якості (у нас поки цього немає)

3. Розумний ШІ, який є надрозумним (за межами №2)

Я збираюся зосередитися на існуючому стані, який є нерозумним звичайним AI. Багато з того, що ви можете прочитати про Етичний ШІ, іноді стосується розумного ШІ, і тому є дуже спекулятивним. Я кажу, що це спекулятивне, тому що ніхто не може причепити осла, яким буде розумний ШІ. Ще далі за сферою людського розумного штучного інтелекту є надрозумний штучний інтелект, який дуже обурюється. Існує багато науково-фантастичних історій і сумнівів про те, як ці смаки штучного інтелекту можуть вирішити поневолити людство або, можливо, просто знищити нас усіх. Це відомо як екзистенційний ризик ШІ. Іноді дилема також формулюється як катастрофічний ризик ШІ.

Деякі стверджують, що у нас може бути все гаразд, доки ми тримаємо штучний інтелект до нерозумного старого штучного інтелекту, який ми маємо сьогодні. Припустимо, що ми не можемо досягти розумного ШІ. Уявіть собі, що як би ми не намагалися створити розумний ШІ, нам це не вдається. Крім того, припустимо для обговорення, що розумний ШІ не виникає в результаті якогось таємничого спонтанного процесу.

Хіба ми не впевнені, що цей штучний інтелект меншого калібру, який є єдино можливим видом ШІ, буде використовуватися?

Не зовсім.

Цілком ймовірно, що виникнуть ті самі загальні проблеми. Я не припускаю, що ШІ «думає» свій шлях до бажання нас знищити. Ні, звичайний нерозумний штучний інтелект просто поміщається на позиції влади, які затягують нас у самознищення. Наприклад, ми використовуємо штучний інтелект без розуму в зброю масового знищення. Ці автономні зброї не здатні мислити. У той же час люди не повністю тримаються в курсі. В результаті ШІ як форма автономної автоматизації ненавмисно спричиняє катастрофічні результати, або через команду людини, або через помилку чи помилку, або через імплантовані злі дії, або шляхом самоналаштувань, які призводять до погіршення ситуації. потворний шлях тощо.

Я б стверджував, що проблема етики штучного інтелекту існує для всіх трьох штатів, передбачених ШІ, а саме, що ми маємо етичні проблеми з штучним інтелектом із нерозумним звичайним ШІ та з розумним ШІ, який є або просто людським, або розширеним ШІ, який досягає відомий рівень суперінтелекту.

Враховуючи це тверезий вислів, ми можемо безперечно обговорювати масштаби та труднощі, пов’язані з етичними проблемами на кожному з відповідних рівнів ШІ. Звичайна точка зору полягає в тому, що етичне становище штучного інтелекту є менш нездоланним на рівні штучного інтелекту без розуму, більш жорстким на рівні штучного інтелекту для розуму, рівному людині, і справжнє головоломка на стадії розумного надрозумного штучного інтелекту.

Чим кращим стає ШІ, тим гірше стає проблема етики ШІ.

Можливо, це непорушний закон природи.

Повертаючись до сучасного штучного інтелекту, спроби змусити AI «навчитися» етичним поведінкам за допомогою сучасного машинного навчання та глибокого навчання пов’язані з проблемами та складними проблемами. Припустимо, ШІ не вдається отримати бажані етичні правила? Як ми будемо знати напевно, що вона захитнулась при цьому? Крім того, чи можуть інші частини системи штучного інтелекту потенційно замінити отримані етичні конструкції? Додайте до цього, що якщо AI коригується на льоту, коригування можуть зменшити етичні аспекти або ненавмисно їх перекрити.

Що ще гірше, «навчання» може призвести до того, що ШІ прийде до справді неетичної поведінки. У той час як ми думали, що робимо правильні речі, спонукаючи AI бути етичним, виявляється, що AI натомість увійшов у відповідність шаблону щодо неетичних аспектів. Якщо говорити про стрілянину власною ногою, це може статися.

На цьому етапі цієї дискусії, я б повірив, ви бажаєте отримати додаткові приклади з реального світу, які могли б показати, як штучний інтелект, «навчання» етики, може застосовуватися до сучасного ШІ (крім смачного тизера прикладу з термостатом).

Я радий, що ти запитав.

Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи пояснює поява справжніх самокерованих автомобілів на базі штучного інтелекту про те, що ШІ може «вивчати» етичні правила ШІ, і якщо так, що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані машини - це ті, що ШІ керує автомобілем повністю самостійно, і жодна допомога людини під час водіння відсутня.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На Рівні 5 ще немає справжнього автомобіля, що самостійно керує, про який ми ще не знаємо, чи цього вдасться досягти, і скільки часу це займе, щоб дістатися туди.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Самокеровані автомобілі та етична інокуляція AI

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це дає достатню кількість застережень, щоб підтвердити те, про що я збираюся розповісти.

Зараз ми готові глибоко зануритися в безпілотні автомобілі та можливості етичного штучного інтелекту, що тягне за собою дивовижне твердження, що ми можемо змусити ШІ «дізнатися» про етичну поведінку сам по собі.

Скористаємося простим прикладом. Автомобіль на основі штучного інтелекту рухається по вулицях вашого околиці і, здається, їздить безпечно. Спочатку ви приділяли особливу увагу кожному разу, коли вам вдавалося кинути поглядом самокерований автомобіль. Автономний автомобіль вирізнявся стійкою електронних датчиків, які включали відеокамери, радари, пристрої LIDAR тощо. Після багатьох тижнів автономного автомобіля, який їздить по вашій громаді, ви зараз ледве помічаєте це. Що стосується вас, то це просто ще один автомобіль на і без того жвавих дорогах загального користування.

Щоб ви не думали, що неможливо або неправдоподібно познайомитися з самокерованими автомобілями, я часто писав про те, як місцевості, які входять до кола випробувань безпілотних автомобілів, поступово звикли бачити оновлені автомобілі, див. мій аналіз за адресою Це посилання тут. Багато місцевих жителів врешті-решт перейшли від захопленого погляду, що роззяв рота, до того, щоб тепер випромінювати широкий позіхання від нудьги, спостерігаючи за цими звивистими самокерованими автомобілями.

Ймовірно, головна причина зараз, через яку вони можуть помітити автономні транспортні засоби, полягає в факторі роздратування та роздратування. Звичні системи водіння з штучним інтелектом гарантують, що автомобілі підкоряються всім обмеженням швидкості та правилам дорожнього руху. Метушливі людині-водії в їхніх традиційних автомобілях, які керують людиною, часом дратуєтеся, коли застряєте за суворо законослухняними самокерованими автомобілями на основі штучного інтелекту.

Це те, до чого нам усім, можливо, доведеться звикнути, справедливо чи ні.

Повертаємося до нашої казки. Одного разу припустимо, що у вашому місті або місті їде безпілотний автомобіль і стикається з ситуацією, коли пішохід чекає, щоб перейти дорогу. Припустимо, що пішохід сам по собі не має права проїзду. Автомобіль, керований людиною, міг би проїхати повз пішохода і бути цілком законним. Аналогічно, система водіння AI законно може проїжджати повз пішохода, що чекає.

Рішення про те, чи зупинитися й дозволити пішоходу перетнути дорогу, — це цілковито власний розсуд водія, незалежно від того, чи є він водієм-людиною чи системою водіння зі штучним інтелектом.

Я впевнений, що ви стикалися з такою ситуацією незліченну кількість разів. Можливо, ви поспішаєте, тому не зупиняєтеся, щоб пропустити пішохода. В іншому випадку у вас є достатньо часу, щоб дістатися до місця призначення, тому ви вирішили зупинитися і дозволити людині, яка чекає, пройти дорогу. Ваш настрій і конкретні обставини диктують, що ви вирішите робити.

Ніщо в цьому сценарії не здається незвичайним або неприємним.

Перш ніж я розгляну аспекти штучного інтелекту, вам може бути цікаво знати, що цей особливий аспект дискреційної поведінки, який дозволяє пішоходу переходити вулицю, був ретельно вивчений. Дослідники виявили, що іноді вибір, який робить водій, може залежати, очевидно, від расових або гендерних упереджень. Водій-людина може оцінити пішохода, який очікує, і дозволити йому перетнути, здавалося б, виходячи з властивих водія упереджень. Чи усвідомлює водій, що вони це роблять, — питання поточного дослідження. Дивіться моє висвітлення на Це посилання тут.

Я заклав основу для нашого дослідження, що може зробити система водіння з штучним інтелектом у ситуації на пішохідному переході.

Звичайне програмування ШІ може призвести до того, що розробники ШІ вирішать завжди зупиняти систему водіння ШІ та пропускати пішохода. Це здавалося б етично правильним чи громадянським. Автомобіль, що керує автомобілем, підпорядковується очікуваній людині, яка хоче перетнути вулицю.

Смію сказати, що якби ви були пасажиром у самокерованій машині, а AI завжди зупинявся для всіх пішоходів, які чекають на свій розсуд, ви могли б зійти з розуму. Ваша швидка поїздка до продуктового магазину може зайняти багато разів більше часу. Пам’ятайте також, що ми не маємо на увазі пішоходів, які мають повне законне право перетину, оскільки в цих випадках, імовірно, ШІ вже запрограмований завжди дозволяти. Ми зосереджуємось лише на дискреційних обставинах.

Є й інші недоліки цієї декларації: завжди зупинятися, щоб дозволити пішоходам перейти вулицю.

Ті, хто виробляє та реалізує безпілотні автомобілі на основі штучного інтелекту, хочуть, щоб люди їздили на них. Ідея полягає в тому, що, маючи безпілотні автомобілі, ми могли б зменшити кількість щорічних аварій, які в даний час призводять до близько 40,000 2.5 щорічних смертей і XNUMX мільйонів травм лише в Сполучених Штатах, дивіться мою збірку статистики на Це посилання тут. Окрім цієї шанованої суспільної мети, виробники автомобілів та виробників технологій, що працюють із автономним керуванням, сподіваються також заробляти гроші на своїх творіннях AI, природно.

Я згадую це, тому що люди можуть вирішити не їздити на самокерованих автомобілях, якщо система водіння AI робить те, що необов'язково в кінцевому підсумку відкладають поїздки. Будь-яка звичайна людина подумає, що, вибравши водія-людину, подорож може бути швидшою, і тому вибір автомобіля з штучним інтелектом для поїздки може опинитися дуже низьким у списку їх вибору. Це, у свою чергу, означатиме, що ми не матимемо бажаного зниження кількості автомобільних аварій, а також що виробники потенційно вважатимуть свої товари збитковими.

Враховуючи цей набір аргументів, ви можете подумати, що штучний інтелект ніколи не повинен зупинятися, коли пішохід хоче перейти вулицю. Просто запрограмуйте систему водіння зі штучним інтелектом, щоб вона робила все, що є строго законним. Якщо немає законодавчої вимоги пропускати пішохода, то цьому пішоходу, що чекає, не пощастить. Можливо, цій людині варто дістатися до пункту перетину, який має правову основу для зупинки самокерованого автомобіля штучним інтелектом.

Ви уявляєте, який резонанс з цього приводу?

Люди у вашому місті або місті поступово виявляють, що безпілотні автомобілі з штучним інтелектом ніколи не дозволять перетнути пішоходів, які керуються розсудом. Цей проклятий запальний ШІ! Схоже, що штучний інтелект тикає своїм носом на людей. Невихований нахабник з неякісної автоматики. На довершення уявіть, що існують задокументовані обставини, коли пішоходам відчайдушно потрібно перейти, і AI взагалі не зупиниться.

Тим часом водії-люди охоче зупинялися, щоб дозволити тим «відчайдушним» безпечно перетнути дорогу.

Внаслідок цього обурення безпілотні автомобілі з штучним інтелектом більше не вітаються на вулицях і проїжджих частинах вашого регіону. Дозволи, видані керівниками міста, анулюються. Голосний галас, що звільняє невдячних звірів з наших доріг.

Гаразд, ми, здається, перебуваємо між каменем і наковдлом. ШІ не завжди повинен пропускати дискреційного пішохода (не завжди зупинятися). ШІ не завжди повинен заважати пішоходам, які керуються на розсуд, перетинати (не завжди наближатися). Що робити?

Очевидною відповіддю було б запрограмувати ШІ так, щоб він діяв дискреційно.

Я прошу вас подумати про ADM (алгоритмічне прийняття рішень), з якого це має складатися. Чи намагатиметься ШІ виявити природу пішохода та використовувати розпізнані характеристики як основу для прийняття рішення, зупинити самокерований автомобіль чи ні? Можливо, хтось виглядає старшим – це шлях, який потрібно вибрати. Але чи створюється ця вікова дискримінація? І так далі.

Можливо, система водіння AI запрограмована так, щоб вона зупинялася вдень і ніколи не зупинялася вночі. Логіка, можливо, полягає в тому, що вважається безпечнішим для водіїв у безпілотному автомобілі, що автономний транспортний засіб зупиняється вдень, але не в похмурі години вечірнього часу.

Можливо, це звучить розумно. Частиною проблеми будуть очікування пішоходів. Ось що я маю на увазі. Пішоходи бачать, як AI безпілотні автомобілі зупиняються для вільних переходів, які відбуваються вдень. Пішоходи не знають, за якими критеріями AI вирішує зупинитися. Деякі пішоходи припускають, що AI завжди зупиниться (не усвідомлюючи, що денне світло і ніч є справжнім визначником). В результаті ті пішоходи, які вірять, що самокерований автомобіль завжди зупиниться, ризикнуть і почнуть перетинати, коли система водіння AI взагалі не прагне зупинитися (що, ШІ, швидше за все, зупиниться, якщо пішохід виходить на вулицю, хоча це може бути складним, і фізика може перешкодити ШІ зупинити самокерований автомобіль за недостатньо часу, щоб уникнути наїзду на, здавалося б, «блудного» пішохода).

Припустимо, що розробники штучного інтелекту та фірми, які збирають та виставляють самокеровані автомобілі у вашому місті, не знають, як розробити ШІ у цьому питанні.

Вони вирішують «навчати» ШІ на даних, зібраних з усього регіону. Виявилося, що є багато міських камер, які фіксують приїзди та виїзди автомобілів по всьому містечку. Ці дані показують багато випадків, коли пішоходи намагалися перейти вулицю на свій розсуд. Усі дані надходять у систему машинного навчання та глибокого навчання, щоб отримати те, що вважається звичайним у цій юрисдикції.

Чи ми навчаємо ШІ робити те, що демонструють місцеві етичні звичаї?

Іншими словами, якби в даному місті була місцева культура, яка більше схильна зупинятися і пропускати пішоходів на свій розсуд, про що свідчать дії водія, ML/DL потенційно підібрав би обчислювальну модель на цьому шаблоні. Потім ШІ буде навчено робити те ж саме. З іншого боку, якщо люди-водії рідко зупиняються, ШІ потенційно отримає цей «урок» від обчислювального аналізу даних. ШІ буде робити так, як люди.

Твердження полягає в тому, що етична поведінка людей фіксується в даних і що ШІ збирається наповнювати ці ж етичні правила за допомогою обчислювального аналізу. Етик зазвичай описав би це як громадський підхід до етики. Спільні цінності громади знаходять відображення в зусиллях громади в цілому.

Це може здатися модним рішенням.

На жаль, є багато підводних каменів.

Одна, можливо, очевидна проблема полягає в тому, що люди-водії вже можуть проявляти певну форму упередженості, вибираючи зупинитися чи не зупинитися (як згадувалося раніше). Тоді ШІ буде копією цих упереджень. Ми хочемо, щоб це було так?

Розглянемо іншу проблему. Припустимо, що водії-люди не охоче сприймають, як працюють безпілотні автомобілі з штучним інтелектом. Тільки тому, що люди-водії були, скажімо, готові зупинитися, це може бути не так само припущено для самокерованих автомобілів. Можливо, водіїв-людей дратують безпілотні автомобілі з штучним інтелектом, які продовжують зупинятися для пішоходів на свій розсуд, хоча те саме відбувається руками водіїв-людей, але це, здається, не заважає водіям-людинам.

Крім того, що це викликає занепокоєння, ви також можете викликати можливість того, що люди-водії ненавмисно заїдуть позаду безпілотних автомобілів. Якщо водій-людина не очікував, що самокерований автомобіль зупиниться для пішохода, і якщо автомобіль, керований людиною, знаходиться безпосередньо за самокерованим автомобілем, може виникнути страшна невідповідність очікувань. Система водіння AI зупиняє самокерований автомобіль. Водій-людина не передбачав такої дії. Людина-водій врізається в самокерований автомобіль. Настають травми і, можливо, летальні випадки.

Я навмисно вказав на ймовірність заподіяння людської шкоди.

Пішохід, який переходить вулицю, може здатися на перший погляд тривіальним питанням. Здавалося б, ніхто не може постраждати від того, яким методом AI вибере зупинитися чи не зупинитися. Неправильно! Є ймовірність наїзду пішохода. Є ймовірність того, що автомобіль, керований людиною, врізається в самокерований автомобіль. Можуть постраждати водій та пасажири автомобіля, яким керує людина. Водії всередині самокерованого автомобіля можуть постраждати. Додаткові зміни можливої ​​шкоди для людини легко передбачити.

Висновок

Говорячи про людську шкоду, я дам вам щось інше, щоб ваш розум розбурхався над цією загадкою етичного ШІ.

У новинах повідомлялося, що чоловік в'їжджав на перехрестя і мав зелене світло для цього. Інший автомобіль, керований людиною, вирішив проїхати на червоне світло на перехресті та незаконно та небезпечно виїхав на перехрестя, погрожуючи вдарити автомобіль, який перебуває в суді.

Водій сказав журналістам, що йому довелося вибирати між ударом або він міг би повернути свою машину, щоб уникнути удару, але поруч були пішоходи, і рух може загрожувати цим людям. Що б ти зробив? Ви можете потрапити під цю машину, яка насувається, і, можливо, жити, щоб розповісти історію. Або ви можете спробувати уникнути удару, але тим часом, можливо, збити невинних пішоходів.

Більша частина нашого щоденного водіння має такі етично величезні та миттєві рішення. Я довго обговорював це, а також пов’язував ці рішення щодо життя або смерті зі знаменитою чи, скажімо, сумнозвісною проблемою тролейбуса, див. мою розробку на посилання тут.

У цьому сценарії замініть водія-людину на систему водіння зі штучним інтелектом.

Що ви хочете, щоб AI зробив?

Це незрозуміле питання.

Один з підходів полягає в тому, щоб запрограмувати штучний інтелект так, щоб він рішуче виконував дії, спрямовані на пряму їзду, таким чином навіть не враховуючи інші варіанти, наприклад, відхилення від ймовірної аварії. Я припускаю, що гонщики в самокерованих автомобілях будуть засмучені, дізнавшись, що AI не був створений для того, щоб робити щось інше, ніж приймати удар. Можна очікувати судових позовів і галасу.

Іншим підходом було б спробувати запрограмувати ШІ на розгляд різних можливостей. Хто може створити ADM, який вирішує, яким шляхом буде рухатися система водіння AI? Здавалося б, дозволити розробникам штучного інтелекту приймати такі вагомі рішення самостійно — це пов’язано з багатьма занепокоєннями.

Ви можете спробувати дозволити штучному інтелекту «вчитися» на даних про водіння людей, зібраних щоденними дорожніми ситуаціями. Це схоже на дилему пішохідного переходу та раніше запропоновану ідею використання зібраних даних, щоб ШІ збирати будь-які місцеві етичні звичаї. З цього приводу є багато застережень, наприклад, чи підходять виявлені шаблони ML/DL, чи ні, тощо.

Я також попереджав, що існує ймовірність того, що ШІ почерпнуть, можливо, неетичну поведінку, залежно від етичних звичаїв. Наприклад, припустимо, що штучний інтелект якимось чином приземлився на обчислювальному шаблоні, щоб завжди націлюватися на пішоходів, коли інший автомобіль загрожує врізатися в самокерований автомобіль.

Вау, бережіть пішоходів, ви станете готовими мішенями.

Наразі час закінчити обговорення і зробити це з обнадійливою останньою думкою.

Можливо, ви знаєте, що Айзек Азімов запропонував свої «Три закони робототехніки» у 1950 році, і ми досі закохані в ці проголошені правила. Незважаючи на те, що правила, здається, легко дотримуватися, наприклад, що система штучного інтелекту або робот не повинні завдавати шкоди людині і не дозволяти людині завдавати шкоди, є багато важливих нюансів, які роблять це складним і часом неспроможним, див. мій аналіз на посилання тут.

У будь-якому випадку, ось ще дещо, чим також відомий Азімов, хоча й менший: «Ніколи не дозволяйте вашому почуттю моралі заважати робити те, що правильно».

Що стосується етичного ШІ, який ми всі сподіваємося розробити, ми повинні пам’ятати, що етика ШІ може бути не тим, що ми очікували, і що штучному інтелекту все одно потрібно буде робити все, що правильно. Азимов добре сказав. Задовго до цього, здавалося, Аристотель думав про схожі настрої.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- the-case-with-ai-in-autonomous-self-driving-cars/