Уроки етики штучного інтелекту та автономних систем, отримані з нещодавнього рейсу авіакомпанії Alaska Airlines, де пілот і другий пілот не погодилися перед зльотом і раптово вирішили таксі повернутися до терміналу та поїхати різними шляхами

Останнім часом авіакомпанії були в новинах досить часто.

Ми перебуваємо в літній період стиснення рейсів. Втомлені та розчаровані пасажири стикаються з усіма видами перебоїв у рейсах і розкладу авіакомпаній. Рейси несподівано скасовуються. Рейси затримуються. Дим пасажирів. На жаль, було багато випадків, коли пасажири дозволяли цим спалахнути, і ми бачили надто багато вірусних відео очних зіткнень, а іноді й кулачних бійок.

Рідше ми дізнаємося про суперечки між пілотом і другим пілотом, які можуть виникнути під час перебування в кабіні.

Це несподівано.

Дійсно, ми, природно, здивовані думкою, що між пілотом і другим пілотом може виникнути якась серйозна розбіжність на будь-якому етапі польоту. Якщо розбіжності стосуються того, яка марка кави найкраща, ми припускаємо, що це не втручається в робочі зусилля, пов’язані з керуванням літаком. Ці двоє просто відмовлялися від того, що вони не спілкувалися віч-на-віч на тему, яка, здавалося б, не має значення. Їхня професійна поведінка та багаторічна підготовка пілотів спрацювали, і вони знову зосередилися на деталях польоту.

Однак подумайте, коли a професійні розбіжності втручається.

Я збираюся коротко поділитися з вами широко опублікованою новиною про недавній випадок того, що сталося під час польоту в США, пов’язаного зі стверджуваними професійними розбіжностями в кабіні.

Це в основному цитується тут, щоб ми могли досліджувати пов’язану тему, яка має велике значення для появи штучного інтелекту (ШІ). Розумієте, може існувати певна форма, скажімо так, професійних розбіжностей не лише між людьми у розбіжностях між людьми, але ми також можемо мати щось подібне під час впровадження штучного інтелекту та, отже, результатом професійних розбіжностей між людьми та ШІ . Виникають усілякі міркування щодо етики ШІ. Щоб дізнатися про мій широкий і постійний висвітлення етики ШІ та етичних питань ШІ, див посилання тут та посилання тут, просто назвати декілька.

Готуйтеся до захоплюючої казки.

Як нещодавно повідомлялося в новинах, випадок «професійних розбіжностей» очевидно виник під час рейсу авіакомпанії Alaska Airline, який прямував з Вашингтона до Сан-Франциско. Згідно з повідомленнями новин, літак відійшов від воріт і чекав на злітному полі дозволу вирулити та вилетіти. Був шторм, що призвело до затримки рейсу більш ніж на півтори години. Виявилося, що зрештою літак розвернувся та попрямував до воріт, що, як правило, деякі пасажири могли припустити, що це просто запобіжний захід, пов’язаний із штормом.

Згідно з різними твітами, схоже, що пілот і другий пілот мали певну ворожнечу під час перебування в кабіні пілотів і якимось чином прийшли до висновку, що найрозумнішим підходом було б скасувати рейс і повернутися до терміналу. . Твіти припустили, що капітан і перший офіцер, очевидно, не могли порозумітися один з одним. Пізніше авіакомпанія оприлюднила заяву про те, що ситуація була сумною (ситуація не була чітко заявлена ​​або пояснена сама по собі), два бортофіцери були оцінені керівництвом і визнані придатними для польоту, екіпажі помінялися, і політ таки відбувся а пізніше досяг Сан-Франциско.

У певному сенсі, якщо між пілотом і другим пілотом справді виникли професійні розбіжності, наприклад, чи був літак належним чином готовий до польоту або чи був ризик польоту під час шторму в належному діапазоні безпеки, ці пасажири повинні отримати полегшення та вдячний, що літак повернули до воріт. Краще перестрахуватися, ніж шкодувати. Додаткова затримка вартує передбачуваного зниження ризиків, пов’язаних із важкою або несприятливою подорожжю.

Деякі люди можуть бути здивовані тим, що можуть виникнути такі професійні розбіжності.

Можливо, у нас склалося хибне враження, що все, що відбувається в кабіні, є абсолютно точним і добре спланованим. Здавалося б, усі форми людського розсуду були витіснені з процесу. Виходячи з точних і ретельно розрахованих карт, політ або можна продовжувати, або ні. Не може бути ніяких розбіжностей, коли вважається, що весь комплект і кабудл засновані на неспростовному обчисленні фактів і цифр.

Це не вся правда. Звичайно, існує безліч протоколів і всілякі системи стримувань і противаг, але це не вичавлює жодної йоти людського судження. Пілоти та другі пілоти все ще здійснюють людське судження. На щастя, це людське судження відточене роками польоту. Швидше за все, пілот і другий пілот комерційного пасажирського літака мають великий досвід польотів і охоче використовують свої багаторічні глибокі міркування та судження, пов’язані з керуванням польотом.

Враховуючи помітну роль людського судження, ми могли б логічно передбачити, що пілот і другий пілот іноді матимуть професійні розбіжності. У більшості випадків таких розбіжностей дуже мало. Пілот і другий пілот для повсякденних польотів, ймовірно, будуть добре вирівняні за переваги часу. Лише тоді, коли сценарій польоту може вийти за межі звичайних меж, ми очікуємо виникнення більш напруженого тертя.

Якщо між ними є сильна розбіжність у поглядах, я б насмілився сказати, що ми хочемо, щоб вони це вирішували.

Уявіть ситуацію, коли пілот різко хоче продовжити, але другий пілот вважає, що ризики надто високі. Здавалося б небажаним, щоб другий пілот просто схилявся перед пілотом. Другий пілот є функцією стримування та противаги тому, що пілот міг би задумати зробити. Для тих, хто хоче, щоб другий пілот замовк і діяв виключно бездумно згідно з постановами пілота, це не дуже заспокоєння. Другий пілот – це не просто запасний «пілот», який з’являється на місці лише тоді, коли пілот повністю недієздатний. Це хибне розуміння цінності наявності пілота та другого пілота в кабіні.

Є й інший кут цього.

Розглянемо випадок пілота, який не вірить, що політ потрібно продовжувати, а другий пілот тим часом палко хоче піднятися в повітря. Що потім? За очікуваною ієрархією пілот умовно має переважати над другим пілотом. Призначена роль головного відповідального робить пілота більшим з того, що в іншому випадку було б дещо рівним. Зазвичай пілот має більший загальний час польоту, ніж другий пілот, і, отже, другий пілот ієрархічно повинен виконувати побажання пілота (якщо в межах розумного).

У будь-якому випадку, я думаю, ми всі можемо погодитися з тим, що відмовитися від польоту, безперечно, є менш ризикованим вибором, ніж рішення літати. Коли літак піднявся в повітря, рівень ризику стає величезним у порівнянні з перебуванням на будь-якій звичайній стійкій землі. Звичайний комерційний рейс, який просто повертається назад до терміналу, не піднявшись у повітря, був би досить дружнім вирішенням будь-яких гарячих гострих дебатів про політ.

Давайте перемкнемо передачі та використаємо цю яскраву новину для зовсім іншої, але відносної мети.

Поступово серед нас переважають автономні системи на основі ШІ. Іноді штучний інтелект як би керує шоу. ШІ виконує все, від А до Я, і ми можемо вважати це повністю або майже автономним ШІ. В інших випадках ми можемо мати штучний інтелект, який взаємодіє з людиною в циклі та певною мірою запрограмований на залежність від нього.

Я хотів би зосередитися на автономній або напівавтономній системі на основі штучного інтелекту, яка з самого початку має людину в курсі. Штучний інтелект і людина навмисно поєднані разом і повинні працювати в тандемі один з одним. Вони є когортами у виконанні конкретного завдання. ШІ сам по собі не повинен виконувати завдання. ШІ повинен взаємодіяти з призначеною людиною в циклі.

Я наводжу цю характеристику, щоб відмежуватись від ситуацій, коли людина в циклі вважається необов’язковим аспектом. По суті, штучному інтелекту надається свобода дій. Якщо штучний інтелект вирішить використовувати людину, нехай так і буде. Немає вимоги, щоб штучний інтелект мав торкатися бази або працювати рука об руку з призначеною людиною. Аналіз, який я збираюся розповісти, безумовно, стосується такого роду необов'язковий домовленості про взаємодію, але це не те, на що я конкретно звертаюся в цьому конкретному обговоренні.

Гаразд, у нас є якесь завдання, над яким людина та штучний інтелект працюватимуть разом, невіддільно один від одного. У абстрактному розумінні ми маємо людину, яка сидить на одному сидінні, а систему ШІ сидить на іншому супутньому сидінні. Я кажу це зухвало, тому що ми не обмежуємо цю дискусію роботом, наприклад, який насправді може сидіти на сидінні. Я метафорично натякаю на те, що ШІ десь бере участь у виконанні завдання, як і людина. Фізично їхнє місцезнаходження не має особливого значення для обговорення.

Ви можете не знати, коли така обставина може виникнути.

Простенька.

Пізніше я розповім про появу автономних транспортних засобів і самокерованих автомобілів. На певних рівнях автономності штучний інтелект і людина повинні працювати разом. Можливо, штучний інтелект керує автомобілем і вимагає, щоб людина взяла на себе керування автомобілем. Людина може керувати автомобілем і активувати ШІ, щоб взяти на себе керування. Вони чергують за кермом.

Крім того, у деяких конструкціях штучний інтелект постійно активний (або, якщо його не вимкнено), щоб він завжди був готовий. Крім того, ШІ може безпосередньо втрутитися, навіть без запиту людини, залежно від ситуації, яка розгортається. Припустімо, наприклад, що людина, здається, заснула за кермом. Оскільки людина, здається, не може активувати ШІ (оскільки людина спить), ШІ може бути запрограмований на те, щоб перебрати керування від людини.

Деякі конструкції об’єднують штучний інтелект і людей у ​​подвійний підхід. За кермом керує ШІ, а за кермом – людина. Або, якщо хочете, людина керує автомобілем, і ШІ також керує автомобілем. Кожен з них керує транспортним засобом. Я порівнюю це з тими спеціально обладнаними автомобілями, якими ви, можливо, користувалися під час навчання водіїв, і в транспортному засобі було два набори керування керуванням, один для учня-водія, а інший для інструктора з водіння.

Це лише один із прикладів ситуації, в якій штучний інтелект і люди можуть спільно працювати над завданням. Існують усілякі можливості. Подібним чином можуть бути розроблені інші види автономних транспортних засобів, наприклад літаки, дрони, підводні апарати, надводні кораблі, поїзди тощо. Нам не потрібно враховувати лише параметри транспорту та транспорту. Уявіть сферу медицини та операції, які виконуються лікарем і системою штучного інтелекту. Список нескінченний.

Мені майже хочеться згадати класичний бурхливий жарт про людину та ШІ, які разом заходять у бар. Це досить смішно для тих, хто в AI.

Серйозно, давайте повернемося до фокусу людини та системи ШІ, які разом працюють над заданим завданням. По-перше, я хочу уникнути антропоморфізації штучного інтелекту, на чому я буду наголошувати. ШІ не розумний. Будь ласка, майте це на увазі.

Ось над чим поміркувати: Чи завжди призначена людина в циклі повністю погоджуватиметься з об’єднаним ШІ?

Для будь-якого складного завдання здається малоймовірним, що людина та штучний інтелект будуть повністю і завжди повністю узгоджені. У деяких випадках людина, можливо, не погодиться з ШІ. Ми можемо прийняти це припущення аж до банку.

Я хотів би, щоб ви також розглянули цю, можливо, дивовижну можливість: Чи завжди ШІ буде повністю погоджуватися з призначеною людиною в циклі?

Знову ж таки, для будь-якого складного завдання здається цілком можливим, що в деяких випадках ШІ не погоджуватиметься з людьми. Якщо ви вже схиляєтеся до думки, що штучний інтелект завжди має бути неправий, а люди завжди мають бути праві, вам було б розумно переосмислити цей поспішний висновок. Уявіть автомобіль, у якому людина та штучний інтелект спільно керують напівавтономним автомобілем. Людина направляється до цегляної стіни. чому Ми не знаємо, можливо, людина в стані алкогольного сп’яніння чи заснула, але ми знаємо, що врізатися в цегляну стіну – не дуже гарна ідея за інших рівних умов. Штучний інтелект може виявити майбутнє лихо та спробувати відійти від бар’єру, що насувається.

Загалом, у нас буде явна ймовірність того, що штучний інтелект і людина не погодяться один з одним. Інший спосіб сказати те саме: люди та ШІ не згодні один з одним. Зауважте, що я не хочу, щоб послідовність ШІ-людина проти людини-та-ШІ вказувала на напрям чи правдоподібність розбіжностей.

Два працівники, один з яких є людиною, а інший — ШІ, не погоджуються один з одним.

Ми могли б заздалегідь заявити, що коли виникає розбіжність між даним ШІ та даною людиною, ми заздалегідь проголошуємо, що людина переважає над ШІ. З огляду на це, мій наочний приклад про автомобіль, який в’їжджає в цегляну стіну, здається, переконує нас у тому, що людина завжди буде права.

На відміну від цього, ми могли б заздалегідь оголосити, що коли виникне розбіжність, ми заздалегідь визначимо, що ШІ правий, а людина помиляється. Це положення також не є розумно узагальненим. Уявіть собі автомобіль, у якому штучний інтелект має вбудовану програмну помилку чи помилку, і штучний інтелект намагається скерувати автомобіль з дороги в кювет. Якщо припустити, що всі інші рівні, людина повинна бути в змозі подолати цей рух ШІ та запобігти посадці транспортного засобу в яру.

Давайте зробимо короткий підсумок цього:

  • Чи завжди людина в циклі буде повністю погоджуватися з ШІ? Відповідь: Ні.
  • Чи завжди ШІ буде повністю погоджуватися з людиною в циклі? Відповідь: Немає.
  • Чи завжди людина-в-петлі матиме рацію порівняно зі ШІ? Відповідь: Не обов'язково.
  • Чи завжди ШІ буде правим у порівнянні з людиною в циклі? Відповідь: Не обов'язково.

Ви, звичайно, можете налаштувати штучний інтелект так, щоб він за замовчуванням розглядався як «неправильна» або слабша сторона, і тому завжди підкорявся людині, коли виникають розбіжності. Так само ви можете налаштувати ШІ на припущення, що ШІ вважається «правильним», коли людина не погоджується з ШІ. Я хочу пояснити, що ми можемо зробити це програмно, якщо захочемо. Хоча я стверджую, що загалом це не завжди так. Безумовно, є налаштування, в яких ми не знаємо наперед, чи «правильний» ШІ, чи «права» людина, з точки зору вибору на користь того чи іншого щодо розбіжностей, пов’язаних із певним завданням.

Я підвів вас до дуже важливого і дуже складного питання.

Що ми повинні робити, коли виникають професійні розбіжності між людиною в циклі та ШІ (або, що еквівалентно, ми можемо сформулювати це як між ШІ та людиною в циклі)?

Не намагайтеся ухилитися від запитання.

Хтось може заперечити, що цього ніколи не станеться, але, як я навів у своєму прикладі про автомобіль, це точно могло статися. Дехто може заперечити, що людина явно вищий і повинен бути переможцем у будь-якій суперечці. Мій приклад автомобіля та цегляної стіни руйнує це. Є прихильники штучного інтелекту, які можуть наполягати на тому, що штучний інтелект повинен бути переможцем через нібито подолання людських емоцій і безглуздого мислення цими випадковими людьми з нечітким мисленням. Знову ж таки, мій інший приклад, коли машина їде в кювет, підриває це твердження.

У реальному світі штучний інтелект і люди не погодяться, навіть якщо вони навмисно об’єднані в команду для виконання спільного завдання. Це станеться. Ми не можемо засунути голову в пісок і робити вигляд, що цього не станеться.

Ми побачили, що люди, які керували літаком, очевидно, сперечалися. На щастя, вони погодилися не погоджуватися, так здається. Вони повернули літак до терміналу. Вони знайшли спосіб впоратися з незгодою. Вирішення їхніх розбіжностей спрацювало добре, порівняно з тим, якби вони, можливо, почали битися в кабіні або, можливо, злетіли в повітря та продовжували воювати один з одним. Це сумний сценарій, який є неспроможним, і ми можемо бути вдячними, що цього не сталося.

Дозвольте мені надати мій список різних способів вирішення розбіжностей між ШІ та людиною в циклі (або людиною в циклі та ШІ):

  • ШІ та об’єднані люди вирішують питання (дружньо чи ні)
  • За замовчуванням людина переважає над ШІ
  • ШІ за замовчуванням переважає над людиною
  • За умовчанням переважає якась інша попередньо визначена фіксована роздільна здатність
  • Стороння людина зациклена, і її індикація переважає над сторонами
  • Сторонній ШІ зациклюється, і його індикація переважає над сторонами
  • Стороння людина замінює існуючу людину, все відбувається заново
  • Сторонній ШІ замінює існуючий ШІ, все відбувається заново
  • Людина третьої сторони замінює існуючий ШІ, все відбувається заново (тепер людина-людина)
  • Сторонній ШІ замінює існуючу людину, все відбувається заново (тепер ШІ-ШІ)
  • Інше

Вони гідні того, щоб їх розпакувати.

Перш ніж приступати до розмови про дикі й шерстисті міркування, що лежать в основі того, як впоратися зі штучним інтелектом і людськими розбіжностями, давайте викладемо деякі додаткові основи щодо дуже важливих тем. Нам потрібно ненадовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та використання штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Повернемося до розбіжностей між ШІ та людиною.

Раніше я зазначав, що це деякі зі стратегій вирішення суперечок:

  • ШІ та об’єднані люди вирішують питання (дружньо чи ні)
  • За замовчуванням людина переважає над ШІ
  • ШІ за замовчуванням переважає над людиною
  • За умовчанням переважає якась інша попередньо визначена фіксована роздільна здатність
  • Стороння людина зациклена, і її індикація переважає над сторонами
  • Сторонній ШІ зациклюється, і його індикація переважає над сторонами
  • Стороння людина замінює існуючу людину, все відбувається заново
  • Сторонній ШІ замінює існуючий ШІ, все відбувається заново
  • Людина третьої сторони замінює існуючий ШІ, все відбувається заново (тепер людина-людина)
  • Сторонній ШІ замінює існуючу людину, все відбувається заново (тепер ШІ-ШІ)
  • Інше

Час розпакувати їх.

По-перше, вважайте, що це все професійний розбіжності.

Професійна розбіжність у загальній формі визначається як розбіжність, пов’язана з роботою.

Наприклад, розбіжності, які виникають між пілотом і другим пілотом щодо того, чи продовжувати політ під час шторму, можна розумно позначити як професійні розбіжності. На противагу цьому, гостра розбіжність щодо того, яку марку кави віддає перевагу пілот, а що другий пілот, легко класифікувати як непрофесійну розбіжність у цьому конкретному контексті.

Звісно, ​​якщо непрофесійні розбіжності проникають у професійні розбіжності, зрештою нас можуть зацікавити непрофесійні розбіжності як передбачуване джерело чи іскру для професійних розбіжностей. Уявіть собі, що пілот і другий пілот запекло сперечаються про те, яка марка кави найкраща, що потім, на жаль, виливається в проблеми, пов’язані з польотом (каламбур!), наприклад, злітати чи ні.

По-друге, ми повинні пам’ятати про масштаби професійних розбіжностей.

Можливо, пілот і другий пілот або мають легкі розбіжності щодо продовження польоту. Вони не сваряться і просто розмірковують про плюси і мінуси того, чи варто злітати. Це не той калібр чи масштаб професійних розбіжностей, які ми зазвичай розглядаємо тут. Справа в тому, що професійні розбіжності можуть бути тимчасовими, і обидві сторони привітно або принаймні своєчасно вирішують питання. Як правило, центром професійних розбіжностей є ті, які, здавалося б, є нерозв’язними, і обидві сторони залишаються непохитними у розбіжностях.

По-третє, зазвичай має бути щось серйозне, щоб ці вказівки вступили в дію.

Вирішити літати чи не літати — це однозначно небезпечне рішення, якщо політ під загрозою через шторм або літак вважається не повністю готовим до такої подорожі. Це серйозний бізнес. Ми все ще можемо застосувати настанови до менш вражаючих професійних розбіжностей, хоча це може бути більше клопоту, ніж того варто.

Гаразд, наші міркування такі:

  • Розбіжності в основному професійно орієнтовані, а не через щось непрофесійне
  • Розбіжності мають постійний характер, а не просто тимчасові або легко вирішуються іншим чином
  • Розбіжності віщують серйозні наслідки і зазвичай мають вражаючий результат
  • Сторони ворогують і здаються нерозв’язними

Давайте тепер уважніше розглянемо кожну із запропонованих мною настанов або підходів щодо того, як впоратися з такими професійними розбіжностями.

ШІ та об’єднані люди вирішують питання (дружньо чи ні)

Я починаю список із простої можливості, що штучний інтелект і людина в циклі здатні вирішити професійні розбіжності між собою. Здається, що, можливо, приклад двох людей, пілота та другого пілота, ілюструє подібні обставини. Вони якимось чином вирішили повернутися до терміналу й розійтися. Цілком можливо, що система штучного інтелекту та людина здатні визначити підхід до вирішення, який загалом задовольняє обидві сторони, і таким чином питання буде задовільно завершено.

За замовчуванням людина переважає над ШІ

Під час налаштування штучного інтелекту ми можемо запрограмувати правило, яке говорить, що людина в циклі завжди має переважати, коли виникають професійні розбіжності. Це було б явно закодованим за замовчуванням. Ми також можемо дозволити певну форму перевизначення, про всяк випадок, хоча постійним правилом буде те, що переважатиме людина.

ШІ за замовчуванням переважає над людиною

Під час налаштування штучного інтелекту ми можемо запрограмувати правило, згідно з яким штучний інтелект завжди має переважати над людиною в циклі, коли виникають професійні розбіжності. Це явно закодований параметр за замовчуванням. Ми також можемо дозволити певну форму перевизначення, про всяк випадок, хоча за постійним правилом переважатиме ШІ.

За умовчанням переважає якась інша попередньо визначена фіксована роздільна здатність

Під час налаштування штучного інтелекту ми можемо запрограмувати правило, яке говорить, що якась інша заздалегідь визначена фіксована роздільна здатність буде переважати, коли виникають професійні розбіжності з людиною в циклі. Людина в циклі за замовчуванням не переважає. За замовчуванням ШІ не переважає. Є ще якась заздалегідь визначена резолюція. Наприклад, можливо, є підкидання монети, яка буде використана для визначення того, хто з двох сторін вважається правильним шляхом. Це, очевидно, здавалося б довільним; таким чином, інший приклад підходу полягав би в тому, що вводиться спеціалізоване правило, яке обчислює значення на основі вхідних даних двох сторін і отримує результат як тай-брейк.

Стороння людина зациклена, і її індикація переважає над сторонами

У разі професійних розбіжностей правило може полягати в тому, що третя сторона, яка є людиною, викликається та зациклюється на налаштуваннях для прийняття рішення щодо вирішення розбіжностей. ШІ запрограмований на те, що вирішить стороння людина. Людину, яка вже перебуває в системі «людина в циклі», заздалегідь проінструктували, що якщо така ситуація виникне, вона також має підкоритися сторонній людині. Крім того, ви, ймовірно, можете передбачити, що людина-в-петлі може відчувати тривогу через те, щоб погодитися з тим, що вирішить стороння людина, якщо це рішення не узгоджується з позицією людини-в-петлі.

Сторонній ШІ зациклюється, і його індикація переважає над сторонами

У разі професійних розбіжностей правило може полягати в тому, що третя сторона, яка є іншою системою штучного інтелекту, викликається та зациклюється на налаштуваннях для прийняття рішення щодо вирішення розбіжностей. Оригінальний штучний інтелект запрограмований на те, що вирішить сторонній штучний інтелект. Людину, яка вже перебуває в системі «людина в циклі», заздалегідь проінструктували, що якщо така ситуація виникне, вона також має віддати перевагу сторонньому ШІ. Крім того, ви, ймовірно, можете передбачити, що людина в циклі може мати тривогу через приєднання до будь-якого рішення стороннього штучного інтелекту, якщо рішення не узгоджується з позицією людини в циклі.

Стороння людина замінює існуючу людину, все відбувається заново

У разі професійних розбіжностей людину в циклі замінює третя сторона, яка є людиною, і відтепер вона стає людиною в циклі. Людина, яка була початковою людиною в петлі для завдання, більше не вважається частиною поточного завдання. Це відкритий аспект щодо того, що інакше відбувається з тепер заміненою людиною в циклі, але ми говоримо, що напевно вони більше не відіграють жодної постійної ролі в робочому завданні.

Сторонній ШІ замінює існуючий ШІ, все відбувається заново

У разі професійних розбіжностей штучний інтелект замінюється стороннім штучним інтелектом, який відтепер стає штучним інтелектом, який використовується для поточного робочого завдання. ШІ, який спочатку використовувався для завдання, більше не вважається частиною поточного завдання. Це відкритий аспект щодо того, що інакше відбувається із заміненим ШІ, але ми говоримо, що напевно ШІ більше не відіграє жодної постійної ролі в робочому завданні.

Людина третьої сторони замінює існуючий ШІ, все відбувається заново (тепер людина-людина)

У разі професійних розбіжностей штучний інтелект замінюється сторонньою людиною, для якої ця особа тепер вважається спільною стороною, яку використовуватимуть для поточного робочого завдання. ШІ, який спочатку використовувався для завдання, більше не вважається частиною поточного завдання. Це відкритий аспект щодо того, що інакше відбувається із заміненим ШІ, але ми говоримо, що напевно ШІ більше не відіграє жодної постійної ролі в робочому завданні. Коротше кажучи, тепер це стає двостороннім завданням, яке виконують люди-людини.

Сторонній ШІ замінює існуючу людину, все відбувається заново (тепер ШІ-ШІ)

У разі професійних розбіжностей людину в циклі замінюють стороннім штучним інтелектом, і цей штучний інтелект відтепер стає доповненням для попередньої людини в циклі. Людина, яка була початковою людиною в петлі для завдання, більше не вважається частиною поточного завдання. Це відкритий аспект щодо того, що інакше відбувається з тепер заміненою людиною в циклі, але ми говоримо, що напевно вони більше не відіграють жодної постійної ролі в робочому завданні. Коротше кажучи, тепер це стає двостороннім штучним інтелектом для виконання завдання.

Інше

Можна придумати й інші варіанти, щоб впоратися з професійними розбіжностями, але ми розглянули тут деякі ключові камені.

Як ми можемо вирішити, який із цих підходів буде правильним для даної ситуації?

Зробити такий вибір пов’язано з великою різноманітністю питань. Є технологічні міркування. Є бізнес міркування. Є юридичні та етичні міркування.

Певною мірою саме тому етика ШІ та етичний ШІ є такою важливою темою. Правила етики ШІ змушують нас залишатися пильними. Технологи штучного інтелекту іноді можуть бути стурбовані технологіями, особливо оптимізацією високих технологій. Вони не обов’язково враховують більші суспільні наслідки. Наявність мислення щодо етики штучного інтелекту, яке є невід’ємною частиною розробки та впровадження штучного інтелекту, є життєво важливим для створення належного штучного інтелекту, включаючи (можливо, дивовижно чи іронічно) оцінку того, як етика штучного інтелекту приймається компаніями.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Насправді вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо ШІ, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які дають величезні переваги для суспільства.

На цьому етапі цієї вагомої дискусії, я б повірив, ви прагнете отримати деякі ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи просвітлює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про розв’язання розбіжностей між ШІ та людиною, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Безпілотні автомобілі та розбіжності між ШІ та людиною

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Для повністю автономних транспортних засобів може бути відсутнім будь-який шанс професійного розбіжності між людиною та штучним інтелектом через можливість того, що немає жодної людини в циклі. Прагнення багатьох сучасних виробників безпілотних автомобілів полягає в тому, щоб повністю усунути людину-водія від керування автомобілем. У транспортному засобі навіть не буде доступних для людини елементів керування. У цьому випадку водій-людина, якщо він присутній, не зможе брати участь у завданні водіння, оскільки він не має доступу до будь-яких елементів керування.

Для деяких повністю автономних транспортних засобів деякі конструкції все ще дозволяють людині бути в курсі, хоча людині зовсім не обов’язково бути доступною або брати участь у процесі водіння. Таким чином, людина може брати участь у керуванні автомобілем, якщо сама цього бажає. Однак жодного разу ШІ не покладається на людину для виконання будь-яких завдань водіння.

У випадку з напівавтономними транспортними засобами між людиною-водієм і штучним інтелектом існує взаємодія рука об руку. Людина-водій може повністю взяти на себе керування автомобілем і, по суті, перешкодити штучному інтелекту брати участь у керуванні автомобілем. Якщо людина-водій бажає відновити ШІ роль водіння, він може це зробити, хоча іноді це змушує людину відмовитися від керування.

Інша форма напівавтономної роботи передбачає спільну роботу людини-водія та штучного інтелекту. За кермом керує ШІ, а за кермом – людина. Вони їдуть разом. Штучний інтелект може підкорятися людині. Людина може підкоритися ШІ.

У певний момент система водіння штучного інтелекту та людина-водій у циклі можуть досягти моменту «професійного розбіжності» щодо поточного завдання водіння.

Щоб проілюструвати, як деякі з вищезазначених правил вирішення професійних розбіжностей можуть бути складними для виконання, розглянемо випадок залучення сторонньої людини, щоб вона втрутилася в справу та запропонувала рішення для вирішення невирішеної проблеми.

Припустімо, що виробник автомобілів або технічна фірма, що займається безпілотним керуванням, організувала віддалених людей-операторів для доступу до керування транспортними засобами в їх парку. Людина-оператор сидить у віддаленому офісі чи схожому місці. За допомогою комп’ютерної системи вони можуть переглядати сцену водіння за допомогою доступу до камер та інших сенсорних пристроїв, завантажених на самокерований автомобіль. Для них це майже як гра в онлайн-відеогру, хоча, звісно, ​​обставини реального життя мають потенційно жахливі наслідки.

Система штучного інтелекту та водій-людина всередині автомобіля керують напівавтономним автомобілем по довгому шосе. Раптом штучний інтелект хоче з'їхати в кювет. Водій-людина не хоче цього робити. Двоє сваряться за керування.

Як це буде вирішено?

Можливо, ми могли б заздалегідь встановити, що людина завжди перемагає. Припустімо, що ми вирішили цього не робити.

Ми могли заздалегідь встановити, що ШІ завжди перемагає. Припустімо, що ми вирішили не робити цього. Загалом, ми не приймали жодного з цих правил, окрім того, що ми вирішили дозволити сторонній людині втрутитися та вирішити професійні розбіжності будь-якого істотного характеру.

У цьому випадку використання ШІ та водій-людина за кермом борються за керування автомобілем. Скажімо, це передається віддаленій людині-оператору (нашій сторонній людині). Віддалений оператор-людина досліджує, що відбувається, і вирішує відійти від канави, нібито відвертаючи те, що намагався зробити ШІ. У той же час припустімо, що дистанційний оператор-людина направляє на зустрічний транспорт, чого, можливо, не хотіли робити ні ШІ, ні водій-людина в автомобілі.

Справа в тому, що це правило було реалізовано таким чином, що сторонній оператор-людина може повністю перевизначити як ШІ, так і людину в циклі. Безсумнівно, що це дасть хороший результат.

Я використаю цей приклад, щоб підкреслити деякі додаткові ідеї щодо цих питань.

Ви не можете зробити нахабне припущення, що лише тому, що одне з цих правил було введено в дію, результат розв’язаних розбіжностей обов’язково є гарантованим хорошим результатом. Може й не бути. Немає жодного залізного завжди правильного правила, яке можна вибрати.

Крім того, деякі з цих правил можуть бути неможливими.

Розглянемо приклад віддаленого оператора-людини, який втручається, коли штучний інтелект і водій-людина сваряться за елементи керування. Віддаленому оператору може знадобитися багато секунд, щоб зрозуміти, що відбувається. На той час транспортний засіб міг уже опинитися в кюветі або мати інший несприятливий результат. Крім того, припустімо, що місцезнаходження транспортного засобу виключає віддалений доступ, наприклад перебування в місці, де немає електронного підключення до мережі. Або, можливо, мережеві функції автомобіля не працюють у цей конкретний момент.

Як бачите, правило може виглядати модно на папері, хоча реалізація правила може бути дуже складним або дуже випадковим підходом. Дивіться мій критичний репортаж про віддаленого оператора автономних транспортних засобів і самокерованих автомобілів за адресою посилання тут.

Я хотів би коротко висвітлити іншу пов’язану тему, яку я детальніше розгляну в майбутньому аналізі.

Одним із зростаючих побоювань щодо автономних транспортних засобів і напівавтономних самокерованих автомобілів є т.зв. Синдром гарячої картоплі.

Ось така угода.

Система водіння штучного інтелекту та людина керують разом. Виникає жахлива ситуація. Штучний інтелект був запрограмований на те, щоб відмовитися від завдання водіння та передати справу людині, коли настане жахливий момент. Це здається, мабуть, «розумним», оскільки ми, здається, посилаємося на правило про те, що людина є «переможцем» за замовчуванням у будь-якій потенційній професійній суперечці.

Але відмова від ШІ може бути з більш мерзенною метою або вважатися підступною. Можливо, виробник автомобілів або технічна фірма, що займається безпілотним керуванням, не хоче, щоб їхній штучний інтелект вважався «винуватою стороною», коли відбувається ДТП. Щоб, здавалося б, уникнути такого притискання, ШІ раптово передає керування людині. Вуаля, тепер людина, ймовірно, повністю відповідає за автомобіль.

Головна проблема полягає в тому, що припустимо, що штучний інтелект виконує цю передачу, скажімо, за одну секунду до кінця, перш ніж відбудеться збій.

Чи справді у людини буде час, щоб запобігти аварії?

Мабуть, ні.

Припустімо, що штучний інтелект виконує передачу за кілька мілісекунд або наносекунд до кінця. Насмілюся сказати, що у людини практично немає шансів зробити щось, щоб запобігти аварії.

З точки зору виробника автомобілів або фірми, що займається безпілотними автомобілями, вони можуть намагатися діяти так, наче їхні руки чисті, коли відбувається така автомобільна аварія. За кермом автомобіля була людина. ШІ не керував автомобілем. Єдиний «логічний» висновок, здавалося б, полягає в тому, що людина має бути винна, а ШІ має бути абсолютно бездоганним.

Це кувшин.

Я буду обговорювати це більш детально в наступній колонці.

Висновок

Виникнуть професійні розбіжності.

Важко уявити собі будь-яке складне завдання, яке має дві сторони, які спільно виконують завдання, і щодо якого ніколи не виникне будь-яких професійних розбіжностей. Це виглядає як країна фантазій або принаймні велика рідкість.

Сьогодні ми маємо багато-багато випадків професійних розбіжностей між людьми, які так чи інакше мирно та розумно вирішуються щодня. Насправді ми часто навмисно влаштовуємо ситуації, щоб сприяти та висвітлювати професійні розбіжності. Ви можете заперечити, що це демонструє знамениту мудрість про те, що іноді дві голови краще, ніж одна.

Оскільки штучний інтелект стає все більш поширеним, ми матимемо багато двосторонніх виконавців завдань ШІ-людина або людина-ШІ, а також буде професійні розбіжності що відбудеться. Ледачий підхід полягає в тому, щоб завжди послухатися людини. Можливо, це не найкращий підхід. AI може бути кращим вибором. Або одне з інших вищезгаданих правил може бути більш обґрунтованим підходом.

Існує мудра фраза, яку часто повторюють, що ми всі повинні вміти погоджуватися, щоб не погоджуватися, хоча коли справа доходить до дроту, іноді розбіжності потрібно вирішувати однозначно, інакше справа призведе до невимовного лиха. Ми не можемо дозволити розбіжностям залишитися на лозі. Час може мати вирішальне значення, а життя може бути поставлено на карту.

Існує чітка вимога до певних розумних засобів вирішення розбіжностей, навіть якщо вони не обов’язково прийнятні, зокрема, коли штучний інтелект і людина в циклі не бачать ні один, ні байт-у-байт.

Я вірю, що ви не погодитеся з цим цілком приємним твердженням.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- пілот-і-другий-пілот-не погодилися-перед-зльотом-і-раптово-вибрали-рулити-назад-до-терміналу-і-розійтися/