Етика штучного інтелекту говорить про те, що штучний інтелект слід особливо розгортати, коли багато людських упереджень

Люди пізнали свої обмеження.

Ви, напевно, пам’ятаєте схожу фразу про знання наших обмежень, яку жорстко вимовив персонаж Брудний Гаррі у фільмі 1973 року під назвою Сили Magnum (за словами актора Клінта Іствуда в його незабутній ролі інспектора Гаррі Каллахана). Загальна думка полягає в тому, що іноді ми схильні не помічати власних обмежень і, відповідно, потрапляємо в гарячу воду. Незалежно від того, чи це через зарозумілість, егоцентризм чи просто сліпість щодо наших власних здібностей, заповідь усвідомлювати та брати до уваги свої схильності та недоліки є надзвичайно розумною та корисною.

Давайте додамо новий поворот до мудрої поради.

Штучний інтелект (ШІ) пізнає свої обмеження.

Що я маю на увазі під цим варіантом шанованої крилатої фрази?

Виявилося, що початковий порив використати сучасний штучний інтелект як надію на вирішення світових проблем став заплямованим і зовсім заплямованим усвідомленням того, що сьогоднішній штучний інтелект дійсно має деякі досить серйозні обмеження. Ми пішли від піднесених заголовків ШІ для добра і дедалі більше опиняємося загрузли в ШІ для поганого. Розумієте, багато систем штучного інтелекту були розроблені та використані з усіма видами небажаних расових і гендерних упереджень, а також з безліччю інших подібних жахливих несправедливостей.

Для мого обширного та постійного висвітлення етики ШІ та етики ШІ див посилання тут та посилання тут, просто назвемо декілька.

Упередження, виявлені в цих системах штучного інтелекту, не належать до типу «навмисних», які ми б приписали людській поведінці. Я згадую це, щоб підкреслити, що сьогоднішній ШІ не розумний. Незважаючи на гучні заголовки, які стверджують протилежне, ніде немає штучного інтелекту, який би навіть наблизився до розуму. Крім того, ми не знаємо, як зарахувати штучний інтелект до рівня сприйнятливості, а також ніхто не може сказати напевно, чи зможемо ми коли-небудь досягти рівня сприйняття ШІ. Можливо, це колись станеться, а може й ні.

Отже, я хочу сказати, що ми не можемо конкретно призначити намір ШІ, яким ми зараз володіємо. З огляду на це, ми можемо призначити наміри тим, хто розробляє системи ШІ. Деякі розробники штучного інтелекту не підозрюють про те, що вони розробили систему штучного інтелекту, яка містить неприємні та, можливо, незаконні упередження. Тим часом інші розробники штучного інтелекту розуміють, що вони впроваджують упередження у свої системи штучного інтелекту, потенційно роблячи це навмисним протиправним способом.

У будь-якому випадку результат все одно є непристойним і, ймовірно, незаконним.

Докладаються рішучих зусиль, щоб оприлюднити принципи етики штучного інтелекту, які просвітлять розробників штучного інтелекту та забезпечать відповідні вказівки щодо уникнення упередженого впровадження в їхні системи штучного інтелекту. Це допоможе двома способами. По-перше, ті, хто створює штучний інтелект, більше не матимуть готового виправдання, що вони просто не знали, яких правил слід дотримуватися. По-друге, тих, хто відхиляється від умов Етичного штучного інтелекту, легше буде спіймати та показати, що вони відвертають те, про що їх попереджали як робити, так і не робити.

Давайте коротко розглянемо деякі ключові принципи етики штучного інтелекту, щоб проілюструвати, про що повинні думати розробники штучного інтелекту та неухильно дотримуватися їх з точки зору етики штучного інтелекту.

Як повідомляє Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, у тому числі з використанням прозорих і підданих аудиту методологій, джерел даних, а також процедури проектування та документації.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете безпосередньо здогадатися, спроба визначити специфіку, що лежить в основі цих принципів, може бути надзвичайно важкою. Навіть більше, намагання перетворити ці широкі принципи на щось цілком відчутне та достатньо деталізоване, щоб використовувати його під час створення систем ШІ, також є міцним горішком. Загалом легко помахати руками щодо того, що таке принципи етики штучного інтелекту та як їх загалом слід дотримуватися, тоді як це набагато складніша ситуація, коли кодування штучного інтелекту має бути справжньою гумкою, яка зустрічає дорогу.

Принципи етики штучного інтелекту повинні використовуватися розробниками штучного інтелекту разом із тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку розміщує та підтримує системи штучного інтелекту. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання штучного інтелекту враховуються в межах дотримання встановлених норм етичного штучного інтелекту. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню понять етики ШІ. Майте на увазі, що для створення та застосування штучного інтелекту потрібне село. Для чого все село має стежити за етикою ШІ.

У будь-якому випадку, тепер, коли я зрозумів, що штучний інтелект може містити упередження, можливо, ми всі можемо погодитися з цими двома очевидними фактами:

1. Люди можуть мати численні небажані упередження і можуть діяти відповідно до них

2. ШІ може мати численні небажані упередження та може діяти відповідно до цих упереджень

Я дещо ненавиджу порівнювати людей із штучним інтелектом у цьому контексті, оскільки це може якимсь чином означати, що штучний інтелект має такі ж розумові здібності, як і люди. Це точно не так. Трохи пізніше в цій дискусії я повернуся до зростаючої стурбованості щодо антропоморфізації ШІ.

Що гірше: люди, які виявляють небажані упередження, чи ШІ, який це робить?

Насмілюся сказати, що це питання є одним із тих суворих виборів. Можна стверджувати, що це, як кажуть, менше з двох зол. Ми б хотіли, щоб люди не втілювали неприємних упереджень. Крім того, ми б хотіли, щоб навіть якщо люди мають небажані упередження, вони не діяли б на основі цих упереджень. Те саме можна сказати про ШІ. Нам би хотілося, щоб штучний інтелект не вбудовував небажаних упереджень і щоб навіть якщо існують такі внутрішньо закодовані упередження, ШІ принаймні не діяв би на них.

Хоча бажання не обов’язково керують світом (для мого аналізу зростаючої та тривожної подоби т.зв. ШІ Виконання бажань суспільством в цілому, див посилання тут).

Гаразд, ми, очевидно, хочемо, щоб люди знали свої обмеження. Важливо розпізнавати, коли у вас є небажані упередження. Так само важливо намагатися запобігти вкрапленню цих небажаних упереджень у ваші дії та рішення. Сьогодні компанії намагаються використовувати всі види підходів, щоб уберегти своїх працівників від жахливих пасток неприємних упереджень. Співробітники проходять спеціальне навчання щодо того, як виконувати свою роботу етично. Процеси формуються навколо працівників, щоб попередити їх, коли вони, здається, демонструють неетичні звичаї. І так далі.

Іншим засобом боротьби з людьми та їх небажаними упередженнями є автоматизація людської роботи. Так, просто зніміть людину з петлі. Не дозволяйте людині виконувати завдання з прийняття рішень, і, ймовірно, у вас більше не буде жодних тривожних занепокоєнь щодо ставлення людини до будь-яких небажаних упереджень. Людина не залучена, тому проблема потенційних людських упереджень, здається, вирішена.

Я згадую це, тому що ми спостерігаємо поступовий і масштабний перехід до використання ШІ в алгоритмі прийняття рішень (ADM). Якщо ви зможете замінити людину-працівника ШІ, велика ймовірність того, що ви отримаєте багато переваг. Як уже згадувалося, ви більше не будете турбуватися про людські упередження цього працівника (того, хто більше не виконує цю роботу). Швидше за все, штучний інтелект буде менш дорогим у порівнянні з довгостроковим періодом часу. Ви позбавляєтеся від усіх інших різноманітних труднощів, які пов’язані з людьми-працівниками. тощо

Здається, пропозиція, яка набуває популярності, полягає в наступному: Намагаючись вирішити, де найкраще розмістити штучний інтелект, спочатку подивіться на налаштування, які вже спричиняють небажані людські упередження ваших працівників і для яких ці упередження підривають або іншим чином надмірно ускладнюють певні завдання прийняття рішень.

Підсумок полягає в тому, що було б розумно отримати найбільшу віддачу від інвестицій у штучний інтелект, націлившись прямо на завдання прийняття рішень людиною, які важко контролювати з точки зору вливання небажаних упереджень. Видаліть людей-працівників у цій ролі. Замініть їх ШІ. Припускається, що штучний інтелект не матиме таких несприятливих упереджень. Таким чином, ви можете отримати свій торт і з’їсти його, а саме: взятися за рішення та зробити це без етичних і правових привидів небажаних упереджень.

Якщо ви все це підрахуєте, ROI (рентабельність інвестицій), швидше за все, зробить впровадження штучного інтелекту простим вибором.

Ось як це зазвичай відбувається.

Огляньте свою фірму та спробуйте визначити завдання прийняття рішень, які впливають на клієнтів. Які з цих завдань, швидше за все, будуть неналежним чином змінені, якщо працівники втілюють небажані упередження? Якщо ви вже намагалися приборкати ці упередження, можливо, ви залишите все як є. З іншого боку, якщо упередження продовжують з’являтися знову, а зусилля подолати їх є обтяжливими, подумайте про те, щоб на цю роль приєднався якийсь відповідний штучний інтелект. Не тримайте працівників у суміші, оскільки вони можуть перевизначити ШІ або штовхнути ШІ назад у прірву небажаних упереджень. Також переконайтеся, що штучний інтелект може якісно виконувати завдання, і ви достатньою мірою охопили аспекти прийняття рішень, необхідні для виконання роботи.

Промити і повторити.

Я розумію, що це здається простою ідеєю, хоча розумію, що є багато способів, якими заміна людських працівників штучним інтелектом може легко піти не так. Багато компаній були готові вжити таких дій і не обдумували, як це зробити. Як наслідок, вони часто створювали набагато гірший безлад, ніж у них було на початку.

Хочу уточнити та підкреслити, що AI не є панацеєю.

Говорячи про це, є одна величезна проблема щодо чистоти, здавалося б, викидання людей, упереджених осіб, які приймають рішення, за допомогою нібито неупередженого ШІ. Проблема полягає в тому, що ви можете просто замінити один набір небажаних упереджень іншим. Згідно з попередніми вказівками, штучний інтелект може містити небажані упередження та діяти відповідно до цих упереджень. Зухвале припущення, що заміна упереджених людей на неупереджений штучний інтелект — це ще не все, що можна зробити.

Коротше кажучи, ось угода, якщо розглядати питання виключно з упереджених факторів:

  • ШІ не має небажаних упереджень, тому ADM на основі штучного інтелекту зручно розгортати
  • ШІ має такі ж небажані упередження, як і замінені люди, тому ADM на основі ШІ викликає занепокоєння
  • Штучний інтелект вводить нові небажані упередження, окрім упереджень людей, яких замінюють, і, швидше за все, погіршить ситуацію відповідно
  • Штучний інтелект спочатку виглядає нормально, а потім поступово починає змінюватися
  • Інше

Ми можемо коротко розкрити ці можливості.

Перший — це ідеалізована версія того, що може статися. ШІ не має небажаних упереджень. Ви встановлюєте ШІ на місце, і він чудово виконує свою роботу. Добре тобі! Звичайно, можна сподіватися, що ви також певним чином спритно впоралися з переміщенням людей через включення ШІ.

У другому випадку ви встановлюєте штучний інтелект і виявляєте, що штучний інтелект демонструє ті самі небажані упередження, що й працівники-люди. Як таке може бути? Поширеним способом потрапити в цю пастку є використання машинного навчання (ML) і глибокого навчання (DL), які ґрунтуються на зібраних даних про те, як люди, які виконували цю роль, раніше приймали свої рішення.

Дозвольте мені пояснити.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які роками виконували цю роботу, включали небажані упередження, швидше за все, дані відображають це непомітно, але суттєво. Зіставлення обчислювальних шаблонів машинного або глибокого навчання просто намагатиметься математично імітувати дані відповідно. Немає жодної подоби здорового глузду чи інших розумних аспектів моделювання як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємнича математика може ускладнити пошук прихованих упереджень. Ви справедливо сподіваєтесь і очікуєте, що розробники ШІ перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно широкому тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть присутні упередження.

Загалом, ви можете повернутися на круги своя. Ті самі небажані упередження людей тепер обчислювально віддзеркалюються в системі ШІ. Ви не викорінили упереджень.

Що ще гірше, можливо, ви з меншою ймовірністю усвідомите, що ШІ має упередження. У випадку з людьми ви, як правило, можете бути насторожі, що люди мають небажані упередження. Це базове очікування. Використання штучного інтелекту може змусити лідерів повірити в те, що автоматизація повністю усунула будь-які людські упередження. Таким чином вони підлаштовуються під те, що вистрілили собі в ногу. Вони позбулися людей із, здавалося б, відомими неприємними упередженнями, замінивши ШІ, який, як вважалося, не має таких упереджень, і все ж тепер запустив ШІ, насичений тими самими упередженнями, про які вже відомо.

Це може призвести до перекосів. Можливо, ви зняли інші огорожі, які використовувалися для людей, які були створені для виявлення та запобігання появі тих уже очікуваних людських упереджень. ШІ тепер має свободу дій. Немає нічого, щоб підхопити це, перш ніж діяти. Тоді штучний інтелект може почати вести вас суворим шляхом величезного накопичення упереджених дій.

І ви перебуваєте в незручній і, можливо, відповідальній позі, коли колись знали про упередження, а тепер дозволили цим упередженням сіяти хаос. Мабуть, одна справа — ніколи не стикатися з такими неприємними упередженнями, а потім раптом зненацька ШІ їх викликає. Ви можете спробувати виправдати це за допомогою «хто б здогадався» різновиду відволікання (можливо, не дуже переконливо). Але налаштувати штучний інтелект, який виконує ті самі небажані упереджені дії, що й раніше, означає, що ваші виправдання стають дедалі слабшими.

Поворот у цій ситуації тягне за собою небажані упередження штучного інтелекту, яких раніше не було, коли люди виконували завдання. Можна сказати, що цьому важче запобігти, оскільки воно складається з «нових» упереджень, яких фірма раніше не шукала. Зрештою, виправдання можуть не принести вам особливого полегшення. Якщо система штучного інтелекту зайде як на неетичну, так і на незаконну територію, ваш гусак може бути приготованим.

Ще один аспект, про який слід пам’ятати, полягає в тому, що штучний інтелект може почати працювати просто добре, а потім трохи поступити до небажаних упереджень. Це особливо ймовірно, коли машинне навчання або глибоке навчання використовуються на постійній основі для підтримки ШІ в актуальному стані. Незалежно від того, чи працює ML/DL у режимі реального часу чи періодично оновлюється, слід звернути увагу на те, чи можливо штучний інтелект поглинає дані, які зараз містять упередження, а раніше їх не було.

Для лідерів, які думають, що отримують безкоштовний обід, помахавши чарівною паличкою, щоб замінити упереджених працівників на ШІ, їх чекає дуже грубе пробудження. Дивіться моє обговорення важливості розширення прав і можливостей лідерів за принципами етики ШІ на посилання тут.

На цьому етапі цієї дискусії я б’юся об заклад, що ви бажаєте отримати кілька реальних прикладів, які могли б продемонструвати головоломку заміни (чи ні) людських небажаних упереджень шкідливими упередженнями на основі ШІ.

Я радий, що ти запитав.

Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи просвітлює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про небажані упередження в ШІ, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані машини - це ті, що ШІ керує автомобілем повністю самостійно, і жодна допомога людини під час водіння відсутня.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На Рівні 5 ще немає справжнього автомобіля, що самостійно керує, про який ми ще не знаємо, чи цього вдасться досягти, і скільки часу це займе, щоб дістатися туди.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Безпілотні автомобілі та ШІ з неприємними упередженнями

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це дає достатню кількість застережень, щоб підтвердити те, про що я збираюся розповісти.

Зараз ми готові глибоко зануритися в безпілотні автомобілі та можливості етичного штучного інтелекту, що передбачає дослідження ШІ та небажаних упереджень.

Скористаємося простим прикладом. Автомобіль на основі штучного інтелекту рухається по вулицях вашого околиці і, здається, їздить безпечно. Спочатку ви приділяли особливу увагу кожному разу, коли вам вдавалося кинути поглядом самокерований автомобіль. Автономний автомобіль вирізнявся стійкою електронних датчиків, які включали відеокамери, радари, пристрої LIDAR тощо. Після багатьох тижнів автономного автомобіля, який їздить по вашій громаді, ви зараз ледве помічаєте це. Що стосується вас, то це просто ще один автомобіль на і без того жвавих дорогах загального користування.

Щоб ви не думали, що неможливо або неправдоподібно познайомитися з самокерованими автомобілями, я часто писав про те, як місцевості, які входять до кола випробувань безпілотних автомобілів, поступово звикли бачити оновлені автомобілі, див. мій аналіз за адресою Це посилання тут. Багато місцевих жителів врешті-решт перейшли від захопленого погляду, що роззяв рота, до того, щоб тепер випромінювати широкий позіхання від нудьги, спостерігаючи за цими звивистими самокерованими автомобілями.

Ймовірно, головна причина зараз, через яку вони можуть помітити автономні транспортні засоби, полягає в факторі роздратування та роздратування. Звичні системи водіння з штучним інтелектом гарантують, що автомобілі підкоряються всім обмеженням швидкості та правилам дорожнього руху. Метушливі людині-водії в їхніх традиційних автомобілях, які керують людиною, часом дратуєтеся, коли застряєте за суворо законослухняними самокерованими автомобілями на основі штучного інтелекту.

Це те, до чого нам усім, можливо, доведеться звикнути, справедливо чи ні.

Повертаємося до нашої казки.

Виявилося, що починають виникати дві непристойні занепокоєння щодо нешкідливих і загалом вітаних самокерованих автомобілів на базі штучного інтелекту, зокрема:

a. Те, де штучний інтелект переміщується в безпілотних автомобілях, щоб підібрати поїздки, викликає тривогу в спільноті в цілому

b. Питання, як штучний інтелект обробляє пішоходів, які не мають права переваги, також зростає.

Спочатку штучний інтелект блукав безпілотними автомобілями по всьому місту. Будь-хто, хто хотів попросити проїхатися на самокерованому автомобілі, мав, по суті, рівні шанси отримати його. Поступово штучний інтелект почав насамперед підтримувати безпілотні автомобілі лише в одній частині міста. Цей розділ був більш прибутковим, і система ШІ була запрограмована, щоб спробувати максимізувати прибуток як частину використання в суспільстві.

Члени громади в бідних частинах міста рідше мали можливість проїхатися на самокерованій машині. Це було пов’язано з тим, що безпілотні автомобілі були далі й їздили в районі з високим рівнем доходу. Коли запит надійшов з віддаленої частини міста, будь-який запит із ближчого місця, який, ймовірно, був у «поважній» частині міста, мав би більший пріоритет. Зрештою, можливість придбати безпілотний автомобіль у будь-якому іншому місці, крім багатшої частини міста, була майже неможлива, що прикро для тих, хто жив у тих районах, які зараз нестачі ресурсів.

Ви можете стверджувати, що ШІ в значній мірі приземлився на формі дискримінації проксі (також її часто називають непрямою дискримінацією). ШІ не був запрограмований, щоб уникати цих бідніших районів. Натомість він «навчився» робити це за допомогою ML/DL.

Річ у тім, що водії-люди, які їздять на поїздках, були відомі тим, що робили те саме, хоча не обов’язково виключно через те, що вони заробляють гроші. Були деякі з водіїв-людей, які мали неблагополучне упередження щодо збирання вершників у певних частинах міста. Це було дещо відоме явище, і місто запровадило моніторинговий підхід, щоб ловити водіїв-людей, які це роблять. Водії-люди можуть потрапити в неприємності через неочевидну практику відбору.

Передбачалося, що штучний інтелект ніколи не потрапить у такий самий плавучий пісок. Не було створено жодного спеціалізованого моніторингу, щоб відстежувати, куди рухаються самокеровані автомобілі на основі штучного інтелекту. Лише після того, як представники громади почали скаржитися, керівники міста зрозуміли, що відбувається. Щоб дізнатися більше про ці типи загальноміських проблем, які будуть висвітлювати автономні транспортні засоби та самокеровані автомобілі, див. Це посилання тут і в якому описано дослідження під керівництвом Гарварду, яке я був співавтором на цю тему.

Цей приклад аспектів роумінгу безпілотних автомобілів на базі штучного інтелекту ілюструє попередні ознаки того, що можуть виникати ситуації, що тягнуть за собою небажані упередження людей, для яких встановлюється контроль, і що штучний інтелект, який замінює цих водіїв-людей, залишається на місці. безкоштовно. На жаль, ШІ може поступово занурюватися в споріднені упередження і робити це без достатніх огорож.

Другий приклад включає ШІ, що визначає, чи зупинятися для пішоходів, які не мають права переходу вулиці.

Ви, безсумнівно, йшли за кермом і зустрічали пішоходів, які чекали, щоб перейти вулицю, але вони не мали для цього права проїзду. Це означало, що ви мали на власний розсуд, чи зупинитися й дозволити їм перетнути. Ви можете продовжити, не дозволяючи їм перетинати, і при цьому повністю відповідати законним правилам водіння.

Дослідження того, як люди-водії вирішують зупинятися чи не зупинятися для таких пішоходів, показали, що іноді водії-люди роблять вибір на основі несприятливих упереджень. Водій-людина може поглянути на пішохода і вирішити не зупинятися, навіть якщо б він зупинився, якби пішохід мав іншу зовнішність, наприклад, на основі раси чи статі. Я розглядав це на посилання тут.

Уявіть собі, що самокеровані автомобілі на основі штучного інтелекту запрограмовані на вирішення питання про те, зупинятися чи ні пішоходам, які не мають права відводу. Ось як розробники ШІ вирішили запрограмувати це завдання. Вони збирали дані з міських відеокамер, які розміщені по всьому місту. Дані демонструють водіїв-людей, які зупиняються для пішоходів, які не мають права проїзду, і водіїв-людей, які не зупиняються. Все це зібрано у великий набір даних.

За допомогою машинного навчання та глибокого навчання дані моделюються обчислювально. Потім система водіння AI використовує цю модель, щоб вирішити, коли зупинятися чи ні. Загалом, ідея полягає в тому, що з чого б не складалися місцеві звичаї, саме так ШІ збирається керувати самокерованим автомобілем.

На подив керівництва міста та жителів, ШІ, очевидно, вирішував зупинятися чи не зупинятися на основі зовнішнього вигляду пішохода, включно з його расою та статтю. Датчики безпілотного автомобіля сканували б пішохода, який очікує на нього, передавали ці дані в модель ML/DL, а модель повідомляла ШІ, зупинятися чи продовжувати. На жаль, у місті вже було багато упереджень щодо водіїв-людей у ​​цьому відношенні, і ШІ тепер імітував те саме.

Хороша новина полягає в тому, що це піднімає проблему, про існування якої майже ніхто раніше не знав. Погана новина полягала в тому, що оскільки штучний інтелект був спійманий на цьому, більшість звинуватили його. Цей приклад показує, що система штучного інтелекту може просто дублювати вже існуючі небажані упередження людей.

Висновок

Існує безліч способів спробувати уникнути розробки штучного інтелекту, який або зовні має небажані упередження, або з часом накопичує упередження. Один із підходів полягає в тому, щоб переконатися, що розробники штучного інтелекту знають про це, і таким чином тримати їх напоготові, щоб запрограмувати ШІ, щоб запобігти цьому. Ще один шлях полягає в тому, щоб штучний інтелект самостійно відстежував неетичну поведінку (див. моє обговорення на посилання тут) та/або іншу частину штучного інтелекту, яка контролює інші системи ШІ на предмет потенційно неетичної поведінки (я описав це на посилання тут).

Підводячи підсумок, ми повинні усвідомити, що люди можуть мати небажані упередження і що якимось чином їм потрібно знати свої обмеження. Подібним чином штучний інтелект може мати небажані упередження, і ми якимось чином повинні знати його обмеження.

Для тих із вас, хто завзято приймає етику штучного інтелекту, я хотів би закінчити прямо зараз ще одним відомим реченням, яке всі вже повинні знати. Зокрема, будь ласка, продовжуйте використовувати етичний штучний інтелект і розділяти його важливість. І, зробивши це, я б нахабно сказав: «Давай, покращуй мій день».

Джерело: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/