Етика штучного інтелекту та законодавство щодо штучного інтелекту рухаються до стандартів, які чітко визначають і керують упередженнями штучного інтелекту

Ви коли-небудь грали в підбір п'ятдесяти двох карт?

Це не та гра, в яку ви б зазвичай взялися охоче. Ось чому. Хтось пропонує вам, що це нібито веселий вид спорту, і якщо ви берете солодку наживку, вони підкидають цілу колоду гральних карт у повітря та відразу на підлогу. Потім людина зухвало посміхається і каже вам йти вперед і забирати картки. Ось і вся гра.

жартівник!

У мене є доволі серйозне запитання щодо цього.

Припустимо, що одна з карт прослизнула під сусідній диван. Коли ви закінчите збирати всі карти, ви зрозумієте, що однієї не вистачає, тому що у вас на руці буде лише п’ятдесят одна.

Питання в тому, чи могли б ви визначити, якої картки не вистачає?

Я впевнений, що ви відразу скажете, що легко визначите, яка карта не була у вас на руках. Все, що вам потрібно зробити, це привести колоду в порядок. Ви знаєте, що стандартна колода складається з чотирьох мастей і що в кожній масті карти пронумеровані від одного до десяти, а потім на валета, даму та короля.

Ви це знаєте, тому що стандартна колода гральних карт заснована на стандарті.

Вау, це твердження може здатися одним із тих абсолютно очевидних тверджень. Ну, так, звичайно, стандартна ігрова колода заснована на стандарті. Ми всі це знаємо. Я хочу сказати, що маючи стандарт, ми можемо покладатися на стандарт, коли це необхідно. Крім того, що ви можете визначити, якої карти не вистачає в колоді, ви також можете легко грати в мільйони відомих карткових ігор з іншими людьми. Коли комусь повідомляють правила гри, вони можуть безпосередньо грати, оскільки вони вже повністю знають, з чого складається колода. Вам не потрібно пояснювати їм, що колода складається з чотирьох мастей і карт з різними номерами. Вони вже знають, що це так.

Куди я з цим їду?

Я намагаюся провести вас шляхом, який є життєво важливим засобом досягнення прогресу в галузі штучного інтелекту, особливо в сфері етики штучного інтелекту та етичного штучного інтелекту. Розумієте, нам потрібно спробувати розробити загальноприйняті стандарти етики ШІ. Якщо ми зможемо це зробити, це спростить впровадження етичного штучного інтелекту та явно націлить на вдосконалення систем штучного інтелекту, які постійно викидаються на ринок (як ненумерована та невпорядкована колода диких карт). Щодо мого поточного та широкого висвітлення етики штучного інтелекту, етики штучного інтелекту та права щодо штучного інтелекту див. посилання тут та посилання тут, просто назвемо декілька.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

Я говорю про це, щоб створити основу для моєї дискусії, яка зосереджуватиметься на певному сегменті чи частині ширшої сфери етики штучного інтелекту, а саме, як згадувалося раніше, на конкретному елементі упереджень штучного інтелекту. Крім того, причина, чому я ділюся цією темою з вами, полягає в тому, що документ, опублікований Національним інститутом стандартів і технологій (NIST), намагається змусити нас трохи потроху рухатися до стандарту, що характеризує упередження ШІ. Документ має назву На шляху до стандарту для виявлення та управління упередженнями в штучному інтелекті Автори Рева Шварц, Апостол Василєв, Крістен Грін, Лорі Перін, Ендрю Берт і Патрік Холл, опублікований Міністерством торгівлі США, NIST Special Publication 1270, у березні 2022 року.

Ми розповімо про цю зручну та обнадійливу спробу встановити, що ми маємо на увазі під упередженнями ШІ. Стара приказка говорить, що ви не можете керувати тим, що не можете виміряти. Маючи стандарт, який визначає різноманітність упереджень штучного інтелекту, ви можете почати вимірювати та керувати проблемою упереджень штучного інтелекту.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, у тому числі з використанням прозорих і підданих аудиту методологій, джерел даних, а також процедури проектування та документації.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та використання штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

В основі багатьох із цих ключових правил етики ШІ лежить підступна природа упереджень ШІ.

Подібно до колоди карт, було б чудово, якби ми якимось чином згрупували упередження ШІ в набір «мастей» або категорій. Дійсно, документ NIST пропонує запропоноване групування.

Пропонуються три основні категорії:

1) Системні упередження

2) Статистичні та обчислювальні похибки

3) Людські упередження

Безсумнівно, варто розглянути, чи всі упередження штучного інтелекту підходять під одну з цих трьох категорій. Можна з упевненістю стверджувати, що деякі упередження ШІ належать до однієї, двох або всіх трьох категорій одночасно. Крім того, ви можете стверджувати, що більше категорій заслуговують на згадку, наприклад, якісь четверті, п’яті, шості чи більше рядів угруповань.

Я сподіваюся, що ви так думаєте, тому що нам потрібно залучити всіх до допомоги у формуванні цих стандартів. Якщо вас засмучує те, як ці стандарти формуються спочатку, я закликаю вас спрямувати цю енергію на допомогу іншим із нас у створенні цих нових стандартів настільки надійними та повними, наскільки це можливо.

Наразі ми можемо уважніше розглянути запропоновані три категорії та побачити, з якою рукою ми мали справу (так, я збираюся продовжувати використовувати аналогію з колодою гральних карт, роблячи це протягом усього цього написаного твору ви можете зробити ставку на цей не дуже прихований туз теми).

Що мається на увазі під системними упередженнями?

Ось що сказано в документі NIST: «Системні упередження є наслідком процедур і практик конкретних установ, які діють таким чином, що призводять до того, що певні соціальні групи отримують перевагу або прихильність, а інші — у невигідному становищі або знецінюються. Це не обов’язково є результатом будь-яких свідомих упереджень чи дискримінації, а скоріше дотримання більшістю існуючих правил чи норм. Інституційний расизм і сексизм є найпоширенішими прикладами» (зверніть увагу, що це лише короткий уривок, і читачам пропонується ознайомитися з більш повним поясненням).

AI входить у суміш системних упереджень, надаючи засоби передачі та застосування цих упереджень у додатках на основі AI. Щоразу, коли ви використовуєте програмне забезпечення, наповнене штучним інтелектом, наскільки ви знаєте, воно може містити низку упереджень, які вже вбудовані в систему завдяки компаніям і галузевим практикам, які призвели до створення ШІ. Згідно з дослідженням NIST: «Ці упередження присутні в наборах даних, які використовуються в штучному інтелекті, а також інституційних нормах, практиках і процесах протягом усього життєвого циклу штучного інтелекту та в ширшій культурі та суспільстві».

Далі розглянемо набір упереджень, які позначені як статистичні та обчислювальні упередження.

У документі NIST зазначено: «Статистичні та обчислювальні похибки виникають через помилки, які виникають, коли вибірка не є репрезентативною для сукупності. Ці упередження виникають через систематичну, а не випадкову помилку, і можуть виникнути за відсутності упередженості, упередженості чи дискримінаційного наміру. У системах штучного інтелекту ці зміщення присутні в наборах даних і алгоритмічних процесах, які використовуються при розробці програм штучного інтелекту, і часто виникають, коли алгоритми навчаються на одному типі даних і не можуть екстраполювати за межі цих даних».

Цей тип статистичного та обчислювального зміщення часто вбудовується в систему ШІ, яка використовує машинне навчання (ML) і глибоке навчання (DL). Розгляд важкої теми сучасного ML/DL вимагає пов’язаної сторони дотичної до того, що таке AI і що таке ML/DL.

Давайте переконаємося, що ми знаходимося на одній сторінці щодо природи сучасного ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сьогоднішній штучний інтелект не здатний «мислити» так само, як людське. Коли ви взаємодієте з Alexa або Siri, здатність до розмови може здатися схожою на людську здатність, але насправді вона пов’язана з обчисленням і не має людського пізнання. Остання ера штучного інтелекту широко використовує машинне навчання та глибоке навчання, які використовують обчислювальну відповідність шаблонів. Це призвело до появи систем штучного інтелекту, які виглядають як людські схильності. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би хоч якось здоровий глузд, а також жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Це прямо підводить нас до третьої категорії набору NIST із трьох груп, зокрема до ролі людських упереджень у виникненні упереджень ШІ. Ось що зазначено в документі NIST: «Людські упередження відображають систематичні помилки в людському мисленні, засновані на обмеженій кількості евристичних принципів і прогнозування цінностей для більш простих суджень. Ці упередження часто мають неявний характер і, як правило, пов’язані з тим, як окрема особа чи група сприймає інформацію (наприклад, автоматичний вихід ШІ), щоб прийняти рішення або заповнити відсутню або невідому інформацію. Ці упередження повсюдно присутні в інституційних, групових та індивідуальних процесах прийняття рішень протягом усього життєвого циклу ШІ, а також у використанні програм ШІ після розгортання».

Тепер ви отримали короткий вступ до трьох категорій.

Я хотів би поділитися з вами додатковою їжею для роздумів, викладеною в документі NIST. Таблиця в їхній розповіді містить корисний короткий виклад ключових питань і міркувань, які лежать в основі кожного з трьох наборів упереджень ШІ. Я перелічую їх тут для вашої зручності та повчання.

№1: Системні упередження

  • Кого враховують, а кого не враховують?

— Проблеми з прихованими змінними

— Недопредставленість маргіналізованих груп

— Автоматизація нерівностей

— Недостатнє представлення у визначенні функції корисності

— Процеси на користь більшості/меншості

— Культурні упередження в цільовій функції (найкраще для окремих людей проти найкращих для групи)

  • Як ми знаємо, що правильно?

— Посилення нерівності (групи зазнають більшого впливу з більшим використанням ШІ)

— Прогностична поліція має більший негативний вплив

— Широке впровадження райдшерингу/безпілотних автомобілів тощо. може змінити політику, яка впливає на населення залежно від використання

№2: Статистичні та обчислювальні похибки

  • Кого враховують, а кого не враховують?

— Зміщення вибірки та відбору

— Використання проксі-змінних, оскільки їх легше виміряти

— Ухил автоматизації

— Шкала Лайкерта (від категорійної до порядкової до кардинальної)

— Нелінійний проти лінійного

— Екологічна помилка

— Мінімізація норми L1 проти L2

— Загальні труднощі з кількісним визначенням контекстуальних явищ

  • Як ми знаємо, що правильно?

— Відсутність адекватної перехресної перевірки

— Упередження до виживання

— Труднощі зі справедливістю

#3: Людські упередження

  • Кого враховують, а кого не враховують?

— Упередженість спостереження (ефект вуличного освітлення)

— Зміщення доступності (закріплення)

— Помилка Макнамари

— Групове мислення веде до обмеженого вибору

— Ефект Рашомона призводить до суб’єктивної пропаганди

— Труднощі з кількісним визначенням цілей можуть призвести до помилки Макнамари

  • Як ми знаємо, що правильно?

— Упередженість підтвердження

— Ухил автоматизації

На цьому етапі цієї вагомої дискусії я б’юся об заклад, що вам потрібні деякі ілюстративні приклади, які могли б продемонструвати три категорії упереджень ШІ. Є особливий і, безсумнівно, популярний набір прикладів, які мені близькі. Розумієте, у моїй якості експерта з ШІ, включаючи етичні та правові наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти дещо теоретичну природу теми. Однією з найбільш яскравих сфер, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх безпілотних автомобілів на основі штучного інтелекту. Це стане зручним варіантом використання або прикладом для широкого обговорення теми.

Тоді ось важливе питання, яке варто обдумати: Чи прояснює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про три запропоновані категорії упереджень ШІ, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Безпілотні автомобілі та упередження ШІ

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це дає достатню кількість застережень, щоб підтвердити те, про що я збираюся розповісти.

Зараз ми готові глибоко зануритися в безпілотні автомобілі та можливості етичного штучного інтелекту, що включає три категорії упереджень штучного інтелекту.

Уявіть собі, що автомобілем на основі штучного інтелекту їздить на вулицях вашого околиці і, здається, їздить безпечно. Спочатку ви приділяли особливу увагу кожному разу, коли вам вдавалося кинути поглядом самокерований автомобіль. Автономний автомобіль вирізнявся стійкою електронних датчиків, які включали відеокамери, радари, пристрої LIDAR тощо. Після багатьох тижнів автономного автомобіля, який їздить по вашій громаді, ви зараз ледве помічаєте це. Що стосується вас, то це просто ще один автомобіль на і без того жвавих дорогах загального користування.

Щоб ви не думали, що неможливо або неправдоподібно познайомитися з самокерованими автомобілями, я часто писав про те, як місцевості, які входять до кола випробувань безпілотних автомобілів, поступово звикли бачити оновлені автомобілі, див. мій аналіз за адресою Це посилання тут. Багато місцевих жителів врешті-решт перейшли від захопленого погляду, що роззяв рота, до того, щоб тепер випромінювати широкий позіхання від нудьги, спостерігаючи за цими звивистими самокерованими автомобілями.

Ймовірно, головна причина зараз, через яку вони можуть помітити автономні транспортні засоби, полягає в факторі роздратування та роздратування. Звичні системи водіння з штучним інтелектом гарантують, що автомобілі підкоряються всім обмеженням швидкості та правилам дорожнього руху. Метушливі людині-водії в їхніх традиційних автомобілях, які керують людиною, часом дратуєтеся, коли застряєте за суворо законослухняними самокерованими автомобілями на основі штучного інтелекту.

Це те, до чого нам усім, можливо, доведеться звикнути, справедливо чи ні.

Повертаємося до нашої казки.

Далі ми розглянемо, як можуть статися системні упередження в контексті безпілотних автомобілів.

Деякі експерти дуже стурбовані тим, що безпілотні автомобілі стануть приналежністю лише багатих та еліти. Цілком можливо, що витрати на використання безпілотних автомобілів будуть непомірно дорогими. Якщо у вас немає великих грошей, ви можете ніколи не побачити всередині безпілотного автомобіля. Стверджується, що ті, хто використовуватиме безпілотні автомобілі, повинні бути багатими.

Таким чином, дехто збентежено закликає, що поява безпілотних автомобілів на основі штучного інтелекту буде проникати в певну форму системного упередження. Загальна промислова система автономних транспортних засобів в цілому не дозволить безпілотним автомобілям потрапити в руки тих, хто є бідним або менш заможним. Це може бути необов’язково з явним наміром, і виявляється, що єдиний спосіб компенсувати обтяжливі витрати, пов’язані з винаходом безпілотних автомобілів, — це стягувати неймовірно високі ціни.

Якщо ви заперечуєте, що сьогодні існують випробування безпілотних автомобілів, якими можна користуватися звичайній людині, тож здається очевидним, що вам не потрібно бути багатим як таким, контраргументом буде те, що це свого роду гра в оболонку, оскільки це було. Автовиробники та технологічні фірми, що займаються безпілотним керуванням, нібито готові зробити так, ніби вартість не буде суттєвою перешкодою. Вони роблять це з метою зв’язків з громадськістю прямо зараз і піднімуть ціни, коли з’ясують зморшки. Конспіролог може навіть стверджувати, що «піддослідних кроликів» як звичайних людей зловмисно використовують, щоб багаті зрештою збагатилися.

Тож, враховуючи це досить спірне питання, і я не вірю, що ціни на безпілотні автомобілі для повсякденного використання будуть вищими. Я не буду вдаватися в подробиці щодо того, на чому я висуваю таку претензію, і запрошую вас переглянути мої уважні обговорення на посилання тут а також в посилання тут.

Далі ми можемо розглянути питання статистичних та обчислювальних упереджень, пов’язаних із ШІ.

Поміркуйте над, здавалося б, несуттєвим питанням про те, де будуть їздити безпілотні автомобілі, щоб підбирати пасажирів. Здається, це абсолютно нешкідлива тема. Ми використаємо розповідь про місто, де є безпілотні автомобілі, щоб висвітлити, можливо, напрочуд потенційний спектр статистичних і обчислювальних відхилень, пов’язаних зі штучним інтелектом.

Спочатку припустимо, що штучний інтелект переміщався по безпілотним автомобілям по всьому місту. Будь-хто, хто хотів попросити проїхатися на безпілотному автомобілі, мав, по суті, рівні шанси отримати його. Поступово штучний інтелект почав використовувати безпілотні автомобілі лише в одній частині міста. Цей розділ приносив більше грошей, а систему штучного інтелекту було запрограмовано на спробу максимізації доходів у рамках використання в спільноті.

Члени громади в бідних частинах міста рідше мали можливість проїхатися на самокерованій машині. Це було пов’язано з тим, що безпілотні автомобілі були далі й їздили в районі з високим рівнем доходу. Коли запит надійшов з віддаленої частини міста, будь-який запит із ближчого місця, який, ймовірно, був у «поважній» частині міста, мав би більший пріоритет. Зрештою, можливість придбати безпілотний автомобіль у будь-якому іншому місці, крім багатшої частини міста, була майже неможлива, що прикро для тих, хто жив у тих районах, які зараз нестачі ресурсів.

Ви можете стверджувати, що штучний інтелект значною мірою спирався на форму статистичних і обчислювальних упереджень, подібних до форми проксі-дискримінації (також часто називають непрямою дискримінацією). Штучний інтелект не був запрограмований уникати цих бідніших районів. Натомість він «навчився» робити це за допомогою ML/DL.

Передбачалося, що ШІ ніколи не потрапить у такий ганебний сипучий пісок. Не було встановлено спеціалізований моніторинг, щоб відстежувати, куди прямують безпілотні автомобілі на основі ШІ. Лише після того, як представники громади почали скаржитися, керівництво міста зрозуміло, що відбувається. Щоб дізнатися більше про ці типи загальноміських проблем, які збираються представити автономні транспортні засоби та безпілотні автомобілі, перегляньте мій репортаж на Це посилання тут і в якому описано дослідження під керівництвом Гарварду, яке я був співавтором на цю тему.

Щодо третьої категорії людських упереджень, пов’язаних із упередженнями штучного інтелекту, ми звернемося до прикладу, у якому штучний інтелект визначає, чи варто зупинятися, щоб очікувати пішоходів, які не мають переваги для переходу вулиці.

Ви, безсумнівно, йшли за кермом і зустрічали пішоходів, які чекали, щоб перейти вулицю, але вони не мали для цього права проїзду. Це означало, що ви мали на власний розсуд, чи зупинитися й дозволити їм перетнути. Ви можете продовжити, не дозволяючи їм перетинати, і при цьому повністю відповідати законним правилам водіння.

Дослідження того, як люди-водії вирішують зупинятися чи не зупинятися для таких пішоходів, показали, що іноді водії-люди роблять вибір на основі несприятливих упереджень. Водій-людина може поглянути на пішохода і вирішити не зупинятися, навіть якщо б він зупинився, якби пішохід мав іншу зовнішність, наприклад, на основі раси чи статі. Я розглядав це на посилання тут.

Уявіть собі, що самокеровані автомобілі на основі штучного інтелекту запрограмовані на вирішення питання про те, зупинятися чи ні пішоходам, які не мають права відводу. Ось як розробники ШІ вирішили запрограмувати це завдання. Вони збирали дані з міських відеокамер, які розміщені по всьому місту. Дані демонструють водіїв-людей, які зупиняються для пішоходів, які не мають права проїзду, і водіїв-людей, які не зупиняються. Все це зібрано у великий набір даних.

За допомогою машинного навчання та глибокого навчання дані моделюються обчислювально. Потім система водіння AI використовує цю модель, щоб вирішити, коли зупинятися чи ні. Загалом, ідея полягає в тому, що з чого б не складалися місцеві звичаї, саме так ШІ збирається керувати самокерованим автомобілем.

На подив керівників міста та мешканців, AI, очевидно, вирішував зупинятися чи не зупинятися залежно від віку пішохода. Як це могло статися?

При детальнішому розгляді відео про розсудливість водія з’ясовується, що багато випадків не зупинки стосувалися пішоходів, які мали тростину літнього громадянина. Водії-люди, здавалося б, не хотіли зупинятися і дозволяти літній людині переходити вулицю, імовірно, через припущену тривалість часу, який може знадобитися комусь, щоб здійснити поїздку. Якщо пішохід виглядав так, ніби він міг швидко перебігти вулицю і звести до мінімуму час очікування водія, водії були більш схильні до того, щоб пропустити людину.

Це глибоко вкоренилося в системі водіння ШІ. Датчики безпілотного автомобіля сканували б пішохода, який очікує на нього, передавали ці дані в модель ML/DL, а модель повідомляла ШІ, зупинятися чи продовжувати. Будь-яка візуальна ознака того, що пішохід може повільно переходити, наприклад використання тростини, математично використовувалася для визначення того, чи повинна система водіння штучного інтелекту дозволити пішоходу, який очікує переходити, чи ні.

Ви можете стверджувати, що це була залежність від попередньо існуючої людської упередженості.

Висновок

Кілька останніх думок наразі.

Існує популярне прислів’я, що ви не можете змінити карти, які вам роздають, а замість цього повинні навчитися правильно грати з будь-якою рукою, яку вам дали.

У випадку упереджень штучного інтелекту, якщо ми гаряче не візьмемося за встановлення етики штучного інтелекту в усіх сферах і особливо не зміцнимо характеристику упереджень штучного інтелекту, руки, з якими ми матимемо справу, будуть переповнені неетичними, і, можливо, нелегальний пласт. Для початку ми повинні припинити роздачу цих карт. Відважна мета створити та оприлюднити етичні стандарти штучного інтелекту є ключовим інструментом для боротьби з наростаючим цунамі ШІ для поганого.

Ви можете рішуче повірити в банк, що нестримне упередження штучного інтелекту та неетичний штучний інтелект будуть схожі на неміцний картковий будиночок, який розвалиться сам по собі та, ймовірно, матиме згубні наслідки для всіх нас.

Давайте грати, щоб виграти, роблячи це з належним етичним ШІ.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/