Етика штучного інтелекту скептично ставиться до встановлення так званих законів ШІ з червоним прапором для виклику упереджених алгоритмів в автономних системах штучного інтелекту

Давайте поговоримо про Закони про Червоний прапор.

Ви, безсумнівно, знаєте, що останнім часом у новинах широко висвітлюється поняття «закони про Червоний прапор». Заголовків, що висвітлюють тему, багато. Пристрасті та палкі дебати з таких питань залишаються на вершині розуму як проблема суспільства і тягнуть за собою сучасні та швидко з’являються закони про зброю Червоного прапора.

Я б наважився сказати, що ви, можливо, не були знайомі з іншими законами про Червоний прапор, прийнятими в кінці 1800-х років, що стосуються моторизованих транспортних засобів і попередників сучасних повсякденних сучасних автомобілів. Так, саме так, Закони про Червоний Прапор сягають історії, хоча охоплюють інші теми в порівнянні з сучасним фокусом. Зазвичай вони називаються Правилами дорожнього руху з червоним прапором.

Ці тепер столітні та зовсім не діючі закони вимагали, щоб будь-яка моторизована карета або двигун, що рухався парою, в той час мали дорослу людину перед транспортним засобом і нести червоний прапор для попередження. Ідея полягала в тому, що домашня худоба могла б налякатися через ці галасливі та вередливі хитрощі, які повільно й нерівно мчали по грунтових або нерівних асфальтованих дорогах, отже, якщо хтось ходить навпроти споруди, енергійно махаючи червоним прапором, міг би уникнути лиха. Якщо вам цікаво, залізниці та поїзди вважалися виключеними з тих самих законів, оскільки вони були транспортними засобами, невід’ємно прив’язаними до рейок, і мали інші закони, що охоплювали їх дії.

Уявіть собі, що сьогодні потрібно розмахувати червоними прапорами, як вимога для кожного автомобіля на наших дорогах загального користування.

Наприклад, звичайний водій, який приїжджає по сусідній вулиці, повинен переконатися, що дорослий, який махає червоним прапором, був присутній і демонстрував перед рухомим автомобілем. Це повинно відбуватися для кожного транспортного засобу, що проїжджає вашою вулицею. Можливо, люди стали б прапорцями, які найняли б водіїв автомобілів, які проїжджали повз, у яких інакше не було б друга чи родича, який міг би йти перед ними і виконувати передбачені дії.

Сьогодні ми схильні асоціювати пов’язане з розмахом червоних прапорів шосе з будівництвом доріг. Коли ви підходите до розкопаної дороги, робітники триматимуть угорі червоний прапор, щоб привернути вашу увагу. Це говорить вам сповільнитися і бути напоготові. На вашому шляху може бути бульдозер. Попереду може бути гігантська діра, і вам потрібно буде обережно обійти її.

Але давайте повернемося до використання червоних прапорів у 1800 році.

Вірте чи ні, але червоний прапор мав бути принаймні на одну восьму милі вперед до майбутньої моторизованої машини. Здається, це досить велика відстань. Хоча можна припустити, що в ті часи це мало сенсу. Приголомшливий шум двигуна і, можливо, одного лише погляду на транспортний засіб може бути достатньо, щоб знервувати тварин. Деякі із законів про Червоний прапор тієї епохи також вимагали, щоб вночі тримали вгорі яскраве червоне світло, щоб візуально видиме червоне попереджувальне попередження можна було побачити з темної відстані.

Загалом, я вважаю справедливим стверджувати, що ми, як суспільство, схильні асоціювати червоний прапор як свого роду сигнал або знак того, що щось потенційно не так або принаймні потребує нашої відданої уваги.

Приготуйтеся до невеликого повороту цього явища червоного прапора.

Поширюється твердження, що ми повинні вимагати положень червоного прапора, коли справа доходить до штучного інтелекту (ШІ).

Це трохи приголомшлива і дивовижна концепція, яка викликає багато проблем. Ви можете бути спантеличені, як і чому мають бути так звані Червоний прапор AI Закони. Будь ласка, зверніть увагу, що я позначаю це як «Червоний прапор» Закони про штучний інтелект, щоб відрізнити цю справу від Законів про Червоний прапор (наприклад, наприкінці 1800-х років), а також щоб відрізнити їх від інших більш поширених сьогодні законів про зброю.

Чи насправді нам потрібні закони про штучний інтелект із червоним прапором, які чітко та виключно орієнтовані на питання штучного інтелекту?

Ті, хто виступає за запропонований підхід, наполягатимуть на тому, що нам абсолютно потрібні законодавчі положення, які б допомогли придушити ШІ, що містить неправомірні упередження та дискримінаційні дії. Зараз створення та розгортання штучного інтелекту схожі на будь-які обставини Дикого Заходу. Зусилля стримати поганий ШІ наразі залежать від формулювання та прийняття етичних принципів ШІ. Для мого постійного та широкого висвітлення Етики ШІ та Етичного ШІ див посилання тут та посилання тут, просто назвемо декілька.

Закони, які містять поганий AI, повільно розробляються та впроваджуються, дивіться моє висвітлення на сторінці посилання тут. Деякі стурбовані тим, що законодавці не працюють достатньо швидко. Здається, ніби шлюзи дозволу упередженого штучного інтелекту розвиватися у світі зараз широко відкриті. Виламування рук говорить, що до того часу, коли нові закони опублікують книги, злий джин вже вийде з пляшки.

Не так швидко, контраргументи йдуть. Занепокоєння полягає в тому, що якщо закони будуть введені занадто швидко, ми як би вб’ємо золотого гусака, в результаті чого зусилля AI висохнуть, і ми не отримаємо переваги нових систем штучного інтелекту, що підвищують суспільство. Розробники AI та фірми, які бажають використовувати AI, можуть налякатися, якщо візантійський набір нових законів, що регулюють AI, раптом буде введено в дію на федеральному, штатному та місцевому рівнях, не кажучи вже про міжнародні закони, пов’язані з штучним інтелектом, які також йдуть вперед.

У цій безладній справі виникає заклик до законів про штучний інтелект із червоним прапором.

Перш ніж перейти до ще трохи м’яса та картоплі про міркування дикої та шерстистої природи, що лежать в основі передбачуваного Закону про ШІ про Червоний прапор, давайте встановимо деякі додаткові основи щодо глибоко важливих тем. Нам потрібно недовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та застосування штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Давайте повернемося до нашої зосередженості на законах AI Red Flag.

Основна концепція полягає в тому, що люди зможуть підняти червоний прапор, коли вони вважають, що система штучного інтелекту працює надмірно упередженим або дискримінаційним чином. Ви б не піднімали фізичний прапор сам по собі, а замість цього просто використовували б якісь електронні засоби, щоб повідомити про свої проблеми. Частина схеми або підходу, що містить червоний прапор, є більше метафорою, ніж фізичним втіленням.

Уявіть, що ви подаєте заявку на отримання житлового кредиту. Ви вирішили скористатися послугою онлайн-банкінгу, щоб подати заявку на кредит. Після введення деяких особистих даних ви на мить чекаєте, поки система штучного інтелекту, яка використовується, вирішить, гідні ви кредиту чи ні. ШІ повідомляє вам, що вам відмовили в кредиті. Після запиту на пояснення, чому вам було відхилено, текстова розповідь, здається, припускає, що ШІ використовував неправомірні упереджені фактори як частину алгоритму прийняття рішень.

Час підняти Червоний прапор про ШІ.

Де саме буде майоріти цей червоний прапор?

Це питання на мільйон доларів.

Одна точка зору полягає в тому, що ми повинні створити загальнонаціональну базу даних, яка дозволить людям позначати свої червоні прапорці, пов’язані з штучним інтелектом. Деякі кажуть, що це має регулюватися федеральним урядом. Федеральні агенції будуть відповідати за перевірку червоних прапорів і надання допомоги широкій громадськості щодо правдивості та боротьби з імовірно «поганим ШІ», який спричинив «червоний прапор» у звітах.

Здавалося б, Конгрес ухвалив би національний закон про штучний інтелект про червоний прапор. У законі буде прописано, що таке червоний прапор, що стосується штучного інтелекту. У законі буде описано, як підіймаються ці червоні прапорці, що ворчать AI. І так далі. Також може статися так, що окремі штати можуть також вирішити розробити власні закони про штучний інтелект із червоним прапором. Можливо, вони роблять це замість національної ініціативи, або вони роблять це, щоб розширити деталі, які особливо привабливі для їх конкретної держави.

Критики федеральної чи будь-якої підтримуваної урядом програми штучного інтелекту «Червоний прапор» стверджують, що це те, що може зробити приватна промисловість, і нам не потрібно, щоб «Великий брат» виходив на перший план. Промисловість могла б створити онлайн-сховище, в якому люди зможуть реєструвати сигнали про системи штучного інтелекту. Заходи з самоконтролю з боку галузі могли б достатньо вирішити ці проблеми.

Занепокоєння щодо передбачуваного індустріального підходу полягає в тому, що він, здається, нагадує кумовство. Чи захочуть фірми дотримуватися приватної бази даних AI Red Flag? Багато компаній потенційно ігнорують позначені червоні прапорці про свій AI. Не було б гострих зубів, щоб змусити компанії мати справу з введеними червоними прапорами.

Гей, прихильники підходу приватного сектора звучать не так, це було б схоже на національну службу Yelp. Споживачі можуть подивитися на червоні прапорці та вирішити для себе, чи хочуть вони вести бізнес з компаніями, які зібрали безліч червоних прапорців, орієнтованих на штучний інтелект. Банк, який одержував масу червоних прапорів про свій AI, повинен був би звернути увагу та оновити свої системи штучного інтелекту, тому логіка випливає, інакше споживачі уникали б фірми, як чуми.

Незалежно від того, чи реалізується весь цей підхід урядом чи промисловістю, — це лише верхівка айсберга у складних питаннях, які стоять перед запропонованим постулатом про штучний інтелект із червоним прапором.

Поставте себе на місце фірми, яка розробила або використовує ШІ. Можливо, споживачі будуть піднімати червоні прапори, навіть якщо для цього не було жодної життєздатної підстави. Якби люди могли вільно розмістити червоний прапор про ШІ, вони могли б спокуситися зробити це з примхи, або, можливо, для помсти фірмі, яка в іншому випадку не зробила нічого поганого для споживача.

Коротше кажучи, про ШІ може бути багато хибнопозитивних червоних прапорів.

Іншим фактором є величезний розмір або величина отриманих червоних прапорців. Легко можуть бути підняті мільйони і мільйони червоних прапорів. Хто буде стежити за всіма цими червоними прапорами? Яка вартість такого виконання? Хто оплачуватиме подальші зусилля? тощо

Якщо ви скажете, що будь-хто, хто реєструється або повідомляє про «червоний прапор» про штучний інтелект, повинен сплатити плату, ви потрапили в темне та підступне царство. Занепокоєння могло б полягати в тому, що лише багаті люди зможуть дозволити собі підняти червоні прапори. Це, у свою чергу, означає, що бідні особи не зможуть на рівній мірі брати участь у заходах, які мають червоний прапор, і, по суті, не мають місця для попередження про несприятливий ШІ.

Наразі лише ще один додатковий поворот, а саме те, що подібні закони чи рекомендації щодо штучного інтелекту, схоже, є постфактумом, а не слугують застереженням заздалегідь.

Повертаючись до Правил дорожнього руху «Червоний прапор», акцент на використанні червоного прапора полягав у тому, щоб запобігти біді. Червоний прапор мав бути далеко попереду майбутнього автомобіля. Будучи попереду транспортного засобу, худоба буде попереджена, а ті, хто охороняє худобу, дізнаються, що їм слід вжити запобіжних заходів через джерело тривоги, яке незабаром прибуде.

Якщо люди можуть лише підняти червоний прапор щодо ШІ, який, здавалося б, уже завдав шкоди чи підірвав їхні права, то прославлений кінь уже вийшов із сараю. Все, чого, здавалося б, досягне, так це те, що, сподіваюся, інші люди, які прийдуть, тепер знають, що обережно ставляться до цієї системи ШІ. А тим часом імовірно скривджений вже постраждав.

Деякі припускають, що, можливо, ми могли б дозволити людям підняти червоні прапори щодо ШІ підозрюваний можуть бути упередженими, навіть якщо вони не використовували AI і не були безпосередньо під впливом AI. Таким чином, червоним прапором розмахують до того, як буде завдано шкоди.

Ага, заперечуємо, ви справді перетворите червоні прапорці, які борються з штучним інтелектом, у абсолютно некеровану й хаотичну справу. Якщо хтось із будь-якої причини може підняти червоний прапор щодо системи AI, незважаючи на те, що він взагалі нічого не зробив з цим AI, ви будете завалені червоними прапорами. Що ще гірше, ви не зможете відрізнити пшеницю від полови. Весь підхід з червоним прапором зруйнується під власною вагою, позбавляючи переваги ідеї, дозволяючи плавзам і шлюхам потопити весь корабель.

Запаморочення і збентеження.

На цьому етапі цієї вагомої дискусії, я б повірив, ви прагнете отримати деякі ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи пояснює поява справжніх самокерованих автомобілів на базі штучного інтелекту що-небудь про закони про штучний інтелект із червоним прапором, і якщо так, що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Закони про безпілотні автомобілі та червоний прапор

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Давайте намалюємо сценарій, який може використовувати закон про штучний інтелект про червоний прапор.

Ви сідаєте в безпілотний автомобіль на базі штучного інтелекту і бажаєте, щоб автономний автомобіль доставив вас до вашого місцевого продуктового магазину. Під час відносно короткої подорожі ШІ вибирає маршрут, який здається вам дещо неправильним. Замість того, щоб йти найпрямішим шляхом, AI переміщується по закритих вулицях, що призводить до того, що час водіння буде вищим, ніж зазвичай.

Що відбувається?

Припускаючи, що ви платите за використання самокерованого автомобіля, ви можете підозрювати, що AI був запрограмований на проїзд довшим маршрутом, щоб спробувати підвищити тариф або вартість поїздки. Кожен, хто коли-небудь користувався звичайним таксі, керованим людиною, знає про хитрість, яка може статися, щоб отримати більше тіста на лічильнику. Звичайно, коли люди мають GPS на своїх смартфонах під час їзди в таксі або аналогічній машині, ви можете легко зловити водія-людину, який, здається, підступно бере невиправдано довгі маршрути.

Виявляється, у вас є інша стурбованість щодо вибору маршруту, яка вас справді гризе.

Припустимо, маршрут було зроблено, щоб уникнути певних частин міста через расові особливості. Існують задокументовані випадки, коли водіїв-людей ловили на таких виборах, дивіться моє обговорення на посилання тут. Можливо, ШІ був запрограмований негативно для цього.

Ви вирішили підняти червоний прапор.

Для обговорення припустимо, що був прийнятий закон про штучний інтелект, який охоплює вашу юрисдикцію. Це може бути місцеве законодавство, законодавство штату, федеральне або міжнародне право. Для аналізу, який я написав у співавторстві з Гарвардською ініціативою щодо політики щодо автономних транспортних засобів (AVPI) щодо зростання важливості місцевого керівництва, коли громади починають використовувати самокеровані автомобілі, див. посилання тут.

Отже, ви переходите в Інтернет до бази даних Red Flag AI. У базу даних інцидентів ви вводите інформацію про подорож безпілотного автомобіля. Сюди входить дата та час походу за кермом, а також марка та модель самокерованого автомобіля. Потім ви вводите навігаційний маршрут, який видається підозрілим, і ви припускаєте або, можливо, прямо стверджуєте, що AI був розроблений з упередженими або дискримінаційними намірами та можливостями.

Нам доведеться поміркувати про інші деталі Закону про штучний інтелект про червоний прапор щодо того, що станеться далі в цьому конкретному сценарії. Теоретично, було б передбачено, щоб хтось переглянув червоний прапор. Ймовірно, вони прагнули б змусити виробника автомобілів або технічної фірми, що займаються самокеруванням, пояснити свою точку зору щодо зафіксованого червоного прапора. Скільки ще таких червоних прапорів зареєстровано? Які результати дали ці червоні прапори?

І так би пішло.

Висновок

Безглуздо, закликають деякі скептики.

Нам не потрібні закони AI Red Flag, вони суворо діють. Виконання будь-яких подібних заходів зміцнить роботу, коли мова заходить про темпи та прогрес ШІ. Будь-які такі закони були б громіздкими. Ви створили б проблему, яка не вирішує проблему. Є й інші погані способи боротьби з ШІ. Не хапайтеся сліпо за соломинку, щоб впоратися з упередженим ШІ.

Перемикаючи передачі, ми всі знаємо, що тореадори використовують червоні накидки, щоб привернути увагу розлюченого бика. Хоча червоний колір — це колір, який у нас найбільше асоціюється з цією практикою, ви можете бути здивовані, дізнавшись, що вчені кажуть, що бики не сприймають червоний колір мулета (вони не бачать червоного кольору). Популярне шоу Руйнівники легенд провів досить цікаве дослідження цього питання. Рух накидки є ключовим елементом, а не обраний колір.

Для тих, хто відкидає потребу в законах про штучний інтелект, зустрічне твердження полягає в тому, що нам потрібно щось драматично і безпомилково махати, щоб переконатися, що розробники штучного інтелекту та фірми, які розгортають AI, уникатимуть упередженого чи поганого AI. Якби не червоний прапор, можливо, розвівається накидка або взагалі будь-який спосіб попередження могли б бути в межах сфери належної уваги.

Ми точно знаємо, що поганий AI існує і що набагато більше поганого AI буде рухатися в нашому напрямку. Знайти способи захисту від несприятливого ШІ є вирішальним. Аналогічно, не менш важливо встановити огорожі, щоб запобігти проникненню поганого ШІ у світ.

Ернест Хемінгуей сказав, що ніхто ніколи не живе своїм життям до кінця, крім тореадорів. Нам потрібно переконатися, що люди можуть жити своїм життям до кінця, незважаючи на те, що погане або божевілля AI проповідує нам.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- упереджені-алгоритми-в-автономних-АІ-системах/