Етика ШІ та пошуки самосвідомості в ШІ

Ви усвідомлюєте себе?

Б'юсь об заклад, що ти віриш.

Справа в тому, нібито, мало хто з нас особливо усвідомлює себе. Існує певний діапазон або ступінь самоусвідомлення, і всі ми нібито відрізняємось за тим, наскільки ми проникливо усвідомлюємо себе. Ви можете думати, що повністю усвідомлюєте себе, і лише трохи. Ви можете бути слабко усвідомленими і усвідомлювати, що це ваш психічний стан.

Тим часом, на найвищій частині спектру ви можете повірити, що ви повністю усвідомлюєте себе, і справді, відверто кажучи, настільки самоусвідомлені, якими вони є. Добре для вас.

Говорячи про це, яка користь від надзвичайної самосвідомості?

За даними дослідження, опублікованого в Росії Harvard Business Review (HBR) Таші Юріх, ви, як повідомляється, здатні приймати кращі рішення, ви більш впевнені у своїх рішеннях, у вас сильніші комунікаційні здібності та ефективніший загалом (за статтею під назвою «Що насправді таке самосвідомість (і як) щоб розвивати це)." Додатковим фактором є те, що люди з різкою самосвідомістю менш схильні шахраювати, красти чи брехати. У цьому сенсі існує ще один варіант запобігання тому, щоб бути негідником чи шахраєм, а також прагнення бути кращою людиною та прикрашати ближнього людства.

Усі ці розмови про самосвідомість піднімають дещо очевидне питання, а саме, що насправді означає фраза самосвідомість. Ви можете легко знайти безліч різних визначень і тлумачень про складну і, скажімо так, м’яку конструкцію, яка передбачає самосвідомість. Дехто спростив би справу, припустивши, що самосвідомість полягає в тому, щоб стежити за собою, знати, що ти задумав. Ви чітко усвідомлюєте власні думки та дії.

Імовірно, якщо людина не усвідомлює себе, вона не усвідомлює, що вона робить і чому так, а також не усвідомлює того, що інші люди говорять про неї. Я впевнений, що ви зустрічали таких людей.

Деякі люди, здається, ходять по цій землі, не підозрюючи, що вони самі роблять, і навіть не мають схожості з тим, що про них говорять інші. Я думаю, ви можете стверджувати, що вони схожі на бика, що кидається головами вниз, у бутіку делікатних предметів, що ламаються. Ми зазвичай схильні вірити, що бик не знає, що він робить, і не звертає уваги на точку зору інших, якщо ті не намагаються фізично маневрувати або загнати ту безглузду істоту.

Кажуть, що самосвідомість може бути дещо рекурсивною.

Дозвольте мені намалювати приклад, щоб проілюструвати цю рекурсію. Ви зараз дивитеся на своєму смартфоні досить захоплююче відео про кота (здається, це роблять усі). У деяких людей не було б інших очевидних думок, крім дивовижних зворушливих витівок цих милих котів. Тим часом будь-хто, хто має хоч трохи самосвідомості, усвідомлює, що дивиться відео про кота. Вони також можуть знати, що оточуючі помічають, що вони дивляться відео з котом.

Зауважте, що ви можете бути самосвідомими і все ще бути зануреними в певну, так би мовити, основну діяльність. Основною діяльністю в цьому випадку є перегляд відео про кота. По-друге, і одночасно, ви можете нести думку, що ви насправді дивитесь відео з котом. Ви також можете думати, що інші спостерігають за вами, коли ви дивитесь цілком цікаве відео про кота. Вам не обов’язково припиняти одну дію, наприклад, припинити перегляд відео про кота, щоб потім окремо подумати, що ви дивитеся (або щойно дивитеся) відео про кота. Ці думки можуть виникати паралельно одна з одною.

Іноді наша самосвідомість може викинути або принаймні перервати основну розумову діяльність. Можливо, коли ви думаєте про те, як ви переглядаєте відео про кота, ваш розум частково виходить із зони, оскільки вам важко зосередитися лише на самому відео. Потім ви вирішуєте перемотати відео назад, щоб повернутися до тієї частини, яку ви начебто бачили, але подумки відволікалися від повного розуміння. Самосвідомість порушила твою основну розумову діяльність.

Гаразд, тепер ми готові до появи рекурсивних аспектів.

Чи готові ви?

Ви дивитеся відео про кота. Ваша самосвідомість повідомляє вам, що ви дивитесь відео про кота, а інші спостерігають за вами, поки ви дивитеся відео. Це статус-кво.

Далі ви робите додатковий розумовий стрибок. Ви починаєте думати про свою самосвідомість. Ви самі усвідомлюєте, що залучаєте свою самосвідомість. Ось як це відбувається: чи не забагато я думаю про те, як переглядаю відео про котів, розпачливо запитуєте себе? Це ще один рівень самосвідомості. Рейтинг самосвідомості над іншою самосвідомістю.

Є стара приказка, що це черепахи всю дорогу. Що стосується феномена самосвідомості, ви можете бути:

  • Не усвідомлюючи себе
  • Самоусвідомлення себе
  • Самоусвідомлення свого самоусвідомлення себе
  • Self-aware of your being self-aware of your self-awareness of yourself
  • Ad Infinitum (тобто і так далі)

Можливо, ви зрозуміли, що я раніше тонко вказував на те, що існує дві основні категорії самосвідомості. Одна конкретна теорія постулює, що у нас є свого роду внутрішня самосвідомість, яка зосереджується на наших внутрішніх станах, і ми також маємо зовнішню самосвідомість, яка допомагає оцінити сприйняття нас оточуючими, які дивляться на нас.

Відповідно до статті HBR, ось короткий опис теоретичних двох типів самосвідомості: «Перший, який ми назвали внутрішня самосвідомість, показує, наскільки чітко ми бачимо власні цінності, пристрасті, прагнення, відповідність нашому оточенню, реакції (включаючи думки, почуття, поведінку, сильні та слабкі сторони) і вплив на інших». А тим часом інша: «Друга категорія, зовнішня самосвідомість, означає розуміння того, як інші люди дивляться на нас з точки зору тих самих факторів, які перераховані вище. Наше дослідження показує, що люди, які знають, як їх бачать інші, більш вправно виявляють співчуття та сприймають точку зору інших».

Зручну матрицю два на два або чотири квадрати можна вивести, стверджуючи, що і внутрішня, і зовнішня самосвідомість варіюються від високого до низького, і ви можете порівняти ці дві категорії одна з одною. Дослідження HBR показує, що ви належите до одного з цих чотирьох архетипів самосвідомості:

  • Introspector: низька зовнішня самосвідомість + висока внутрішня самосвідомість
  • Шукач: низька зовнішня самосвідомість + низька внутрішня самосвідомість
  • Задоволення: висока зовнішня самосвідомість + низька внутрішня самосвідомість
  • Усвідомлення: висока зовнішня самосвідомість + висока внутрішня самосвідомість

Вершиною буде архетип «Усвідомленість», який полягає в тому, щоб бути на верхній сходинці зовнішнього самоусвідомлення і так само на вершині внутрішнього самоусвідомлення. Щоб уточнити, ви не досягаєте цієї хваленої пози обов’язково назавжди. Ви можете ковзати туди-сюди між високим і низьким рівнем, як між внутрішньою, так і зовнішньою сферами самосвідомості. Це може залежати від часу доби, ситуації, в якій ви опинилися, і ряду інших важливих факторів.

Тепер, коли ми привітно розглянули деякі фундаментальні елементи самосвідомості, ми можемо спробувати прив’язати це до теми етичної поведінки.

Звичайне твердження про самосвідомість полягає в тому, що ви, швидше за все, будете вище борту, коли ви самосвідомі. Це означає, як уже зазначалося, що ви менш схильні до несприятливої ​​етичної поведінки, як-от крадіжки, обману та брехні. Обґрунтуванням цієї тенденції є те, що активність вашої самосвідомості змусить вас усвідомити, що ваша власна поведінка є неприємною або неетичною. Мало того, що ви самі ловите, коли ви повертаєтесь у каламутні неетичні води, але ви також схильні повертати себе назад і на сушу (святість етичної території), так би мовити.

Ваша самосвідомість допомагає вам у здійсненні самоконтролю.

Контраст, ймовірно, буде, коли самосвідомості мало або зовсім немає, що означає, що хтось, можливо, не помічає своєї схильності до неетичної поведінки. Ви можете стверджувати, що така необізнана особа може не усвідомлювати, що вона працює погано. Подібно до бика в магазині предметів, що ламаються, поки щось більш відверто не приверне їхню увагу, вони навряд чи зможуть саморегулюватися.

До речі, не всі на це повіряють. Дехто заперечить, що самосвідомість можна так само легко застосувати до неетичності, як і до етики. Наприклад, злочинець може повністю усвідомлювати себе і насолоджуватися тим, що він чинить зло. Їхня самосвідомість навіть різкіше спонукає їх до все більших і більших злочинів.

Тут більше хмарності, ніж може здатися на перший погляд. Припустімо, що хтось добре усвідомлює себе, але не знає про етичні звичаї певного суспільства чи культури. Таким чином, вони не мають жодних етичних вказівок, незважаючи на заявлений факт, що вони самосвідомі. Або, якщо хочете, можливо, людина знає про етичні правила і не вірить, що вони їх стосуються. Вони вважають себе унікальними або виходять за рамки загальноприйнятого етичного мислення.

По колу все йде.

Дехто палко підкреслив би, що самосвідомість можна витлумачити як двосічний меч, орієнтований на етику.

Наразі давайте перейдемо до версії щасливого обличчя, яка складається із самосвідомості, яка загалом спрямовує або підштовхує нас до етичної поведінки. За інших рівних умов ми зробимо нахабне припущення, що чим більше у вас самосвідомості, тим більше ви будете дотримуватись етики. Бажати цього, безперечно, здається приємним і надихаючим.

Давайте перемикаємо передачі та вводимо штучний інтелект (AI) у картину.

Ми знаходимося на етапі цієї дискусії, щоб пов’язати всі поточні заплутаності з розвиваючою сферою етичного ШІ, також широко відомого як етика ШІ. Щоб дізнатися про постійне та широке висвітлення етики ШІ, див посилання тут та посилання тут, просто назвемо декілька.

Поняття етичного штучного інтелекту передбачає переплетення сфери етики та етичної поведінки з появою штучного інтелекту. Ви, безперечно, бачили заголовки, які викликали тривогу щодо штучного інтелекту, який насичений несправедливістю та різними упередженнями. Наприклад, є занепокоєння тим, що системи розпізнавання облич на основі штучного інтелекту іноді можуть демонструвати расову та гендерну дискримінацію, як правило, через те, як базові засоби машинного навчання (ML) і глибокого навчання (DL) були навчені та використані (див. мій аналіз). в Це посилання тут).

Щоб спробувати зупинити або принаймні пом’якшити цей жахливий порив ШІ для поганого, що складається із систем штучного інтелекту, які або ненавмисно, або часом навмисно сформовані, щоб діяти погано, нещодавно виникла гостра потреба застосувати етичні принципи до розробки та використання штучного інтелекту. Серйозна мета полягає в тому, щоб надати етичні рекомендації розробникам штучного інтелекту, а також фірмам, які розробляють або впроваджують штучний інтелект, а також тим, хто залежить від програм ШІ. Як приклад розроблених і прийнятих етичних принципів штучного інтелекту дивіться моє висвітлення на сторінці посилання тут.

Поміркуйте над цими трьома надзвичайно важливими питаннями:

  • Чи можемо ми змусити розробників штучного інтелекту прийняти етичні принципи штучного інтелекту та застосувати ці вказівки?
  • Чи можемо ми змусити фірми, які займаються ремеслом або розробкою штучного інтелекту, робити те саме?
  • Чи можемо ми змусити тих, хто використовує ШІ, подібним чином знати про етичні аспекти ШІ?

Я б відверто сказав, що це важке завдання.

Захоплення від створення штучного інтелекту може перевершити будь-який натяк на увагу до етики штучного інтелекту. Що ж, не тільки хвилювання, але й заробляння грошей є невід’ємною частиною цього рівняння. Ви можете бути здивовані, дізнавшись, що деякі представники сфери штучного інтелекту схильні говорити, що вони візьмуться за справу з етичним штучним інтелектом, коли виведуть свої системи штучного інтелекту. Це типова технічна мантра про те, щоб швидко зазнавати невдач і часто зазнавати невдач, доки ви не зробите це правильно (сподіваюся, зробите це правильно).

Звісно, ​​ті, хто миттєво просуває суспільству сумнівний з етичної точки зору ШІ, випускають коня з хліва. Їх проголошена поширена ідея полягає в тому, що ШІ для поганого буде виправлено після щоденного використання, що, на жаль, є запізненням, оскільки кінь уже безладно скаче навколо. Шкоди можна завдати. Існує також підвищена ймовірність того, що нічого не буде виправлено або скориговано, поки використовується ШІ. Часте виправдання полягає в тому, що возитися з ШІ на цьому етапі може зробити ситуацію ще гіршою з точки зору й без того неетичного алгоритмічного прийняття рішень (ADM), яке повністю зійде з ладу.

Що можна зробити, щоб отримати корисність і життєздатність використання Етичного штучного інтелекту як яскравого сяючого та дороговказного світла в умах тих, хто створює ШІ, впроваджує ШІ та використовує ШІ?

Відповідь: Самосвідомість.

Так, ідея полягає в тому, що якби люди більше усвідомлювали, як вони використовують або взаємодіють з ШІ, це могло б підвищити їхню схильність до бажання, щоб етичний ШІ став нормою. Те саме можна сказати про розробників ШІ та компанії, пов’язані з системами ШІ. Якби вони більше усвідомлювали, що роблять, можливо, вони б більше сприйняли етику ШІ.

Частина логіки, як уже було сказано, полягає в тому, що самосвідомість створює тенденцію до того, щоб бути етично кращою людиною, а також уникати бути етично паршивою людиною. Якщо ми зможемо зберегти цю передумову, це означатиме, що розробники штучного інтелекту, які більше схильні до самосвідомості, будуть схильні до етичної поведінки, а отже, будуть схильні створювати етично надійний штучний інтелект.

Це занадто далекий міст для вас?

Дехто скаже, що опосередкованість занадто велика. Можливо, важко проковтнути непомірний ланцюжок зв’язків між самоусвідомленням, етичною доброчесністю та застосуванням етичних принципів до ШІ. Контраргументом є те, що спробувати не зашкодить.

Скептики сказали б, що розробник штучного інтелекту може бути самосвідомим і, можливо, бути більш етично налаштованим, але вони не обов’язково кинуться до застосування цього розумового табору до звичаїв етичного ШІ. Відповідь на цей сумнів полягає в тому, що якщо ми зможемо оприлюднити та популяризувати питання етики штучного інтелекту, інакше здавалося б слабким зв’язок стане більш очевидним, очікуваним і, можливо, стане стандартним способом робити речі, коли справа доходить до створення штучного інтелекту.

Зараз я збираюся додати поворот до цієї саги. Поворот може закрутити голову. Будь ласка, переконайтеся, що ви добре розмістилися та підготувалися до того, що я збираюся вказати.

Дехто зазначає, що ми повинні вбудовувати етичний ШІ безпосередньо в сам ШІ.

Ви можете бути збентежені цією заявою. Давайте розпакуємо його.

Програміст може створити систему штучного інтелекту і зробити це з власним програмним самоусвідомленням, намагаючись запобігти штучному інтелекту втілювати упередження та несправедливість. Замість того, щоб просто занурюватися в програмування, розробник стежить через власне плече, щоб запитати, чи призведе підхід, який вони застосовують, до необхідної відсутності несприятливих елементів у ШІ.

Чудово, у нас є розробник штучного інтелекту, який, здається, достатньо самосвідомий, намагається прийняти етичну поведінку та побачив світло, щоб включити етичні правила під час створення своєї системи штучного інтелекту.

Здобудьте перемогу для Ethical AI!

Усе добре, хоча ось дещо може статися пізніше. Штучний інтелект налагоджено та використовується щоденно. Частина ШІ включала компонент для можливості «навчання» на льоту. Це означає, що штучний інтелект може налаштовуватися на основі нових даних та інших аспектів початкового програмування. Швидко зазначимо, що це не означає, що ШІ розумний. У нас немає розумного ШІ. Ігноруйте ті тупі заголовки, які говорять, що ми це робимо. Ніхто не може сказати, чи буде у нас розумний штучний інтелект, і ніхто не може передбачити, коли це станеться.

Повертаючись до нашої розповіді, штучний інтелект був спеціально розроблений, щоб удосконалюватися під час роботи. Досить зручна ідея. Замість того, щоб програмісти постійно вдосконалювалися, вони дозволяють програмі штучного інтелекту робити це самостійно (ух, це означає, що ви залишитеся без роботи?).

У той час, як ШІ дюйм за дюймом пристосовується, виявляється, що різні жахливі несправедливості та упередження вкрадаються в систему ШІ завдяки її власним актам змін. У той час як програміст спочатку тримав ці погані аспекти, тепер вони формулюють завдяки ШІ, що налаштовується на льоту. На жаль, це може статися настільки витончено за кадром, що ніхто не стане розумнішим. Ті, хто раніше могли дати зелене світло штучному інтелекту після початкового вичерпного тестування, тепер сліпо не знають, що штучний інтелект пішов поганим шляхом ШІ для поганого.

Одним із способів запобігти або принаймні запобігти цій небажаній появі було б вбудувати в штучний інтелект щось на зразок етичної перевірки ШІ. Компонент ШІ запрограмований на спостереження за поведінкою ШІ та визначення того, чи починає з’являтися неетичний ADM. Якщо так, компонент може надіслати сповіщення розробникам ШІ або зробити це фірмі, яка керує системою ШІ.

Досконаліша версія цього компонента може спробувати відновити ШІ. Це було б коригуванням коригувань, повертаючи неетичні аспекти, що виникають, назад у належні етичні параметри. Ви можете собі уявити, що цей тип програмування складний. Існує ймовірність того, що він може помилитися, можливо, перетворившись на неетичний на глибоко неетичний. Також існує ймовірність хибного спрацьовування, що запускає компонент у дію та, можливо, щось зіпсує.

У будь-якому випадку, не занурюючись у те, як буде працювати ця подвійна перевірка, ми збираємося зробити сміливу заяву про це. Ви можете припустити, що якимось обмеженим чином ШІ вважається самосвідомим.

Ой, це бойові слова для багатьох.

Майже всі вважають, що сучасний ШІ не усвідомлює себе. Крапка, крапка. Поки ми не досягнемо розумного штучного інтелекту, який ми не знаємо, чи станеться він і коли він станеться, не буде жодного типу штучного інтелекту, який би самосвідомий. Не принаймні в значенні людиноорієнтованої самосвідомості. Навіть не припускайте, що це може статися.

Я, звичайно, згоден, що нам потрібно бути обережними щодо антропоморфізації ШІ. За мить я розповім більше про це занепокоєння.

Тим часом, якщо ви задля обговорення захочете використати поетапне «самоусвідомлення» у безглуздий манері, я вважаю, ви легко зрозумієте, чому можна сказати, що ШІ дотримується загального поняття самосвідомості обізнаність. У нас є частина ШІ, яка стежить за рештою ШІ, стежачи за тим, що робить решта ШІ. Коли решта штучного інтелекту починає зашкалювати, частина моніторингу намагається виявити це. Крім того, частина моніторингу штучного інтелекту або система подвійної перевірки може повернути решту штучного інтелекту назад на правильні смуги.

Хіба це не здається трохи схожим на те, що ти дивишся відео про котів і відчуваєш, що ти це робиш?

До нього є знайоме кільце.

Ми можемо розширити це ще більше. Компонент подвійної перевірки штучного інтелекту не лише запрограмований на спостереження за поведінкою решти штучного інтелекту, але й відзначає поведінку тих, хто використовує штучний інтелект. Як почуваються користувачі, коли використовують ШІ? Припустімо, що деякі користувачі висловлюють обурення через те, що штучний інтелект дискримінує їх. Інструмент подвійної перевірки штучного інтелекту міг би підхопити це, використовуючи це як ще один червоний прапорець про те, що решта ШІ збивається з шляху.

Це викликає категоризацію внутрішньої самосвідомості та зовнішньої самосвідомості.

Штучний інтелект подвійної перевірки сканує всередині та зовні, щоб з’ясувати, чи решта штучного інтелекту попрямувала в хвилюючі моря. Виявлення підніме прапорець або спричинить самовиправлення.

Давайте додамо ще одне дещо карколомне розширення. Ми створюємо ще один засіб подвійної перевірки AI, призначений для подвійної перевірки основного засобу подвійної перевірки AI. Чому так? Припустімо, що система подвійної перевірки штучного інтелекту не працює або не виконує свою роботу. ШІ подвійна перевірка подвійної перевірки намагатиметься виявити цю несправність і вжити відповідних заходів. Ласкаво просимо до рекурсивної природи самосвідомості, як дехто може з гордістю заявити, що демонструється в обчислювальній системі ШІ.

Для тих із вас, хто вже на межі свого місця з цього приводу, останній коментар, наразі, полягає в тому, що ми можемо спробувати припустити, що якщо ви зробите системи ШІ «самосвідомими», вони тоді потенційно будуть тяжіти до етичної поведінки. Вони роблять це на розумній основі? Рішуче ні. Вони роблять це на основі обчислень? Так, хоча ми повинні чітко усвідомлювати, що це не такого рівня, як людська поведінка.

Якщо вам неприємно, що поняття самосвідомості неправильно спотворюється, щоб вписати його в обчислювальну схему, ваші побоювання щодо цього добре помічені. Ще одне відкрите питання, чи варто нам зупинити поточні зусилля ШІ, які використовують цю ідею. Ви можете переконливо стверджувати, що принаймні це веде нас до кращого результату того, що ШІ, ймовірно, зробить. Хоча ми повинні широко розплющити очі, коли це відбувається.

Мабуть, нам потрібно буде подивитися, як це все розіграється. Поверніться до цього через п’ять років, десять і п’ятдесят років і подивіться, чи змінилося ваше мислення щодо спірного питання.

Я розумію, що це було дещо п’янкий розгляд теми, і ви, можливо, прагнете до деяких повсякденних прикладів. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи прояснює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про те, що ШІ має подобу «самосвідомості», і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані машини - це ті, що ШІ керує автомобілем повністю самостійно, і жодна допомога людини під час водіння відсутня.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На Рівні 5 ще немає справжнього автомобіля, що самостійно керує, про який ми ще не знаємо, чи цього вдасться досягти, і скільки часу це займе, щоб дістатися туди.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Автомобілі та штучний інтелект, що мають так звану самосвідомість

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це дає достатню кількість застережень, щоб підтвердити те, про що я збираюся розповісти.

Зараз ми готові глибоко зануритися в безпілотні автомобілі та етичні питання штучного інтелекту.

Скористаємося простим прикладом. Автомобіль на основі штучного інтелекту рухається по вулицях вашого околиці і, здається, їздить безпечно. Спочатку ви приділяли особливу увагу кожному разу, коли вам вдавалося кинути поглядом самокерований автомобіль. Автономний автомобіль вирізнявся стійкою електронних датчиків, які включали відеокамери, радари, пристрої LIDAR тощо. Після багатьох тижнів автономного автомобіля, який їздить по вашій громаді, ви зараз ледве помічаєте це. Що стосується вас, то це просто ще один автомобіль на і без того жвавих дорогах загального користування.

Щоб ви не думали, що неможливо або неправдоподібно познайомитися з самокерованими автомобілями, я часто писав про те, як місцевості, які входять до кола випробувань безпілотних автомобілів, поступово звикли бачити оновлені автомобілі, див. мій аналіз за адресою Це посилання тут. Багато місцевих жителів врешті-решт перейшли від захопленого погляду, що роззяв рота, до того, щоб тепер випромінювати широкий позіхання від нудьги, спостерігаючи за цими звивистими самокерованими автомобілями.

Ймовірно, головна причина зараз, через яку вони можуть помітити автономні транспортні засоби, полягає в факторі роздратування та роздратування. Звичні системи водіння з штучним інтелектом гарантують, що автомобілі підкоряються всім обмеженням швидкості та правилам дорожнього руху. Метушливі людині-водії в їхніх традиційних автомобілях, які керують людиною, часом дратуєтеся, коли застряєте за суворо законослухняними самокерованими автомобілями на основі штучного інтелекту.

Це те, до чого нам усім, можливо, доведеться звикнути, справедливо чи ні.

Повернемося до нашої казки. Припустімо, що одного дня безпілотний автомобіль у вашому місті наближається до знака «Стоп» і, здається, не знижує швидкість. Господи, схоже, система водіння штучного інтелекту змусить безпілотний автомобіль плугати прямо за знаком «Стоп». Уявіть, що пішохід або велосипедист був десь поруч і його застали зненацька, а самокерований автомобіль не зупинився належним чином. Соромно. Небезпечно!

Причому, незаконно.

Давайте тепер розглянемо компонент штучного інтелекту в системі водіння штучного інтелекту, який діє як стиль самосвідомої подвійної перевірки.

Ми приділимо трохи часу, щоб розібратися в деталях того, що відбувається всередині системи водіння ШІ. Виявилося, що відеокамери, встановлені на автономному транспортному засобі, зафіксували те, що, здавалося, може бути знаком «Стоп», хоча в цьому випадку заросле дерево рясно закриває знак «Стоп». Система машинного та глибокого навчання, яка спочатку була навчена на знаки «Стоп», була розроблена на шаблонах переважно повних знаків «Стоп», як правило, без обмежень. Після комп’ютерної перевірки відеозображень було встановлено низьку ймовірність того, що знак «Стоп» існував у цьому конкретному місці (як додаткове ускладнення та подальше пояснення, це був нещодавно опублікований знак «Стоп», який не з’явився на попередньо підготовлених цифрових картах, які Система водіння AI покладалася на).

Загалом, система водіння штучного інтелекту обчислювальним шляхом визначила рух вперед так, наче знака «Стоп» або не існує, або, можливо, це знак іншого роду, який, можливо, нагадує знак «Стоп» (це може траплятися і трапляється з певною частотою).

Але, на щастя, система подвійної перевірки AI відстежувала діяльність системи водіння AI. Після обчислювального перегляду даних і оцінки рештою ШІ цей компонент вирішив перекрити звичайний хід і натомість наказав системі керування ШІ зупинитися.

Ніхто не постраждав, протиправних дій не було.

Можна сказати, що система подвійної перевірки зі штучним інтелектом діяла так, ніби вона була вбудованим юридичним агентом, намагаючись переконатися, що керуюча система ШІ дотримується закону (у цьому випадку це знак «Стоп»). Звичайно, безпека також була ключовою.

Сподіваємось, цей приклад демонструє, як може працювати задумана система подвійної перевірки AI.

Далі ми можемо коротко розглянути більш помітний приклад етичного ШІ, який ілюструє, як самосвідома подвійна перевірка ШІ може забезпечити вбудовану функціональність, орієнтовану на етичність ШІ.

По-перше, як передісторія, одне із занепокоєнь, які висловлювалися щодо появи безпілотних автомобілів на основі штучного інтелекту, полягає в тому, що вони можуть в кінцевому підсумку використовуватися в дещо ненавмисний дискримінаційний спосіб. Ось як. Припустімо, що ці безпілотні автомобілі налаштовані на те, щоб спробувати максимізувати свій потенційний дохід, що, безумовно, має сенс для тих, хто керує парком безпілотних автомобілів, доступних для спільної поїздки. Власник автопарку хотів би мати прибуткову діяльність.

Можливо, у певному містечку безпілотні автомобілі в роумінгу поступово почнуть обслуговувати одні частини громади, а не інші. Вони роблять це з метою заробити гроші, оскільки бідні райони можуть не приносити таких доходів, як заможніші регіони. Це не є явним прагненням обслуговувати одні сфери та не обслуговувати інші. Замість цього органічно виникає те, що штучний інтелект безпілотних автомобілів «визначає» за допомогою обчислень, що можна заробити більше грошей, зосередившись на географічно високооплачуваних областях. Я обговорював цю суспільно-етичну проблему у своїй колонці, наприклад на посилання тут.

Припустімо, що ми додали систему подвійної перевірки ШІ до систем водіння ШІ. Через деякий час компонент штучного інтелекту обчислювальним способом помічає модель руху безпілотних автомобілів. Зокрема, в деяких областях, але ні в інших. На основі закодованих етичних принципів штучного інтелекту система подвійної перевірки AI починає направляти безпілотні автомобілі в інші частини міста, якими інакше нехтували.

Це ілюструє поняття самосвідомості ШІ в поєднанні з етичним елементом ШІ.

Ще один подібний приклад може дати зрозуміти, що це міркування щодо етичного штучного інтелекту також може бути досить протверезним і серйозним розгалуженням, яке може призвести до життя чи смерті.

Розгляньте повідомлення новин про недавню автомобільну аварію. Повідомляється, що водій-людина під’їжджав до жвавого перехрестя та мав зелене світло, щоб їхати прямо. Інший водій промчав на червоне світло і виїхав на перехрестя, коли не мав цього робити. Водій із зеленим світлом в останню мить зрозумів, що цей інший автомобіль збирається жорстко врізатися в його машину.

За словами цього водія, який перебував у небезпеці, він усвідомлено розрахував, що або його зіб’є інша машина, або він може повернути, щоб спробувати уникнути попутника. Проблема з поворотом полягала в тому, що поблизу були пішоходи, які опинилися під загрозою.

Який вибір зробили б ви?

Ви можете підготуватися до удару та сподіватися, що пошкодження не покалічить або не вб’є вас. З іншого боку, ви можете різко відхилитися, але створити серйозну небезпеку та, можливо, завдати шкоди або вбити пішоходів поблизу. Це складна проблема, яка включає моральне судження та повністю занурена в етичні (і юридичні) наслідки.

Існує загальна етична проблема, яка охоплює цей вид дилеми, відома або, можливо, сумнозвісна назва «Проблема тролейбуса», дивіться мій розширений висвітлення на Це посилання тут. Виявляється, це етично стимулюючий мисленнєвий експеримент, який веде свій початок з початку 1900-х років. Таким чином, ця тема існує вже досить давно, а нещодавно її почали пов’язувати з появою штучного інтелекту та безпілотних автомобілів.

Замініть людину-водія системою водіння ШІ, вбудованою в самокерований автомобіль.

Тоді уявіть, що безпілотний автомобіль зі штучним інтелектом виїжджає на перехрестя, і датчики автономного транспортного засобу раптом виявляють автомобіль, керований людиною, який небезпечно проїжджає прямо на червоне світло і цілиться в автомобіль без водія. Припустимо, що в самокерованій машині є кілька пасажирів.

Що ви хочете, щоб AI зробив?

Якщо система водіння ШІ вирішить продовжити рух вперед і потрапити всередину (імовірно, завдаючи шкоди або, можливо, вбивши пасажирів усередині транспортного засобу), чи ви хочете, щоб система водіння ШІ скористалася шансом і відхилилася, хоча дія повороту забирає автономний автомобіль небезпечно для найближчих пішоходів і може завдати їм шкоди або вбити.

Багато виробників безпілотних автомобілів, які займаються штучним інтелектом, дотримуються цілковитого підходу до цих етичних скрутних умов штучного інтелекту. Загалом, штучний інтелект, як він зараз запрограмований, просто б рвався попереду й був б жорстоко протаранений іншою машиною. AI не був запрограмований на пошук будь-яких інших маневрів ухилення.

Я неодноразово передбачав, що ця позиція виробників безпілотних автомобілів зі штучним інтелектом «не бачу-не-чую-не-зла» врешті-решт прийде назустріч і вкусить їх (мій аналіз на посилання тут). Ви можете очікувати судових позовів, пов’язаних із такими автомобільними аваріями, які намагатимуться з’ясувати, на що був запрограмований ШІ. Чи була компанія, розробники штучного інтелекту чи оператор автопарку, який розробив і впровадив штучний інтелект, недбалим чи відповідальним за те, що зробив або не зробив штучний інтелект? Ви також можете передбачити, що щойно такі випадки виникнуть, вибухне бурхливе ставлення до етичного штучного інтелекту.

У цю етичну дилему штучного інтелекту входить наша хвалена самосвідома система подвійної перевірки штучного інтелекту, орієнтована на етику. Можливо, цей спеціальний компонент штучного інтелекту може працювати в таких обставинах. Частина контролює решту системи водіння ШІ та стан самокерованого автомобіля. Коли настає такий жахливий момент, компонент штучного інтелекту слугує розв’язувачем проблеми з візком і пропонує, що має робити система водіння ШІ.

Запевняю вас, кодувати непросто.

Висновок

Поділюся з вами поки що останньою думкою на цю тему.

Ймовірно, ви знайдете це інтригуючим.

Чи знаєте ви про дзеркальний тест?

Це досить добре відомо у вивченні самосвідомості. Інші назви цього питання — тест на саморозпізнавання у дзеркалі, тест на червону пляму, тест на рум’яна та схожі фрази. Техніка та підхід були спочатку розроблені на початку 1970-х років для оцінки самосвідомості тварин. Тварини, які, як повідомляється, успішно пройшли тест, включають людиноподібні мавпи, деякі види слонів, дельфінів, сорок і деяких інших. Тварини, які були протестовані та, як повідомляється, не пройшли тест, включають гігантських панд, морських левів тощо.

Ось така угода.

Коли тварина бачить себе в дзеркалі, чи усвідомлює вона, що зображене зображення – вона сама, чи думає, що це інша тварина?

Імовірно, тварина візуально впізнає свій власний вид, побачивши інших собі подібних, і тому може подумати, що тварина, зображена в дзеркалі, є двоюрідним братом або, можливо, войовничим конкурентом (особливо якщо тварина гарчить на дзеркальне відображення, яке в поворот, здається, гарчить на них у відповідь). Можливо, ви бачили, як ваш домашній кіт чи улюблений пес робили те саме, коли вперше бачили себе в домашньому дзеркалі.

У будь-якому випадку, ми б припустили, що дика тварина ніколи раніше не бачила себе. Що ж, це не обов’язково правда, оскільки, можливо, тварина побачила себе в спокійній водоймі або крізь блискучу скелю. Але такі шанси вважаються менш імовірними.

Гаразд, ми хочемо якось оцінити, чи здатна тварина зрозуміти, що це насправді та тварина, зображена в дзеркалі. Подумайте про цей, здавалося б, простий вчинок. У дитинстві люди розуміють, що вони існують і що їхнє існування демонструється, коли вони бачать себе в дзеркалі. Вони усвідомлюють себе. Теоретично ви можете не усвідомлювати, що ви є собою, поки не побачите себе в дзеркалі.

Можливо, тварини не здатні когнітивно усвідомлювати себе таким же чином. Цілком можливо, що тварина побачить себе в дзеркалі і назавжди повірить, що це інша тварина. Скільки б разів він не бачив себе, він все одно думав би, що це інша тварина, ніж він сам.

Ця хитрість починає грати. Робимо мітку на тварині. Цей знак має бути видно лише тоді, коли тварина бачить себе в дзеркалі. Якщо тварина може крутитися або повертатися і бачити мітку на собі (безпосередньо), це руйнує експеримент. Крім того, тварина не може відчути, понюхати або іншим чином виявити мітку. Знову ж таки, якби вони це зробили, це б зіпсувало експеримент. Тварина не може знати, що ми поставили на неї клеймо, оскільки це дало б зрозуміти звірові, що там щось є.

Ми хочемо звузити коло речей таким чином, щоб єдиною можливою причиною того, що знак можна виявити, було б дивитися на себе в дзеркало.

Ага, тест готовий. Тварина ставлять перед дзеркалом або бродять до нього. Якщо тварина згодом спробує торкнутися позначки або копнути її, ми б обґрунтовано прийшли до висновку, що єдиний спосіб це станеться, якби тварина усвідомила, що мітка була на собі. Дуже небагато видів тварин змогли успішно пройти цей тест.

Про тест є маса критики. Якщо поруч знаходиться людина-тестер, вона може віддати речі, дивлячись на мітку, що може змусити тварину почесатися чи помацати її. Інша можливість полягає в тому, що тварина все ще вірить, що в дзеркалі зображена інша тварина, але вона того ж типу, і тому тварина цікавиться, чи є у неї також мітка, подібна до іншої тварини.

Все далі і далі.

Я впевнений, що вам приємно це знати, і відтепер ви зрозумієте, чому на тварині є крапка чи якийсь дивний знак, який інакше не мав би такого знака. Хто знає, можливо, він нещодавно закінчив тестовий експеримент із дзеркалом. Сміливо привітайте тварину за те, що вона була щедрим учасником.

Яке це має відношення до безпілотних автомобілів на основі ШІ?

Вам сподобається ця частина.

Довгим шосе їде безпілотний автомобіль. Система водіння штучного інтелекту використовує датчики для виявлення іншого трафіку. Це двосмугове шосе, на якому рух рухається в північному напрямку по одній смузі, а в південному – по іншій. Іноді автомобілі та вантажівки намагатимуться розминутися, виїжджаючи на зустрічну смугу, а потім повертаючись на правильну смугу руху.

Ви це бачили, ви, безсумнівно, це робили.

Б’юся об заклад, що наступний аспект теж трапився з вами. Попереду безпілотного автомобіля стоїть одна з тих чималих вантажівок-цистерн. Він виготовлений з блискучого металу. Відполірований і чистий, як свисток. Сідаючи за таку вантажівку, ви можете побачити дзеркальне відображення свого автомобіля через задню частину цистерни. Якщо ви бачили це, ви знаєте, наскільки це може бути зачаровує. Ось ви, ви і ваша машина, відображені в дзеркальному відображенні задньої частини цистерни.

Сідайте, щоб отримати божевільний поворот.

За цистерною під'їжджає самокерований автомобіль. Камери виявляють зображення автомобіля, яке відображається в дзеркальному відображенні. Ого, ШІ оцінює, це автомобіль? Це наближається до самокерованого автомобіля? Оскільки безпілотний автомобіль наближається все ближче до цистерни, здається, що автомобіль стає все ближче й ближче.

Ой, штучний інтелект за допомогою обчислень може обчислити, що це небезпечна ситуація, і ШІ повинен ухилитися від цього божевільного автомобіля-шахрая. Розумієте, штучний інтелект не впізнав себе в дзеркалі. Він не пройшов тест дзеркала.

Що робити? Можливо, система подвійної перевірки ШІ втрутиться в це питання і запевнить решту керуючої системи ШІ, що це лише нешкідливе відображення. Небезпека відвернута. Світ врятований. Успішне проходження AI Mirror Test!

Зробивши висновок, ми можемо навіть припустити, що інколи ШІ розумніший або принаймні більш усвідомлений, ніж звичайний ведмідь (хоча, до честі ведмедів, вони зазвичай добре справляються з дзеркальним тестом, часто отримуючи звикли до свого відображення у водоймах).

Поправте, можливо, штучний інтелект може бути більш самосвідомим, ніж великі панди та морські леви, але не кажіть про це тваринам, у них може виникнути спокуса розбити чи вдарити системи ШІ. Ми не хочемо цього, чи не так?

Джерело: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/