Етику штучного інтелекту порушує останній розробник Китаю AI-лояльність до партії, читання думок, розпізнавання облич, яке може передвіщати репресивні автономні системи

Ви лояльні?

Теоретично можна було б перевірити ваші явні вчинки та з’ясувати, чи проявляється лояльність у ваших діях.

Припустімо, що натомість була зроблена спроба прочитати ваші думки, а тим часом просканувати ваше обличчя, щоб визначити ваш коефіцієнт лояльності. Це жахливо нав'язливо; ви могли б легко засудити. Звучить як один із тих божевільних науково-фантастичних фільмів, які передбачають антиутопічне суспільство майбутнього.

На щастя, ти крадькома шепочеш собі під ніс, у нас сьогодні нічого подібного немає.

Ого, стримай своїх коней.

Нещодавно в заголовках новин з’явилася інформація про те, що дослідницька стаття, опублікована в Інтернеті в Китаї 1 липня 2022 року, описує дослідження, яке нібито включало оцінку мозкових хвиль людей і їх міміки з метою обчислення їхньої лояльності до Комуністичної партії Китаю (КПК). . Отже, ось, майбутнє стає все ближчим і ближчим, принаймні з точки зору досягнення антиутопічного суспільства, яке, як ми боялися, може колись виникнути.

Дослідницька стаття швидко зникла з розміщеного в Інтернеті посилання.

Імовірно, стрімкої презирства, яка швидко прокотилася Інтернетом, було достатньо, щоб газету зняли. Або, можливо, дослідники просто хочуть внести кілька змін у формулювання та інші нешкідливі виправлення, маючи на меті зробити повторне розміщення, коли вони матимуть ретельнішу можливість переконатися, що всі крапки над i та t перекреслені. Нам доведеться тримати очі відкритими, щоб побачити, чи папір отримає друге життя.

Я збираюся продовжити й глибоко зануритись у те, що ми знаємо про дослідження, і спробую з’єднати крапки щодо того, наскільки така робота, пов’язана зі штучним інтелектом, має значення для всіх нас, виходячи далеко за рамки розуміння цього як обмежене однією конкретною країною. Моє висвітлення буде дещо ширшим, ніж інші нещодавні повідомлення про цю важливу новину, тому, будь ласка, терпіть мене.

Я також наголошую на тому, що існує безліч життєво важливих уроків етики штучного інтелекту, які ми можемо почерпнути з передбачуваної статті. Щоб дізнатися про постійне та широке висвітлення етики ШІ та етики ШІ, див посилання тут та посилання тут, просто назвемо декілька.

Ось що вже згадувалося про дослідження.

Очевидно, деякі «добровольці» були завербовані для участі в експерименті щодо сприйняття КПК. Невідомо, чи були вони добровільними добровольцями чи більше схожими на спонуканих чи, можливо, керованих добровольців. Для обговорення ми припустимо, що вони були згодні бути суб’єктом дослідження.

Я говорю про це, щоб не просто бути хитрим. Щоразу, коли експеримент проводиться за участю людей, існує безліч загальноприйнятих практик щодо залучення та залучення таких суб’єктів до дослідницької роботи. Це частково сходить до попередніх досліджень, які часто обманювали або змушували людей брати участь у експерименті, що часом призводило до несприятливих психологічних наслідків або навіть фізичної шкоди для цих учасників. Наукове співтовариство всіляко намагається обмежити такі види підступних досліджень і вимагає, щоб всілякі відомості та попередження надавалися тим, кого хочуть включити в дослідження, пов’язані з людьми.

Пояснимо, що не всі дотримуються таких розумних і сумлінних вказівок.

Йдучи далі, повідомляється, що було 43 суб’єкти, і вони нібито були членами Комуністичної партії Китаю. Майте на увазі, що вибір суб’єктів для експерименту є дуже важливим для експерименту, а також його слід брати до уваги щодо будь-яких висновків, до яких ви можете спробувати дійти пізніше щодо результатів експерименту.

Припустімо, я хочу провести експеримент щодо того, як люди сприймають відомий серіал «Зоряні війни». Якщо я попередньо виберу суб’єктів, які всі категорично ненавидять Зоряні війни (як такі люди можуть існувати?), і покажу їм відеокліпи Зоряних воєн, велика ймовірність, що вони, ймовірно, скажуть, що вони все ще не люблять Зоряні війни. Грунтуючись на цьому псевдонауковому експерименті, можливо, я підступно стверджую, що люди — загалом — справді ненавидять «Зоряні війни», які були «доведені» (підморгують) у моїх «ретельно» підготовлених дослідженнях.

Можливо, ви не знаєте, що я, так би мовити, сфальсифікував колесо рулетки, попередньо вибравши предмети, які, як я очікував, дадуть мої таємно бажані результати. Звісно, ​​якби я навмисно залучив людей, які любили «Зоряні війни» та були завзятими фанатами, вони, швидше за все, повідомили б, що дивляться ці кліпи із «Зоряних воєн» у захваті. Знову ж таки, будь-які висновки щодо того, як люди загалом реагують на «Зоряні війни», будуть пом’якшені попередньо вибраним набором тем, обраних для дослідження.

Дослідження, зосереджене на КПК, здавалося, змушувало учасників сидіти перед відеодисплеєм, схожим на кіоск, і читати різні статті про політику та досягнення КПК. Ймовірно, це вважається «експериментальним лікуванням», якому піддаються суб’єкти. Плануючи експеримент, ви зазвичай придумуєте експериментальний фактор або аспект, який ви хочете побачити, чи вплине він на учасників.

Дослідницьке питання, яке, очевидно, досліджувалося, полягало в тому, чи акт перегляду цих матеріалів матиме якийсь вплив на суб’єктів у плані збільшення, зменшення чи нейтральності щодо їхніх подальших вражень про КПК.

У класичній нульовій гіпотезі ви можете організувати таке дослідження, щоб стверджувати, що спожиті матеріали не впливають на подальші враження, висловлені суб’єктами. Після порівняння їхніх точок зору щодо КПК «до» та «після» ви статистично спробуєте побачити, чи було статистично значуще виявлення зміни в їхніх враженнях.

Цілком можливо, що до і після статистично не відрізняються, тому ви можете зробити розумний попередній висновок, що для цього конкретного дослідження показані матеріали (експериментальна обробка), здається, не вплинули на їхні враження. З іншого боку, якби існувала статистично достовірна різниця, ви б перевірили, чи було після більше, ніж раніше, дозволяючи вам обережно припустити, що матеріали посилили їхні враження (і, з іншого боку медалі, якщо після було менше, ніж до, це може означати, що матеріали зменшили або знизили свої враження).

У такому дослідженні потрібно буде розглянути багато проблемних моментів.

Наприклад, ми зазвичай хочемо мати так звану контрольну групу, яку ми можемо порівняти з тими, хто отримує експериментальне лікування. Ось чому. Припустімо, що акт сидіння перед кіоском для читання матеріалів був справжньою основою того, чому враження змінилися. Можливо, природа використовуваних матеріалів майже не має значення для впливу враження. Просто сидіти й читати що-небудь, наприклад, останні історії про котів, які роблять смішні речі, може допомогти. Таким чином, ми можемо організувати, щоб деякі суб’єкти були в нашій контрольній групі, які мають доступ до іншого матеріалу для читання, окрім матеріалів політики та досягнень КПК.

Ми не знаємо, чи було це зроблено в цьому випадку (здається, ніхто ще не згадував про цей аспект).

Я розумію, що зараз ви починаєте нервувати з приводу медіа-вибухової частини дослідження. Ми швидко перейдемо до цієї частини.

Як ми можемо виявити, чи відреагували учасники цього експерименту на свої враження чи змінили їх у результаті читання представлених матеріалів?

Звичайним засобом було б запитати їх.

Можливо, ви б заздалегідь заповнили анкету, у якій запитували б їх враження від КПК. Потім, після впливу експериментального лікування, як і під час читання матеріалів, що відображаються, ми могли б заповнити іншу анкету. Потім можна порівняти відповіді, дані суб’єктами до та після. Якби ми також використовували контрольну групу, ми б припустили, що відповіді контрольної групи суттєво не змінилися б від «до» до «після» (вважаючи, що перегляд історій про пустуючих котів не мав би вплинути на їхні враження від CCP).

Цей акт опитування суб’єктів про їхні враження не обов’язково такий простий, як може здатися.

Припустімо, що учасники експерименту відчувають або загальне відчуття, що ви хочете, щоб вони відповідали на експериментальне лікування певним чином. У такому випадку вони можуть навмисно переоцінити свої реакції в кінці експериментального введення. Ви точно бачили, як це відбувається. Якщо я роблю тест на смак нової газованої води, яка надходить на ринок, я можу поводитись так, ніби я шалено насолоджувався газованою водою, роблю це в надії, що, можливо, потраплю в рекламу від виробника газованої води та отримаю свої заслужені п’ятнадцять хвилин слави .

Суть полягає в тому, що просте опитування людей про їхню думку не є надійним засобом вимірювання змін. Це один підхід. Інші підходи можуть і також часто застосовуються.

Як це конкретне дослідження вирішило оцінити реакцію піддослідних?

Мабуть, було використано щонайменше два методи. Один із методів полягав у скануванні обличчя та використанні програмного забезпечення розпізнавання обличчя на основі ШІ для оцінки реакції суб’єктів. Іншим методом, як повідомляється, була певна форма сканування мозкових хвиль. Поки що не повідомляється ні про те, який тип пристроїв для сканування мозкових хвиль використовувався, ні про те, яке програмне забезпечення для аналізу мозкових хвиль на основі ШІ використовувалося.

Різні звіти вказують на те, що в дослідженні говориться про природу експерименту: «З одного боку, це може судити про те, як члени партії прийняли думку та політичну освіту». І нібито в дослідженні також згадується про це: «З іншого боку, воно надасть реальні дані для мислення та політичної освіти, щоб їх можна було покращити та збагатити». Дослідження було проведено під егідою Всеосяжного національного наукового центру Хефея Китаю.

ЗМІ повідомляють, що дослідження посилалося на твердження про те, що сканування розпізнавання обличчя та сканування мозкових хвиль змогли допомогти виявити, що після враження про КПК було посилено.

Я хотів би зауважити, що, не маючи можливості безпосередньо переглянути використовувані системи та уважно вивчити дослідницьку статтю, ми не знаємо подробиць того, як саме ці системи на основі ШІ використовувалися.

Можливо, суб’єкти реагували на експериментальні умови, а не на експериментальне лікування. Будь-хто, хто бере участь у дослідженні, може бути стурбований, для початку. Це може перешкодити будь-яким спробам зробити сканування мозкових хвиль або аналіз обличчя. Також існує ймовірність, що вони відчули мотивацію догодити дослідникам, вирішивши створити позитивні думки після перегляду матеріалів, і це теоретично могло відображатися на скануванні мозкових хвиль і скануванні обличчя (можливо, але будь ласка, знайте, що існує чудова у пристрасних суперечках щодо обґрунтованості таких тверджень, як я зараз поясню), сподіваючись спотворити результати та показати, що вони мали позитивний вплив.

Реакція Twitter значною мірою засудила, що сама ідея використання сканування мозкових хвиль і розпізнавання облич за допомогою ШІ сама по собі є жахливою та обурливою. Лише люди-монстри могли б використовувати такі пристрої, кажуть нам деякі з цих твітів.

Я мушу попросити вас сісти й підготуватися до чогось, що може бути грубим і шокуючим сюрпризом.

У всьому світі є багато дослідників, які використовують ті самі технології у своїх дослідженнях. Це, звичайно, не перший випадок, коли сканування мозкових хвиль було використано на людях у дослідницькій роботі. Це також, звичайно, не перший випадок, коли розпізнавання обличчя використовувалося на людях для експериментальних цілей. Навіть побіжний онлайн-пошук покаже вам багато-багато експериментальних досліджень у різних країнах і лабораторіях, які використовували такі типи пристроїв.

З огляду на це, використання їх для оцінки лояльності до КПК – це не те, на чому ви б особливо зосередилися. Коли такий штучний інтелект використовується для державного контролю, червона лінія, як кажуть, була перетнута.

Це, очевидно, лякає частина всього комплекту та шахрайства.

Багато хто висловлює стурбованість тим, що якщо уряди вирішать використовувати технологію сканування мозкових хвиль і розпізнавання облич, щоб переконатися в лояльності до існуючих режимів, ми опинимося в антиутопічному світі болю. Коли ви йдете громадською вулицею, можливо, пристрій, встановлений на ліхтарному стовпі, збирається таємно визначити ваш коефіцієнт лояльності.

Можна припустити, що якщо ваше обличчя не вказує на те, що ви достатньо лояльні, або якщо сканування мозкових хвиль свідчить про те саме, державні головорізи можуть раптово кинутися і схопити вас. нервує. Безодня. Не можна допускати.

Ось чому ця новина викликала бурхливий заголовок і обурення.

Уявіть собі це. Можливо, ми створимо, а потім запустимо комп’ютерні системи, які використовують новітні технології ШІ, щоб вирішувати, лояльні ми чи ні. Якби ви спробували найняти людей, які б сиділи й робили те ж саме, вам знадобилося б багато людей, і у вас виникли б проблеми з логістикою, намагаючись розташувати їх так, щоб усі бачили. У випадку системи на основі штучного інтелекту все, що вам потрібно зробити, це встановити електронні пристрої на ліхтарних стовпах, боках будівель тощо. Сканування на лояльність може відбуватися 24×7, у будь-який час, у всіх обладнаних для цього місцях. Потім це можна внести у велику базу даних.

Ми стаємо людьми, які є лише гвинтиками у колосальній всевидючій всеспостерігаючій репресивній екосистемі суспільства. Видаче око не просто спостерігає за тим, що ми робимо. Це також інтерпретація того, що наші особи кажуть про нашу лояльність уряду. Наші розуми також повинні бути перевірені на подібну жахливу причину.

Yikes!

З цього також виникає другорядне занепокоєння, хоча, можливо, не таке складне у порівнянні з наслідками Старшого Брата, як уже накреслено.

Поміркуйте над цими двома актуальними питаннями:

  • Чи можемо ми надійно стверджувати, що сканування мозкових хвиль може засвідчити вашу лояльність?
  • Чи можемо ми з достовірністю стверджувати, що сканування розпізнавання обличчя може підтвердити вашу лояльність?

Постривай, можливо, ти кричиш на все горло.

Я усвідомлюю та визнаю, що ви можете не так сильно дбати про аспекти надійності як такі. Те, чи можна це зробити надійно, є менш важливим, ніж той факт, що це взагалі робиться. Ніхто не повинен бути під такою пильною увагою. Забудьте про те, чи підходить технологія для цього завдання. Нам не слід братися за це завдання на початку.

У будь-якому випадку відповідь наразі рішуче ні, а саме те, що існуючі системи ШІ, які виконують будь-яку подобу «сканування мозкових хвиль» і розпізнавання обличчя, недостатньо здатні зробити такий стрибок.

Можливо, нещодавно ви помітили, що деякі виробники систем розпізнавання облич повернулися назад у тому, як використовують їх системи розпізнавання облич. У майбутній публікації в колонці я обговорюватиму нещодавні зусилля, наприклад, Microsoft, щоб спробувати зупинити хвилю тих, хто використовує надані Microsoft інструменти розпізнавання облич для цілей, які виходять далеко за межі того, для чого ця технологія може або повинна використовуватися. . Можливо, вас зацікавить мій попередній погляд на занепокоєння з питань етики штучного інтелекту, які вже широко розголошувалися щодо розпізнавання облич, див. посилання тут. Я також обговорював арену сканування мозкових хвиль, перегляньте моє обговорення на посилання тут.

Коротше кажучи, поки що немає надійних чи розумних засобів, які б припустили, що сканування мозкових хвиль або сканування розпізнавання обличчя може нібито зобразити чиюсь лояльність. Навіть імовірно основні аспекти, такі як те, чи можна надійно співвіднести ці сканування з тим, чи хтось щасливий чи сумний, досі гаряче обговорюються. Спроба підвищити ставку до чогось такого аморфного та мінливого, як лояльність, — це занадто далеко.

Я можу додати, що дехто палко вірить, що ми врешті-решт досягнемо цього. Тому я ретельно намагався відзначити, що ми ще не там, а не стверджувати, що ми туди ніколи не дійдемо. Ніколи - це велике слово. Ви повинні бути абсолютно впевнені, якщо збираєтеся метатися, що це буде ніколи бути здійсненним (маючи на увазі, що «ніколи» охоплює десятиліття відтепер, століття відтепер і тисячі або мільйони років відтепер).

Дехто відреагував на новини про це дослідження китайської лабораторії як на показник того, наскільки небезпечно світ схиляється до невідповідного та небезпечного використання ШІ. Я на мить поділюся з вами коротким уявленням про те, що таке Етика ШІ. Це допоможе вам чіткіше зрозуміти, чому це конкретне дослідження дійсно порушує багато, якщо не майже всі, загальноприйняті принципи етичного ШІ.

Вірте чи ні, але деякі припускають, що, можливо, ми робимо з кроточої купки гору щодо цього конкретного дослідження.

Чи ми?

Контраргумент полягає в тому, що кротова купа незабаром може стати горою. Згідно з прислів’ям про снігову кулю, яка стає все більшою і більшою, скочуючись із засніженого пагорба, нам потрібно зупинити сніжну кулю. Якщо ми будемо терпіти такі дослідження, ми дозволимо цій сніжній кулі почати свою подорож. Висловлюючись і викликаючи такі дослідження, можливо, ми зможемо запобігти сніжному кому.

Одне можна сказати напевно: ми знаходимося на межі відкриття скриньки Пандори, коли справа доходить до аспектів штучного інтелекту, і залишається питання, чи зможемо ми запобігти відкриттю скриньки чи принаймні знайти якийсь спосіб розсудливо поводитися з усім, що випливає як тільки коробка вивільнить свій диявольський вміст.

Якщо ніщо інше, то, сподіваємося, такий тип медіа-штормів спровокує широке обговорення того, як ми збираємося запобігти злочинам, пов’язаним зі штучним інтелектом, і запобігти численним екзистенційним ризикам, викликаним ШІ. Нам потрібно підвищити обізнаність суспільства щодо етики ШІ та етичних міркувань ШІ.

Перш ніж приступати до розмови про дикі та шерстисті міркування, що лежать в основі систем штучного інтелекту такого типу, давайте розглянемо деякі додаткові основи щодо дуже важливих тем. Нам потрібно ненадовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та застосування штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Давайте повернемося до нашої уваги до систем штучного інтелекту, які використовуються для невідповідних або, можливо, відвертих протиправних цілей, і до того, як це пов’язано з нещодавно опублікованим дослідженням про лояльність КПК.

Спадають на думку два основні міркування:

1) Цей екземпляр штучного інтелекту є частиною більшої тривалої моделі використання штучного інтелекту, що викликає занепокоєння, і тому є зловісним і відкриває очі щодо того, що відбувається

2) Кота можна було б випустити з мішка, щоб, якщо подібний штучний інтелект буде прийнятий в одній країні, його можна буде легко поширити в інших країнах.

Почніть з першого пункту про те, що цей екземпляр ШІ є частиною поточного шаблону.

Однією з особливо важливих підстав для того, щоб бути особливо обуреним цим дослідженням, є те, що воно є частиною більшої моделі того, як штучний інтелект має бути використаний деякими. Якби це було єдине подібне дослідження, яке коли-небудь проводилося, ми могли б бути дещо схвильовані. Тим не менш, напевно, це не викликало б такого запалу, як ми зараз бачимо.

Це, мабуть, крапля-крапля, що просувається до чогось, що збирається вийти з-під контролю.

Як повідомлялося в новинах, Китай добре відомий тим, що наполягав на неймовірній лояльності до КПК. Крім того, були створені або встановлюються різні засоби, щоб переконатися, що людям привчають урядову доктрину. Були наведені випадки попередніх досліджень, спрямованих на розробку алгоритмів штучного інтелекту, які могли б оцінити умови мислення членів партії (див. Навчальні часи у 2019 році, де згадуються ці зусилля).

Ви, мабуть, пам’ятаєте, що в 2018 році віце-президент Майк Пенс виступив з промовою в Інституті Гудзона і підкреслив, що «правителі Китаю прагнуть запровадити оруеллівську систему, яка базується на контролі практично всіх аспектів людського життя» (це було посилання на реалізацію КПК система соціального оцінювання кредитів, яка є предметом значних суперечок). Ви можете з легкістю стверджувати, що це недавнє дослідження CCP є ще одним кроком у цьому напрямку.

Ми не знаємо, коли та чи стане остання крапля, яка переповнить краплю, і ці одноразові дослідження перетвориться на широко поширені системи моніторингу на основі ШІ.

Другий момент, який заслуговує на увагу, полягає в тому, що ми не можемо припустити, що цей тип штучного інтелекту буде обмежуватися лише Китаєм. По суті, хоча використання такого типу штучного інтелекту в Китаї, яке може стати широко поширеним, саме по собі викликає занепокоєння, інші країни можуть робити те саме.

Щойно штучний інтелект для цього буде готовий до прайм-тайму, навряд чи знадобиться багато для інших країн, щоб вирішити, що вони також хочуть його впровадити. Кіт буде з мішка. Деякі країни, імовірно, використовуватимуть цей штучний інтелект у відверто репресивний спосіб і не намагатимуться пропонувати будь-які прикиди щодо цього. Інші країни можуть, здавалося б, прагнути використовувати цей тип штучного інтелекту для, здавалося б, корисних цілей, у яких, зрештою, є недолік, якого майже неможливо уникнути.

Насправді припущення про те, що цей тип штучного інтелекту, можливо, буде прийнято лише тоді, коли він буде вважатися готовим до прайм-тайму, є дещо неправильним. Це може не мати жодної різниці, чи може штучний інтелект працювати таким чином. Штучний інтелект можна використовувати як прикриття, дивіться моє пояснення на посилання тут. Незалежно від того, чого штучний інтелект насправді здатний досягти, вважається, що штучний інтелект може бути зручним приводом для впровадження моніторингу населення та схем вимірювання та забезпечення абсолютної лояльності до влади.

На цьому етапі цієї вагомої дискусії, я б повірив, ви прагнете отримати деякі ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи прояснює поява справжніх безпілотних автомобілів на основі ШІ щось про зловживання ШІ, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Безпілотні автомобілі та неправильне використання ШІ

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Давайте зобразимо сценарій безпілотного автомобіля, який може використати штучний інтелект у схематичних або неправильних способах.

Я збираюся поділитися з вами деякими наслідками безпілотного автомобіля на основі штучного інтелекту, які можуть змусити вас здригнутися та занепокоїтися. Це аспекти, які зараз майже ніхто не обговорює. Я неодноразово порушував це питання, хоча відкрито визнаю, що поки ми не отримаємо широке впровадження безпілотних автомобілів, ми не отримаємо великої тяги щодо того, що суспільство буде стурбоване чи засмучене тим, що сьогодні здається лише абстрактними поняттями. .

Чи готові ви?

Почнемо із закладання фундаменту.

Безпілотні автомобілі на основі ШІ будуть оснащені відеокамерами, що розумно. Це дозволяє безпілотному автомобілю отримувати відеозображення сцени водіння. У свою чергу, система водіння штучного інтелекту, яка працює на борту комп’ютерів у самокерованій машині, призначена для обчислювальної перевірки зібраного відео та з’ясування, де знаходиться дорога, де знаходяться автомобілі поблизу, де знаходяться пішоходи тощо. Я усвідомлюю, що читаю 101 фундаментальний принцип безпілотних автомобілів.

На зовнішній частині автономного транспортного засобу встановлені відеокамери, спрямовані назовні. Крім того, загалом можна очікувати, що на транспортному засобі або всередині нього будуть відеокамери, спрямовані всередину салону безпілотного автомобіля. Чому так? Легко, тому що буде багато важливих застосувань для відеозапису, що відбувається всередині автономного автомобіля.

Коли ви катаєтеся на безпілотному автомобілі, вам більше не потрібно бути водієм. Що ви тоді робитимете всередині безпілотного автомобіля?

Ви могли б спілкуватися з іншими вдома чи в офісі. Ось ви, дорогою на роботу, яка скаже, що знадобиться година їзди на самокерованій машині, і ви вже можете розпочати свій робочий день, виконавши інтерактивну онлайн-сесію в режимі реального часу, схожу на Zoom. Вони можуть бачити вас завдяки камерам, спрямованим усередину безпілотного автомобіля. Ви можете побачити їх, можливо, на світлодіодному екрані всередині безпілотного автомобіля. Наприкінці дня, повертаючись додому, ви можете провести подібне інтерактивне відеообговорення зі своїми дітьми, коли вони починають виконувати домашнє завдання на вечір.

Інше використання було б для відвідування занять. Тепер, коли вам не потрібно витрачати час за кермом, ви можете перетворити цей безвихідний час у безпілотному автомобілі на вдосконалення своїх навичок або отримання сертифіката чи ступеня. За допомогою камер, спрямованих усередину, ваш інструктор може бачити вас і обговорювати, як проходить ваше навчання.

Ще одна можливість полягає в тому, щоб переконатися, що водії в безпілотних автомобілях не шаленіють. У автомобілях, якими керує людина, водій є дорослою особою, яка зазвичай не дає водіям робити дивні речі, як-от позначати інтер’єр графіті. Що буде з безпілотними автомобілями на основі ШІ? Дехто хвилюється, що водії вирішать розірвати салон транспортних засобів. Щоб спробувати запобігти цьому, фірма, яка розгортає безпілотні автомобілі, ймовірно, використовуватиме відеокамери, спрямовані всередину, щоб стежити за тим, що люди роблять усередині автономного транспортного засобу.

Я припускаю, що ви впевнені, що ми матимемо відеокамери, спрямовані всередину безпілотних автомобілів, на додаток до камер, спрямованих назовні, щоб розпізнати сцену водіння.

Тепер ви готові до того, що я називав блукаючим оком, перегляньте мій аналіз за адресою посилання тут.

По-перше, розгляньте відеокамери, спрямовані назовні.

Куди б не рухався безпілотний автомобіль, він потенційно зможе записувати на відео все, що бачать камери. Безпілотний автомобіль, який підвезе когось із дому та відвезе до продуктового магазину, перетинатиме околиці, і відео записуватиме не лише проїжджу частину, але й усе інше, що відбувається в межах зору. Батько і син граються у своєму дворі. Сім'я сидить на своєму ганку. Все далі і далі.

Зараз у нас так мало безпілотних автомобілів на дорогах загального користування, що ця можливість знімати відео повсякденної діяльності є відносно малою та несуттєвою.

Уявіть собі, що врешті-решт ми досягнемо безпечних і широко поширених безпілотних автомобілів. Їх тисячі. Можливо, мільйони. Сьогодні в США близько 250 мільйонів автомобілів, керованих людьми. Згодом вони будуть значною мірою замінені безпілотними автомобілями або просто перестануть використовуватися, і на наших дорогах будуть переважно безпілотні автомобілі. Цими безпілотними автомобілями керує штучний інтелект, тому вони можуть пересуватися в режимі 24x7. Без перерв на відпочинок, без перерв у туалеті.

Відеодані можуть бути завантажені з цих самокерованих автомобілів через електронні мережеві з’єднання OTA (Over-The-Air). Безпілотні автомобілі використовуватимуть OTA для завантаження останніх оновлень програмного забезпечення ШІ в транспортний засіб. Крім того, OTA можна використовувати для завантаження даних з безпілотного автомобіля в хмарну базу даних.

Загалом, було б реально зшити ці завантажені дані. За допомогою зшивання ви потенційно можете зібрати воєдино щоденні приходи та відходи будь-кого, хто вийшов на вулицю в будь-який день у будь-якій місцевості, де широко використовуються безпілотні автомобілі.

Це блукаюче око, про яке я попереджав.

Тепер ми можемо пов’язати дослідження КПК із цією можливістю. Припустимо, уряд має доступ до всіх цих зібраних відеоданих. Потім вони могли б використовувати алгоритм розпізнавання обличчя на основі штучного інтелекту, щоб визначити, куди ви були, в який час доби протягом ваших щоденних життєвих подорожей. Крім того, вони, ймовірно, могли б використовувати свій аналізатор на основі штучного інтелекту «лояльності», щоб побачити, чи виглядаєте ви лояльним на обличчі чи ні.

Уявіть собі, що у вівторок у другій половині дня ви йшли, щоб купити бутерброд у місцевій закусочній. По проїжджій частині проїжджали безпілотники. Усі численні відео зафіксували вас, коли ви йшли п’ятихвилинною прогулянкою, щоб перекусити. Дані були завантажені в централізовану базу даних. Уряд запустив програму штучного інтелекту для розпізнавання облич на основі цих даних.

Виявляється, штучний інтелект «визначив», що ви мали нелояльний вираз обличчя.

Можливо, цей невірний погляд був лише на мить. Ви чекали на розі вулиці, коли перемкнеться світло, щоб ви могли перейти вулицю до кафе. У той момент у вас з’явилося відчуття огиди, що вам довелося надто довго чекати на символ «Прогулянка». Можливо, це було ознакою вашої нелояльності до влади?

Так, штучний інтелект обчислив, що ви були надзвичайно нелояльними в той момент часу. Коли ви повернетеся додому тієї ночі, уряд організував ваш арешт.

Але зачекай, є ще.

Пам’ятайте, що відеокамери також спрямовані всередину.

Того самого вівторка, коли ви їхали на роботу в безпілотному автомобілі, відеокамери фіксували кожну вашу мить. Це було завантажено в централізовану базу даних. Програмне забезпечення зі штучним інтелектом, яке аналізує моделі обличчя на нелояльність, виконало обчислювальну перевірку шаблонів вашої міміки під час подорожі до офісу.

У якийсь момент ви випадково визирнули назовні автономний автомобіль і помітили будівельника, який частково блокував проїжджу частину та змусив систему водіння штучного інтелекту сповільнити безпілотний автомобіль. На частку секунди на твоєму обличчі відобразилася насмішка над цим будівельником, який сповільнює рух.

Аналіз міміки ШІ розцінив це як ознаку нелояльності до уряду.

Два удари проти вас в один день.

Ви живете на тонкому льоду.

Звичайно, у цьому контексті майже неважливо, чи «правильний» чи «неправий» ШІ щодо визначення вашої лояльності. Суть полягає в тому, що для цієї мети був створений ШІ. Люди, які розгортають штучний інтелект, можуть або не хвилюватимуться, чи підійде ШІ для такого типу завдань. ШІ дозволяє здійснювати державний контроль, незалежно від самої технологічної обґрунтованості.

Це охоплює сканування обличчя.

Якщо врешті-решт у нас з’являться будь-які портативні недорогі пристрої для (передбачуваного) сканування мозкових хвиль, це, безперечно, також можна включити в безпілотні автомобілі. Відеокамери тепер вже безсумнівна річ. Можливість мати пристрої для сканування мозкових хвиль такого калібру зараз не розглядається, але, очевидно, це те, що передбачається в майбутньому.

Для мого дослідження того, як уряд може спробувати заволодіти населенням, захопивши контроль над безпілотними автомобілями, див. посилання тут. Подібна ймовірність, що зловмисник може спробувати зробити те саме, див посилання тут. Це не тактика страху щодо висвітлення пов’язаних тем, а натомість попередження про важливість кібербезпеки та інших запобіжних заходів, яких ми, як суспільство, повинні прагнути вжити щодо появи всюдисущих безпілотних автомобілів і інші автономні транспортні засоби.

Висновок

Я хотів би швидко охопити один додатковий аспект використання штучного інтелекту для перевірки лояльності, який, на мою думку, є дещо окремою темою, але яку обговорюють деякі твіти та соціальні мережі.

Раніше я згадував, що у нас немає інтелектуального штучного інтелекту, і ми не знаємо, чи буде це і коли будемо. Давайте розважимо ідею, що у нас буде розумний ШІ. У такому випадку розгляньте такий сценарій.

За допомогою нерозумного штучного інтелекту ми вирішуємо запровадити широке використання штучного інтелекту, який обчислювальним шляхом визначає, чи люди лояльні до свого уряду, використовуючи сканування обличчя, сканування мозкових хвиль тощо. Цим повністю керують і використовують владні люди. Це тривожний сценарій, який я описував кілька хвилин тому.

Час підняти ставку.

ШІ стає розумним. Тепер ми потенційно передали цьому розумному штучному інтелекту широку здатність імовірно ідентифікувати лояльність і нелояльність у людей. Злочинний штучний інтелект, який планує знищити людей, може використати цю здатність, щоб вирішити, що люди справді будуть нелояльними та їх слід повністю знищити. Або, можливо, лише тих людей, які демонструють ознаки нелояльності за допомогою свого обличчя чи своїх думок, слід особливо відкидати.

Інший кут полягає в тому, що штучний інтелект хоче поневолити людей, дивіться моє обговорення на посилання тут.

Здавалося б, ми зробили ШІ ідеальний подарунок для виконання цього квесту. Існуюча інфраструктура, яку ми створили, дозволяє ШІ уважно стежити за нами, людьми. Ті, хто, схоже, виразили нелояльне обличчя або подумали про володаря(ів) ШІ, відчують на собі гнів ШІ.

Я розумію, що я сказав, що це підвищення ставок. Я не впевнений, що це так. Мені здається, що незалежно від того, чи є у нас володарі штучного інтелекту, які безпосередньо вирішують нашу долю проти володарів людей, які, можливо, використовують систему штучного інтелекту для визначення лояльності, ну, жодна з пропозицій не виглядає особливо бажаною.

Останній коментар поки.

Римський вчений і філософ Марк Тулій Цицерон стверджував, що немає нічого благороднішого, нічого поважнішого, ніж вірність. Ми можемо дозволити ШІ випередити нас і стати інструментом для залучення та забезпечення «лояльності» жахливими засобами.

Варта уважна причина поставити етику штучного інтелекту на перше місце в нашому списку справ.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- atestation-that-might-foreshadow-opressive-autonomous-systems/