Етика штучного інтелекту обережно оцінює, чи є пропозиція упереджень штучного інтелекту полювання за винагородами за зловити та вилов етичних злих повністю автономних систем є розумною чи марною

Бажано: ШІ-мисливці за упередженнями.

Це може бути сучасна реклама, яку ви почнете бачити в соціальних мережах і з’являтиметься в різних онлайн-оголошеннях про роботу. Це відносно нова концепція або роль. Це тягне за собою суперечки. Деякі палкі віруючі палко стверджують, що це має великий сенс і мало відбуватися весь час, тоді як інші досить нервово ламають голову і не дуже впевнені, що це гарна ідея.

Суть ролі полягає у виявленні ШІ будь-яких прихованих упереджень або вбудованих дискримінаційних практик. На допомогу приходять завзяті та колишні мисливці за упередженням ШІ. Імовірно, вони були мисливцями за головами, які володіли комп’ютером. Більше того, сподіваємося, занурений у глибини можливостей ШІ.

Володійте зброєю, подорожуйте та за допомогою вмілої влучної стрільби зумійте викрити ці неприємні та неприємні упередження ШІ.

Це викликає низку гострих запитань про доцільність застосування такої тактики, коли справа доходить до виявлення упереджень ШІ. Як я зараз обговорю, будь ласка, майте на увазі, що поява ШІ також принесла з собою появу упереджень ШІ. Торрент упереджень ШІ. Щоб дізнатися про постійне та широке висвітлення етики ШІ та етики ШІ, див посилання тут та посилання тут, просто назвемо декілька.

Як ми можемо виявити, що певна система ШІ має упередження?

Ви можете довірити це розробникам ШІ, які створили ШІ. Справа в тому, що вони можуть бути настільки загрузли в упередженнях, що самі не можуть розпізнати упередження в створеному ними ШІ. Їм все виглядає добре. Або вони можуть бути настільки в захваті від штучного інтелекту та відчувати почуття власної гордості про нього, що потім критично розглядати його на наявність упереджень було б важко і справді пригнічено. Багато інших подібних причин можуть заважати розробникам штучного інтелекту взятися за це завдання, зокрема відсутність навичок виявлення вбудованих упереджень, брак часу в проекті для цього тощо.

Гаразд, тож найми сторонніх консультантів, які, так би мовити, зроблять за вас брудну роботу. Виявилося, що консультанти із задоволенням перевірять ваш штучний інтелект на наявність упереджень, стягуючи з вас за це цілу копійку (багато копійок). Зрозумійте, що вам потрібно заплатити за них, щоб прискорити роботу вашої системи ШІ. Потім вам потрібно змусити їх поритися навколо, що може зайняти незліченну кількість дорогих трудомістких годин. Залучення консультантів є варіантом, якщо у вас є на це бюджет.

У потенційну «прогалину» того, як знайти ці підступні упередження штучного інтелекту, приходять героїчні й лихі мисливці за головами.

Ви зазвичай не платите їм наперед. Вони намагаються виявити упередження штучного інтелекту в власний час і повинні платити за власні рахунки, коли це роблять. Лише якщо вони успішно знаходять упередження, їм платять. Я припускаю, що ви могли б легко стверджувати, що з відповідним способом мислення це загальноприйняте визначення мисливця за головами. Отримайте гроші, якщо досягнете успіху. Не отримуйте гроші, якщо ви не досягли успіху. Крапка, кінець історії.

Програми баунті існували принаймні з часів римлян, і тому ми можемо припустити, що вони працюють, успішно витримуючи як практика протягом усіх цих років.

Ось вам захоплююча історична дрібниця. Як повідомляється, повідомлення, опубліковане за часів Римської імперії в місті Помпеї, оголосило, що потрібні мисливці за головами, щоб знайти мідний горщик, який зник з маленької крамниці. Нагородою за відновлення мідного горщика стала значна винагорода у шістдесят п’ять бронзових монет. На жаль, ми не знаємо, чи хтось із мисливців за головами знайшов мідний горщик і заволодів бронзовими монетами, але ми знаємо, що полювання за головами безсумнівно тривало з тих давніх часів.

У більш сучасні часи ви можете знати, що у 1980-х роках пропонувалися деякі помітні винагороди за пошук комп’ютерних помилок або помилок у стандартних пакетах програмного забезпечення, а потім у 1990-х роках Netscape помітно запропонувала винагороду за виявлення помилок у своєму веб-браузері. (ставши однією з найвидатніших фірм того часу, які це зробили). Починаючи з 2010 і 2013 років, Google і Facebook обрали полювання за багами відповідно. Кілька років потому, у 2016 році, навіть Міністерство оборони США (DoD) втрутилося в справу, організувавши винагороду за «Зламай Пентагон» (зауважте, що загальнодоступна винагорода була за помилки, виявлені на різних веб-сайтах, пов’язаних з Міністерством оборони, а не в захисні критично важливі системи).

Давайте глибше заглибимося в тему баунті. Я розумію, що я в основному маю на меті поговорити про упередження штучного інтелекту в полюванні за головами в цій дискусії, але є кілька цілком доречних паралелей із ареною винагород за помилки.

Деякі явно спантеличені тим, що будь-яка фірма захоче пропонувати винагороду за виявлення помилок (або, в даному випадку, упереджень ШІ) у своїх системах.

На перший погляд це виглядає як стратегія типу «ви самі про це просите». Якщо ви повідомите світові, що ви вітаєте тих, хто може спробувати знайти діри у вашому програмному забезпеченні, це здається рівносильним тому, щоб сказати грабіжникам спробувати проникнути у ваш будинок. Навіть якщо ви вже вважаєте, що у вас є досить хороша система охоронної сигналізації і що ніхто не зможе потрапити у ваш охоронюваний будинок, уявіть, що ви просите та навіть благаєте грабіжників прийти до вашого місця проживання та перевірити, чи зможуть вони врізатися в нього. Ой біди плетемо собі.

Те саме можна сказати про те, щоб попросити мисливців за головами знайти упередження у вашому ШІ.

По-перше, це, мабуть, означає, що ви вже вірите або навіть прямо знаєте, що ваш ШІ дійсно має упередження. Це шокуюче відверте неявне визнання, яке, здавалося б, небагато захочуть зробити і яке потенційно може призвести до зворотного ефекту.

По-друге, ви не знаєте напевно, що можуть зробити ці мисливці за головами. Вони можуть сказати всьому світу, що знайшли упередженості у вашому ШІ. Можна припустити, що це може втрачати винагороду, хоча деякі можуть насолоджуватися увагою або прагнути підвищити свій статус для отримання консалтингових концертів та інших можливостей отримання прибутку. Можливо, це цілком альтруїстично. Це може бути формою активізму ШІ. Я можу продовжувати.

По-третє, у всій справі може бути підступний поворот. Мисливець за головами, який стверджує, що шукає упередження ШІ, може диявольськи колупатися, щоб знайти способи атакувати вашу систему ШІ. Усе це шарада, щоб зрештою здійснити серйозну кібератаку. Ви могли припустити, що вони намагаються допомогти, хоча в їхніх серцях є несправедливість. Сумно, але можливо.

По-четверте, ми можемо ще більш хитро спотворитися з цього приводу. Мисливець за головами знаходить деякі незручні упередження штучного інтелекту, які можуть викликати позов. Нагорода — це деяка сума доларів, яку ми назвемо X. Замість того, щоб вимагати винагороду, мисливець за головами робить якусь дивну провокацію програм-вимагачів. Якщо ви заплатите мисливцеві за головами суму, помножену на десять X або, можливо, небесну межу, вони розкажуть вам про упередження ШІ. Ви маєте відповісти до опівночі неділі. Після цього упередження ШІ будуть виявлені для всіх. Ой, у підлу скруту потрапити.

По-п’яте, останніми є ті так звані кібершахраї, які вкрали купу грошей в Інтернеті, вирішують покаятися та повернути частину незаконно здобутої здобичі, яку вони захопили. Компанія, яка отримує частково повернуті кошти, готова розглядати решту вкраденої суми як винагороду, нагороджену злодіями. Здається, усі «виграють», оскільки основна частина коштів повертається, а кібершахраїв не переслідують законно, а на додачу вони отримують піратську винагороду. Це розумне чи підступне увічнення протиправних дій?

Я розумію, що дехто з вас може сказати, що ніхто не повинен випускати ШІ, який має будь-які упередження. Здавалося б, це вирішило всю цю дилему щодо того, чи використовувати мисливців за головами, які упереджують ШІ, чи ні. Тільки не потрапляйте в ситуацію винагороди. Переконайтеся, що ваші розробники штучного інтелекту діють правильно та не допускають упереджень штучного інтелекту у своїх системах штучного інтелекту. Можливо, скористайтеся консультантами для повторної перевірки. По суті, зробіть усе можливе, щоб ніколи не думати про те, щоб ці мисливці за головами, упередженими зі штучним інтелектом, або не просили їх сісти за стіл.

Так, це здавалося б цілком розумним. Проблема в тому, що він також трохи мрійливий. Складність багатьох систем штучного інтелекту настільки велика, що намагатися гарантувати, що жодної унції упереджень штучного інтелекту не буде виявлено, буде важко. Крім того, деякі системи штучного інтелекту навмисно створені для налаштування та «навчання» по ходу роботи. Це означає, що в якийсь майбутній момент часу штучний інтелект, який ви розробили, який, давайте спочатку уявимо, був чистим і без упереджень, може тяжіти до втілення упереджень (я не маю на увазі це антропоморфним способом, як я поясню далі, коли ми підійти до цієї теми).

Ті, хто віддає перевагу полюванню за бауни в програмному забезпеченні, схильні стверджувати, що є сенс пропонувати такі винагороди. Ми можемо розглянути їхнє обґрунтування та перевірити, чи це також стосується сфери упереджень ШІ.

Прихильники винагород за помилки підкреслюють, що замість того, щоб намагатися вдавати, що у вашій системі немає жодних дірок, чому б не заохочувати їх пошук, роблячи це «контрольованим» способом? Навпаки, без такої винагороди ви могли б просто сподіватися та молитися, що випадково ніхто не знайде нору, але якщо натомість ви пропонуєте винагороду та повідомляєте тим, хто знайде діру, що вони отримають винагороду, це пропонує шанс потім укріпити діру самостійно, а потім завадить іншим таємно знайти її пізніше.

Те саме можна сказати про випадки використання упереджень ШІ. Сподіваємось, якщо ви запропонуєте достатню винагороду, мисливці за головами звернуть вашу увагу на відкриття упереджень ШІ. Тоді ви зможете впоратися з упередженнями штучного інтелекту відносно тихо та розмірено. Це може запобігти набагато більшій і страшнішій проблемі згодом, а саме тому, що хтось інший знайде у вашому ШІ упередження та кричить про це до небес.

Як правило, фірма, яка бажає ввімкнути пошук за помилками, запровадить Політику розкриття вразливостей (VDP). VDP вказує, як виявити помилки та повідомити фірмі, а також те, як буде надано винагороду або винагороду мисливцю. Зазвичай VDP вимагає від мисливця підписання угоди про нерозголошення (NDA), щоб він не розкривав іншим те, що знайшов.

Ідея використання NDA з мисливцями за головами викликає певні суперечки. Хоча для компанії, яка пропонує винагороду, можливо, має сенс замовчувати виявлені викриття, це також пригнічує загальну обізнаність про такі помилки. Імовірно, якщо дозволити говорити про помилки програмного забезпечення, це потенційно сприятиме безпеці інших систем інших фірм, що потім посилить їхні ризики. Деякі мисливці за головами не підпишуть угоду про нерозповсюдження, частково через бажання громадськості, а частково через спробу приховати свою особистість. Майте також на увазі, що аспект NDA зазвичай не виникає, доки мисливець не стверджує, що знайшов помилку, замість того, щоб вимагати її заздалегідь.

Деякі VDP передбачають, що NDA діє лише протягом обмеженого періоду часу, дозволяючи фірмі спочатку знайти рішення для очевидної діри, а потім дозволити більш широке розкриття інформації про неї. Після того, як діра була закладена, фірма дозволяє послабити NDA, щоб решта світу дізналася про помилку. Як повідомляється, типовий час для усунення виявлених помилок становить близько 15-20 днів, якщо фірма хоче негайно її усунути, тоді як в інших випадках це може розтягнутися на 60-80 днів. Що стосується виплати мисливцю за головами, так званого часу до оплати, після того, як діра була перевірена як фактично існуюча, виплати за головами, як повідомляється, мають тенденцію до приблизно 15-20 днів для менших випадків і приблизно 50-60 днів днів для більших випадків (це показники галузі, які постійно змінюються, і згадуються лише як приклад).

Чи слід також попросити мисливців за головами брати участь у VDP і мати справу з NDA?

Ви можете відповісти «так» і «ні» на це запитання. Так, деякі фірми повинні піти цим шляхом. Ні, можливо, ви не обов’язково виберете цей шлях. Фактори включають розмір і характер штучного інтелекту, потенціал будь-яких упереджень штучного інтелекту, а також низку інших етичних, юридичних і бізнес-міркувань, які виникають.

Я міг би додати, що спроба полювання за головами для упереджень ШІ вашого ШІ є набагато важчим завданням, ніж ви могли б припустити на перший погляд.

Ми почнемо з величезної ймовірності того, що ви будете приголомшені мисливцями за головами, упередженими ШІ.

Зараз вам буде важко знайти багатьох, які б мали таку візитну картку. Навколо небагато. У цьому плані часи Дикого Заходу. Але якщо уявлення про упередженість штучного інтелекту в полюванні за головами зачепиться, особливо коли винагороди рясні та щедро винагороджені, можна посперечатися, що всі зануряться в басейн полювання на упередження.

Ви хочете, щоб у вашій системі штучного інтелекту всілякі негідники переслідували упередження ШІ? Ви отримаєте кілька користувачів, які є справжніми експертами в таких речах. Ви отримаєте інших гравців, які є аматорами і можуть влаштувати безлад або кричати вовка. Наступне, що ви знаєте, будь-хто, хто вміє писати слово «штучний інтелект», прийде копати у вашій золотій жилі системи штучного інтелекту ці дорогоцінні самородки золота з упередженнями штучного інтелекту. Золота лихоманка триває. Це може бути не добре для вас.

Вам потрібно буде уважно вивчити подання мисливця за головами. У повідомлених заявах буде багато «шуму» в тому сенсі, що багато із заявлених упереджень штучного інтелекту не існують, хоча мисливець за головами наполягає, що вони знайшли деякі. Уявіть собі, скільки праці знадобиться вашим власним командам штучного інтелекту, щоб перевірити претензії на винагороду, перевірити обґрунтованість кожної з них, а потім, можливо, обговорити з мисливцем за головами те, чи було знайдено золото чи ні.

Дехто заперечить, що це ще одна причина зробити все самостійно. Ви неминуче можете виявити, що винагорода завдасть більше клопоту, ніж вона була варта.

Ось ще одне питання для роздумів. Як мисливці за головами дізнаються, як виглядає упередженість ШІ? По суті, без будь-якої подоби того, що шукати, будь-яку блискучу скелю можна було б стверджувати як демонстрацію упередженості штучного інтелекту в сприйнятій штучній золотій копальні, яку розкопують.

Припустімо, у часи Старого Заходу ви запропонували винагороду за захоплення Біллі Кіда (відомого розбійника). Якщо ви зробили це й не включили зображення того, як виглядав Біллі, уявіть собі кількість мисливців за головами, які могли б затягнути до офісу шерифа когось, на кого вони сподівалися чи вважали Малюка Біллі. Ви можете бути завалені фальшивими Біллі. Це погано, тому що вам, імовірно, потрібно буде подивитися на кожного, задати навідувальні запитання та спробувати з’ясувати, чи справді ця людина була Біллі чи ні.

Справа в тому, що, щоб налаштувати винагороду за упередження штучного інтелекту, було б розумно спробувати пояснити, з чого ви вважаєте упередження штучного інтелекту. Для цього потрібне калібрування типу Золотовласки. Ви не хочете бути настільки обмеженими, щоб мисливці за головами не помічали упереджень ШІ лише тому, що вони не підходять під ваше визначене визначення, і ви не хочете, щоб вони кричали «Еврика!» на кожен шматочок упередженості ШІ, яку вони випадково знайдуть.

Вам знадобиться правильний баланс Золотовласки щодо того, з чого складаються упередження штучного інтелекту, і, таким чином, бажано чіткі вказівки щодо цього.

Значна частина цієї упередженості ШІ-полювання за головами буде зосереджена на системах машинного навчання (ML) і глибокого навчання (DL) на основі штучного інтелекту. Це має сенс, оскільки поширеність ML/DL зростає, а також, здається, є деякі з найімовірніших проблем із охопленням надмірних упереджень ШІ.

Ці дослідники визначили, наскільки помітними можуть бути спроби пошуку винагород за упередження штучного інтелекту, особливо в контексті ML/DL: «З часом спільноти програмного забезпечення та безпеки розробили «нагороди за помилки», намагаючись змінити подібну динаміку між розробниками систем та їхніми критиками. (або хакерів) для більш інтерактивних і продуктивних цілей. Сподіваємося, що навмисно запрошуючи зовнішні сторони для пошуку програмних чи апаратних помилок у їхніх системах і часто надаючи грошові стимули за це, еволюціонуватиме здоровіша екосистема, яка швидше реагує. Цілком природно, що спільнота машинного навчання розглядає подібний підхід «винагороди за упередження» для своєчасного виявлення та ремонту моделей і систем із упередженням або іншою небажаною поведінкою. Замість того, щоб знаходити помилки в програмному забезпеченні, зовнішні сторони запрошуються знайти зміщення — наприклад, (демографічні чи інші) підгрупи вхідних даних, за якими навчена модель не працює — і отримують за це винагороду» (у статті «Алгоритмічна структура для зміщення» Баунті» Айри Глобус-Гарріс, Майкла Кернса та Аарона Рота).

У дослідницькій статті автори окреслюють запропонований підхід до того, які види упереджень ШІ можуть шукати мисливці за головами. Існує також вказівка ​​щодо того, як оцінити заяви мисливців за головами, пов’язані з виявленими ймовірними упередженнями ШІ. Згідно з моїми попередніми зауваженнями, велика ймовірність того, що ви отримаєте обґрунтовані претензії, і вам доведеться відокремити зерна від упереджень ШІ.

Перш ніж приступати до розмови про диких і шерстистих міркуваннях, що лежать в основі упередженого полювання штучного інтелекту, давайте розглянемо деякі додаткові основи щодо глибоко інтегральних тем. Нам потрібно ненадовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та застосування штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

А тепер повернемося до теми полювання за упередженням ШІ.

Для тих із вас, хто розглядає спробу полювання за головами за упередженістю штучного інтелекту, ось мої рекомендовані сім ключових кроків щодо того, як найкраще діяти:

1) Оцініть. Оцініть придатність спроби полювання за головами з упередженням штучного інтелекту для ваших обставин і систем штучного інтелекту.

2) дизайн. Розробіть відповідний підхід полювання за головами з упередженням ШІ

3) Здійснювати. Впроваджуйте та оприлюднюйте свої спроби полювання за головами на основі штучного інтелекту

4) Поле. Поле ШІ упереджує претензії на винагороду та обробляє відповідно

5) виправляти. Виправте або налаштуйте свій штучний інтелект відповідно до цих виявлених упереджень ШІ

6) Регулювати. За потреби налаштуйте полювання за головами упередженості ШІ

7) Скасувати. Припиніть упереджене полювання за головами AI, коли воно більше не потрібне

Зверніть увагу, що в серії наведених вище кроків я згадав, що ви, ймовірно, захочете виправити або налаштувати свій ШІ на основі переконання, що заявлене упередження ШІ насправді існує у вашій системі ШІ. Це має сенс. Ви майже напевно захочете підкріпити будь-які виявлені упередження ШІ. Подумайте про правові (та етичні) наслідки, якщо ви цього не зробите. Одна справа — стверджувати, що ви не знали про існування упередженості штучного інтелекту і тому дозволили їй існувати, тоді як набагато хиткіша підстава — мати в протоколі те, що вам повідомили про упередженість штучного інтелекту та нічого з цим не зробили.

Природа та ступінь виправлення чи коригування штучного інтелекту, звичайно, залежатиме від того, наскільки значними були упередження штучного інтелекту та наскільки глибоко вкорінені проблеми. Якщо вам пощастить, можливо, невеликі зміни в ШІ виправлять ситуацію. Інший потенціал полягає в тому, що вам може знадобитися повністю переписати ШІ. Для типу штучного інтелекту ML/DL це може вимагати повернення до креслярської дошки та початку з абсолютно нового набору даних і очищеної моделі ML/DL. Я обговорював появу штучного інтелекту знищення або знищення штучного інтелекту як потенційного правового засобу проти неприємного штучного інтелекту, див. посилання тут.

Одне питання, над яким варто подумати, полягає в тому, чи хочете ви, щоб мисливці за головами робили щось більше, ніж просто виявляли наявність упереджень ШІ. Наприклад, ви можете підсолодити винагороду, вказавши, що запропоновані виправлення також вітаються. Упередженість ШІ знайдений мисливець за головами може отримати одну зазначену нагороду або приз. Якщо мисливець за головами також може запропонувати життєздатний фіксувати упередженості ШІ вони можуть отримати додаткову винагороду.

Деякі стверджують, що це занадто далекий міст. Вони кажуть, що ви повинні зосереджувати мисливців за головами виключно на виявленні упереджень ШІ. Ви збираєтеся створити купу небажаних несприятливих наслідків, запросивши їх також пропонувати виправлення. Будьте простими. Мета полягає в тому, щоб привернути якомога більше уваги до виявлення упереджень ШІ, щоб ви могли вирішити, що робити далі. Не мути води.

Складний аспект, який потрібно з’ясувати, пов’язаний із величиною винагороди чи призу для мисливців за головами, які справді виявляють упередження ШІ. Ви хочете, щоб виграш був показовим. Без достатньо високої винагороди ви не отримаєте багато мисливців за головами, або вони не будуть особливо охоче шукати упередження ШІ у ваших системах ШІ. Натомість вони могли б зосередитися на інших зусиллях із упередженого винагородження ШІ.

Крім того, як уже згадувалося, ви хочете спробувати придушити бажання мисливців за головами перетворити свої відкриття упередженого штучного інтелекту на інші форми золота. Якщо винагорода здається мізерною, це може спонукати мисливців за головами шукати інші вищі винагороди. Вони можуть застосувати до вас програмне забезпечення-вимагач. Вони можуть заявити, що у них є соковита упередженість ШІ, про яку хотів би знати конкурент і який міг би використати проти вашої фірми, рекламуючи, що у вашому ШІ існує упередженість ШІ. Таким чином, вони продають виявлені упередження ШІ тому, хто запропонує найвищу ціну. І так далі.

Можна припустити, що якщо ви встановлюєте винагороду в надзвичайно високому діапазоні, ви також вимагаєте потенційних проблем. Це може привабити всіляких божевільних мисливців за головами. Вони, у свою чергу, можуть затопити соціальні мережі туманними заявами про те, що вони виявили безліч упереджень ШІ, роблячи це для власної самореклами і без фактичного виявлення будь-яких упереджень ШІ. У певному сенсі ваша підвищена винагорода ненавмисно просвітлює ваш ШІ та спонукає безліч неотесаних метеликів, які відповідно згубно приваблюють сяючий промінь світла.

Ще одна міркування стосується доступності вашого ШІ.

Щоб увімкнути можливість AI полювання за головами, мисливці за головами повинні отримати достатній доступ до вашого AI. Їм не пощастить знайти упередження штучного інтелекту, якщо вони повністю заблоковані. Але ви не хочете відмовлятися від захисту кібербезпеки, оскільки це може повністю скомпрометувати вашу систему ШІ.

Ви можете спробувати змусити мисливців за головами підписати різні юридично обов’язкові декларації, а потім надати їм необхідний доступ. Деяким мисливцям за головами такий підхід не сподобається. Їхня точка зору полягає в тому, що вони будуть робити лише те, що дозволяє будь-який загальнодоступний і відкритий шлях. Вони, так би мовити, вільні диваки і не люблять, як би їх сідлали. Якщо змусити їх поставити свій підпис під залякуючими юридичними документами, багато з них уникатимуть пошуку упереджень ШІ у вашому ШІ. Або вони можуть роздратуватися на вашу юридичну рукавицю та вирішити, що вони побачать, що вони можуть знайти за допомогою публічних засобів, роблячи це з, можливо, різким бажанням показати вам, наскільки ви насправді вразливі.

У мене є ще один ракурс, від якого вам може запаморочити голову.

Мисливець за головами, який розбирається в штучному інтелекті, може вирішити розробити систему штучного інтелекту, яка зможе ретельно перевіряти ваш штучний інтелект і, можливо, виявити у ньому упередження. Це інструментарій, який вирішив зробити інструмент для виконання роботи, а не виконувати ручну роботу самостійно. Замість копітко досліджувати ваш штучний інтелект, мисливець за головами, який знає штучний інтелект, витрачає свій час на створення інструменту штучного інтелекту, який робить те саме. Потім вони використовують інструмент ШІ на вашому ШІ. Принадність також полягає в тому, що вони, ймовірно, можуть повторно використовувати інструмент штучного інтелекту на будь-кому іншому, хто також пропонує можливість полювання за головами на своєму відповідному штучному інтелекті.

Я знаю, що ви, мабуть, думаєте. Якщо можна розробити інструмент штучного інтелекту для перевірки штучного інтелекту на наявність упереджень, виробник штучного інтелекту, який перевіряється на наявність упереджень, повинен або створити такий інструмент штучного інтелекту, або купити його для власного використання. Теоретично, тоді їм не потрібно буде змагатися з усім карнавалом мисливців за головами. Просто використовуйте штучний інтелект, щоб знайти їхні упередження.

Так, це те, що ви можете очікувати, що виникне поступово. Тим часом, головна опора цих зусиль, ймовірно, складатиметься з розробників ШІ, які займатимуться полюванням за головами. Вони можуть використовувати різні інструменти, щоб допомогти своїм зусиллям, але в найближчій перспективі вони навряд чи просто бездумно встановлять інструмент ШІ на автоматичний режим і задріматимуть так, щоб інструмент виконував усе упередження ШІ за них.

Ми ще не там.

На цьому етапі цієї вагомої дискусії, я б повірив, ви прагнете отримати деякі ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи прояснює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про використання упередженого полювання за головами ШІ, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), тоді як автомобіль, який потребує, щоб людина-водій спільно розподіляв зусилля водіння, зазвичай розглядається на Рівні 2 або Рівні 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані додаткові компоненти, які називаються ADAАДА
S (передові системи допомоги водієві).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Безпілотні автомобілі та упереджене полювання за головами

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

У своїх колонках я вже детально обговорював використання орієнтованих на помилок мисливців за головами в автономних транспортних засобах і безпілотних автомобілях. Такий підхід справді мав місце в цій ніші. Існують звичайні дебати про те, слушна це ідея чи ні. Зусилля, як правило, були обмеженими, часто трималися відносно тихо.

Подібний дискурс може виникнути, коли фокус зміщується в бік полювання на упередження ШІ, а не на пошук системних помилок як таких. Деякі припускають, що це штопано, якщо ви це робите, щопано, якщо ви не головоломка.

Ось чому.

По-перше, щоб було зрозуміло, існує багато способів, за допомогою яких автономні транспортні засоби та безпілотні автомобілі будуть піддаватися упередженню, що містить штучний інтелект, дивіться моє висвітлення на посилання тут та посилання тут, щоб назвати лише декілька. Автовиробникам і фірмам, що займаються безпілотними автомобілями, було б розумно спробувати запобігти появі цих упереджень штучного інтелекту в їх системах штучного інтелекту. Правова та етична буря проти таких фірм, безсумнівно, буде інтенсивною.

Чи є використання штучного інтелекту упередженим пошуком за головами відповідним підходом у цьому конкретному контексті?

Одна відповідь полягає в тому, що так, це буде зручно та надасть безліч «безкоштовних» наборів нових очей, щоб спробувати вловити будь-які вбудовані упередження штучного інтелекту в безпілотному автомобілі зі штучним інтелектом або тому подібному. Більшість розробників штучного інтелекту, які створюють безпілотні автомобілі, зайняті створенням штучного інтелекту, який може безпечно керувати автомобілем із точки А в точку Б. Вони зосереджені на цій основній можливості й не мають ні часу, ні уваги до будь-яких упереджень ШІ, які можуть бути десь у цьому місці. їх ШІ.

Інша відповідь полягає в тому, що ні, дозволу полювання за головами для автономних транспортних засобів і безпілотних автомобілів на будь-якій основі, чи то через помилки, чи упередження ШІ, просто слід категорично уникати. Аргумент полягає в тому, що ці транспортні засоби та їхній штучний інтелект мають калібр життя чи смерті. Будь-які дії зі штучним інтелектом можуть бути згубними для ШІ та вплинути на те, що робить система водіння ШІ.

Контраргументом до цього останнього пункту є те, що мисливці за головами нібито не можуть змінити ШІ, який вони досліджують. Таким чином, немає ніякої небезпеки, що вони будуть возитися з ШІ і спричинити ШІ в цьому контексті раптово стати божевільною системою керування ШІ. Мисливці за головами мають доступ лише для читання. Дозволити їм піти далі було б великою дурістю та великою помилкою.

Контраргументом до цього контраргументу є те, що дозволяючи та заохочуючи мисливців за головами перевіряти ваш ШІ, уся справа стає ризикованою. Ці мисливці за головами можуть знайти способи використання будь-яких знайдених помилок або упереджень. Ці експлойти, у свою чергу, можуть бути використані для підступних цілей. Краще, так би мовити, не запрошувати «зломщиків» у свій дім. Після того, як вони розберуть суглоб, ви, зрештою, матимете купу проблем.

Ті, у кого є системи штучного інтелекту меншого масштабу, ніж життя чи смерть, вважають, що наслідки невдалої спроби полювання за головами є набагато менш ризикованими. Може й так. З іншого боку, якщо фірма влила свої гроші в систему штучного інтелекту, яку вдалося узурпувати мисливцям за головами, ви можете припустити, що репутаційні та інші потенційні збитки все одно завдадуть шкоди.

Немає безкоштовного обіду, коли йдеться про упереджене полювання за головами AI.

Коротке заключне зауваження.

Коли відомого розбійника Джессі Джеймса розшукували на Старому Заході, був надрукований плакат «Розшукується», на якому пропонувалася винагорода в розмірі 5,000 доларів за його захоплення (зазначалося «мертвим або живим»). На той час це були досить великі гроші. Один із членів його банди вирішив застрелити Джессі та отримати винагороду. Гадаю, це показує, наскільки ефективною може бути винагорода.

Чи буде використання упереджених мисливців за головами штучного інтелекту добре чи погано?

Якщо ви вирішите започаткувати пошук мисливців за головами за упередженістю штучного інтелекту, я пропоную вам тримати очі широко розплющеними та весь час дивитися через плече. Це розумно для вас і вашого ШІ. Ви ніколи не знаєте, що може статися, включно з тим, що підступний мисливець за головами якимось чином таємно вставляє у ваш ШІ упередження ШІ та кричить світові, що вони виявили у вашому ШІ безсовісні упередження. Можливо, роблячи це в нахабній та негабаритній спробі домогтися винагороди, а також проголосити себе героєм, який, по суті, отримав хваленого Джессі Джеймса.

Якщо подумати про це, розумному штучному інтелекту, ймовірно, не сподобається ця ідея збентеження живим чи мертвим, можна було б томно міркувати.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- ethically-wicked-fully-autonomous-systems-is-prudent-or-marne/